Ein Positionspapier, das im Februar 2026 von der GIZ, NASSCOM und dem Digital Futures Lab gemeinsam veröffentlicht wurde, legt eine bemerkenswert nüchterne Bestandsaufnahme des sogenannten Open-Source-KI-Ökosystems vor. Der Bericht richtet sich an Indien, trifft aber in seinen Kernaussagen einen Nerv weit über den südasiatischen Kontext hinaus – gerade für Verwaltungen, die KI-Systeme beschaffen, regulieren oder selbst entwickeln wollen. Es lohnt sich, dieses Papier mit einem analytischen Blick zu lesen, der die Übertragbarkeit auf europäische und insbesondere deutsche Verwaltungskontexte prüft.
Offenheit ist ein Spektrum
Der konzeptuelle Ausgangspunkt des Papiers ist zugleich sein wichtigster Beitrag: Offenheit in KI-Systemen lässt sich nicht als binäres Merkmal beschreiben. Ein KI-System ist nicht einfach „offen“ oder „geschlossen“ – vielmehr sind unterschiedliche Bestandteile eines Systems in unterschiedlichem Maße zugänglich. Zu diesen Bestandteilen zählen Trainingsdaten, Quellcode, Modellgewichte, Evaluierungsdatensätze und Dokumentation.
Das Papier schlägt hierfür eine sogenannte Komponenten-Ergebnis-Matrix (S. 21) vor: Sie verknüpft einzelne Offenlegungsstufen mit konkreten Wirkungen – etwa Nachvollziehbarkeit, Reproduzierbarkeit, Anpassbarkeit und Kostenreduktion. Das ist für Personen aus der Verwaltungsleitung deshalb nützlich, weil es präzisere Beschaffungsentscheidungen ermöglicht. Die Frage lautet dann nicht mehr „Kaufen wir ein offenes oder ein proprietäres System?“, sondern: „Welche Offenlegungsstufe brauchen wir für welchen Zweck und welche Komponente muss für eine wirksame Auditierung zugänglich sein?“
Die Matrix ist das konzeptionelle Herzstück des Papiers und gleichzeitig ein großer Kritikpunkt. Sie bildet ab, welche Systemkomponente welche Wirkung ermöglichen kann, macht aber keine Aussage über Schwellenwerte, Kombinationseffekte oder Mindestanforderungen. Das Problem: Ein Anbieter kann mit dieser Matrix in der Hand behaupten, durch die Offenlegung einer einzigen Komponente bereits „Transparenz“ zu ermöglichen – was das Papier eigentlich kritisieren will, nämlich Open-Washing, wird durch ein Werkzeug, das keine normativen Mindeststandards definiert, eher erleichtert als erschwert.
Aus einer Open-Source-Perspektive wäre zu fordern: Definiert klare Mindestbedingungen für Reproduzierbarkeit und Auditierbarkeit, statt eine Heuristik anzubieten, die sich politisch beliebig auslegen lässt. Die Open Source Initiative hat mit ihrer Open Source AI Definition (die im Papier durchaus erwähnt wird) genau das versucht. Das Papier distanziert sich aber bewusst von solchen normativen Definitionen, was nachvollziehbar pragmatisch, aus Offenheitsperspektive aber zu weich ist.
Das Problem des „Open-Washing“
Eine besonders aufschlussreiche Passage des Papiers befasst sich mit dem Phänomen des Open-Washing: Anbieter stellen ausgewählte Systemkomponenten – häufig nur die Modellgewichte – zur Verfügung und beanspruchen damit das Label „offen“, ohne dass eine tatsächliche Reproduzierbarkeit oder unabhängige Überprüfbarkeit gegeben wäre. Trainingsdaten, Datenvorverarbeitungsschritte, Annotationsrichtlinien und Evaluierungsverfahren bleiben verborgen.
Für Verwaltungen, die KI-Systeme einkaufen, hat das eine unmittelbare Konsequenz: Die bloße Verfügbarkeit von Modellgewichten sagt wenig darüber aus, ob ein System tatsächlich auditierbar ist. Nachvollziehbarkeit im rechtsstaatlichen Sinne setzt voraus, dass Entscheidungslogik, Datenbasis und Bewertungsverfahren dokumentiert und von unabhängigen Stellen geprüft werden können. Ein Anbieter, der nur Gewichte veröffentlicht, liefert bestenfalls eine Teiloffenlegung – und suggeriert dabei eine Transparenz, die so nicht besteht.
Für den deutschen Kontext sei ergänzt: Verwaltungsrechtlich ist die Frage der Auditierbarkeit keine freiwillige Zugabe, sondern Voraussetzung für rechtsstaatlich tragfähige algorithmische Entscheidungsunterstützung.
Reproduzierbarkeit als wissenschaftliches und politisches Gebot
Das Papier betont, dass Reproduzierbarkeit – also die Möglichkeit, ein Modell auf Basis veröffentlichter Methoden und Daten unabhängig nachzubauen – nur durch das Zusammenspiel mehrerer Komponenten erreichbar ist: Quellcode, Trainingsdaten, Datenvorverarbeitungsverfahren und Modellgewichte müssen gemeinsam zugänglich sein. Die alleinige Freigabe von Inferenzcode, also dem Code zur Nutzung eines fertig trainierten Modells, ermöglicht hingegen lediglich eine Nutzung des Systems, keine Überprüfung seiner Entstehung.
Diese Unterscheidung ist für wissenschaftliche Einrichtungen, die KI-Systeme für die öffentliche Hand evaluieren sollen, von erheblicher Bedeutung. Ebenso gilt sie für Rechnungshöfe oder Datenschutzbehörden, die algorithmische Verfahren auf ihre Rechtmäßigkeit hin untersuchen wollen. Ein System, das nur in seiner Ausgabe beobachtbar, aber in seiner Entstehung nicht rekonstruierbar ist, entzieht sich institutioneller Kontrolle.
Das Papier erwähnt die Open Source AI Definition der Open Source Initiative (OSI), geht aber nicht ernsthaft mit der Kritik daran um. Die OSI-Definition verlangt keine vollständige Offenlegung von Trainingsdaten – nur deren Beschreibung. Das haben Kritiker wie die Software Freedom Conservancy explizit als Rückschritt gegenüber klassischen Open-Source-Prinzipien bewertet, weil damit Reproduzierbarkeit strukturell ausgeschlossen bleibt. Das Papier übernimmt diese definitorische Lücke stillschweigend, ohne sie zu benennen. Für eine wirklich offenheitsorientierte Analyse wäre die Frage zentral gewesen: Ist die OSI-Definition ein Kompromiss, der die Interessen großer Anbieter schützt oder ein pragmatisch notwendiger Minimalkonsens? Diese Spannung wird nicht aufgelöst.
Technische Schulden offener Systeme: Stewardship als Daueraufgabe
Offene Systeme sind nicht kostenlos – weder in der Bereitstellung noch in der Pflege. Wenn der Betrieb auf freiwilligen Beiträgen beruht, entstehen Anfälligkeiten: Entwicklungskapazitäten schwinden, Dokumentation veraltet, Sicherheitslücken werden nicht geschlossen. Das Papier verweist auf die Heartbleed-Schwachstelle in der OpenSSL-Bibliothek (2014) als anschauliches Beispiel für strukturell unterfinanzierte, gleichwohl kritisch eingesetzte offene Software. Im Abschnitt zu Risiken offener KI-Systeme – insbesondere bei Missbrauch durch Dritte – werden offene Systeme implizit stärker belastet als proprietäre. Das Papier räumt zwar formal ein, dass geschlossene Systeme ähnliche Risiken aufweisen, behandelt sie aber nicht mit derselben Ausführlichkeit.
Aus einer Offenheitsperspektive ist das methodisch problematisch: Die Forschungslage zeigt, dass proprietäre Systeme keineswegs sicherer sind – sie sind nur weniger transparent über ihre Schwächen. Die Heartbleed-Referenz, die als Beleg für die Verwundbarkeit offener Infrastruktur dient, wäre durch dutzende Sicherheitsskandale proprietärer Softwaresysteme zu kontern. Dieses Gegengewicht fehlt. Das erzeugt einen Begründungsrahmen, in dem offene Systeme als risikoreich und proprietäre als komfortabel erscheinen – was die tatsächlichen Abhängigkeits- und Kontrollverhältnisse verzerrt.
Für Verwaltungen ergibt sich daraus eine klare Anforderung: Wer auf offene KI-Infrastruktur setzt, muss Stewardship – also die dauerhafte Betreuung, Weiterentwicklung und Qualitätssicherung – institutionell absichern. Das Modell des deutschen Sovereign Tech Fund, der staatliche Investitionen in digital-kritische Infrastrukturkomponenten ermöglicht, wird im Papier ausdrücklich als Referenz genannt. Ähnliche Strukturen wären auch auf europäischer Ebene ausbaubar.
Die Frage der Haftung in dezentralen Entwicklungsumgebungen
Ein weiteres strukturelles Problem, das das Papier beschreibt, betrifft die Zuweisung von Verantwortung in verteilten Entwicklungsumgebungen. Bei proprietären Systemen ist der Anbieter Ansprechpartner für Fehler, Schäden und Haftungsfragen. Bei offenen Systemen, an denen viele Beitragende aus unterschiedlichen Rechtssphären mitwirken, ist diese Zuordnung erheblich schwieriger. Permissive Lizenzen wie die MIT-Lizenz schließen Gewährleistungsansprüche ausdrücklich aus.
Das Papier vernachlässigt die politische Ökonomie hinter den Lizenzierungsfragen: RAIL-Lizenzen (Responsible AI Licenses) werden als pragmatische Lösung dargestellt – dabei sind sie in der Open-Source-Community umstritten, weil nutzungsbasierte Einschränkungen dem Grundprinzip der Zweckneutralität widersprechen, das klassische Open-Source-Definitionen kennzeichnet.
Wer darf festlegen, welche Nutzung „schädlich“ ist? Diese Frage ist keine technische – sie ist zutiefst politisch. Nutzungseinschränkungen in Lizenzen können dazu dienen, legitime Kritik, Sicherheitsforschung oder staatliche Aufsicht zu erschweren. Das Papier behandelt RAIL-Lizenzen fast ausschließlich als Schutzinstrument gegen Missbrauch, nicht als mögliches Instrument zur Einschränkung legitimer gesellschaftlicher Kontrolle. Das erzeugt eine Lücke, die insbesondere im öffentlichen Sektor problematisch ist: Wenn ein KI-System, das auf einem offen lizenzierten Modell basiert, im Verwaltungskontext einen Fehler produziert – wer trägt dann die Verantwortung? Diese Frage ist juristisch noch weitgehend ungeklärt und verlangt nach regulatorischen Antworten, die Lizenzmodelle ergänzen, nicht ersetzen.
Das Papier empfiehlt, Lizenzierung nicht als alleinigen Schutzmechanismus zu behandeln, sondern durch technische Schutzmaßnahmen (etwa Wasserzeichen für KI-generierte Inhalte), vertragliche Regelungen und institutionelle Aufsichtsstrukturen zu ergänzen. Dieser Mehrschichtigkeitsansatz ist aus dem klassischen IT-Sicherheitsdenken vertraut – er gilt für KI-Systeme in besonderem Maße.
Beschaffung: Offenheit als Kriterium, nicht als Dogma
Die Autoren lehnen pauschale Vorgaben ebenso ab wie unreflektierte Bevorzugung proprietärer Systeme. Stattdessen skizzieren sie eine kontextsensible Entscheidungsmatrix, die Kriterien wie Datensensibilität, Anpassungsbedarf, Risikolage, Einsatzdauer und Wartungskontinuität gegeneinander abwägt. Für den deutschen Kontext lassen sich daraus einige Leitfragen für Beschaffungsverantwortliche ableiten:
- Erstens: Welche Offenlegungsstufe ist für die geplante Nutzung erforderlich, um Auditierbarkeit und Nachvollziehbarkeit zu gewährleisten?
- Zweitens: Welche internen Kompetenzen sind notwendig, um ein offenes System sicher zu betreiben und weiterzuentwickeln?
- Drittens: Wie wird die langfristige Wartung sichergestellt – über Eigenleistung, Dienstleistungsverträge oder eine institutionelle Trägerstruktur?
Das Papier weist auch auf ein häufig unterschätztes Phänomen hin: Verwaltungen neigen dazu, offene Systeme mit Unsicherheit gleichzusetzen und proprietäre mit Verlässlichkeit. Diese Gleichsetzung ist empirisch nicht belastbar und führt zu Abhängigkeiten von einzelnen Anbietern, die langfristig teurer sein können als der Aufbau eigener Kompetenzen.
Datenbasis als kritische Infrastruktur
Besondere Aufmerksamkeit verdient die Analyse der Datenebene: Hier wird erwähnt, dass offene Datensätze oft praktisch nicht nutzbar sind, weil Metadaten fehlen, Erhebungsverfahren nicht dokumentiert sind, Annotationsrichtlinien nicht veröffentlicht wurden oder urheberrechtliche Beschränkungen eine Nachnutzung erschweren.
Für Verwaltungen, die eigene Datensätze für das Training oder die Evaluierung von KI-Systemen bereitstellen wollen, ergibt sich daraus ein klarer Standard: Offene Daten im KI-Kontext bedeuten nicht nur lizenzrechtliche Freigabe, sondern eine vollständige Begleitdokumentation, die Herkunft, Erhebungsverfahren, Qualitätssicherungsschritte und bekannte Lücken beschreibt. Ohne diese Metadaten ist ein Datensatz für wissenschaftliche oder administrative Zwecke nur bedingt verwendbar. Das ist kein technisches Nischenthema: Es berührt die Frage, ob Verwaltungen beim Einsatz von KI die Kontrolle über die Grundlage ihrer Entscheidungen behalten oder ob diese Kontrolle faktisch an Systemanbieter abgetreten wird.
Offenheit als institutionelle Haltung?
Das Papier endet mit einem Satz, der auch hierzulande gültig ist: Offenheit ist kein Selbstzweck, sondern ein Mittel zur Schaffung öffentlichen Mehrwerts durch gemeinsam nutzbare Infrastruktur, Wiederverwendbarkeit, lokale Anpassbarkeit und kollektive Aufsicht. Diese Formulierung ist weniger eine technische Empfehlung als eine Haltungsfrage: Sehen Verwaltungen digitale und KI-gestützte Infrastruktur als Allgemeingut, das offen, wartbar und überprüfbar sein muss, oder als Beschaffungsgegenstand, der möglichst schlüsselfertig geliefert werden soll?
Die Antwort auf diese Frage hat Folgen für Vergabeentscheidungen, für den Aufbau interner Kompetenzen, für die Gestaltung regulatorischer Anforderungen und letztlich für die Glaubwürdigkeit von Verwaltungen, die algorithmische Verfahren im Rahmen der Daseinsvorsorge einsetzen.
Das Papier lobt die indische Regierung als mögliches Vorbild in Sachen offener KI-Entwicklung – insbesondere über die Bhashini-Initiative und die IndiaAI Mission. Die kritische Frage, ob staatlich entwickelte offene KI-Systeme tatsächlich gemeinnützig betrieben werden oder als Instrument nationaler Technologiepolitik fungieren, wird nicht gestellt. Aus einer zivilgesellschaftlich-offenheitsorientierten Perspektive wäre zu fragen: Unter welchen Bedingungen sind staatlich produzierte offene Systeme tatsächlich gemeingütig – und wann dienen sie primär nationaler Standortstrategie oder Überwachungsinfrastruktur? Gerade Indien ist mit Blick auf digitale Überwachung kein unbeschriebenes Blatt. Diese Spannung fehlt im Papier vollständig.
Adressaten der Empfehlungen sind Regierungen und die KI-Entwicklungsgemeinschaft. Zivilgesellschaftliche Organisationen tauchen in Stakeholderlisten auf, werden aber nicht als eigenständige Akteure mit eigenen Gestaltungsansprüchen behandelt. Aus einer Open-Source-Perspektive ist das ein strukturelles Defizit: Die historische Stärke offener Entwicklungsmodelle liegt gerade in der Fähigkeit dezentraler, nicht-kommerzieller Gemeinschaften, Qualität, Sicherheit und Ausrichtung von Systemen zu beeinflussen. Wenn das Papier Offenheit primär als Instrument staatlicher und unternehmerischer Governance behandelt, reproduziert es eine Logik, die dem Geist offener Systeme widerspricht.
Dennoch: Das Papier ist aus einer institutionellen Reformperspektive geschrieben. Es will Regierungen und Unternehmen überzeugen, Offenheit ernstzunehmen. Das ist ein legitimes Ziel, erkauft sich aber durch strategische Weichheit: Normative Mindeststandards werden vermieden, Risiken offener Systeme werden überproportional gewichtet, und die politische Ökonomie von Offenheit – wer profitiert, wer verliert, wer definiert – bleibt weitgehend ausgeblendet.
Wer das Papier als Ausgangspunkt nutzt, sollte es um diese Perspektive ergänzen: Offenheit ist kein neutrales, rein technisches Merkmal, sondern ein umstrittenes politisches Prinzip, dessen konkrete Ausgestaltung Machtverhältnisse im KI-Ökosystem entweder verändert oder zementiert.
Der Bericht „Advancing Open Source AI in India: Recommendations for Governments & Technology Developers“ ist gemeinsam von Digital Futures Lab, NASSCOM und der GIZ im Auftrag des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) im Rahmen der Initiative FAIR Forward – Artificial Intelligence for All erschienen.
(Stand: Februar 2026)

