OpenAI in der Kritk: Transparent gewaschen
Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso problematischer.
Es war eine turbulente Woche für OpenAI, das Unternehmen hinter der KI-Anwendung ChatGPT: Vorstellung der neuen Softwareversion, die alles übertrifft, was zuvor an KI zu sehen war. Neue Kritik an dem schon bekannten Problem, dass ChatGPT Quellen generiert, die nicht existieren. Und mutmaßlich ein gespannter Blick nach China, wo Konkurrent Baidu mit seinem Ernie Bot aber letztlich enttäuschte.
OpenAI lässt sich vermutlich gerade zu den bedeutendsten Unternehmen weltweit zählen. Es ist eines der ersten, die das Potenzial von künstlicher Intelligenz (KI) für die breite Masse an Menschen erahnbar und den aktuellen Stand erfahrbar gemacht hat. Und damit zeigt: Die KI der Zukunft wird mehr sein als eine Siri, die Anweisungen ständig missversteht, oder die beunruhigend fehleranfällige Software eines selbstfahrenden Autos. Sondern ein mächtiges, ernst zu nehmendes Werkzeug, dessen Möglichkeiten und Entwicklungspotenziale wir aktuell nur erahnen können.
Mit der Version 4.0 von ChatGPT wird das deutlich: Es ist eine KI-Anwendung, die nicht entweder Wörter oder Bilder verarbeiten kann, sondern beides. Eine Entwicklung hin von einer sogenannten schwachen KI, die nur eine Disziplin beherrscht, zu einer zumindest etwas stärkeren. Es zeigt die Potenziale, aber gleichzeitig auch, dass noch viel an Weg übrig bleibt.
Nun ist OpenAI allerdings in einer anderen Disziplin überhaupt nicht stark. Und darauf haben Expert:innen ebenfalls in der vergangenen Woche hingewiesen. Da hat OpenAI seine 4er Version von ChatGPT vorgelegt – und in der selben Woche auch das Forschungsdokument zur Software veröffentlicht, unter dem schlichten Titel „GPT-4 Technical Report“. Darin zeigt sich das Unternehmen jedoch alles andere als „open“.
OpenAI total verschlossen
Im Gegenteil: Auf 99 Seiten erzählt es zwar viel, sagt aber wenig: „Angesichts der Konkurrenzsituation und der sicherheitstechnischen Implikationen von Großmodellen wie GPT-4 enthält dieser Bericht keine weiteren Details über die Architektur (einschließlich der Modellgröße), die Hardware, die Trainingsberechnung, Datensatzkonstruktion, Trainingsmethode oder Ähnliches.“ Also genau über die interessanten Punkte.
Die Verschlossenheit ist eine deutliche Abkehr von den Wurzeln und dem zugehörigen Namen. OpenAI – damit wollte die Firma signalisieren, dass es KI-Technologien mit einem Offenheits- ja, sogar einem Gemeinnützigkeitsanspruch in die Welt setzen wollte. Ein Gegengewicht zu Big Tech, bei denen Verschlossenheit und Intransparenz zum Geschäftsmodell dazugehören.
Doch Name und Anspruch von OpenAI sind nun zu einem bloßen Transparenz-Washing verkommen. Sogar die Verpackung ist angepasst: Stimmen aus der Open-Access-Community, die sich für einen freien Zugang zu Forschungsliteratur einsetzen, weisen darauf hin, dass die Vorlage zur Erstellung des Reports die gleiche ist, die auch bei Open-Access-Publikationen verwendet wird.
Selbst für Entwickler:innen eine Black Box
Das Problem geht über den konkreten Fall hinaus. Denn OpenAI setzt mit seinen Entwicklungen nicht nur Standards, was die Funktionen und die technische Raffinesse angeht. Sondern auch für den ethischen Umgang mit KI. Und da wäre Transparenz noch mal wichtiger als bei den klassisch programmierten Algorithmen. Schließlich sind KI-Anwendungen meist auch für die Entwickler:innen selbst eine Black Box.
Während etwa bei einem herkömmlich programmierten Empfehlungsalgorithmus vorhersagbar ist, mit welcher Datenbasis er zu welcher Empfehlung kommt, ist das bei einer KI meist nicht der Fall. Fragen wie: Wie wurde dieser Algorithmus trainiert? Mit welchen Trainingsdaten? Wo und wie haben Menschen nachgeholfen?, rücken stärker in den Vordergrund. Ein bisschen „ihr könnt uns vertrauen“ reicht da nicht.
Der Deutsche Ethikrat, der am Montag eine Stellungnahme zum Thema KI vorlegte, spielt das Thema eine Ebene höher: Die Autor:innen benennen zwar das Spannungsfeld zwischen Geschäftsgeheimnis und Offenheit. Doch sie schreiben ebenfalls: „Auch dort, wo Systeme eine Quasi-Monopolstellung erlangen, sind hohe Anforderungen an Transparenz, Erklärbarkeit und Nachvollziehbarkeit zu stellen.“
Man kann es als Aufforderung an die Unternehmen selbst lesen. Aber vor allem ist es eine Hausaufgabenliste für die Politik, KI-Anwendungen noch genauer in den regulatorischen Fokus zu nehmen. Jetzt, wo langsam absehbar wird, wohin es gehen könnte.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Proteste bei Nan Goldin
Logiken des Boykotts
Juso-Chef über Bundestagswahlkampf
„Das ist unsere Bedingung“
Bundeskongress der Jusos
Was Scholz von Esken lernen kann
Bündnis Sahra Wagenknecht
Ein Bestsellerautor will in den Bundestag