OpenAI in der Kritk: Transparent gewaschen
Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso problematischer.
Es war eine turbulente Woche für OpenAI, das Unternehmen hinter der KI-Anwendung ChatGPT: Vorstellung der neuen Softwareversion, die alles übertrifft, was zuvor an KI zu sehen war. Neue Kritik an dem schon bekannten Problem, dass ChatGPT Quellen generiert, die nicht existieren. Und mutmaßlich ein gespannter Blick nach China, wo Konkurrent Baidu mit seinem Ernie Bot aber letztlich enttäuschte.
OpenAI lässt sich vermutlich gerade zu den bedeutendsten Unternehmen weltweit zählen. Es ist eines der ersten, die das Potenzial von künstlicher Intelligenz (KI) für die breite Masse an Menschen erahnbar und den aktuellen Stand erfahrbar gemacht hat. Und damit zeigt: Die KI der Zukunft wird mehr sein als eine Siri, die Anweisungen ständig missversteht, oder die beunruhigend fehleranfällige Software eines selbstfahrenden Autos. Sondern ein mächtiges, ernst zu nehmendes Werkzeug, dessen Möglichkeiten und Entwicklungspotenziale wir aktuell nur erahnen können.
Mit der Version 4.0 von ChatGPT wird das deutlich: Es ist eine KI-Anwendung, die nicht entweder Wörter oder Bilder verarbeiten kann, sondern beides. Eine Entwicklung hin von einer sogenannten schwachen KI, die nur eine Disziplin beherrscht, zu einer zumindest etwas stärkeren. Es zeigt die Potenziale, aber gleichzeitig auch, dass noch viel an Weg übrig bleibt.
Nun ist OpenAI allerdings in einer anderen Disziplin überhaupt nicht stark. Und darauf haben Expert:innen ebenfalls in der vergangenen Woche hingewiesen. Da hat OpenAI seine 4er Version von ChatGPT vorgelegt – und in der selben Woche auch das Forschungsdokument zur Software veröffentlicht, unter dem schlichten Titel „GPT-4 Technical Report“. Darin zeigt sich das Unternehmen jedoch alles andere als „open“.
OpenAI total verschlossen
Im Gegenteil: Auf 99 Seiten erzählt es zwar viel, sagt aber wenig: „Angesichts der Konkurrenzsituation und der sicherheitstechnischen Implikationen von Großmodellen wie GPT-4 enthält dieser Bericht keine weiteren Details über die Architektur (einschließlich der Modellgröße), die Hardware, die Trainingsberechnung, Datensatzkonstruktion, Trainingsmethode oder Ähnliches.“ Also genau über die interessanten Punkte.
Die Verschlossenheit ist eine deutliche Abkehr von den Wurzeln und dem zugehörigen Namen. OpenAI – damit wollte die Firma signalisieren, dass es KI-Technologien mit einem Offenheits- ja, sogar einem Gemeinnützigkeitsanspruch in die Welt setzen wollte. Ein Gegengewicht zu Big Tech, bei denen Verschlossenheit und Intransparenz zum Geschäftsmodell dazugehören.
Doch Name und Anspruch von OpenAI sind nun zu einem bloßen Transparenz-Washing verkommen. Sogar die Verpackung ist angepasst: Stimmen aus der Open-Access-Community, die sich für einen freien Zugang zu Forschungsliteratur einsetzen, weisen darauf hin, dass die Vorlage zur Erstellung des Reports die gleiche ist, die auch bei Open-Access-Publikationen verwendet wird.
Selbst für Entwickler:innen eine Black Box
Das Problem geht über den konkreten Fall hinaus. Denn OpenAI setzt mit seinen Entwicklungen nicht nur Standards, was die Funktionen und die technische Raffinesse angeht. Sondern auch für den ethischen Umgang mit KI. Und da wäre Transparenz noch mal wichtiger als bei den klassisch programmierten Algorithmen. Schließlich sind KI-Anwendungen meist auch für die Entwickler:innen selbst eine Black Box.
Während etwa bei einem herkömmlich programmierten Empfehlungsalgorithmus vorhersagbar ist, mit welcher Datenbasis er zu welcher Empfehlung kommt, ist das bei einer KI meist nicht der Fall. Fragen wie: Wie wurde dieser Algorithmus trainiert? Mit welchen Trainingsdaten? Wo und wie haben Menschen nachgeholfen?, rücken stärker in den Vordergrund. Ein bisschen „ihr könnt uns vertrauen“ reicht da nicht.
Der Deutsche Ethikrat, der am Montag eine Stellungnahme zum Thema KI vorlegte, spielt das Thema eine Ebene höher: Die Autor:innen benennen zwar das Spannungsfeld zwischen Geschäftsgeheimnis und Offenheit. Doch sie schreiben ebenfalls: „Auch dort, wo Systeme eine Quasi-Monopolstellung erlangen, sind hohe Anforderungen an Transparenz, Erklärbarkeit und Nachvollziehbarkeit zu stellen.“
Man kann es als Aufforderung an die Unternehmen selbst lesen. Aber vor allem ist es eine Hausaufgabenliste für die Politik, KI-Anwendungen noch genauer in den regulatorischen Fokus zu nehmen. Jetzt, wo langsam absehbar wird, wohin es gehen könnte.
Links lesen, Rechts bekämpfen
Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen
meistkommentiert
Krise bei VW
Massiver Gewinneinbruch bei Volkswagen
VW-Vorstand droht mit Werksschließungen
Musterknabe der Unsozialen Marktwirtschaft
Verfassungsgericht entscheidet
Kein persönlicher Anspruch auf höheres Bafög
Kamala Harris’ „Abschlussplädoyer“
Ihr bestes Argument
Zu viel Methan in der Atmosphäre
Rätsel um gefährliches Klimagas gelöst
Nahostkonflikt in der Literatur
Literarischer Israel-Boykott