piwik no script img

OpenAI in der KritkTransparent gewaschen

Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso problematischer.

Je besser KI wird, desto dringender stellen sich Fragen: Wie wurde dieser Algorithmus trainiert? Foto: bgblue/getty

Es war eine turbulente Woche für OpenAI, das Unternehmen hinter der KI-Anwendung ChatGPT: Vorstellung der neuen Softwareversion, die alles übertrifft, was zuvor an KI zu sehen war. Neue Kritik an dem schon bekannten Problem, dass ChatGPT Quellen generiert, die nicht existieren. Und mutmaßlich ein gespannter Blick nach China, wo Konkurrent Baidu mit seinem Ernie Bot aber letztlich enttäuschte.

OpenAI lässt sich vermutlich gerade zu den bedeutendsten Unternehmen weltweit zählen. Es ist eines der ersten, die das Potenzial von künstlicher Intelligenz (KI) für die breite Masse an Menschen erahnbar und den aktuellen Stand erfahrbar gemacht hat. Und damit zeigt: Die KI der Zukunft wird mehr sein als eine Siri, die Anweisungen ständig missversteht, oder die beunruhigend fehleranfällige Software eines selbstfahrenden Autos. Sondern ein mächtiges, ernst zu nehmendes Werkzeug, dessen Möglichkeiten und Entwicklungspotenziale wir aktuell nur erahnen können.

Mit der Version 4.0 von ChatGPT wird das deutlich: Es ist eine KI-Anwendung, die nicht entweder Wörter oder Bilder verarbeiten kann, sondern beides. Eine Entwicklung hin von einer sogenannten schwachen KI, die nur eine Disziplin beherrscht, zu einer zumindest etwas stärkeren. Es zeigt die Potenziale, aber gleichzeitig auch, dass noch viel an Weg übrig bleibt.

Nun ist OpenAI allerdings in einer anderen Disziplin überhaupt nicht stark. Und darauf haben Ex­per­t:in­nen ebenfalls in der vergangenen Woche hingewiesen. Da hat OpenAI seine 4er Version von ChatGPT vorgelegt – und in der selben Woche auch das Forschungsdokument zur Software veröffentlicht, unter dem schlichten Titel „GPT-4 Technical Report“. Darin zeigt sich das Unternehmen jedoch alles andere als „open“.

OpenAI total verschlossen

Im Gegenteil: Auf 99 Seiten erzählt es zwar viel, sagt aber wenig: „Angesichts der Konkurrenzsituation und der sicherheitstechnischen Implikationen von Großmodellen wie GPT-4 enthält dieser Bericht keine weiteren Details über die Architektur (einschließlich der Modellgröße), die Hardware, die Trainingsberechnung, Datensatzkonstruktion, Trainingsmethode oder Ähnliches.“ Also genau über die interessanten Punkte.

OpenAI setzt mit seinen Entwicklungen auch Standards für den ethischen Umgang mit KI

Die Verschlossenheit ist eine deutliche Abkehr von den Wurzeln und dem zugehörigen Namen. OpenAI – damit wollte die Firma signalisieren, dass es KI-Technologien mit einem Offenheits- ja, sogar einem Gemeinnützigkeitsanspruch in die Welt setzen wollte. Ein Gegengewicht zu Big Tech, bei denen Verschlossenheit und Intransparenz zum Geschäftsmodell dazugehören.

Doch Name und Anspruch von OpenAI sind nun zu einem bloßen Transparenz-Washing verkommen. Sogar die Verpackung ist angepasst: Stimmen aus der Open-Access-Community, die sich für einen freien Zugang zu Forschungsliteratur einsetzen, weisen darauf hin, dass die Vorlage zur Erstellung des Reports die gleiche ist, die auch bei Open-Access-Publikationen verwendet wird.

Selbst für Ent­wick­le­r:in­nen eine Black Box

Das Problem geht über den konkreten Fall hinaus. Denn OpenAI setzt mit seinen Entwicklungen nicht nur Standards, was die Funktionen und die technische Raffinesse angeht. Sondern auch für den ethischen Umgang mit KI. Und da wäre Transparenz noch mal wichtiger als bei den klassisch programmierten Algorithmen. Schließlich sind KI-Anwendungen meist auch für die Ent­wick­le­r:in­nen selbst eine Black Box.

Während etwa bei einem herkömmlich programmierten Empfehlungsalgorithmus vorhersagbar ist, mit welcher Datenbasis er zu welcher Empfehlung kommt, ist das bei einer KI meist nicht der Fall. Fragen wie: Wie wurde dieser Algorithmus trainiert? Mit welchen Trainingsdaten? Wo und wie haben Menschen nachgeholfen?, rücken stärker in den Vordergrund. Ein bisschen „ihr könnt uns vertrauen“ reicht da nicht.

Der Deutsche Ethikrat, der am Montag eine Stellungnahme zum Thema KI vorlegte, spielt das Thema eine Ebene höher: Die Au­to­r:in­nen benennen zwar das Spannungsfeld zwischen Geschäftsgeheimnis und Offenheit. Doch sie schrei­ben ebenfalls: „Auch dort, wo Systeme eine Quasi-Monopolstellung erlangen, sind hohe Anforderungen an Transparenz, Erklärbarkeit und Nachvollziehbarkeit zu stellen.“

Man kann es als Aufforderung an die Unternehmen selbst lesen. Aber vor allem ist es eine Hausaufgabenliste für die Politik, KI-Anwendungen noch genauer in den regulatorischen Fokus zu nehmen. Jetzt, wo langsam absehbar wird, wohin es gehen könnte.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
  • Momentan sieht es so aus, als würde die Jagd nach Investorkapital alles toppen. Ich denke, die "Dekoration" Open im OpenAI soll auch nur den Marktwert ein wenig nach oben schubsen.

    Erinnert sich wer an Googles "Do no evil"?

    Wir sollten diese Geschichte eigentlich schon längst kennen.