ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt
ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer. Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist.
Erschrocken und belustigt zugleich war Sebastian Schnitzenbaumer, als er ChatGPT nach seinem eigenen Musikprojekt Belp befragte. Denn die künstliche Intelligenz antwortete, dass nicht er, der Münchner Musiker, hinter dem Pseudonym Belp stecke, sondern ein gewisser Marco Guazzone; und die KI untermauerte diese Aussage gleich noch durch ein cooles Schwarzweißbild.
Dieser Marco Guazzone existiert wirklich, es ist ein italienischer Musiker, dessen Mainstream-Bombastpop nicht weiter entfernt sein könnte von Schnitzenbaumers komplexen, den Erwartungen entgegenlaufenden Techno-Tracks. Der fand das alles bald gar nicht mehr lustig.
Belp sei außerdem Teil des Musikkollektivs Loose Wire Head Radio, behauptet ChatGPT auch noch. Kein schlechter Name für ein Musikkollektiv – nur leider diesmal frei erfunden. „Identitätsklau“ nennt der 46-jährige Münchner DJ und Elektronik-Produzent diese Falschinformation. „Und man würde normalerweise sagen: Verleumdung“, sagt Schnitzenbaumer. „Ich werde dort aufgrund von vielen richtigen Informationen mit einer komplett falschen Identität vermischt. Und das mag niemand.“
Er prüft eine Klage gegen OpenAI, das US-Software-Unternehmen, das hinter ChatGPT steht. Vor allem aber will Schnitzenbaumer nun eine Debatte anstoßen, darüber, was künstliche Intelligenz kann und was nicht.
Nichts davon entspricht der Wahrheit
Schnitzenbaumer nutzte ChatGPT 3 für seine Frage, die kostenlose und derzeit am meisten genutzte Variante der Sprach-KI. Die neuere Bezahlversion ChatGPT 4 funktioniert bereits besser, sie gibt zum Beispiel zuverlässig Belps bürgerlichen Namen korrekt an, flunkert aber auch hier und da. Einmal ist Belp ansässig in Berlin und nutzt traditionelle Instrumente, ein andermal trägt seine Musik meditative Züge. Nichts davon entspricht der Wahrheit.
„Halluzinieren“ nennt die Fachwelt das. Der bisher prominenteste Fall: US-Juraprofessor Jonathan Turley wurde von ChatGPT fälschlicherweise der sexuellen Belästigung beschuldigt. Das Problem: Diese Halluzinationen können nicht so einfach erkannt und noch schwerer – genau genommen gar nicht – gelöscht oder richtiggestellt werden. Denn sie sind aufs Engste verknüpft mit der Arbeitsweise von KI-Programmen wie ChatGPT, mit deren Algorithmus.
ChatGPT ist eine KI der Sorte large language model, ein großes Sprachmodell. Der Algorithmus wurde mit Millionen von Texten im Internet gefüttert. Und liefert nun Informationen mit Textbausteinen, indem er immer das nächste wahrscheinlichste Wort sucht. Ob dieses Wort etwas mit der Wahrheit zu tun hat oder nicht, kann das Programm gar nicht unterscheiden.
Aljoscha Burchardt vom Deutschen Forschungszentrum für künstliche Intelligenz in Berlin betont, dass large language models vor allem darauf getrimmt sind, neue Texte zu kreieren, die möglichst überzeugend klingen: „Wenn man dem Ding jetzt sagt: Aljoscha Burchardt war ein Radrennfahrer im Frankreich der 1950er Jahre, dann wird eine plausible Geschichte über einen Radrennfahrer im Frankreich der 1950er Jahre geschrieben. Und das sind dann eben keine Fakten.“
Plausible Erklärung im System
Anders sei das bei allgemein bekannten Personen, über die sich viele Informationen im Netz finden. „Wenn man nach Bundeskanzler Olaf Scholz fragt“, so Burchardt, „kommt da wahrscheinlich etwas Sinnvolleres raus. Aber wenn man nach Personen fragt, über die es nicht viele öffentliche Informationen gibt, dann kommt aus dem System einfach das raus, was möglicherweise plausibel klingt.“
Für Musikerinnen und Musiker sind solche Halluzinationen besonders fatal, sagt Sebastian Schnitzenbaumer. Denn deren Identität sei heute wichtiger denn je. „Musiker und Künstler“, so Schnitzenbaumer, „haben aufgrund der Entwertung der Kunst in den letzten 10, 20 Jahren gelernt, dass ihr Brand und ihre Identität das wertvollste Gut ist.“ Wenn jetzt KI auch noch die Identität klaue und umbaue, würde die Möglichkeit der Vermarktung ihrer Kunst weiter erodiert.
Tatsächlich sind heute oft die Geschichten hinter den Songs und Alben entscheidend, die Erzählung des Künstlers. Ein Song schafft es nämlich dann leichter ins Radio und auf wichtige Playlists, wenn es eine gute Story dazu gibt. Auch deshalb prüft Schnitzenbaumer eine Klage gegen OpenAI. Die Nichtregierungsorganisation NOYB um den Österreicher Max Schrems hat das erst kürzlich angestrengt – weil das Programm ein falsches Geburtsdatum angab.
Ob die Klage Erfolg haben wird, bleibt zunächst unklar. Aljoscha Burchardt sieht in solchen Fällen keine direkte Schuld bei OpenAI. „Das Werkzeug wurde falsch eingesetzt“, erklärt er. Es habe schließlich niemand behauptet, dass KI-Programme wahrheitsgemäße Artikel schreiben können.
Wahrheit suggeriert
Nur über die Argumentation, dass OpenAI nicht gut genug darüber aufgeklärt habe, wie ChatGPT funktioniert, sieht er eine mögliche rechtliche Handhabe. Die US-Firma „suggeriere vielleicht dadurch, wie das System sich gibt und wie das System antwortet, dass es Wahrheit ausgibt“.
Das sieht der Straubinger Bundestagsabgeordnete Erhard Grundl (Bündnis 90/Die Grünen) ähnlich. Grundl ist Leiter der Arbeitsgemeinschaft Kultur und Medien der Grünen-Fraktion im Bundestag und Mitglied im Ausschuss für Kultur- und Medienpolitik. „Sein Werk kann ich schützen“, sagt Grundl über Schnitzenbaumers Fall. „Aber Fehlinformationen, die dann über ihn in der Welt sind – das wird sehr schwierig.“
Die gerade erst verabschiedete KI-Verordnung der EU hat zwar Chatbots wie ChatGPT im Blick, greift aber in diesem Fall auch nicht. Grundl glaubt, dass es mehr Medienkompetenz braucht. „Das müssen wir fördern. Da kommt die Politik ins Spiel.“
ChatGBT: falsch, irreführend oder erniedrigend
Eine Bitte um Stellungnahme bei OpenAI zu den Vorwürfen von Sebastian Schnitzenbaumer blieb unbeantwortet. Der Sachverhalt ist aber auch in den USA ein heikles Thema. Die Aufsichtsbehörde FTC (Federal Trade Commission) hat erst vor Kurzem eine Untersuchung von OpenAI gestartet und dem Unternehmen einen 20-seitigen Fragenkatalog geschickt. Eine der Fragen betrifft die Aussagen von ChatGPT über reale Menschen, die falsch, irreführend oder erniedrigend sind.
Bisher ist es noch nicht weit her mit der allgemeinen Medienkompetenz in Sachen KI. Denn viele User:Innen nutzen die Programme eben als Suchmaschine und Informationsquelle. „Das ist super brutal“, erzählt Aljoscha Burchardt. „Das haben wir untersucht: User nutzen das auch, um sich über Wahlthemen und Politikerinnen zu informieren. Das hat großes Potenzial, Unfrieden zu stiften.“
Hinzu kommt: Künstliche Intelligenz entwickelt sich so rasant wie nie zuvor. Gerade noch staunte die Welt über ChatGPT 3, schon gibt es einen ganzen Wald von besseren Sprach-KIs. „Wie wir alle wissen, hat die KI ein anderes Zeitverständnis als wir“, sagt Erhard Grundl mit Blick auf die Regulierung durch die Politik. „Wenn heute etwas beschlossen wird, kann es sein, dass das in vielen Bereichen schon wieder überholt ist. Es muss also eine ständige Evaluierung stattfinden.“
Mehr Medienkompetenz, mehr Wissen darüber, was künstliche Intelligenz kann und was nicht, wie sie funktioniert – das ist im Kern auch das, was der Münchner Musiker Sebastian Schnitzenbaumer sich wünscht. Denn noch säßen wir einem veralteten Bild von künstlicher Intelligenz auf, sagt er. „Popkultur und Science-Fiction-Kultur“, so Schnitzenbaumer, „haben Computer, Roboter und Androiden oft in ihrer Unfehlbarkeit dargestellt: Der Computer hat immer recht. Mit ChatGPT passiert genau das Gegenteil.“
Wir müssten lernen, dass Computer und Softwaresysteme extrem fehleranfällig sind. „Wir haben hier träumende Software, und wir müssen uns einfach daran gewöhnen, dass Software bewusst unechte Ergebnisse liefert.“ Sollten wir also in Zukunft von mehr oder weniger verträumten KIs sprechen? Oder wäre das nicht auf andere Weise irreführend, weil viel zu vermenschlichend?
Kein Unterschied von Fakt und Fiktion
Sollten wir überhaupt von künstlicher Intelligenz sprechen, wenn die Programme am Ende ja doch wieder nur aus Algorithmen bestehen, die nicht einmal bei ihren eigenen Kreationen Fakt von Fiktion unterscheiden können?
Aljoscha Burchardt will jedenfalls nicht mehr von „halluzinieren“ sprechen. „Wenn wir doch alle wissen, dass von generativer KI erzeugte Inhalte nicht notwendigerweise wahr sind, dann kann man doch einfach sagen, das hier ist eine automatisch oder statistisch generierte Antwort.“ Vielleicht braucht es das: unaufgeregte Nüchternheit, was künstliche Intelligenz angeht. Auch, damit die Musik nicht ein weiteres Mal entwertet wird von den digitalen Umwälzungen unserer schönen neuen Welt.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Trumps Krieg gegen die Forschung
Bye-bye, Wissenschaftsfreiheit!
Kritik am Deutschen Ethikrat
Bisschen viel Gott
Menschenrechtsverletzungen durch Israel
„So kann man Terror nicht bekämpfen“
Ungelöstes Problem der Erneuerbaren
Ein November voller Dunkelflauten
Altvordere sollen Linke retten
Hoffen auf die „Silberlocken“
Autobranche in der Krise
Kaum einer will die E-Autos