piwik no script img

ChatGPT-IdentitätsklauWenn Software zu träumen beginnt

ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer. Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist.

Gerade für Musiker ist ihre Identität wichtig. Ein Song schafft es leichter auf Playlists, wenn es eine gute Story dazu gibt Foto: Xia Yuan/getty

Erschrocken und belustigt zugleich war Sebastian Schnitzenbaumer, als er ChatGPT nach seinem eigenen Musikprojekt Belp befragte. Denn die künstliche Intelligenz antwortete, dass nicht er, der Münchner Musiker, hinter dem Pseudonym Belp stecke, sondern ein gewisser Marco Guazzone; und die KI untermauerte diese Aussage gleich noch durch ein cooles Schwarzweißbild.

Dieser Marco Guazzone existiert wirklich, es ist ein italienischer Musiker, dessen Mainstream-Bombastpop nicht weiter entfernt sein könnte von Schnitzenbaumers komplexen, den Erwartungen entgegenlaufenden Techno-Tracks. Der fand das alles bald gar nicht mehr lustig.

Belp sei außerdem Teil des Musikkollektivs Loose Wire Head Radio, behauptet ChatGPT auch noch. Kein schlechter Name für ein Musikkollektiv – nur leider diesmal frei erfunden. „Identitätsklau“ nennt der 46-jährige Münchner DJ und Elektronik-Produzent diese Falschinformation. „Und man würde normalerweise sagen: Verleumdung“, sagt Schnitzenbaumer. „Ich werde dort aufgrund von vielen richtigen Informationen mit einer komplett falschen Identität vermischt. Und das mag niemand.“

Er prüft eine Klage gegen OpenAI, das US-Software-Unternehmen, das hinter ChatGPT steht. Vor allem aber will Schnitzenbaumer nun eine Debatte anstoßen, darüber, was künstliche Intelligenz kann und was nicht.

Nichts davon entspricht der Wahrheit

Schnitzenbaumer nutzte ChatGPT 3 für seine Frage, die kostenlose und derzeit am meisten genutzte Variante der Sprach-KI. Die neuere Bezahlversion ChatGPT 4 funktioniert bereits besser, sie gibt zum Beispiel zuverlässig Belps bürgerlichen Namen korrekt an, flunkert aber auch hier und da. Einmal ist Belp ansässig in Berlin und nutzt traditionelle Instrumente, ein andermal trägt seine Musik meditative Züge. Nichts davon entspricht der Wahrheit.

„Halluzinieren“ nennt die Fachwelt das. Der bisher prominenteste Fall: US-Juraprofessor Jonathan Turley wurde von ChatGPT fälschlicherweise der sexuellen Belästigung beschuldigt. Das Problem: Diese Halluzinationen können nicht so einfach erkannt und noch schwerer – genau genommen gar nicht – gelöscht oder richtiggestellt werden. Denn sie sind aufs Engste verknüpft mit der Arbeitsweise von KI-Programmen wie ChatGPT, mit deren Algorithmus.

ChatGPT ist eine KI der Sorte large language model, ein großes Sprachmodell. Der Algorithmus wurde mit Millionen von Texten im Internet gefüttert. Und liefert nun Informationen mit Textbausteinen, indem er immer das nächste wahrscheinlichste Wort sucht. Ob dieses Wort etwas mit der Wahrheit zu tun hat oder nicht, kann das Programm gar nicht unterscheiden.

Aljoscha Burchardt vom Deutschen Forschungszentrum für künstliche Intelligenz in Berlin betont, dass large language models vor allem darauf getrimmt sind, neue Texte zu kreieren, die möglichst überzeugend klingen: „Wenn man dem Ding jetzt sagt: Aljoscha Burchardt war ein Radrennfahrer im Frankreich der 1950er Jahre, dann wird eine plausible Geschichte über einen Radrennfahrer im Frankreich der 1950er Jahre geschrieben. Und das sind dann eben keine Fakten.“

Plausible Erklärung im System

KI-Bild „Belp alias Marco Guazzone“ Foto: ChatGPT

Anders sei das bei allgemein bekannten Personen, über die sich viele Informationen im Netz finden. „Wenn man nach Bundeskanzler Olaf Scholz fragt“, so Burchardt, „kommt da wahrscheinlich etwas Sinnvolleres raus. Aber wenn man nach Personen fragt, über die es nicht viele öffentliche Informationen gibt, dann kommt aus dem System einfach das raus, was möglicherweise plausibel klingt.“

Für Musikerinnen und Musiker sind solche Halluzinationen besonders fatal, sagt Sebastian Schnitzenbaumer. Denn deren Identität sei heute wichtiger denn je. „Musiker und Künstler“, so Schnitzenbaumer, „haben aufgrund der Entwertung der Kunst in den letzten 10, 20 Jahren gelernt, dass ihr Brand und ihre Identität das wertvollste Gut ist.“ Wenn jetzt KI auch noch die Identität klaue und umbaue, würde die Möglichkeit der Vermarktung ihrer Kunst weiter erodiert.

Tatsächlich sind heute oft die Geschichten hinter den Songs und Alben entscheidend, die Erzählung des Künstlers. Ein Song schafft es nämlich dann leichter ins Radio und auf wichtige Playlists, wenn es eine gute Story dazu gibt. Auch deshalb prüft Schnitzenbaumer eine Klage gegen OpenAI. Die Nichtregierungsorganisation NOYB um den Österreicher Max Schrems hat das erst kürzlich angestrengt – weil das Programm ein falsches Geburtsdatum angab.

Ob die Klage Erfolg haben wird, bleibt zunächst unklar. Aljoscha Burchardt sieht in solchen Fällen keine direkte Schuld bei OpenAI. „Das Werkzeug wurde falsch eingesetzt“, erklärt er. Es habe schließlich niemand behauptet, dass KI-Programme wahrheitsgemäße Artikel schrei­ben können.

Wahrheit suggeriert

Belp, der echte Musiker Sebastian Schnitzenbaumer Foto: privat

Nur über die Argumentation, dass OpenAI nicht gut genug darüber aufgeklärt habe, wie ChatGPT funktioniert, sieht er eine mögliche rechtliche Handhabe. Die US-Firma „suggeriere vielleicht dadurch, wie das System sich gibt und wie das System antwortet, dass es Wahrheit ausgibt“.

Das sieht der Straubinger Bundestagsabgeordnete Erhard Grundl (Bündnis 90/Die Grünen) ähnlich. Grundl ist Leiter der Arbeitsgemeinschaft Kultur und Medien der Grünen-Fraktion im Bundestag und Mitglied im Ausschuss für Kultur- und Medienpolitik. „Sein Werk kann ich schützen“, sagt Grundl über Schnitzenbaumers Fall. „Aber Fehlinformationen, die dann über ihn in der Welt sind – das wird sehr schwierig.“

Die gerade erst verabschiedete KI-Verordnung der EU hat zwar Chatbots wie ChatGPT im Blick, greift aber in diesem Fall auch nicht. Grundl glaubt, dass es mehr Medienkompetenz braucht. „Das müssen wir fördern. Da kommt die Politik ins Spiel.“

ChatGBT: falsch, irreführend oder erniedrigend

Eine Bitte um Stellungnahme bei OpenAI zu den Vorwürfen von Sebastian Schnitzenbaumer blieb unbeantwortet. Der Sachverhalt ist aber auch in den USA ein heikles Thema. Die Aufsichtsbehörde FTC (Federal Trade Commission) hat erst vor Kurzem eine Untersuchung von OpenAI gestartet und dem Unternehmen einen 20-seitigen Fragenkatalog geschickt. Eine der Fragen betrifft die Aussagen von ChatGPT über reale Menschen, die falsch, irreführend oder erniedrigend sind.

Bisher ist es noch nicht weit her mit der allgemeinen Medienkompetenz in Sachen KI. Denn viele Use­r:In­nen nutzen die Programme eben als Suchmaschine und Informa­tions­quelle. „Das ist super brutal“, erzählt Aljoscha Burchardt. „Das haben wir untersucht: User nutzen das auch, um sich über Wahlthemen und Politikerinnen zu informieren. Das hat großes Potenzial, Unfrieden zu stiften.“

Der Computer hat immer recht? Dieses Bild ist veraltet. Mit ChatGPT passiert genau das Gegenteil

Hinzu kommt: Künstliche Intelligenz entwickelt sich so rasant wie nie zuvor. Gerade noch staunte die Welt über ChatGPT 3, schon gibt es einen ganzen Wald von besseren Sprach-KIs. „Wie wir alle wissen, hat die KI ein anderes Zeitverständnis als wir“, sagt Erhard Grundl mit Blick auf die Regulierung durch die Politik. „Wenn heute etwas beschlossen wird, kann es sein, dass das in vielen Bereichen schon wieder überholt ist. Es muss also eine ständige Evaluierung stattfinden.“

Mehr Medienkompetenz, mehr Wissen darüber, was künstliche Intelligenz kann und was nicht, wie sie funktioniert – das ist im Kern auch das, was der Münchner Musiker Sebastian Schnitzenbaumer sich wünscht. Denn noch säßen wir einem veralteten Bild von künstlicher Intelligenz auf, sagt er. „Popkultur und Science-Fiction-Kultur“, so Schnitzenbaumer, „haben Computer, Roboter und Androiden oft in ihrer Unfehlbarkeit dargestellt: Der Computer hat immer recht. Mit ChatGPT passiert genau das Gegenteil.“

Wir müssten lernen, dass Computer und Softwaresysteme extrem fehleranfällig sind. „Wir haben hier träumende Software, und wir müssen uns einfach daran gewöhnen, dass Software bewusst unechte Ergebnisse liefert.“ Sollten wir also in Zukunft von mehr oder weniger verträumten KIs sprechen? Oder wäre das nicht auf andere Weise irreführend, weil viel zu vermenschlichend?

Kein Unterschied von Fakt und Fiktion

Sollten wir überhaupt von künstlicher Intelligenz sprechen, wenn die Programme am Ende ja doch wieder nur aus Algorithmen bestehen, die nicht einmal bei ihren eigenen Kreationen Fakt von Fiktion unterscheiden können?

Aljoscha Burchardt will jedenfalls nicht mehr von „halluzinieren“ sprechen. „Wenn wir doch alle wissen, dass von generativer KI erzeugte Inhalte nicht notwendigerweise wahr sind, dann kann man doch einfach sagen, das hier ist eine automatisch oder statistisch generierte Antwort.“ Vielleicht braucht es das: unaufgeregte Nüchternheit, was künstliche Intelligenz angeht. Auch, damit die Musik nicht ein weiteres Mal entwertet wird von den digitalen Umwälzungen unserer schönen neuen Welt.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

10 Kommentare

 / 
  • 9G
    95820 (Profil gelöscht)

    „Auch, damit die Musik nicht ein weiteres Mal entwertet wird von den digitalen Umwälzungen unserer schönen neuen Welt."



    Das hat doch schon der ESC erledigt. Kann bitte mal jemand die ESC-Taste (aka Escape-Taste) drücken?

  • Software ist so gut wie sein Benutzer,



    doch - Glaube, Liebe, Hoffnung -



    Am Ende bleibt nur BRAVE NEW WORLD



    wie am Ende des Artikels...

    • @Willi Müller alias Jupp Schmitz:

      Software ist immer so gut wie sein(e) Autoren. Das gilt ebenfalls für die Sprachmodelle, auf deren Training und damit "Qualität" der Benutzer überhaupt keinen Einfluss hat.

      Der Benutzer mag die Möglichkeit haben, die Schwächen der Software durch zusätzlichen eigenen Input (Intelligenz) zu kompensieren oder auch nicht, das ist aber nicht dasselbe.

      Wenn ich weiß, das Windows Neustarten oft hilft, liegt dennoch das Hauptproblem bei Microsoft.

      • @Sonntagssegler:

        Das Eine schließt das Andere nicht aus



        Quintessenz: BRAVE NEW WORLD

  • Richtig lustig wird das erst, wenn der Input für die nächste sogenannte KI dann zu einem immer höheren Anteil aus den Halluzinationen der vorherigen besteht.

  • "Künstliche Intelligenz" ist ein Marketinglabel. Wann geht das in unsere Köpfe endlich ein.

    LLMs können schwätzen, als ob es wahr wäre. Nicht mehr.

    Ich versuche, das so zu veranschaulichen: die grösste Gefahr der "Künstlichen Intelligenz" [1] wird die menschliche Dummheit sein.

    [1] gemeint ist das, was heute als solche verkauft wird

  • "Sollten wir überhaupt von künstlicher Intelligenz sprechen, wenn die Programme am Ende ja doch wieder nur aus Algorithmen bestehen, ... "

    zunächst legt ki in form der llm mal offen, in welch hohem maß der eingefütterte input, das ist noch ganz überwiegend "älterer", human verfasster, m.o.w. öffentlicher text-flow, von schematismen und stupiditäten statt "intelligenz" so sehr geprägt ist, dass allein schon deren anwendung zur outputerzeugung oft für die nahtlose eingliederung in den correnten, noch überwiegend human erzeugten comflow reicht.

  • Es gibt keine künstliche Intelligenz.



    Sonst bräuchte man auch nicht so ein Theater darum zu veranstalten.



    Woher auch?



    Das ganze Programmieren (von LLMs, z. B.) wird von mehr oder weniger intelligenten Menschen erledigt auf Grund von Beiträgen meist noch wesentlich weniger intelligenter Menschen, die oft nicht einmal die Sprache verstehen, in der sie schreiben, wobei diese Ergüsse dann von der gleichen Sorte Mitarbeiter überprüft werden.



    Daher wohl auch das Delirium...



    Ich weiß, wovon ich schreibe, ich arbeite seit mehr als einem Jahr in verschiedenen Positionen für verschiedene Firmen für diese LLMs (Papaya, Cocoa und wie sie alle heißen) oder wie R. Crumb es einmal charakterisierte mit KWR.



    Das typische Abstellgleis für Freelance-Übersetzer.

  • krasse ineffizienz in sozialer effizienz. so ist das, ganz normal.



    das schlimme daran ist, das der mensch anscheinend immer noch unfähig und inkonsequent ist, genau zu differenzieren und die wahrheit zu nutzen.

    denn die wahrheit ist eben die hauptfunktion von informations- und recherchesystemen. zu behaupten, es sei nicht wichtig ob KI - besonders eben zur recherche von infos - die wahrheit sagt, ist vollkommener humbug bzw schwachsinn und zeigt mal wieder nur die vermischung von ungezügelter macht, wirtschaft, gier und halbwahrheiten/lügen.

    falschinformationen als potentielle wahrheit zu verbreiten ist schlecht bis hin zu böse. das war schon immer so und wird auch immer so bleiben, so lange das gedächtnis und die moral der menschheit noch halbwegs funktioniert!

  • Als Informatiker muss ich sagen, dass es gegen das, was ChatGPT und andere ausspucken, kein bekanntes Gegenmittel gibt. Dazu müsste erst einmal definiert werden, was Wahrheit überhaupt ist. Heere von Juristen versuchen sich seit Jahrhunderten daran, dies herauszufinden oder die Wahrheit zu vertuschen, je nach Auftraggeber.

    Gerichte einzuschalten, um einem Identitätsklau beizukommen, ist ein verständlicher, doch sinnloser Reflex, allein schon aus Zeitgründen. Natürlich ist es absolut unzufriedenstellend, die weitere Entwicklung nur beobachten, aber mit menschlichen Möglichkeiten kaum beeinflussen zu können.

    Natürlich hat die Informatik viel Gutes hervorgebracht, doch mit ChatGPT hat sie sich wahrlich in den Fuß geschossen. Schon heute können sie von Programmen geschriebene 'wissenschaftliche' Artikel problemlos in anerkannten einschlägigen Zeitschriften veröffentlichen, ohne dass ein Herausgeber oder ein Gutachter aufmuckt. Grund: Einfach keine Zeit.