piwik no script img

Beschwerde gegen ChatGPTWenn die KI einem Nutzer einen Mord zuschreibt

Immer wieder generieren KI-Chatbots Falsches über Menschen. Einen Norweger hat es nun besonders schwer getroffen.

Der undurchsichtige Chatbot von Open AI hat schon wiederholt Falschinformationen über Menschen verbreitet Foto: Guillaume Sallgot/imago

Berlin taz | Es klingt wie eine Szene aus einem Psychothriller: Ein Mann fragt beim KI-Chatbot ChatGPT nach Informationen zu seinem eigenen Namen. Worauf er nicht vorbereitet war: Der Chatbot generierte daraufhin eine Antwort, in der es wahrheitswidrig unter anderem hieß, er habe zwei seiner Kinder ermordet, beim Dritten habe er einen Mord versucht und sei für die Taten zur Höchststrafe von 21 Jahren Haft verurteilt worden. Die falsche Schilderung enthielt aber durchaus reale Elemente über den Nutzer aus Norwegen, unter anderem den Namen seiner Heimatstadt.

Unterstützt wird der Betroffene nun von der Datenschutzorganisation noyb, die für diesen Fall Beschwerde vor der norwegischen Datenschutzbehörde eingereicht hat. Die ­Datenschutz-Grundverordnung (DSGVO) gilt auch dort, Norwegen ist Teil des Europäischen Wirtschaftsraumes.

„Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt sein“, erklärt Joa­kim Söderberg, Jurist bei noyb. Nut­ze­r:in­nen hätten das Recht, Falschinformationen richtigstellen zu lassen. Lediglich einen Hinweis anzuzeigen, dass die generierten Informationen nicht notwendigerweise korrekt sind, sei nicht ausreichend.

ChatGPT ist eine der am meisten genutzten Anwendungen generativer künstlicher Intelligenz, also von KI, die zum Beispiel auf eine Texteingabe hin weiteren Text, Bilder oder Videos erzeugt. Dass dabei Inhalte entstehen, die nichts mit der Wirklichkeit zu tun haben, ist nicht neu. ChatGPT generierte unter anderem bereits nicht existente wissenschaftliche Quellen, Fehlinformationen zu Parteien und falsche Informationen über Menschen.

Nicht das erste Verfahren

Es läuft bereits ein Verfahren, in dem noyb Beschwerde eingereicht hat, weil der Chatbot ein falsches Geburtsdatum zu einer Person erzeugt hat. Das Generieren fehlerhafter Inhalte wird häufig unter dem Begriff „Halluzinationen“ zusammengefasst. Dieser ist jedoch problematisch, weil er den Chatbots damit eine menschliche Eigenschaft zuschreibt.

Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft an der Europa-Universität Viadrina, bezeichnet das Vorgehen von noyb auf Basis der Datenschutz-Grundverordnung als „strategisch klug“. „Damit lässt sich ein europaweit geltendes Urteil erstreiten, und für einen Schadenersatzanspruch muss kein Verschulden nachgewiesen werden, die Haftung ist also strikter als im Bereich des Persönlichkeitsrechts“, so Hacker gegenüber dem ­Science Media Center.

Zudem liege die Rechtsdurchsetzung auf diesem Weg zunächst bei den ­Datenschutzaufsichtsbehörden. Auf deren Arbeit könne sich der Betroffene dann gegebenenfalls berufen, wenn er später eine Zivilklage anstrengt.

Mögliche Folgen

Die Frage ist: Was könnte – neben einem möglichen Bußgeld und eventuellen Schadenersatzansprüchen – die Konsequenz aus dem Fall sein? „Es ist gegenwärtig technisch nur sehr schwer möglich, diese Halluzinationen einzudämmen oder gar auszuschließen“, sagt Hacker. Wenn die Verstöße zu viele und zu schwerwiegend seien, könne eine Aufsichtsbehörde das entsprechende KI-System zeitweilig sperren, bis die Probleme behoben sind. Das entschied etwa die italienische Datenschutzaufsichtsbehörde bei ChatGPT und später auch bei dem chinesischen Anbieter DeepSeek.

„OpenAI könnte dann entweder versuchen, die Suche nach Personen gänzlich zu unterbinden oder mit der Datenschutzaufsichtsbehörde und gegebenenfalls letztlich dem Geschädigten und einem Gericht eine Einigung dahingehend zu erzielen, dass zumindest die Wahrscheinlichkeit derartiger Fehler durch Filtermaßnahmen und ein funktionierendes Notice-and-Action-System drastisch reduziert wird“, so Hacker. Das Unternehmen müsste also niedrigschwellige Beschwerdewege für Nut­ze­r:in­nen einrichten und die Ausgabe von Falschinformationen nach entsprechenden Hinweisen unterbinden.

Ein Sprecher von OpenAI teilte auf Anfrage mit, dass die vorliegende Beschwerde noch geprüft werde. Das Unternehmen habe jedoch bereits reagiert und eine Onlinesuche in den Chatbot eingebaut. Das solle die „Genauigkeit“ der Ergebnisse verbessern.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • Wenn jede Antwort der KI bis in die Details verifiziert werden muss, ist diese , bis auf die Erzeugung von Wortmüll, nutzlos. Es wäre an der Zeit den Werbebegriff Künstliche Intelligenz durch Künstliche Dummheit, auf englisch dann Artifical Debility, kurz AD, zu ersetzen. Oder anders formuliert Künstliche Intelligenz ist wie Künstliche Blumen, vor allem künstlich , sprich nicht real. Ein ähnlicher Werbebegriff ist Digitalisierung, es nützt nichts riesige Textmonster aus Bausteinen zu generieren, irgendjemand muss das lesen, nachvollziehen, bewerten usw. was die Effezienz gegen null und darunter bringt. Was sie voranbringt ist Bürokratie .

  • Daß die KI es nicht eingestehen will, keine Antwort auf irgendeine parat zu haben und dann einfach herumphantasiert, ist doch keine neue Erkenntnis. Und auch nicht das einzige Problem.



    locusmag.com/2023/...d-of-bubble-is-ai/



    Oder auch, von hier, ganz konkret: taz.de/Amazon-Fres...walk-out/!5999230/

  • Wie kam es denn dazu? Gibt es Namensgleichheiten?

    Was, wenn es sogar einige Übereinstimmungen gibt...meine Namenskombi gibt es ca. 200x in Deutschland, mit einem hab ich sogar zusammen studiert, ein anderer ist im Web sehr bekannt. Darüber könnten vielleicht solche fatalen Fehler entstehen.