Beschwerde gegen ChatGPT: Wenn die KI einem Nutzer einen Mord zuschreibt
Immer wieder generieren KI-Chatbots Falsches über Menschen. Einen Norweger hat es nun besonders schwer getroffen.

Unterstützt wird der Betroffene nun von der Datenschutzorganisation noyb, die für diesen Fall Beschwerde vor der norwegischen Datenschutzbehörde eingereicht hat. Die Datenschutz-Grundverordnung (DSGVO) gilt auch dort, Norwegen ist Teil des Europäischen Wirtschaftsraumes.
„Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt sein“, erklärt Joakim Söderberg, Jurist bei noyb. Nutzer:innen hätten das Recht, Falschinformationen richtigstellen zu lassen. Lediglich einen Hinweis anzuzeigen, dass die generierten Informationen nicht notwendigerweise korrekt sind, sei nicht ausreichend.
ChatGPT ist eine der am meisten genutzten Anwendungen generativer künstlicher Intelligenz, also von KI, die zum Beispiel auf eine Texteingabe hin weiteren Text, Bilder oder Videos erzeugt. Dass dabei Inhalte entstehen, die nichts mit der Wirklichkeit zu tun haben, ist nicht neu. ChatGPT generierte unter anderem bereits nicht existente wissenschaftliche Quellen, Fehlinformationen zu Parteien und falsche Informationen über Menschen.
Nicht das erste Verfahren
Es läuft bereits ein Verfahren, in dem noyb Beschwerde eingereicht hat, weil der Chatbot ein falsches Geburtsdatum zu einer Person erzeugt hat. Das Generieren fehlerhafter Inhalte wird häufig unter dem Begriff „Halluzinationen“ zusammengefasst. Dieser ist jedoch problematisch, weil er den Chatbots damit eine menschliche Eigenschaft zuschreibt.
Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft an der Europa-Universität Viadrina, bezeichnet das Vorgehen von noyb auf Basis der Datenschutz-Grundverordnung als „strategisch klug“. „Damit lässt sich ein europaweit geltendes Urteil erstreiten, und für einen Schadenersatzanspruch muss kein Verschulden nachgewiesen werden, die Haftung ist also strikter als im Bereich des Persönlichkeitsrechts“, so Hacker gegenüber dem Science Media Center.
Zudem liege die Rechtsdurchsetzung auf diesem Weg zunächst bei den Datenschutzaufsichtsbehörden. Auf deren Arbeit könne sich der Betroffene dann gegebenenfalls berufen, wenn er später eine Zivilklage anstrengt.
Mögliche Folgen
Die Frage ist: Was könnte – neben einem möglichen Bußgeld und eventuellen Schadenersatzansprüchen – die Konsequenz aus dem Fall sein? „Es ist gegenwärtig technisch nur sehr schwer möglich, diese Halluzinationen einzudämmen oder gar auszuschließen“, sagt Hacker. Wenn die Verstöße zu viele und zu schwerwiegend seien, könne eine Aufsichtsbehörde das entsprechende KI-System zeitweilig sperren, bis die Probleme behoben sind. Das entschied etwa die italienische Datenschutzaufsichtsbehörde bei ChatGPT und später auch bei dem chinesischen Anbieter DeepSeek.
„OpenAI könnte dann entweder versuchen, die Suche nach Personen gänzlich zu unterbinden oder mit der Datenschutzaufsichtsbehörde und gegebenenfalls letztlich dem Geschädigten und einem Gericht eine Einigung dahingehend zu erzielen, dass zumindest die Wahrscheinlichkeit derartiger Fehler durch Filtermaßnahmen und ein funktionierendes Notice-and-Action-System drastisch reduziert wird“, so Hacker. Das Unternehmen müsste also niedrigschwellige Beschwerdewege für Nutzer:innen einrichten und die Ausgabe von Falschinformationen nach entsprechenden Hinweisen unterbinden.
Ein Sprecher von OpenAI teilte auf Anfrage mit, dass die vorliegende Beschwerde noch geprüft werde. Das Unternehmen habe jedoch bereits reagiert und eine Onlinesuche in den Chatbot eingebaut. Das solle die „Genauigkeit“ der Ergebnisse verbessern.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
„Friedensgespräche“ in Riad
Die Verhandlungen mit Russland sind sinnlos
Ökonom über Steuersystem
„Auch in der Mitte gibt es das Gefühl, es geht ungerecht zu“
Trumps Kampf gegen die Universitäten
Columbia knickt ein
Letzte Generation angeklagt
Was sie für uns riskieren
Ergebnis der Abstimmung
Pariser wollen Hunderte Straßen für Autos dichtmachen
Kostenloser Nahverkehr
Schafft endlich die Tickets ab