piwik no script img

Beschwerde gegen OpenAI in der EUDatenschützer kritisieren ChatGPT

Dass ChatGPT auch Unsinn liefert, ist bekannt. Wenn die KI-Software allerdings Fake News über Personen ausspuckt, könnte das gegen EU-Recht verstoßen.

Die Informationen zu Personen stimmen nicht immer – das könnte gegen EU-Recht verstoßen Foto: dpa

Wien dpa | Die europäische Datenschutz-Organisation Noyb hat zusammen mit einem betroffenen europäischen Bürger eine Datenschutz-Beschwerde gegen den ChatGPT-Anbieter OpenAI wegen des Verstoßes gegen die Europäische Datenschutz-Grundverordnung (DSGVO) eingereicht. Die von Datenschutz-Aktivist Max Schrems mitbegründete Organisation warf OpenAI am Montag unter anderem vor, im Fall einer namentlich nicht genannten „Person des öffentlichen Lebens“ falsche Angabe zu persönlichen Daten zu machen, ohne die gesetzlich vorgeschriebene Möglichkeit einer Berichtigung oder Löschung einzuräumen.

Schrems hatte zuvor bereits dem Facebook-Konzern Meta in zwei Klagen das Fürchten gelehrt und dabei zweimal vor dem Europäischen Gerichtshof wichtige Datenabkommen zwischen den USA und Europa gekippt.

In der Auseinandersetzung mit ChatGPT-Entwickler OpenAI wirft Noyb dem US-Unternehmen vor, den Menschen in Europa ihre Rechte nach der DSGVO zu verweigern. Im konkreten Fall, in dem es auch um ein falsches Geburtsdatum ging, habe OpenAI damit argumentiert, dass eine Korrektur der Daten nicht möglich sei. Man könne zwar Daten bei bestimmten Anfragen blockieren, etwa den Namen des Prominenten. Man könne ChatGPT aber nicht daran zu hindern, alle Informationen über den Beschwerdeführer zu filtern.

Noyb warf OpenAI weiterhin vor, nicht angemessen auf das Auskunftsersuchen des Beschwerdeführers reagiert zu haben. Obwohl die DSGVO den Nutzerinnen und Nutzern das Recht einräume, eine Kopie aller persönlichen Daten zu verlangen, habe es OpenAI versäumt, die verarbeiteten Daten, ihre Quellen oder Empfänger offenzulegen.

Maßnahmen zur Sicherstellung richtiger persönlicher Daten

Maartje de Graaf, Datenschutzjuristin bei Noyb, sagte, die Verpflichtung, einem Auskunftsersuchen nachzukommen, gelte für alle Unternehmen. „Es ist selbstverständlich möglich, die verwendeten Trainingsdaten zu protokollieren, um zumindest eine Vorstellung von den Informationsquellen zu erhalten. Es scheint, dass mit jeder ‚Innovation‘ eine andere Gruppe von Unternehmen meint, dass ihre Produkte nicht mit dem Gesetz übereinstimmen müssen.“

Noyb und der Betroffene forderten nun die österreichische Datenschutzbehörde (DSB) zu einer Untersuchung der Datenverarbeitungspraktiken von OpenAI auf. Von besonderem Interesse sei dabei die Frage, welche Maßnahmen das Start-up zur Sicherstellung der Richtigkeit persönlicher Daten getroffen habe. Gegen OpenAI müsse ein Bußgeld verhängt werden, um die zukünftige Einhaltung der Vorschriften sicherzustellen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

7 Kommentare

 / 
  • Schuld ist, wer Mist verbreitet.



    ChatGPT liefert von sich aus keine Daten an die Öffentlichkeit, sondern an den, welcher eine Anfrage stellt. Diese Antworten können falsch sein, diskriminierend oder Mist. Aber sie sind nicht durch Vorsatz falsch, sondern wegen falscher Daten und algorithmischen Fehlern. Deshalb ist meines Erachtens immer noch zuerst der Verantwortlich, der sie ungeprüft in Umlauf bringt.



    Im Internet steht so viel falscher Mist, vor allem in sozialen Medien, dmüsste man all dies auch verbieten.

  • Wenn OpenAI dem Bot erklären müsste, welche Geburtsdaten zu welcher Person gehören, dann wäre das Prinzip der künstlichen Intelligenz dort ausgehebelt.



    Was man vielleicht etwas deutlicher herausstellen müsste wäre die Information, dass ChatGPT nicht als Informationsquelle dient.



    Und der Hinweis, wie in manchen Romanen: Übereinstimmungen zwischen den Antworten und realen Personen-Daten sind rein zufälliger Natur und sollen nicht implizieren, dass es sich tatsächlich um die Daten der genannten Person handelt.

  • Ich halte diese Aktion für reißerisch, aber wenn am Ende ein wenig Aufklärung über diese Art Maschinen betrieben wird ist das schon OK. Leider verstehen die meisten Leuten nicht, dass BigData Geschäfte ein Mittel sind, die Armen ärmer und die Reichen reicher zu machen, weil uns einmal mehr eine Teil unserer Selbstbestimmungsmöglichkeiten genommen wird.

  • Ich kann nur jeden EU-Bürger empfehlen bei noyb Mitglied zu werden. Das ist effektiver als jede Wahlentscheidung.

  • Ich finde den Artikel sehr interessant,

    Aber es ist doch so, dass ChatGPT seine Antworten nirgendwo selbst veröffentlicht.



    D.h. im Umkehrschluss ist derjenige für die Verbreitung verantwortlich, der es irgendwo veröffentlicht, im Zweifelsfall die Person.



    Hier ist es die Aufgabe des Benutzers, die Informationen zu überprüfen und zu verifizieren, bevor es von dieser Person veröffentlicht wird.

    Es ist immer wichtig, von welcher Seite man es sieht, würde ich sagen.

    • @Bernd Lämmerer:

      Gute Antwort, volle Zustimmung.

  • Die KI verhält sich wie ein Kind, plappert irgendwas nach, was es aufgeschnappt hat. Richtig oder falsch? Woher soll die KI das wissen? Schmunzeln bei mir!