piwik no script img

KI-Training mit NutzerdatenFacebook-Konzern abgemahnt

Facebook-Mutter Meta will Nutzerdaten zum Training von künstlicher Intelligenz verwenden. Verbraucherschützer gehen jetzt dagegen vor.

Darf Meta AI sich mit Kundendaten trainieren? Foto: David Talukdar/imago

dpa | Das vom Facebook-Konzern Meta geplante Training seiner KI-Software Meta AI durch Nutzerdaten aus Instagram und Facebook stößt auf Kritik von Verbraucherschützern. Das Vorgehen verstoße gegen europäisches Datenschutzrecht, teilte die Verbraucherzentrale Nordrhein-Westfalen (VZ NRW) mit. Man habe Meta daher abgemahnt.

Laut Meta plant die VZ NRW, eine einstweilige Verfügung gegen das KI-Training von Meta zu beantragen. Solch eine Unterlassungsverfügung bedrohe deutsche KI-Innovation, Wirtschaftswachstum und den EU-Binnenmarkt, teilte Meta in einer Stellungnahme mit. „Dieses Training ist in der Branche üblich und entscheidend dafür, dass unsere modernen KI-Produkte und -Modelle die deutsche Kultur, Sprache und Geschichte zunehmend besser verstehen und wiedergeben“, hieß es.

Meta hatte Mitte April angekündigt, seine KI „bald“ mit öffentlich zugänglichen Beiträgen erwachsener Nutzer sowie mit Interaktionen von Nutzern mit Meta AI zu trainieren. Laut Verbraucherzentrale hatte Meta die Nutzerinnen und Nutzer von Instagram und Facebook über das Vorhaben per InApp-Mitteilung oder E-Mail informiert.

Man habe Zweifel an der Rechtmäßigkeit des Vorgehens und Meta deshalb abgemahnt, teilte die Verbraucherzentrale mit. Sollte Meta der Aufforderung nicht freiwillig nachkommen, werden man weitere rechtliche Schritte prüfen, erklärte die Datenschutzexpertin der Verbraucherzentrale NRW, Christine Steffen. „Es ist Eile geboten, denn alle Daten, die einmal in die KI eingeflossen sind, können nur schwer wieder zurückgeholt werden.“

Vorgehen entspreche nicht den gesetzlichen Anforderungen

Die Verbraucherschützer beanstanden unter anderem, dass das konkrete Vorgehen nicht den gesetzlichen Anforderungen entspreche. Der pauschale Verweis auf ein „berechtigtes Interesse“ reiche nicht aus. Nutzer müssten nicht akzeptieren, dass ihre persönlichen Informationen, die sie über Jahre auf den Plattformen hinterlassen haben, für KI-Training verwendet werden.

„Außerdem ist nicht auszuschließen, dass auch besonders sensible Informationen, die laut Datenschutz-Grundverordnung besonders geschützt sind, für KI-Trainingszwecke verwendet werden“, so Steffen. „Dann reicht ein sogenanntes Opt-out – so wie es Meta anbietet – nicht aus, sondern Betroffene müssten dem aktiv zustimmen.“

Eine mögliche Unterlassungsverfügung wäre laut Meta ein „großer Rückschlag für deutsche Verbraucher*innen, die sich lokal relevante KI-Technologie wünschen, und für deutsche Unternehmen, die auf KI-Modellen aufbauen wollen, die lokale Nuancen verstehen“.

Laut Verbraucherzentrale können Verbraucherinnen und Verbraucher der Verwendung ihrer öffentlichen Informationen für KI-Trainingszwecke vor dem 27. Mai widersprechen. Eine Anleitung dazu biete man auf der VZ NRW-Homepage an. „Der Widerspruch muss nicht begründet werden, erforderlich ist jedoch die Angabe einer E-Mail-Adresse“, hieß es weiter.

Unser Mittel gegen Antifeminismus

Wir machen linken Journalismus aus Überzeugung: kritisch, unabhängig und frei zugänglich für alle. Es gibt keinen Bezahlzwang, keine Paywall. Das geht nur, weil sich viele freiwillig beteiligen und unsere Arbeit unterstützen. Auch im Digitalen muss Journalismus, der für mehr Gleichberechtigung eintritt, finanziert werden. Unsere Leser:innen wissen: Journalismus entsteht nicht aus dem Nichts. Damit wir auch morgen noch unsere Arbeit machen können, brauchen wir Ihre Unterstützung. Schon über 48.000 Menschen machen mit und finanzieren damit die taz im Netz - kostenlos für alle. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5 Euro sind Sie dabei. Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
  • Na schön, dass ich noch nie das Bedürfnis hatte, mich bei diesem ganzen „Gesochse“ ( facebook, twitter, paypal, und und und) anzumelden.