AI-Verordnung der EU: Streit um KI-Training mit Artikeln

Der neue AI-Act der EU lässt Fragen nach dem Verhältnis von Medien und KI offen. Zum Beispiel: Darf man KIs mit journalistischen Texten füttern?

Zeitungsständer an einem Kiosk.

Die KIs werden auch mit journalistischen Texten trainiert Foto: Michael Gstettenbauer/imago

taz | Künstliche Intelligenz (KI) wird immer klüger, weil sie mit journalistischen Texten trainiert wird. Bisher bekommen Jour­na­lis­t:in­nen dafür aber keinen Cent. Die geplante KI-Verordnung der EU, auch AI-Act genannt, soll zumindest für Transparenz sorgen und Medien die Durchsetzung ihrer Interessen erleichtern.

Der AI-Act ist eine Verordnung der EU, die ohne weitere Umsetzung direkt in allen EU-Staaten gilt. Der entscheidende Passus für Jour­na­lis­t:in­nen steht in Artikel 52c. Danach müssen die Anbieter von großen KI-Sprachmodellen „ausreichend detaillierte Zusammenfassungen“ veröffentlichen, mit welchen Texten sie ihre KI trainiert haben.

Diese Passage wurde auf Druck der deutschen „Initiative Urheberrecht“ aufgenommen, einem Zusammenschluss von rund 40 Organisationen der Kreativwirtschaft. „Ausreichend detailliert ist eine Zusammenfassung, wenn sie den Urhebern hilft, ihre Rechte durchzusetzen“, sagt Hanna Möllers, die Justiziarin des Deutschen Journalistenverbands (DJV), die an den Verhandlungen beteiligt war.

Recht auf Schadenersatz

Die entscheidende Frage bleibt aber offen. Durften KI-Firmen wie Open AI, bekannt für ChatGPT, ohne zu fragen und zu bezahlen ihre Modelle mit journalistischen und anderen Texten trainieren? Wenn nein, dann können betroffene Urheber auf Schadenersatz klagen, um an den zu erwartenden Gewinnen zu partizipieren.

Die Firmen berufen sich auf eine Sonderregelung für Text- und Data-Mining (TDM), die 2019 in die EU-Urheberrichtlinie eingefügt wurde und inzwischen auch im deutschen Urheberrechtsgesetz (§ 44b) steht. Wenn große Text- und Datenmengen maschinell durchsucht werden, um Muster zu erkennen, müssen die Firmen weder fragen noch zahlen. Die Urheber haben dann nur die Möglichkeit, dies generell zu verweigern. Bei Texten, die im Internet stehen, muss der Vorbehalt „maschinenlesbar“ sein. Doch der Text wird dann oft auch nicht mehr von Suchmaschinen gefunden.

Die Initiative Urheberrecht hält die Data-Mining-Ausnahme ohnehin nicht für anwendbar. „Mustererkennung und KI-Training ist nicht dasselbe“, so Möllers. Die Initiative prüft mit dem Verlegerverband BDZV nun eine Klage.

KI-Training nicht leicht nachweisbar

Dabei gibt es mehrere Probleme. Es muss ein Kläger gefunden werden, dessen Text nachweisbar für KI-Training benutzt wurde. Das ist nicht so einfach, denn die neue Transparenzpflicht durch den AI-Act gilt erst nach einer Übergangszeit.

Dazu sitzen die meisten KI-Firmen in den USA, wo sie wohl auch ihre KI trainiert haben. In den USA gibt es keine Data-Mining-Ausnahme, sondern eine Ausnahme für „Fair use“ (angemessene Verwendung). In den USA ist schon rund ein Dutzend Klagen anhängig, die bekannteste stammt von der New York Times und richtet sich gegen Open AI.

Neben den Gerichten hofft die Initiative Urheberrecht auch weiter auf den Gesetzgeber. Ab 2026 wird die EU-Urheberrichtlinie evaluiert. Dann soll, so die Forderung, eine ausdrückliche Vergütungspflicht für das Training von KI-Modellen in die Richtlinie aufgenommen werden. Die Zahlungen der KI-Firmen könnten dann von Verwertungsgesellschaften wie der VG Wort eingefordert und an die Jour­na­lis­t:in­nen verteilt werden.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.