Vor Inkrafttreten der EU-Regeln: Werkzeugkoffer gegen KI-Auswüchse

Verbände bereiten sich darauf vor, das neue EU-Recht zu Künstlicher Intellligenz durchzusetzen, welches in Kürze in Kraft tritt. Doch es gibt Lücken.

Eine Teilnehmerin der re:­pu­bli­ca mit VR-Brille

Auf der Suche nach Durchblick auf der Digitalkonferenz re:­pu­bli­ca Foto: Gambarini/Funke/imago

BERLIN taz | Beschwerden, Klagen, eine systematische Beobachtung neuer Geschäftsmodelle – die Zivilgesellschaft wappnet sich für die Durchsetzung der neuen europäischen Regeln zu künstlicher Intelligenz (KI). „Mit der Kombination unserer Möglichkeiten haben wir ein ziemlich scharfes Schwert in der Hand“, sagte Jutta Gurkmann, Geschäftsbereichsleiterin für Verbraucherpolitik beim Verbraucherzentrale Bundesverband (vzbv), bei einer Podiumsdiskussion auf der Digitalkonferenz re:­pu­bli­ca am Dienstag.

Der AI Act, der erst in der vergangenen Woche endgültig verabschiedet wurde, ist die erste umfassende und verbindliche Regulierung von KI. Als „Meilenstein in Bezug auf den Schutz von Diskriminierung durch künstliche Intelligenz“, bezeichnete Christiane Rohleder, Staatssekretärin im Verbraucherschutzministerium, das Regelwerk bei der Diskussion.

„Es gibt einige Schutzlücken“, widersprach der Recht- und Ethikprofessor Philipp Hacker. Zum Beispiel bei der sogenannten General Purpose AI, also KI-Systemen, die besonders vielfältig einsetzbar sind. Dazu gehören die GPT-Modelle, die auch die Basis für den KI-Chatbot ChatGPT bilden.

Für diese Modelle gebe es nämlich eine folgenschwere Ausnahme: Die Vorschriften, die Herstellern von Hoch­risiko­systemen Auflagen für ihre Trainingsdaten machten, etwa was Diversität und Repräsentativität angeht, gälten für sie nicht. Auf Basis der Trainingsdaten lernt eine KI. Hatte also etwa eine KI zum Generieren von Bildern nur männliche Ärzte in ihren Trainingsdaten, wird sie höchstwahrscheinlich keine Bilder von Ärztinnen erzeugen. „Wir bräuchten hier eine Art Content-Moderation bei den Trainingsdaten selbst“, fordert Hacker.

Österreichische Datenschutz-NGO gegen OpenAI

Diese Forderung könnte noch bei einem der ersten Verfahren zum Tragen kommen, die derzeit in Sachen KI laufen. Die österreichische Datenschutz-NGO Noyb hat Beschwerde gegen OpenAI, das Unternehmen hinter ChatGPT, eingereicht.

Der Vorwurf: ChatGPT generiere – mindestens in dem beanstandeten Fall – reproduzierbar falsche persönliche Daten über eine reale Person und sei nicht in der Lage, das zu korrigieren. Ein klassischer Fall strategischer Prozessführung, wie Mitdiskutantin Svea Windwehr von der Gesellschaft für Freiheitsrechte (GFF) erklärt: „Es geht darum, Grund- und Menschenrechte zu stärken und diese anhand von gezielten Fällen durchzusetzen.“

Besonders viele Möglichkeiten haben hier Verbände, die auch zu Verbandsklagen berechtigt sind, wie der vzbv, erklärt Gurkmann: Sie könnten mittlerweile auch Schadensersatz für Betroffene einklagen. Darüber hinaus gebe es weitere Werkzeuge wie die systematische Marktüberwachung etwa neuer, potenziell problematischer Geschäftsmodelle.

GFF-Aktivistin Windwehr kritisiert jedoch die prekäre Finanzierung vieler zivilgesellschaftlicher Akteure: „Es ist toll, dass die Zivilgesellschaft als Partner wahrgenommen wird, aber es besteht ein großes Finanzierungsloch.“ Sie fordert nachhaltige Finanzierungswege, etwa einen Fonds, der sich aus staatlichen und privaten Mitteln speist.

Aufsichtsbehörden auf EU- und nationaler Ebene vorgesehen

Dabei soll es nicht nur die Zivilgesellschaft übernehmen, den AI Act durchzusetzen. Auch Aufsichtsbehörden sowohl auf EU- als auch auf nationaler Ebene sind vorgesehen.

In Deutschland ist noch offen, wie die Aufsicht im Detail umgesetzt wird. Rechtsexperte Hacker fordert dabei ein Denken jenseits der bekannten ­Strukturen: „Man muss neue Herangehens­weisen finden, sonst wird das nichts.“ Schließlich sei es ein Unterschied, ob eine Bank KI einsetzen will, eine medizinische Einrichtung oder eine Schule. Statt einer Arbeit entlang der etablierten Behördengrenzen schlägt Hacker beispielsweise projektbezogene Zusammenarbeit vor.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.