piwik no script img

Vor Inkrafttreten der EU-RegelnWerkzeugkoffer gegen KI-Auswüchse

Verbände bereiten sich darauf vor, das neue EU-Recht zu Künstlicher Intellligenz durchzusetzen, welches in Kürze in Kraft tritt. Doch es gibt Lücken.

Auf der Suche nach Durchblick auf der Digitalkonferenz re:­pu­bli­ca Foto: Gambarini/Funke/imago

Berlin taz | Beschwerden, Klagen, eine systematische Beobachtung neuer Geschäftsmodelle – die Zivilgesellschaft wappnet sich für die Durchsetzung der neuen europäischen Regeln zu künstlicher Intelligenz (KI). „Mit der Kombination unserer Möglichkeiten haben wir ein ziemlich scharfes Schwert in der Hand“, sagte Jutta Gurkmann, Geschäftsbereichsleiterin für Verbraucherpolitik beim Verbraucherzentrale Bundesverband (vzbv), bei einer Podiumsdiskussion auf der Digitalkonferenz re:­pu­bli­ca am Dienstag.

Der AI Act, der erst in der vergangenen Woche endgültig verabschiedet wurde, ist die erste umfassende und verbindliche Regulierung von KI. Als „Meilenstein in Bezug auf den Schutz von Diskriminierung durch künstliche Intelligenz“, bezeichnete Christiane Rohleder, Staatssekretärin im Verbraucherschutzministerium, das Regelwerk bei der Diskussion.

„Es gibt einige Schutzlücken“, widersprach der Recht- und Ethikprofessor Philipp Hacker. Zum Beispiel bei der sogenannten General Purpose AI, also KI-Systemen, die besonders vielfältig einsetzbar sind. Dazu gehören die GPT-Modelle, die auch die Basis für den KI-Chatbot ChatGPT bilden.

Für diese Modelle gebe es nämlich eine folgenschwere Ausnahme: Die Vorschriften, die Herstellern von Hoch­risiko­systemen Auflagen für ihre Trainingsdaten machten, etwa was Diversität und Repräsentativität angeht, gälten für sie nicht. Auf Basis der Trainingsdaten lernt eine KI. Hatte also etwa eine KI zum Generieren von Bildern nur männliche Ärzte in ihren Trainingsdaten, wird sie höchstwahrscheinlich keine Bilder von Ärztinnen erzeugen. „Wir bräuchten hier eine Art Content-Moderation bei den Trainingsdaten selbst“, fordert Hacker.

Österreichische Datenschutz-NGO gegen OpenAI

Diese Forderung könnte noch bei einem der ersten Verfahren zum Tragen kommen, die derzeit in Sachen KI laufen. Die österreichische Datenschutz-NGO Noyb hat Beschwerde gegen OpenAI, das Unternehmen hinter ChatGPT, eingereicht.

Der Vorwurf: ChatGPT generiere – mindestens in dem beanstandeten Fall – reproduzierbar falsche persönliche Daten über eine reale Person und sei nicht in der Lage, das zu korrigieren. Ein klassischer Fall strategischer Prozessführung, wie Mitdiskutantin Svea Windwehr von der Gesellschaft für Freiheitsrechte (GFF) erklärt: „Es geht darum, Grund- und Menschenrechte zu stärken und diese anhand von gezielten Fällen durchzusetzen.“

Besonders viele Möglichkeiten haben hier Verbände, die auch zu Verbandsklagen berechtigt sind, wie der vzbv, erklärt Gurkmann: Sie könnten mittlerweile auch Schadensersatz für Betroffene einklagen. Darüber hinaus gebe es weitere Werkzeuge wie die systematische Marktüberwachung etwa neuer, potenziell problematischer Geschäftsmodelle.

GFF-Aktivistin Windwehr kritisiert jedoch die prekäre Finanzierung vieler zivilgesellschaftlicher Akteure: „Es ist toll, dass die Zivilgesellschaft als Partner wahrgenommen wird, aber es besteht ein großes Finanzierungsloch.“ Sie fordert nachhaltige Finanzierungswege, etwa einen Fonds, der sich aus staatlichen und privaten Mitteln speist.

Aufsichtsbehörden auf EU- und nationaler Ebene vorgesehen

Dabei soll es nicht nur die Zivilgesellschaft übernehmen, den AI Act durchzusetzen. Auch Aufsichtsbehörden sowohl auf EU- als auch auf nationaler Ebene sind vorgesehen.

In Deutschland ist noch offen, wie die Aufsicht im Detail umgesetzt wird. Rechtsexperte Hacker fordert dabei ein Denken jenseits der bekannten ­Strukturen: „Man muss neue Herangehens­weisen finden, sonst wird das nichts.“ Schließlich sei es ein Unterschied, ob eine Bank KI einsetzen will, eine medizinische Einrichtung oder eine Schule. Statt einer Arbeit entlang der etablierten Behördengrenzen schlägt Hacker beispielsweise projektbezogene Zusammenarbeit vor.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
  • Zum Titelbild:



    So langsam komme ich dahinter, warum immer mehr Menschen die Realität ausblenden wollen.