Künstliche Intelligenz: EU-Regeln für KI kommen

Europa beschließt Regeln für den Einsatz von künstlicher Intelligenz. Die Vorgaben zu Chatbots wie ChatGPT gelten Kritikern als zu lasch.

Überwachungskameras

Überwachung mit künstlicherer Intelligenz wird reguliert Foto: imago

BERLIN taz | Die EU-Staaten haben am Dienstag ihre Regeln zu künstlicher Intelligenz (KI) beschlossen. Der Rat der 27 Mitgliedstaaten stimmte als letzte Instanz dem von EU-Kommission, Parlament und Rat verhandelten Gesetz zu. Damit werden in den kommenden Monaten und Jahren Regeln zum Einsatz, zur Entwicklung und zur Kennzeichnung von KI wirksam. Der AI Act ist das erste derart umfassende und verbindliche KI-Regelwerk weltweit. Die EU hofft daher auf eine Vorbildfunktion für andere Länder.

„Mit dieser wegweisenden Vorschrift – der weltweit ersten ihrer Art – wird eine globale technologische Herausforderung, durch die auch Chancen für unsere Gesellschaften und Volkswirtschaften geschaffen werden, angegangen“, sagte Petra De Sutter, belgische Vizepremierministerin und Ministerin der Telekommunikation. Belgien hat derzeit die europäische Ratspräsidentschaft inne.

Mit der Verabschiedung geht ein vergleichsweise schnelles Gesetzgebungsverfahren zu Ende: Vor drei Jahren hatte die EU-Kommission einen ersten Entwurf für den AI Act vorgelegt. Kern der nun beschlossenen Regeln ist der sogenannte risikobasierte Ansatz. Demzufolge werden KI-Systeme umso strenger reguliert, je höher das ihnen beigemessene Risiko ist.

An der Spitze der Risikopyramide stehen verbotene Systeme. Dazu gehört etwa das aus China bekannte Social Scoring, bei dem der Staat Menschen auf der Grundlage unter anderem ihres Verhaltens einstuft. Für erlaubte KI-Systeme aus dem Hochrisikobereich gelten diverse Regeln. Beim Einsatz zum Beispiel zur Strafverfolgung, im Bildungsbereich oder der Grenzkontrolle müssen sie bestimmte Pflichten zur Transparenz und Kontrolle einhalten.

Bei Chatbots nur „Transparenzpflichten“

Für Systeme mit begrenztem Risiko gelten lediglich einige Transparenzpflichten. In diese Kategorie fallen laut EU-Kommission auch Chatbots wie ChatGPT – was nicht unumstritten ist. Für Systeme, denen nur ein minimales Risiko beigemessen wird, gelten keine speziellen Regeln, etwa für Spamfilter.

Dabei war es zwischenzeitlich nicht ausgemacht, dass der AI Act tatsächlich kommen würde: In der EU stritten sich Parlament und Mitgliedstaaten über Überwachungsbefugnisse und das FDP-geführte deutsche Digitalministerium bremste mit dem Versuch, die Regeln wirtschaftsfreundlicher zu drehen. Verkehrs- und Digitalminister Volker Wissing (FPD) setzte zur finalen Verabschiedung gleich den Marker für die weitere Debatte und betonte am Dienstag, es sei wichtig „die Innovationsfreundlichkeit der Regulierung im Blick“ zu haben.

„KI ist schon in vielen Bereichen unseres täglichen Lebens im Einsatz, daher ist es höchste Zeit, dafür einen Rechtsrahmen zu haben“, sagt Matthias Spielkamp, Geschäftsführer der Menschenrechts-NGO Algorithmwatch. Problematisch sei jedoch die Zahl der Schlupflöcher und Ausnahmen, etwa was Gesichtserkennung im öffentlichen Raum angehe.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.