Nach Marathonsitzung: EU einigt sich auf Regeln für KI

Verbote, Pflichten und Geldbußen sind vorgesehen. Doch Verbraucher- und Bürgerrechtsorganisationen sind besorgt.

Person müde über einen Laptop gebeugt

Müde? In Bildungseinrichtungen soll die Emotionserkennung mittels KI nicht erlaubt sein Foto: Tomasz Trojanowski/Imago

BERLIN taz | Nach einer zähen letzten Verhandlungsrunde haben sich die EU-Gremien auf ein Regelwerk zu künstlicher Intelligenz (KI) geeinigt. Streitpunkt der letzten Verhandlungsrunde war vor allem das Thema KI und Überwachung. Dort standen die Mitgliedstaaten mit ihrem Interesse an möglichst breiten Überwachungsmöglichkeiten dem weitgehend bürgerrechtsfreundlicheren EU-Parlament gegenüber.

EU-Kommissionspräsidenten Ursula von der Leyen sprach nach der Einigung von einem „historischen Moment“, da es sich um den weltweit ersten umfassenden Rechtsrahmen zu KI handle. „Das KI-Gesetz überträgt europäische Werte in eine neue Ära“, so von der Leyen.

Kern der neuen Regulierung ist die Einteilung von KI-Systemen in Risikoklassen. Was in die höchste Kategorie fällt, ist verboten – zum Beispiel Systeme zur Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen. In die zweithöchste Risikoklasse fallen Systeme, die ein „erhebliches Schadenspotenzial“ etwa für die Demokratie, die Gesundheit oder Sicherheit haben. Für sie soll es eine Reihe an Vorschriften geben sowie Beschwerdemöglichkeiten für Betroffene. Andere Systeme, etwa Chatbots, werden nur wenig oder nicht reguliert.

Kurz vor der letzten Verhandlungsrunde war ein Konflikt um die besonders wichtigen und leistungsfähigen KI-Systeme ausgebrochen, die Basismodelle. Diese bilden die Grundlage für zahlreiche weitere Anwendungen. Deutschland hatte gemeinsam mit Frankreich und Italien gefordert, diese Modelle von verpflichtenden Regeln auszunehmen und nur eine Selbstverpflichtung anzustoßen. Die Position setzte sich nicht durch: Wer Basismodelle auf den Markt bringt, muss unter anderem Transparenz- und Dokumentationspflichten erfüllen. Sind es Modelle mit hohem Risiko, gelten weitere Vorschriften, zum Beispiel strengere Tests.

Streitpunkt Überwachung

Grund dafür, dass sich die Verhandlungen letztlich so zogen, war ein anderer: der fundamentale Dissens zwischen EU-Parlament und Mitgliedstaaten zum Thema Überwachung. Letztere wollten möglichst viele Möglichkeiten verankern, biometrische Überwachung mittels KI zu erlauben, also beispielsweise KI-basierte Gesichtserkennung bei Videoüberwachung.

Der Kompromiss kommt den Mitgliedstaaten nun weit entgegen: So sind zwar einige grundsätzliche Verbote vorgesehen, etwa die Echtzeit-Gesichtserkennung bei Überwachungsmaßnahmen oder eine biometrische Kategorisierung, bei der sensible Merkmale wie sexuelle Orientierung oder religiöse Überzeugungen verwendet werden.

Doch gleichzeitig sind zahlreiche Ausnahmen für Strafverfolgungsbehörden vorgesehen – zum Beispiel, wenn es um die Suche nach Personen geht, die im Verdacht stehen, eine schwere Straftat, zum Beispiel einen bewaffneten Raubüberfall begangen zu haben.

„Die EU-Regierungen mussten zugeben, dass KI-Syteme zunehmen für Massenüberwachung, racial profiliung und andere schädliche Zwecke genutzt werden“, kritisiert Sarah Chander von der europäischen Bürgerrechtsorganisation EDRi. Die Einigung enthalte zwar einige begrenzte Fortschritte bei den Menschenrechten, werde aber größtenteils nur eine Hülle für das KI-Recht sein, das Europa brauche.

Eine Position, die andere Menschenrechtsorganisationen teilen: „Der AI Act ist nur ein Puzzlestück unter vielen, die wir brauchen werden, um Menschen und Gesellschaften vor den grundlegenden Auswirkungen zu schützen, die KI-Systeme auf unsere Rechte, unsere Demokratie und die gesellschaftliche Machtverteilung haben können“, sagt Angela Müller von der NGO Algorithmwatch.

Ungeklärte Fragen

„Zu viele Fragen bleiben unzureichend geregelt, und man verlässt sich zu sehr auf den guten Willen der Unternehmen“, kritisiert Ursula Pachl vom EU-Verbraucherschutzverband BEUC. So würden etwa virtuelle Assistenten oder KI-gesteuerte Spielzeuge nicht ausreichend reguliert – denn sie gelten nicht als Systeme mit hohem Risiko. Auch die Basismodelle würden nicht so stark reguliert wie nötig. So fehle etwa eine Prüfung durch unabhängige Organisationen.

Von der Wirtschaft kommt dagegen Kritik aus der gegenteiligen Richtung: So bemängelte etwa der Bundesverband der Deutschen Industrie eine Überregulierung. Der Verband Digitaleurope, der vor allem Unternehmen rund um die IT-Branche vertritt, kritisierte, die Vorschriften würden dazu führen, dass viel Geld in anwaltliche Beratung ausgegeben werden müsse, das nicht in die Bezahlung von KI-Programmierer:innen fließen könne.

Für Unternehmen, die sich nicht an die Regeln halten, sind Geldbußen vorgesehen: Je nach Verstoß und Größe des Unternehmens können es bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Umsatzes sein.

EU-Parlament und Rat müssen der Einigung noch zustimmen. Das gilt aber als Formsache. Der AI Act soll damit noch vor der Europawahl im kommenden Jahr verabschiedet werden.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.