FAQ zum neuen AI Act der EU: KI bekommt Regeln
Künstliche Intelligenz hilft bei der Überwachung, aber auch bei der Verbreitung von Hass und Fake News. Die EU schafft nun weltweit einmalig Recht.
![Gesichter sind mit Markierungen einer Gesichtserkennungs-Software überzogen Gesichter sind mit Markierungen einer Gesichtserkennungs-Software überzogen](https://taz.de/picture/6821885/14/KI-Regeln-1.jpeg)
Bisher ist es weltweit einmalig: Die Europäische Union schafft Regeln zum Umgang mit künstlicher Intelligenz (KI). Am Dienstag stimmen die beiden federführenden Ausschüsse des EU-Parlaments über die KI-Verordnung ab, oft ist englischsprachig vom „AI Act“ die Rede. Die Zustimmung gilt als sicher. Unterhändler von EU-Parlament und Mitgliedstaaten haben schon im Dezember alles ausverhandelt. Dennoch stand das Projekt gerade erst auf der Kippe – wegen der FDP.
Auf den letzten Metern hatte der kleinste Partner der Bundesregierung in Person von Digitalminister Volker Wissing gedroht, Deutschlands Zustimmung doch noch zu verweigern, um weniger Vorgaben für Unternehmen durchzusetzen. Letztlich stimmte die Bundesregierung doch noch zu im Ausschuss der Ständigen Vertreter, der die finalen Entscheidungen des Ministerrats der EU-Regierungen vorbereitet.
Was genau ist der AI Act?
Künstliche Intelligenz (KI) ist als Technologie für eine breite Masse an Menschen noch eine verhältnismäßig junge Entwicklung. Den bislang größten Schub erhielt sie, als vor etwas über einem Jahr das generative Sprachmodell ChatGPT des Unternehmens OpenAI an den Start ging. Die App wurde damals zur App mit den schnellsten Nutzerzuwächsen.
Doch auch in anderen Bereichen steckt KI: In Bild- und Tonbearbeitungsprogrammen, in ersten medizinischen Anwendungen oder in der Polizeiarbeit zum Beispiel. Weil die Einsatzzwecke zunehmend sensibel sind und die Anwendungsbereiche sich ausweiten, hat die EU schon vor knapp drei Jahren eine Regulierung vorgeschlagen: Der AI Act teilt KI-Anwendungen in Risikoklassen und reguliert diese mehr oder weniger streng.
Manche Einsatzzwecke werden auch verboten, zum Beispiel staatliche Scoring-Systeme, die Menschen anhand ihres Verhaltens klassifizieren würden. Bei Verstößen gegen die Regeln drohen Unternehmen Strafen von bis zu 35 Millionen Euro oder bis zu sieben Prozent des weltweiten Gewinns.
Was bringen die vereinbarten Regeln für Verbesserungen?
Ein Lob kommt beispielsweise vom Verbraucherzentrale Bundesverband (vzbv): „Der AI Act stellt eine Verbesserung für Verbraucher:innen dar, etwa bei den Betroffenenrechten“, sagte dessen Vorständin Ramona Pop. Die neuen Regeln könnten daher die „Akzeptanz und das Vertrauen der Verbraucher:innen in die Technologie stärken“. Auch der Bundesdatenschutzbeauftragte sieht Positives: „Die KI-Verordnung stärkt in vielen Teilen den Datenschutz“, sagte ein Sprecher der Behörde. Gut sei etwa das Verbot von Social Scoring, und das Verbot, mittels Scraping, also dem automatischen Durchsuchen des Internets, Gesichtserkennungsdatenbanken zu erstellen. Die Rechte von Betroffenen würden etwa durch Transparenz- und Qualitätsanforderungen für die Unternehmen gestärkt und durch das Recht, bei einer noch einzurichtenden KI-Aufsichtsbehörde Beschwerde einzulegen.
Aber es gibt auch Kritik?
Ja. Im Zentrum der Kritik stehen Überwachungsbefugnisse, die vor allem auf Druck der Mitgliedstaaten aufgenommen wurden. „Es ist sehr bedauerlich, dass es kein klares Verbot biometrischer Echtzeit-Fernerkennung im öffentlichen Raum gibt“, sagt der Sprecher des Bundesdatenschutzbeauftragten.
Die Gesichtserkennung war in den Verhandlungen stark umstritten gewesen. Da ging es beispielsweise um Situationen, in denen Behörden nachträglich oder in Echtzeit die von Überwachungskameras aufgezeichneten Daten mit biometrischer Gesichtserkennungssoftware durchsuchen.
Die europäische Bürgerrechtsorganisation EDRi warnt daher davor, dass die neuen Regelungen dazu beitragen könnten, „die Überwachungsaktivitäten von Polizei und Migrationskontrollbehörden auszuweiten und zu legitimieren“. Die NGO Algorithmwatch kritisiert darüber hinaus „große Schlupflöcher“ für Unternehmen: So hätten die Hersteller von KI-Systemen ein Mitspracherecht bei der Frage, ob ihre Systeme als Hochrisiko-KI, für die besonders strenge Regeln gelten, eingestuft werden.
Darüber hinaus gebe es für Bereiche der nationalen Sicherheit, der Strafverfolgung und der Migration Ausnahmen für Hochrisiko-Systeme. „Der Kompromiss zur KI-Verordnung offenbart einen systemischen Fehler bei der EU-Gesetzgebung. Die nationalen Regierungen und die Strafverfolgungslobby haben einen unverhältnismäßig großen Einfluss“, kritisiert Algorithmwatch-Expertin Angela Müller. Das gehe zulasten von Menschenrechten und öffentlichem Interesse.
Was passiert, wenn der AI Act doch noch scheitert?
Nicht nur Deutschland hatte grundsätzliche Kritik. Auch aus anderen Ländern kam Zurückhaltung – etwa aus Frankreich. Die dortige Regierung hatte ebenfalls für wirtschaftsfreundlichere Regeln lobbyiert. Würde der AI Act scheitern, gäbe es erst einmal gar keine Regulierung. Das heißt: Schutz für Nutzer:innen nur, insofern ihn die aktuelle Gesetzgebung hergibt. Für Unternehmen würde das je nach Sichtweise viel Freiheit oder eben Rechtsunsicherheit bedeuten. Denn dass eine KI-Regulierung auf ewig ausbleiben könnte, ist unwahrscheinlich.
Nach der Europawahl im Juni aber werden sich die Mehrheitsverhältnisse im EU-Parlament neu mischen. Auch die EU-Kommission wird neu aufgestellt. Die Befürchtung: Ein deutlicher Rechtsruck würde dazu führen, dass die bislang tendenziell bürgerrechtsfreundliche Position des EU-Parlaments kippt. Gibt es also einen neuen Anlauf in der kommenden Legislaturperiode, wäre das Ergebnis aus Bürger- und Nutzer:innensicht vermutlich schlechter.
Wenn der AI Act endgültig verabschiedet ist – lässt sich dann noch etwas ändern?
Die letzten Abstimmungen sind derzeit für Mitte April angesetzt, gelten aber nur noch als Formalität. Im Anschluss wird das Gesetzeswerk im Amtsblatt der EU veröffentlicht und tritt 20 Tage später in Kraft – es ist also absehbar, dass das noch vor der Europawahl passiert. Bis die Regeln tatsächlich wirksam werden, gibt es Übergangsfristen von bis zu drei Jahren.
Gleichzeitig sind allerdings die EU-Mitgliedstaaten am Zug: Die haben in bestimmten Bereichen die Möglichkeit, abweichende Regeln festzulegen. Das betrifft zum Beispiel den umstrittenen Punkt der biometrischen Überwachung. Der Bundesdatenschutzbeauftragte fordert die Bundesregierung auf, hier die Öffnungsklausel zu nutzen.
40.000 mal Danke!
40.000 Menschen beteiligen sich bei taz zahl ich – weil unabhängiger, kritischer Journalismus in diesen Zeiten gebraucht wird. Weil es die taz braucht. Dafür möchten wir uns herzlich bedanken! Ihre Solidarität sorgt dafür, dass taz.de für alle frei zugänglich bleibt. Denn wir verstehen Journalismus nicht nur als Ware, sondern als öffentliches Gut. Was uns besonders macht? Sie, unsere Leser*innen. Sie wissen: Zahlen muss niemand, aber guter Journalismus hat seinen Preis. Und immer mehr machen mit und entscheiden sich für eine freiwillige Unterstützung der taz! Dieser Schub trägt uns gemeinsam in die Zukunft. Wir suchen auch weiterhin Unterstützung: suchen wir auch weiterhin Ihre Unterstützung. Setzen auch Sie jetzt ein Zeichen für kritischen Journalismus – schon mit 5 Euro im Monat! Jetzt unterstützen
meistkommentiert
„Edgy sein“ im Wahlkampf
Wenn eine Wahl als Tanz am Abgrund verkauft wird
Tabubruch der CDU
Einst eine Partei mit Werten
Denkwürdige Sicherheitskonferenz
Europa braucht jetzt Alternativen zu den USA
Jens Bisky über historische Vergleiche
Wie Weimar ist die Gegenwart?
Jugendliche in Deutschland
Rechtssein zum Dazugehören
Erpressungs-Diplomatie
Wenn der Golf von Mexiko von der Landkarte verschwindet