EU-Einigung auf KI-Gesetz: Mit Überwachung ins KI-Zeitalter

Der AI Act steht. Was das mit Schlafmangel, biometrischer Überwachung und der Zuckerlobby zu tun hat – und warum es am Ende doch aufs Geld ankommt.

Eine weiße Überwachungskamera an einer gelben Wand

Wie auch Internet, bei Computern oder Videokameras geht es bei KI auch um Überwachung Foto: J Studios/Digital Vision/Getty

Man kennt es von Koalitionsverhandlungen: Die Länge einer Verhandlungsrunde wächst proportional zur Zahl der Verhandlungstage. Und am Ende steht eine Marathonsitzung, bei der sich durchsetzt, wer am meisten Kaffee verträgt, die besten Snacks hat, keine Kinderbetreuung organisieren muss oder vorher auf Vorrat schlafen konnte.

Auch in den EU-Gremien, die Ende der Woche den Trilog zur KI-Gesetzgebung, den „AI Act“ fertig ausgehandelt haben, muss die Kaffeetoleranz hoch gewesen sein: Rund 37 Stunden waren es Beteiligten zufolge. Anzahl der Schlafpausen zwischendrin: 1. Zwar sind noch nicht sämtliche Details ausgearbeitet – das passiert erst in den kommenden Wochen, wenn der Feinschliff gemacht wird. Dennoch ist Zeit für eine erste Bilanz, was die Verhandlungen und Diskussion rundherum an Erkenntnissen gebracht haben.

Neue Technologie, neue Überwachungsbegehrlichkeiten: Da sprechen alle über den gesellschaftlichen Wandel und die wirtschaftlichen Potenziale – und am Ende geht es doch wieder um Überwachung. Etwas desillusionierend, dass das bei KI nicht anders ist als beim Internet, bei Computern oder Videokameras. Wohin die nun kompromissmäßig vereinbarten Schlupflöcher in Sachen KI-basierter biometrischer Überwachung führen werden, das werden wir erst in den kommenden Jahren und Jahrzehnten sehen.

Der Brexit hat auch Vorteile: Großbritannien ist einer der vehementen Verfechter des Einfach-mal-laufen-lassen in Bezug auf KI. „Wir glauben an Innovation“, sagte Premier Sunak kürzlich mit Bezug auf die verhältnismäßig junge Technologie. Und der Glaube an Innovation schließt anscheinend den Glauben daran aus, dass zum Beispiel Diskriminierung, Desinformation, überbordender Energieverbrauch und unklare Haftungsfragen Probleme sind, gegen die sich etwas tun lässt. Aber: Großbritannien ist ja nicht mehr dabei und so war es in den Verhandlungen ein Wirtschaftslobbyist weniger. Der darf dafür für Fotos mit Branchengrößen wie OpenAI-Gründer Sam Altman und IT-Milliardär Elon Musk posieren.

Selbstverpflichtungen bringen fast nie etwas

Großbritannien hat immerhin, im Gegensatz zu Deutschland, vor Jahren eine Abgabe für extrem zuckerhaltige Getränke eingeführt. Prompt passierte was? Der Zuckergehalt in den Getränken sank. Deutschland hat es nur zu einer Selbstverpflichtung gebracht. Und es passierte was? Nichts. Weil Selbstverpflichtungen fast nie etwas bringen. Dass Deutschland also gemeinsam mit Frankreich und Italien für die besonders leistungsfähigen KI-Basismodelle nur eine Selbstverpflichtung wollte, war ein echter Zuckerlobby-Move. Einer, der sich zum Glück nicht durchsetzen konnte.

Big Tech hat ein Gefühl für Timing: Einen Tag, bevor die Einigung ursprünglich kommen sollte, stellte Google ein neues KI-Basismodell vor: Gemini. Mit seinen Versionen Ultra, Pro und Nano klingt es zwar ein bisschen nach Menstruationsprodukt, aber auch da sollte man sich ja nicht von zweifelhaften Produktbezeichnungen irritieren lassen. Das Timing lässt sich jedenfalls, beabsichtigt oder nicht, als dezenter Wink lesen, um mitzuteilen: Reguliert ihr mal – wir machen unser Ding

Am Ende hängt es am Geld: Strenge Regulierung oder lockere – für die Gesellschaft, die Rechte und den Schutz von Nut­ze­r:in­nen ist das entscheidend. Für die Wirtschaft aber weniger. Regulierung gibt zwar Planungssicherheit oder eben nicht, sie klärt Haftungsfragen oder eben nicht und schafft damit bessere oder schlechtere Rahmenbedingungen. Doch auf was es am Ende ankommt: Geld.

Konzerne wie Meta, Microsoft oder Alphabet können Milliarden in die konzerneigene Forschung und Entwicklung stecken. Der Professor für Recht und Ethik der digitalen Gesellschaft an der Universität Viadrina, Philipp Hacker, beziffert die Kosten für die Entwicklung eines hochklassigen KI-Basismodells auf rund 60 Millionen Euro. Die Kosten für die Umsetzung der Vorschriften bewegten sich dagegen im Bereich von 1 Prozent davon.

Wer europäische Alternativen schaffen will und denkt, mit weniger Regulierung werde das schon passieren, sollte sich diese Zahl mal aufschreiben und an die Bürowand pinnen. Vielleicht ja als Kunstwerk von einem der KI-Bildgeneratoren.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

schreibt über vernetzte Welten, digitale Wirtschaft und lange Wörter (Datenschutz-Grundverordnung, Plattformökonomie, Nutzungsbedingungen). Manchmal und wenn es die Saison zulässt, auch über alte Apfelsorten. Bevor sie zur taz kam, hat sie unter anderem für den MDR als Multimedia-Redakteurin gearbeitet. Autorin der Kolumne Digitalozän.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.