Vor finaler Abstimmung: Kann die Welt KI bändigen?
Diese Woche werden zwei entscheidende Weichen in Sachen KI gestellt. Doch NGOs und Wissenschaftler:innen sehen problematische Parallelen.
Die Verhandlungen im Europarat standen bislang im Schatten der EU. Denn auch diese hat ein Regelwerk für KI erarbeitet. Diese Woche Mittwoch stimmt das Parlament abschließend darüber ab. Das Votum gilt als Formsache – nachdem es in den vergangenen Monaten selbst nach der offiziellen Einigung von EU-Kommission, Parlament und Mitgliedstaaten im Dezember noch eine ganze Reihe an Konflikten gab.
Im Zentrum standen dabei die Vorgaben für die Wirtschaft – hier hatte unter anderem die FDP auf den letzten Metern Bedenken angemeldet – und die Auswirkungen auf Bürgerrechte. Letztlich haben sich die EU-Mitgliedstaaten mit ihrem Interesse an Überwachungsaktivitäten durchgesetzt, zum Beispiel, was die biometrische Gesichtserkennung angeht. Die neuen EU-Regeln teilen KI-Systeme in Risikoklassen ein und sehen je nach Einstufung strengere oder mildere Vorgaben vor. Gelten sollen sie ab Frühjahr 2026 – für die Übergangszeit hofft die EU-Kommission auf freiwillige Zusagen der Unternehmen.
Während der AI Act mit den 27 EU-Mitgliedstaaten schon als bislang größtes verbindliches Regelwerk für KI gilt, könnte der Europarat es mit seiner Konvention noch toppen: Kommt es zu einer Einigung, würde sie nicht nur die 46 Staaten des Europarates betreffen, sondern auch weitere an den Verhandlungen beteiligte Länder, etwa Mexiko, Japan und die USA. Damit könnte die Konvention die KI-Regulierung werden, die die größte Zahl an Menschen betrifft.
Im Unterschied zum AI Act der EU soll die Konvention zwar Regeln vorgeben, aber weniger ins Detail gehen: Vielmehr soll sie einen Rahmen setzen, den die Staaten jeweils an ihr eigenes rechtliches System anpassen. Zum Beispiel könnten Einspruchsmöglichkeiten für Betroffene von KI-Entscheidungen festgeschrieben werden – wie diese dann umgesetzt werden und welche Strafen drohen, bliebe den Nationalstaaten überlassen.
Spielraum und Schlupflöcher
Doch zu der abschließenden Verhandlungsrunde warnen Vertreter:innen der Zivilgesellschaft: Die Pläne, wie sie sich derzeit abzeichnen, würden den Staaten viel Spielraum lassen, die Technologieunternehmen milde bis gar nicht zu regulieren. „Das würde ein gefährliches Signal senden: Das erste internationale Regelwerk zu KI könnte so den Konzernen einen Freifahrtschein erteilen, KI ihren eigenen Interessen gemäß zu entwickeln und einzusetzen“, kritisiert Angela Müller von der Bürgerrechtsorganisation AlgorithmWatch.
Und auch eines der Schlupflöcher aus dem AI Act droht die Konvention zu reproduzieren: Breite Ausnahmen für die nationale Sicherheit. So stehen im Entwurf für die KI-Konvention im Abschnitt zum Thema nationale Sicherheit verschiedene Formulierungsoptionen. Eine davon: „Eine Vertragspartei ist nicht verpflichtet, dieses Übereinkommen auf die Ausgestaltung, die Entwicklung, die Verwendung oder die Außerbetriebnahme von Systemen der künstlichen Intelligenz zum Schutz wesentlicher nationaler Sicherheitsinteressen […] anzuwenden …“.
Auch Aktivitäten im Zusammenhang mit dem Einsatz von Geheimdiensten im Ausland und Spionageabwehr müssten möglich sein, wenn diese „im Einklang mit geltendem Völkerrecht“ durchgeführt würden. Das könnte Türen öffnen für den Einsatz von KI, etwa zur Gesichtserkennung im öffentlichen Raum oder im Zusammenhang mit Grenzschutzinteressen.
Bürgerrechtsorganisationen und zahlreiche Wissenschaftler:innen warnen daher in einem offenen Brief an die verhandelnden Staaten vor einer Verwässerung der Rechte von Bürger:innen und Nutzer:innen. „Eine ausgehöhlte Konvention wird nur wenig ernsthaften Schutz für Personen vor mächtigen KI-Systemen bieten, die anfällig sind für Voreingenommenheit, menschliche Manipulation und die Destabilisierung der demokratischen Institutionen“, heißt es in dem Brief, den unter anderem die Oxford-Professorin Sandra Wachter und der ehemalige Bundesdatenschutzbeauftragte Peter Schaar unterzeichnet haben.
Die Regeln müssten gleichermaßen für den öffentlichen und privaten Sektor gelten und dürften keine Schlupflöcher für Zwecke der nationalen Sicherheit oder Verteidigung zulassen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“
Bundestagswahl am 23. Februar
An der Wählerschaft vorbei
Erderwärmung und Donald Trump
Kipppunkt für unseren Klimaschutz
Wirbel um KI von Apple
BBC kritisiert „Apple Intelligence“
EU-Gipfel zur Ukraine-Frage
Am Horizont droht Trump – und die EU ist leider planlos