Europarat verhandelt Abkommen: KI für die Milliarden
Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden. Die Konvention des Europarats würde Menschen auf mindestens drei Kontinenten betreffen. Doch es gibt auch Kritik.
Die Analogie: Während Motoren einst repetitive körperliche Tätigkeiten automatisierten, werde KI repetitive kognitive Abläufe automatisieren. Und ebenso wenig wie Motoren von einer einzelnen weltumspannenden Gesetzgebung oder Vereinbarung reguliert werden, werde das bei KI-Systemen passieren.
Schneider ist nicht nur Ökonom. Er war unter anderem einige Jahre in einer leitenden Position bei der ICANN, der Organisation der Internetselbstverwaltung. Und nun ist er Vorsitzender des KI-Ausschusses des Europarats – und in dieser Funktion eine der Schlüsselpersonen, wenn es um neue Regeln für die Technologie geht.
Denn die EU ist mit ihrem AI Act – zu dem sich das Europaparlament im Juni positioniert hat – nicht die einzige Instanz, die dabei ist, ein Regelwerk für KI zu erarbeiten. Auch die Mitgliedstaaten des Europarats befinden sich derzeit in Verhandlungen über ein multilaterales Rahmenabkommen, eine KI-Konvention. Und neben diesen 46 Staaten sind weitere Nationen an den Verhandlungen beteiligt, unter anderem Mexiko, Israel, Japan und die USA. Damit könnte die Konvention die KI-Regulierung werden, die die größte Zahl an Menschen betrifft.
Die Forderungen nach Regeln für künstliche Intelligenz sind in den vergangenen Wochen und Monaten immer lauter geworden. Zwar sind KI-Anwendungen schon seit Jahren im Alltag vieler Techniknutzer:innen integriert, zum Beispiel in manchen Spamfiltern für E-Mails oder in verschiedenen Apps für die Fotobearbeitung. Aber eine Ahnung des disruptiven Potenzials wurde erst durch die Veröffentlichung von Bild- und Textgeneratoren wie ChatGPT oder Midjourney Ende vergangenen Jahres deutlich.
Zahlreiche Gefahren
Seitdem reißen die Hinweise auf die Gefahren nicht ab: von der Möglichkeit, massenhaft Fake News und Propaganda zu erstellen, bis zum Problem von unausgewogenen Trainingsdaten und daraus resultierenden Verzerrungen. Regulierung soll es richten, am besten möglichst umfassend und multilateral. Aber wie genau?
Der Ansatz der KI-Konvention ist ein umarmender und distanzierender zugleich: „Es muss ein gemeinsamer Rahmen sein, den jeder einzelne Staat an sein eigenes juristisches System anpassen kann“, skizziert Schneider das Ziel.
So würden in dem Rahmen etwa Pflichten zur Folgeabschätzung der Systeme oder zu Einspruchsmöglichkeiten von Betroffenen festgelegt und Anforderungen an die Umsetzung der Konvention, beispielsweise mit Aufsichtsbehörden. Wie diese dann aber ausgestaltet werden, sei Sache der einzelnen Staaten, die den Rahmen in die Praxis übertragen. Dementsprechend werden auch Strafen für Verstöße im nationalen Recht geregelt – und somit uneinheitlich ausfallen.
Ein erstes Dokument, auf Basis dessen die beteiligten Staaten verhandeln, hatte das Sekretariat des KI-Ausschusses Anfang des Jahres veröffentlicht. Hier werden die groben Linien skizziert, die eine Konvention eines Tages ausmachen könnten. Etwa die Grundprinzipien, denen die Entwicklung und der Einsatz von KI-Systemen folgen muss. Demnach darf eine Software nicht diskriminieren, sie muss Anforderungen an Transparenz und Datenschutz erfüllen und darf keine Menschen- und Freiheitsrechte verletzen.
„Es ist ein sehr wichtiges Vorhaben, Menschenrechte, Demokratie und Rechtsstaatlichkeit, also die Werte, denen sich der Europarat verschrieben hat, mit einer KI-Konvention zu schützen“, sagt Angela Müller, KI-Expertin bei der NGO Algorithmwatch. Sie sieht die Arbeit des Europarats nicht als Konkurrenz zu der EU-Regulierung, sondern als Ergänzung. Schließlich sind mehr Staaten beteiligt. Und während die EU per Definition eine stärkere Binnenmarktfokussierung habe, habe der Europarat mit seinem wertezentrierten Ansatz eine andere Herangehensweise. Doch sie sieht auch Gefahren.
Die erste manifestierte sich schon zu Beginn des Jahres. Da beschloss der Ausschuss, dass es künftig zwei parallele Verhandlungsgruppen geben wird: Eine, in der die beteiligten Staaten an dem konkreten Papier arbeiten. Und eine zweite, in der auch zivilgesellschaftliche Organisationen vertreten sind. Das heißt umgekehrt: Diese haben keinen unmittelbaren Einfluss mehr auf den Verhandlungsprozess, sondern immer erst im Nachhinein – also etwa, wenn etwas aus den Sitzungen nach außen dringt oder ein Zwischenstand veröffentlicht wird.
Kritik von NGOs
Mehrere NGOs, darunter Algorithmwatch und das Center for AI and Digital Policy, eine nichtkommerzielle Forschungsorganisation, kritisieren das in einem Statement, das am Dienstag veröffentlicht wird. Die Aufspaltung in zwei Gruppen „untergräbt die Transparenz und Rechenschaftspflicht des Europarates und steht im Widerspruch zur gängigen Praxis“, heißt es darin. Der Europarat ließ eine Anfrage der taz zu der Kritik an dem Verfahren unbeantwortet.
Die zweite Gefahr: eine mögliche Abwägung von Rechten. „In den Verhandlungen kommen natürlich die Interessen der Nationalstaaten zum Tragen“, sagt Müller. Ihre Befürchtung: Deren Argumente von wirtschaftlichen über militärische Interessen bis hin zum Allzweckargument der Innovationsförderung könnten am Ende in einem Verhandlungstopf mit den Grundwerten landen. „Menschenrechte müssen den Rahmen für die Regulierung vorgeben und dürfen nicht zu Verhandlungsmasse werden“, fordert Müller.
Unesco: Neben der EU und dem Europarat gibt es noch mehr Regulierungsansätze: So haben die 193 Unesco-Mitgliedstaaten vor anderthalb Jahren einen Völkerrechtstext zur ethischen Entwicklung und Nutzung von KI verabschiedet. Darin werden für elf Politikfelder, unter anderem Bildung und Wissenschaft, Gesundheit sowie Umwelt, Empfehlungen für eine menschenrechtsbasierte Entwicklung von KI gegeben.
OECD: Bereits 2019 haben sich die 36 OECD-Mitgliedstaaten und 6 weitere Länder auf Grundsätze zu KI geeinigt. Auch hier geht es unter anderem um Menschenrechte, Transparenz und Investitionen in Forschung und Entwicklung. Der Text bleibt jedoch angesichts des Verabschiedungsjahrs sehr allgemein.
G7: Eine der jüngsten Initiativen kommt von den G7, also den führenden Industriestaaten. Deren Staats- und Regierungschefs einigten sich bei ihrem Treffen im Mai auf die Einrichtung eines „Hiroshima-KI-Prozesses". In dessen Rahmen sollen Standards für vertrauenswürdige KI entwickelt werden, die im Einklang mit den demokratischen Werten steht.
Die dritte Gefahr, die Müller sieht: ein Aufweichen der Regeln bei der Umsetzung in den einzelnen Staaten, die sie ratifizieren. „Es ist wichtig, dass es eine Konvention mit Zähnen wird“, sagt die Expertin daher. Ob das der Fall ist, werde sich an mehreren Faktoren zeigen: Gibt es verbindliche Transparenzregeln für den Einsatz von KI? Können sich Betroffene wirksam gegen KI-basierte Entscheidungen wehren? Können Personen für den Einsatz von KI und die mittels der Software getroffenen Entscheidungen in die Verantwortung genommen werden? Diese Fragen will Müller mit Ja beantwortet sehen.
Die nächsten Treffen der Verhandlungsgruppen sind derzeit für Herbst anberaumt. Wann die KI-Konvention tatsächlich fertig ist, dürfte vom Fortgang der Verhandlungen beim AI Act der EU abhängen. Nachdem das Parlament dazu seine Position beschlossen hat, geht es nun in die Verhandlungen mit EU-Kommission und Rat, in dem die Mitgliedstaaten vertreten sind. Eine Einigung ist bis Ende des Jahres geplant.
Doch auch hier werden die teilweise widerstreitenden Interessen der Nationalstaaten zu Konflikten führen. Absehbar ist das bereits beim Thema KI im Zusammenhang mit der inneren Sicherheit. Ein Punkt also, der auch bei der KI-Konvention noch für Diskussion sorgen könnte.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Putins Atomdrohungen
Angst auf allen Seiten
James Bridle bekommt Preis aberkannt
Boykottieren und boykottiert werden
Umweltfolgen des Kriegs in Gaza
Eine Toilettenspülung Wasser pro Tag und Person
Krise der Linke
Drei Silberlocken für ein Halleluja
BGH-Urteil gegen Querdenken-Richter
Richter hat sein Amt für Maskenverbot missbraucht
Stromversorgung im Krieg
Ukraine will Atomkraft um das Dreifache ausbauen