Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI
Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt.
Denn deren Teilgebiet des maschinellen Lernens, das derzeit Erfolge feiert, benötigt extrem leistungsfähige Rechner, die gekühlt werden müssen. Und, wie bei fast allen Herstellungsprozessen, benötigt auch die Produktion der Hardware Wasser. Laut einem Arbeitspapier von Philipp Hacker, Professor für Recht und Ethik in der Digitalen Gesellschaft an der Europauniversität Viadrina, verbraucht wissenschaftlichen Schätzungen zufolge eine aus 20 bis 50 Fragen bestehende Konversation mit dem Texgenerator ChatGPT etwa einen halben Liter Wasser. „Angesichts der großen Anzahl von Gesprächen, die ChatGPT seit seiner Gründung geführt hat, summiert sich dies zu einer sehr beträchtlichen Menge an Wasser – eine zunehmend knappe Ressource in vielen Teilen der Welt“, schreibt der Wissenschaftler.
Dieses Problem wäre eines der zahlreichen, mit denen sich ein Gremium befassen könnte, das jüngst EU-Kommissionspräsidentin Ursula von der Leyen ins Spiel gebracht hat: ein Weltrat für KI. „Wir bräuchten ein ähnliches Gremium wie den IPCC für das Klima und hier brauchen wir zusätzliche Kontakte zu Wissenschaftlern, Unternehmern und Innovatoren“, führte sie ihren Vorschlag aus. Der Weltklimarat IPCC fasst regelmäßig den aktuellen Forschungsstand zur Entwicklung des Weltklimas zusammen und ist damit zu einer der maßgeblichen Stimmen in Sachen Klimakrise geworden.
Matthias Spielkamp, Algorithmwatch
Die Idee eines KI-Weltrates ist grundsätzlich nicht neu: Auch die „Global Partnership on Artificial Intelligence“, eine im Sommer 2020 auf Initiative von Kanada und Frankreich gegründete internationale Gruppe, wurde bereits mit dem Weltklimarat verglichen. Basis für ihre Arbeit sollten die OECD-Empfehlungen für KI sein. Es gibt diese Gruppe immer noch – doch eine tragende Rolle in der Debatte um den Umgang mit der neuen Technologie spielt sie nicht. Warum eigentlich nicht?
Viele wollen mitregeln
„Die Regierungen haben das nicht ernst genommen“, sagt Matthias Spielkamp von der Menschenrechtsorganisation Algorithmwatch, der bis zum vergangenen Jahr Mitglied der Initiative war. Er sieht den Vorschlag der Kommissionspräsidentin daher skeptisch und fordert: „Wir sollten uns lieber darauf fokussieren, den AI Act stark zu machen und durchzusetzen.“ Der AI Act ist die derzeit in Arbeit befindliche Gesetzgebung der EU zu KI. EU-Kommission, Mitgliedstaaten und EU-Parlament verhandeln aktuell über einen gemeinsamen Gesetzentwurf. Bis zum Jahresende soll er vorliegen.
Der AI Act ist bei weitem nicht die einzige Ansatz, der Technologie einen Regelungsrahmen zu geben. Die Mitgliedstaaten des Europarats verhandeln derzeit über eine KI-Konvention, beteiligt sind neben den Mitgliedsstaaten unter anderem Mexiko, Israel, Japan und die USA.
Bereits 2021 haben die 193 Unesco-Mitgliedstaaten einen Völkerrechtstext zur ethischen Entwicklung und Nutzung von KI verabschiedet, der aber nicht rechtsverbindlich ist. Und bei ihrem Treffen im Mai haben sich die Staats- und Regierungschefs der G7 auf die Einrichtung eines „Hiroshima-KI-Prozesses“ geeinigt. Dabei sollen Standards für vertrauenswürdige KI entwickelt werden, die im Einklang mit den demokratischen Werten steht.
KI hat ähnliche Risiken und Chancen wie Atomkraft
Und das ist nur eine Auswahl der Regulierungsinitiativen. Eine neue Instanz, die auf dem Feld mitmischen soll, bräuchte also als Daseinsberechtigung etwas, das die vorhandenen nicht oder nicht in dem Maße mitbringen: mehr Verbindlichkeit zum Beispiel, mehr Autorität, sinnvollere Regelungsansätze, mehr Akzeptanz in mehr Ländern, schnellere Reaktionen auf technologische oder politische Entwicklungen oder mehr Expertise.
Fabian Stephany, der als Ökonom und Datenwissenschaftler unter anderem am Oxford Internet Institute der Universität Oxford forscht, sieht einen solchen Aspekt. Er zieht eine Parallele zur Atomkraft. Deren Regulierung und Einsatz überwacht die Internationalen Atomenergiebehörde (IAEA). „Wie zur Zeit der Schaffung der IAEA im beginnenden Atomzeitalter 1957 haben wir es heute bei KI mit einer revolutionären und potentiell gefährlichen Technologie zu tun, deren friedliche Nutzung allerdings große Chancen für die Menschheit bietet“, sagt Stephany.
Er findet daher eine Analogie zur IAEA sinnvoller als eine zum IPCC. Themen wie Datenschutz, nationale Sicherheit und Wettbewerbsfähigkeit zeigten, dass kein Land allein nachhaltige Lösungen zur Entwicklung und Anwendung von KI durchsetzen könne. Uno-Generalsekretär António Guterres hatte sich im Juni ebenfalls für die Einrichtung einer internationalen KI-Regulierungsbehörde ausgesprochen und dabei auf die IAEA als mögliches Vorbild verwiesen.
Dilemma, nicht nur bei KI
Auch Matthias Kettemann, Rechtswissenschaftler und Forschungsgruppenleiter am Humboldt-Institut für Internet und Gesellschaft (HIIG) kann der Idee eines KI-Weltrates etwas abgewinnen: „Die Idee ist sinnvoll, weil eine breitere Debatte über die Folgen des Einsatzes von KI – wie auch anderer Hochtechnologien – zielführend ist.“ Ein Weltrat solle aber eher als Beirat aufgestellt sein, denn als Gremium, das bindende Regeln verabschiedet.
Skeptischer ist seine HIIG-Kollegin, die Politikwissenschaftlerin und Forschungsdirektorin Jeanette Hofmann: „Ein Weltrat wäre eher ein weiteres Gremium, das sich über mögliche Normen in der Entwicklung und Nutzung von KI Gedanken macht, ohne diese jedoch durchsetzen zu können. Das kann man sinnvoll, aber auch überflüssig finden.“
Das Dilemma, das Hofmann skizziert, ist ein Grundsätzliches und nicht nur eines im Kontext von KI: Die Tech-Unternehmen sind international tätig. Nationale Regelungen bringen also meistens nichts oder nicht viel und auch solche, die Staatengemeinschaften wie die EU vereinbaren, stoßen an Grenzen. Gleichzeitig sind laut Hofmann die bestehenden internationalen Organisationen nicht darauf ausgelegt, Technikentwicklung wirksam grenzüberschreitend zu steuern.
Tech-Größen dürfen mitreden
Hinzu kommt: Die Zahl der Akteure, die in Gesetzgebungsprozesse eingebunden werden müssen, ist groß und ihre Interessen sind oft gegensätzlich – gerade im Spannungsfeld zwischen Wirtschaftslobby und zivilgesellschaftlichen Organisationen. Verhandlungen werden also komplexer, die Aufgabe, eine in der Sache sinnvolle Lösung zu finden anspruchsvoller. Das hat etwa die Arbeit an der EU-Datenschutz-Grundverordnung gezeigt, wo Abgeordnete davon sprachen, von Wirtschaftslobbyist:innen „belagert“ zu werden.
Und die Macht der Industrie nimmt zu: Laut einer Studie, die der Verband Lobbycontrol im September vorgelegt hat, liegt die Tech-Industrie was Lobbyausgaben in Brüssel angeht mittlerweile vorne – noch vor der Auto- und Finanzbranche. Auf 113 Millionen Euro beliefen sich demnach die Ausgaben im aktuellsten Abrechnungsjahr, das im europäischen Transparenzregister verzeichnet ist. Vor zwei Jahren waren es noch 97 Millionen. Die Top 4: Meta, Google, Apple und Microsoft.
In den USA haben im September Beratungen des Senats zur Regulierung von KI begonnen. Die Türen waren für die Öffentlichkeit geschlossen. Doch drin waren nicht nur Senator:innen, sondern auch Größen aus der Tech-Branche – unter anderem Meta-Chef Mark Zuckerberg, Google-Chef Sundar Pichai, Microsoft-Gründer Bill Gates und Multimilliardär Elon Musk, unter anderem Eigentümer der Plattform X, ehemals Twitter. Im Sommer traf Sam Altman, Gründer von OpenAI, das ChatGPT entwickelt hat, die Regierungschefs zahlreicher Länder der Welt und warb für seine Sicht der Dinge auf die Technologie.
Deutschland und Europa mal wieder „träge“
Und in Deutschland? Dirk Freytag, Präsident des Bundesverbandes Digitale Wirtschaft, blickt skeptisch auf von der Leyens Vorschlag: „Jetzt einen Weltrat für künstliche Intelligenz einzusetzen, zäumt das Pferd von hinten auf“, sagt er. KI als disruptive Technologie, also eine mit großem gesellschaftsverändernden Potenzial, müsse „eng begleitet“ werden. Alle fünf bis sieben Jahre Berichte vorzulegen wie beim Weltklimarat, das sei zu „träge“. Die Argumentation passt zu der gängigen Brancheneinschätzung, dass Deutschland und Europa mit ihrer Regulierung von Technologie eher hemmend wirken – und den USA so einen wirtschaftlichen Vorteil verschaffen.
Algorithmwatch-Geschäftsführer Spielkamp hat jedoch auch einen grundsätzlichen Einwand gegen einen KI-Rat, der analog zum Weltklimarat aufgestellt wäre. Denn die Klimakrise kann existenzbedrohende Ausmaße annehmen. Dass KI zu vergleichbaren Bedrohungsszenarien führen kann, ist jedoch vor allem eine Erzählung der Hersteller – die damit von bereits vorhandenen Problemen der Technologie ablenken wollen.
Zum Beispiel die große Menge an fehlerhaften Antworten, die die Chatbots generieren, die fehlende Transparenz bei Trainingsdaten, die zu Diskriminierung führen kann, oder die ungeklärte Haftungsfrage, wenn durch eine KI-Anwendung Schaden entsteht. Spielkamp befürchtet, dass eine Analogie von KI zur Klimakrise die Weltuntergangserzählung der Hersteller stärken würde – und die Bemühungen zur Regulierung der jetzt schon bestehenden Probleme erschweren.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Elon Musk und die AfD
Die Welt zerstören und dann ab auf den Mars
Anschlag in Magdeburg
Der Täter hat sein Ziel erreicht: Angst verbreiten
Tarifeinigung bei Volkswagen
IG Metall erlebt ihr blaues „Weihnachtswunder“ bei VW
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“
Bundestagswahl 2025
Parteien sichern sich fairen Wahlkampf zu
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken