Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht
Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung.
Anwendungen mit Künstlicher Intelligenz werden als großes Zukunftsthema gehandelt. Schon jetzt steckt KI in alltäglich genutzter Software, etwa zur Bildbearbeitung auf dem Smartphone, zur Spracherkennung oder zur Navigation.
Das Problem: Was diese Software an Energie und Ressourcen wie Wasser verbraucht, an Emissionen und Elektroschrott verursacht – das ist nicht transparent. „Es gibt zu wenige Daten und von diesen geben die Tech-Konzerne nicht genug heraus, um ein umfassendes Bild zu bekommen“, kritisiert Andreas Meyer, der an der TU Berlin zu Künstlicher Intelligenz forscht.
Dabei ist der Energiebedarf abhängig vom Modell der KI und dem Moment ihres Einsatzes: So ist davon auszugehen, dass gerade die Trainingsphase, in der bei den Modellen des Maschinellen Lernens große Datenmengen verarbeitet werden und es schnell gehen soll, der Energiebedarf immens ist. Grundsätzlich wird eine Anwendung, die Videos erstellt, mehr verbrauchen, als eine, die nur Sprache verarbeitet und eine Anwendung die Bilder generiert, mehr als eine, die Text ausgibt.
Von Energieverbrauch bis Nicht-Diskriminierung
Die drei Organisationen haben nun einen Kriterienkatalog vorgelegt, der helfen soll, das Nachhaltigkeitsniveau zu bewerten und zu verbessern. 13 Kriterien für Nachhaltigkeit von KI-Systemen sind am Ende herausgekommen. Darunter finden sich Energieverbrauch und der Bedarf an externen Ressourcen genauso wie Datenschutz und Nicht-Diskriminierung. Der Kriterienkatalog soll zum einen eine Handreichung für Unternehmen und Organisationen sein, die solche Systeme einsetzen. Zum anderen soll er Druck auf die Politik ausüben.
Denn auf EU-Ebene ist mit dem AI Act eine KI-Regulierung in Arbeit. Ob und in welchem Maße darin aber Kriterien für Nachhaltigkeit einen Platz finden werden, wird sich zeigen. Mehr noch: Aktuell könnte ein entscheidender Teil der gesamten Gesetzgebung auf der Kippe stehen. Kurz vor der entscheidenden Verhandlungsphase zeichnet sich ab, dass einzelne Länder versuchen, die Regeln aufzuweichen.
So berichtete das Magazin Politico diese Woche, dass Deutschland, Frankreich und Italien einen entscheidenden Teil der KI-Systeme von der Regulierung ausnehmen wollen. Konkret geht es dabei um die sogenannten Basismodelle. Das sind sehr große KI-Modelle, die mit einem breiten Satz an Daten trainiert wurden. Es gibt Basismodelle für verschiedene Bereiche wie Bilder, Videos, Text oder Sprache. Eines der bekanntesten Basismodelle ist GPT für Text. Aus einem Basismodell kann eine Vielzahl anderer Anwendungen entstehen – daher ist ihre Regulierung entscheidend.
Doch die Regierungen der drei Länder sprechen sich dem Bericht zufolge nun dagegen aus, die Basismodelle zu regulieren. Sie argumentieren mit wirtschaftlichen Interessen: Vorschriften könnten verhindern, dass die Basismodelle in Europa entwickelt werden.
Politico zitiert aus einem gemeinsamen Papier der drei Regierungen: Europa brauche einen regulatorischen Rahmen, „der Innovation und Wettbewerb fördert, damit europäische Akteure auftauchen und unsere Stimme und Werte im globalen Wettlauf um KI vertreten können“.
Haftungsfrage ungeklärt
In der Zivilgesellschaft stößt der Vorstoß auf Kritik: „Es gibt eine Reihe von Risiken und Gefahren bei den Basismodellen, die der AI Act regulieren muss“, sagt Kilian Vieth-Ditlmann von AlgorithmWatch. Als wichtigen Punkt nennt er unter anderem das ohnehin schon umstrittene Thema Haftung, also die Frage: Wer ist verantwortlich dafür, wenn etwas schief geht? Wenn etwa die medizinische KI daneben liegt bei der Diagnose und das negative Folgen hat? Expert:innen wie die KI-Forscherin Sandra Wachter von der Universität Oxford plädieren für eine Haftung entlang der Lieferkette – also jedes Unternehmen für den Schritt, den es selbst ausführt.
Würden nun die Basismodelle ausgenommen, dann blieben ausgerechnet die leistungsfähigsten Teile unreguliert. Auch aus Umweltsicht hätte das Nachteile: „Die Entwicklungsphase gerade dieser großen Modelle ist sehr energieintensiv“, sagt Anne Mollen von Algorithmwatch.
Dass einschlägige Vorschriften negative Folgen für die Wirtschaft haben könnten, scheinen indes nicht alle Länder zu befürchten: So erließ US-Präsident Joe Biden kürzlich ein Dekret, das Unternehmen unter anderem Auflagen für die Basismodelle macht.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Israelische Drohnen in Gaza
Testlabor des Grauens
Bundeskongress der Jusos
Was Scholz von Esken lernen kann
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
Proteste bei Nan Goldin
Logiken des Boykotts
Bündnis Sahra Wagenknecht
Ein Bestsellerautor will in den Bundestag
Schwedens Energiepolitik
Blind für die Gefahren