Ökologischer Fußabdruck von KI: Die Klimakiller-Intelligenz
Künstliche Intelligenz gilt als neue Schlüsseltechnologie, auch gegen die Klimakrise. Doch sie hat ein schmutziges Geheimnis – im wahrsten Sinne.
Während namhafte Forscher den Weltuntergang heraufbeschwören, glauben Tech-Vordenker wie der Netscape-Gründer Marc Andreessen, dass KI die Welt retten könne: Sie würde die menschliche Intelligenz so erweitern, dass die Menschheit Probleme wie Unterernährung, Krankheiten und den Klimawandel einfach „lösen“ könne.
In den kühnen Vorstellungen der Tech-Optimisten könnten KI-Systeme robustes Saatgut, Arzneimittel oder neue Energieträger erfinden; smarte Bewässerungssysteme, die mit meteorologischen Echtzeit-Daten gespeist werden, Böden ressourcenschonend mit Wasser versorgen; smarte Häuser, die mit Algorithmen die Routinen des Bewohners erlernen, Energie und Wasser sparen.
Doch in dem solutionistischen Überschwang wird gerne übersehen, dass die KI selbst ein schmutziges Geheimnis hat: Sie verursacht jede Menge Treibhausgase.
Supercomputer mit Superverbrauch
Bereits 2019 kam eine MIT-Studie zu dem Ergebnis, dass das Training eines Deep-Learning-Modells so viel CO₂ verursacht wie fünf (Verbrenner-)Autos in ihrer gesamten Lebensspanne. Der Grund: Das maschinelle Lernverfahren ist extrem energieintensiv. Damit sich die Algorithmen durch riesige Datenmengen wühlen und darin statistische Muster erkennen können, müssen tage-, manchmal sogar wochenlang Supercomputer mit speziellen Grafikkarten laufen, die sehr viel Strom verbrauchen. Je nachdem, aus welchen Quellen sich dieser Strom speist, verursacht das Training schädliche Treibhausgase.
Man muss bedenken, dass die Modelle, die zum Zeitpunkt der Studie auf dem Markt waren, bei weitem nicht so leistungsfähig waren wie die heutigen. GPT-2, eines der Vorgängermodelle von ChatGPT, operierte mit 1,5 Milliarden Parametern. Der Nachfolger GPT-4 hat bereits 1,8 Billionen Parameter.
Für das Training von ChatGPT, das mit schätzungsweise 300 Milliarden Wörtern gefüttert wurde, brauchte es allein 20.000 Grafikkarten. Die „Dampfmaschinen des Geistes“, wie der damalige IBM-Präsident Thomas Watson seine schrankgroßen Rechnerungetüme in den 1950er Jahren nannte, haben einen unsichtbaren Auspuff, dessen Existenz in der wolkigen Cloud-Rhetorik gerne vernebelt wird.
Offizielle Zahlen, wie viel Energie das Training von ChatGPT verbrauchte, gibt es nicht. Schätzungen gehen von 1.287 Megawattstunden aus, was etwa dem jährlichen Energieverbrauch von 120 US-Haushalten entspricht. Zwar betreibt Microsoft, in dessen Cloud ChatGPT läuft, seine Rechenzentren teils mit erneuerbaren Energien. Doch angesichts der immensen Rechenpower dürfte der Bot wohl kaum klimaneutral sein.
Tonnenweise Kühlwasser
Nach Angaben der Internationalen Energieagentur (IEA) verbrauchen Rechenzentren rund ein Prozent der globalen Stromproduktion. Jeder Prompt, jeder Instagram-Post setzt eine Rechenoperation in einer Serverfarm in Gang, und damit die Server nicht heiß laufen, braucht es in den Rechenzentren tonnenweise Kühlwasser.
Laut einer Studie der Universitäten California Riverside und Texas Arlington verbrauchte allein das Training von GPT-3.700.000 Liter Wasser. Damit könnte man einen ganzen Kühlturm eines Atomreaktors füllen. ChatGPT „schluckt“ nach Berechnungen der Wissenschaftler bei einem Austausch mit 25 bis 50 Fragen einen halben Liter Wasser. Wenn man also sinnlos mit dem Textgenerator herumspielt, ist das ungefähr so, als würde man eine Wasserflasche ausleeren. Angesichts von apokalyptischen Waldbränden und Dürren mutet dieser verschwenderische Konsum wie ein Frevel an.
Auch die Herstellung von Chips ist extrem ressourcenintensiv. Der taiwanische Chiphersteller TSMC, der größte Auftragsfertiger der Welt, der unter anderem auch Apple beliefert, ist für sechs Prozent des Stromverbrauchs auf der ostasiatischen Insel verantwortlich. Die Ökobilanz ist katastrophal, denn Taiwans Strom speist sich fast zur Hälfte aus schmutziger Kohlekraft. Um die hochempfindlichen Rohlinge, die sogenannten Wafer, zu reinigen, sind zudem Unmengen an Ultra-Reinstwasser nötig. TSMC verbraucht pro Tag 150.000 Kubikmeter Wasser, das Volumen von 60 olympischen Schwimmbecken.
Das Problem: Taiwan leidet seit Jahren unter Trinkwasserknappheit. Ausbleibende Regenfälle und Trockenperioden haben die Pegel der Wasserreservoire zuletzt empfindlich sinken lassen. In einigen Städten Taiwans mussten bereits das Trinkwasser rationiert und der Wasserdruck reduziert werden, damit die globalen Lieferketten der wichtigen Halbleiter nicht gestört werden. Die Regierung lässt zudem im ganzen Land nach Brunnen bohren. Dass die wütenden Reisbauern mit Kompensationszahlungen ruhiggestellt wurden, erzählen einem die Verkäufer der schönen neuen Welt natürlich nicht.
Angesichts des gewaltigen ökologischen Fußabdruckes stellt sich die Frage, ob Künstliche Intelligenz wirklich so nachhaltig ist, wie es ihre Entwickler behaupten, zumal die Modelle immer rechen- und damit energieintensiver werden. Ist KI die Lösung für den Klimawandel?
Oder ist sie das Problem?
Selbst zu denken ist umweltfreundlich
Es ist erstaunlich, wie kritikfrei der öffentliche Diskurs über „smarte“ Technologien läuft, wie viel Geld in KI-Unternehmen fließt, die den Extraktivismus des Industriezeitalters perpetuieren. Dabei wäre es so wichtig, den Grundsatz der Datensparsamkeit ökologisch neu zu denken, die Entwicklung von synthetischen Daten als eine Art Bio-Kraftstoff für Denkmaschinen voranzutreiben, kurz: eine Ökologie der Information zu formulieren, die kritisch hinterfragt, ob man jedes Selfie mit einem KI-Filter aufhübschen und in sozialen Medien posten muss. Dann müsste man auch nicht überall auf der Welt hangargroße Serverfarmen in die Landschaft betonieren, die im Konflikt mit dem Wohnungsbau und der Landwirtschaft stehen.
In den Niederlanden gingen in diesem Jahr Bauern auf die Barrikaden, weil die Regierung für den Bau eines Microsoft-Rechenzentrums private Grundstücke enteignen wollte. Die Landwirte treibt die Sorge um, dass der Tech-Konzern das Strom- und Wassernetz anzapft – und damit ihre Ernte gefährdet. Ob es angesichts der Ressourcenknappheit auf der Erde eine kluge Idee ist, (landwirtschaftliche) Flächen zu versiegeln, darf bezweifelt werden. Wenn der Grundwasserspiegel sinkt, hilft auch eine KI nicht viel weiter.
Mit Blick auf den Ressourcenverbrauch und die zunehmenden Cybergefahren erscheint Lowtech gegenüber Hightech als resilienteres und nachhaltigeres Mittel, um den Planeten zu retten: Fahrrad statt Auto, begrünte Fassaden statt Klimaanlagen, eiweißbasierte statt künstlicher Intelligenz.
Das menschliche Gehirn verbraucht lediglich 20 Watt. Zum Vergleich: Die Jeopardy-Version von IBMs Supercomputer Watson benötigte 85.000 Watt, um bei der Rateshow zwei menschliche Spieler zu bezwingen. Vielleicht sollte man öfter mal den eigenen Denkapparat einschalten, anstatt Chatbots mit Fragen zu löchern. Es gibt nichts, was so umweltfreundlich ist wie das eigene Denken.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Müntefering und die K-Frage bei der SPD
Pistorius statt Scholz!
Krieg in der Ukraine
Russland droht mit „schärfsten Reaktionen“
Israel demoliert beduinisches Dorf
Das Ende von Umm al-Hiran
Angeblich zu „woke“ Videospiele
Gamer:innen gegen Gendergaga
Haldenwang über Wechsel in die Politik
„Ich habe mir nichts vorzuwerfen“
Israelis wandern nach Italien aus
Das Tal, wo Frieden wohnt