piwik no script img

Ökologischer Fußabdruck von KIDie Klimakiller-Intelligenz

Künstliche Intelligenz gilt als neue Schlüsseltechnologie, auch gegen die Klimakrise. Doch sie hat ein schmutziges Geheimnis – im wahrsten Sinne.

Keine KI ohne Supercomputer. Doch die benötigen Unmengen an Wasser zur Kühlung Foto: Sylvio Dittrich/imago

Berlin taz | Die Veröffentlichung des Chatbots ChatGPT hat für einen riesigen KI-Hype gesorgt. Schüler schreiben Hausaufgaben mit dem Werkzeug, Anwälte Klageschriften, Künstler Songs. In Hollywood streiken derweil Drehbuchautoren und Schauspieler, weil sie befürchten, dass ihnen Computer ihre Arbeit wegnehmen könnten. KI könnte die Gesellschaft so tiefgreifend verändern wie vorher die Erfindung der Dampfmaschine und der Elektrizität.

Während namhafte Forscher den Weltuntergang heraufbeschwören, glauben Tech-Vordenker wie der Netscape-Gründer Marc Andreessen, dass KI die Welt retten könne: Sie würde die menschliche Intelligenz so erweitern, dass die Menschheit Probleme wie Unterernährung, Krankheiten und den Klimawandel einfach „lösen“ könne.

In den kühnen Vorstellungen der Tech-Optimisten könnten KI-Systeme robustes Saatgut, Arzneimittel oder neue Energieträger erfinden; smarte Bewässerungssysteme, die mit meteorologischen Echtzeit-Daten gespeist werden, Böden ressourcenschonend mit Wasser versorgen; smarte Häuser, die mit Algorithmen die Routinen des Bewohners erlernen, Energie und Wasser sparen.

Doch in dem solutionistischen Überschwang wird gerne übersehen, dass die KI selbst ein schmutziges Geheimnis hat: Sie verursacht jede Menge Treibhausgase.

Supercomputer mit Superverbrauch

Bereits 2019 kam eine MIT-Studie zu dem Ergebnis, dass das Training eines Deep-Learning-Modells so viel CO₂ verursacht wie fünf (Verbrenner-)Autos in ihrer gesamten Lebensspanne. Der Grund: Das maschinelle Lernverfahren ist extrem energieintensiv. Damit sich die Algorithmen durch riesige Datenmengen wühlen und darin statistische Muster erkennen können, müssen tage-, manchmal sogar wochenlang Supercomputer mit speziellen Grafikkarten laufen, die sehr viel Strom verbrauchen. Je nachdem, aus welchen Quellen sich dieser Strom speist, verursacht das Training schädliche Treib­hausgase.

Man muss bedenken, dass die Modelle, die zum Zeitpunkt der Studie auf dem Markt waren, bei weitem nicht so leistungsfähig waren wie die heutigen. GPT-2, eines der Vorgängermodelle von ChatGPT, operierte mit 1,5 Milliarden Parametern. Der Nachfolger GPT-4 hat bereits 1,8 Billionen Parameter.

Für das Training von ChatGPT, das mit schätzungsweise 300 Milliarden Wörtern gefüttert wurde, brauchte es allein 20.000 Grafikkarten. Die „Dampfmaschinen des Geistes“, wie der damalige IBM-Präsident Thomas Watson seine schrankgroßen Rechner­ungetüme in den 1950er Jahren nannte, haben einen unsichtbaren Auspuff, dessen Existenz in der wolkigen Cloud-Rhetorik gerne vernebelt wird.

Offizielle Zahlen, wie viel Energie das Training von ChatGPT verbrauchte, gibt es nicht. Schätzungen gehen von 1.287 Megawattstunden aus, was etwa dem jährlichen Energieverbrauch von 120 US-Haushalten entspricht. Zwar betreibt Microsoft, in dessen Cloud ChatGPT läuft, seine Rechenzentren teils mit erneuerbaren Energien. Doch angesichts der immensen Rechenpower dürfte der Bot wohl kaum klima­neutral sein.

Tonnenweise Kühlwasser

Nach Angaben der Internationalen Energieagentur (IEA) verbrauchen Rechenzentren rund ein Prozent der globalen Stromproduktion. Jeder Prompt, jeder Instagram-Post setzt eine Rechenoperation in einer Serverfarm in Gang, und damit die Server nicht heiß laufen, braucht es in den Rechenzentren tonnenweise Kühlwasser.

Laut einer Studie der Universitäten California Riverside und Texas Arlington verbrauchte allein das Training von GPT-3.700.000 Liter Wasser. Damit könnte man einen ganzen Kühlturm eines Atomreaktors füllen. ChatGPT „schluckt“ nach Berechnungen der Wissenschaftler bei einem Austausch mit 25 bis 50 Fragen einen halben Liter Wasser. Wenn man also sinnlos mit dem Textgenerator herumspielt, ist das ungefähr so, als würde man eine Wasserflasche ausleeren. Angesichts von apokalyptischen Waldbränden und Dürren mutet dieser verschwenderische Konsum wie ein Frevel an.

Auch die Herstellung von Chips ist extrem ressourcenintensiv. Der taiwanische Chiphersteller TSMC, der größte Auftragsfertiger der Welt, der unter anderem auch Apple beliefert, ist für sechs Prozent des Stromverbrauchs auf der ostasiatischen Insel verantwortlich. Die Ökobilanz ist katastrophal, denn Taiwans Strom speist sich fast zur Hälfte aus schmutziger Kohlekraft. Um die hochempfindlichen Rohlinge, die sogenannten Wafer, zu reinigen, sind zudem Unmengen an Ultra-Reinstwasser nötig. TSMC verbraucht pro Tag 150.000 Kubikmeter Wasser, das Volumen von 60 olympischen Schwimmbecken.

Das Problem: Taiwan leidet seit Jahren unter Trinkwasserknappheit. Ausbleibende Regenfälle und Trockenperioden haben die Pegel der Wasserreservoire zuletzt empfindlich sinken lassen. In einigen Städten Taiwans mussten bereits das Trinkwasser rationiert und der Wasserdruck reduziert werden, damit die globalen Lieferketten der wichtigen Halbleiter nicht gestört werden. Die Regierung lässt zudem im ganzen Land nach Brunnen bohren. Dass die wütenden Reisbauern mit Kompensationszahlungen ruhiggestellt wurden, erzählen einem die Verkäufer der schönen neuen Welt natürlich nicht.

Angesichts des gewaltigen ökologischen Fußabdruckes stellt sich die Frage, ob Künstliche Intelligenz wirklich so nachhaltig ist, wie es ihre Entwickler behaupten, zumal die Modelle immer rechen- und damit energieintensiver werden. Ist KI die Lösung für den Klimawandel?

Oder ist sie das Problem?

Selbst zu denken ist umweltfreundlich

Es ist erstaunlich, wie kritikfrei der öffentliche Diskurs über „smarte“ Technologien läuft, wie viel Geld in KI-Unternehmen fließt, die den Extraktivismus des Industriezeitalters perpetuieren. Dabei wäre es so wichtig, den Grundsatz der Datensparsamkeit ökologisch neu zu denken, die Entwicklung von synthetischen Daten als eine Art Bio-Kraftstoff für Denkmaschinen voranzutreiben, kurz: eine Ökologie der Information zu formulieren, die kritisch hinterfragt, ob man jedes Selfie mit einem KI-Filter aufhübschen und in sozialen Medien posten muss. Dann müsste man auch nicht überall auf der Welt hangargroße Serverfarmen in die Landschaft betonieren, die im Konflikt mit dem Wohnungsbau und der Landwirtschaft stehen.

In den Niederlanden gingen in diesem Jahr Bauern auf die Barrikaden, weil die Regierung für den Bau eines Microsoft-Rechenzentrums private Grundstücke enteignen wollte. Die Landwirte treibt die Sorge um, dass der Tech-Konzern das Strom- und Wassernetz anzapft – und damit ihre Ernte gefährdet. Ob es angesichts der Ressourcenknappheit auf der Erde eine kluge Idee ist, (landwirtschaftliche) Flächen zu versiegeln, darf bezweifelt werden. Wenn der Grundwasserspiegel sinkt, hilft auch eine KI nicht viel weiter.

Mit Blick auf den Ressourcenverbrauch und die zunehmenden Cybergefahren erscheint Lowtech gegenüber Hightech als resilienteres und nachhaltigeres Mittel, um den Planeten zu retten: Fahrrad statt Auto, begrünte Fassaden statt Klimaanlagen, eiweißbasierte statt künstlicher Intelligenz.

Das menschliche Gehirn verbraucht lediglich 20 Watt. Zum Vergleich: Die Jeopardy-Version von IBMs Supercomputer Watson benötigte 85.000 Watt, um bei der Rateshow zwei menschliche Spieler zu bezwingen. Vielleicht sollte man öfter mal den eigenen Denkapparat einschalten, anstatt Chatbots mit Fragen zu löchern. Es gibt nichts, was so umweltfreundlich ist wie das eigene Denken.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

42 Kommentare

 / 
Kommentarpause ab 30. Dezember 2024

Wir machen Silvesterpause und schließen ab Montag die Kommentarfunktion für ein paar Tage.
  • In der Tat die ganze "Klimakiller-Intelligenz" hat sich hinter diesem Artikel versammelt und erklärt ihre Solidarität.



    Aber es gibt ein paar Irrtümer in diesem so betitelten ökologischen Rundumschlag. So wird die cerebrale energetische Last mit 20 Watt angegeben. Das ist aber falsch bzw. verwirrend, denn der gesamte erwachsene Mensch gibt permanent etwa 100 Watt Abwärme ab. Der nächste Irrtum besteht darin ChatGPT isoliert zu sehen und die KI-Bildgeneratoren komplett zu ignorieren. Hier sind die zu verarbeitenden Datenmengen weitaus größer und so skaliert auch der Energieaufwand schon bestehender LLMs außerhalb der Trainingsphase. Der nächste Irrtum besteht darin Chipfabriken mit einzubeziehen, denn hier liegt der maximale Energieverbrauch nach dem Schöpfungsprozess. So gesehen ist eine CPU/GPU die für OpenAI arbeitet erheblich effizienter als die CPU die in der Ukraine schon bald ihr Leben aushaucht.



    Und nun zu uns Hominiden, die es gewohnt sind sich per SIM-Karte in den Weiten des Internets zu bewegen statt mit 1/5 des Energieverbrauch per Festnetz zu surfen. Wir messen den Energieverbrauch nur in Deutschland (so will es die Bundesregierung) und nicht bei den von uns angesteuerten Tik-Tok-Kochrezepten und Servern im Ausland. Und weil wir die bösen Serverfarmen wegen CO2 auch nicht in Deutschland haben wollen, bleibt unser CO2-Fußabdruck in Deutschland auch niedriger. So bekommen wir auf dem Papier schöne Zahlen und Abwanderung von Industrie, IT und KnowHow ins Ausland. Global gesehen wird NICHTS gewonnen. Voll zutreffend ist allerdings der Satz: "eine Ökologie der Information zu formulieren, die kritisch hinterfragt, ob man jedes Selfie mit einem KI-Filter aufhübschen und in sozialen Medien posten muss" und das bedeutet konsequent Smartphones zu vermeiden und zum klassischen PC zurückzukehren. Aber ich muß als Buchautor zugeben in Bezug auf ChatGPT keine neutrale Position zu vertreten: "ChatGPT, OpenAI und der blaue Planet". Auch Klimafragen sind dort ein Thema.

    • @ProgPi:

      Es gibt einer weiteren Irrtum zu bedenken. Nämlich, daß der erwachsene Mensch, würde er nicht denken die 100 W Abwärme nicht abgäbe.

      Bei dem zweiten Absatz bin ich etwas verwirrt, man könnte fast den eindruck gewinnen, das sich Hominiden ausschließlich in Deutschland befinden.

      Weiterhin werden Gorillas, Orang-Utans und Schimpansen ob dieser Unterstellung ziemlich geknickt sein.

    • @ProgPi:

      "Servern im Ausland"



      Vor allem die großen Plattformen haben allerdings idR CDNs in ihre Infrastruktur eingebunden, das frgliche Rezept wird also nur einmal vom chinesischen Server um den halben Globus transportiert und dann erstmal in einem nahen DataCenter gecached solange es populär ist. Die Menge und Kapazität von Rechenzentren ist hierzulande meines Wissens nach stark steigend. Sieht also eher nicht danach aus, dass die allesamt abwandern würden und der Umstand, dass die Verarbeitung personenbezogener Daten nicht ohne Weiteres ins außereuorpäische Ausland verlagert werden kann und Unternehmen eben doch gewisse Hemmungen haben ihre Geschäftsgeheimnisse auf billigen Servern in fragwürdigen Drittstaaten abzulegen dürfte auch weiter für Nachfrage sorgen.



      "das bedeutet konsequent Smartphones zu vermeiden und zum klassischen PC zurückzukehren"



      der dann zwar idR eine energieeffizientere Internetverbindung hat, aber selbst sehr viel mehr Energie verbraucht als ein Smartphone. Ob das in der Gesamtbilanz wirklich sinnvoll ist scheint mir doch mindestens fraglich.

      • @Ingo Bernable:

        Nun ja, da nicht jeder Leser versteht, daß ein Raspberry Pi 4 Linux PC wahrlich nicht viel Energie zieht, habe ich einfach PC geschrieben. Klar kann ein HighEnd-PC ein 1000 W Netzteil haben. Das bedeutet aber kaum, daß bei jedem Wikipedia-Zugriff 1000W gezogen werden. Es ging mir um das Bewußtsein und mehr oder weniger sinnlose Serverzugriffe z.B. weil Möchtegern-Influencer(innen) meinen durch 100-Fach abspielen des eigenen Videos das eigene Ranking zu verbessern. Diese Denkweise also...

        • @ProgPi:

          Nur ist so ein Linux-Raspi eben eher kein "klassischer PC" und auch nicht das was eine relevante Mehrheit nutzt um online zu gehen, sondern eher etwas das sich auf dem Schreibtisch von Leuten findet die dort auch einen Lötkolben und ein Oszilloskop stehen haben.



          Und sicher läuft auch eine HighEnd-Workstation nicht permanent unter Volllast, wenn der gesetzte Benchmark allerdings der Energieverbrauch eines Smartphones ist, wird ein solches System keinesfalls besser abschneiden.

          • @Ingo Bernable:

            Man kann für alle möglichen Szenarien hinterfragen, wo der Energieverbrauch höher ist Am lokalen PC/Laptop/Raspi4 oder remote beim Server der bei ChatGPT in den USA ist. Klar "denkt" sich das GPT-Modell etwas zusammen und das bewirkt zusammen mit den Datentransfer eine weitaus köhere Last als der Empfang von 2000 Byte Text beim Nutzer.

            • @ProgPi:

              Im Buch "ChatGPT, OpenAI und der blaue Planet" kommt folgender Link vor:



              www.3sat.de/gesell...er-werden-100.html



              Mit anderen Worten: Wer seine Texte in der "Cloud" schreibt, verbraucht signifikant mehr Energie als beim lokalen Texteditor. Hinzu kommt noch die "Verpackung" in Protokollen für z.B. ein einziges eingefügtes Wort.

              • @ProgPi:

                Ich halte diese Betrachtung für ausgesprochen verkürzt und unterkomplex. Der - sicherlich beachtliche - Energiebedarf der RZ verschwindet eben nicht indem man die Last von dort an die Edge verschiebt. Die realistische Alternative ist eben kein Raspi mit vim und auch keine mechanische Schreibmaschine, sondern ein regulärer Arbeitsplatzrechner, wenn man dann noch Features wie automatische Backups oder geteilten Zugriff möchte, kommt schnell noch ein NAS hinzu. Der böse Server in der Cloud der allein schon aus Gründen der Kosteneffizienz recht durchgängig mit idealer Auslastung läuft und entsprechend von hinderten oder tausenden Usern gemeinsam genutzt wird, wird also durch zig-fach redundaten Hardware in den Haushalten ersetzt die überwiegend sinnlos Energie im Leerlauf verbrät.



                Ich halte ihre Argumentation in weiten Teilen nicht für sonderlich plausibel und wundere mich auch ein wenig, dass sie, wenn sie die Cloud derart kritisch sehen, ihr Buch dennoch über die Amazon-Cloud vertreiben oder hier auf einen Stream verlinken der ebenfalls jede Menge Energie für Protokoll-Overhead verbraucht, genauso übrigens wie lokale Protokolle wie etwa USB.

      • @Ingo Bernable:

        Ja danke, seh ich genauso. Mein Nachbar hat eine Grafikkarte im PC eingebaut, die alleine 800 Watt verbraucht. Inklusive Wasserkühlung. Der ganze PC mit 2 leistungsstarken Prozessoren dürfte weit über 1000 Watt verbrauchen.

        Einige Gamer haben PC's die 2000 Watt verbrauchen. Soviel wie ein großer Wärmestrahler auf höchster Stufe.

        Die brauchen im Sommer dann eine Klimaanlage für das PC-Zimmer um unter 30 Grad Innenraumtemperatur zu kommen. Verbraucht nochmal so locker 1000 Watt. Mindestens.

        Wir haben hier superschnelles "Festnetzinternet"/WLAN. Mein PC/Monitor verbraucht gut 100 Watt. Wegen sparsamem Onboard Grafikchip.

        Und wir sind zum Glück nicht unter'm Dach in einer hochverdichteten Innenstadt nur mit Beton und schwarzem Asphalt vor der Tür.

        Dieser ganze Digitalisierungshype mit Smartphonezombies und Gamern am Hochleistungs-PC in klimatisierten Räumen könnte bald zuende sein. Siehe Rhodos.

        Selber denken und vor Feuer schnell weglaufen zu können, könnte ein erheblicher Überlebensvorteil werden... .

  • Beim Einsatz von KI geht es um Effizienz und Produktivität. Also darum, in immer kürzerer Zeit, zu immer niedrigeren Kosten, einen immer höheren Output an designiertem Müll in Umsatz und Gewinn zu verwandeln. Einen Müll, der aus realer Substanz bestehen muss und deshalb nicht in einer Cloud "geschöpft" werden kann. Effizienz, in einem kapitalistischen Wirtschaftssystem, steht in diametralen Widerspruch zur Nachhaltigkeit, die doch in Sonntagsreden als unverzichtbar für den Umgang mit unserer Lebensgrundlagen dargestellt wird.



    Es mag ja sein, dass Anwälte durch ChatGTP oä. die "gewonnene" Zeit für familiäre Sorge- und Pflegearbeit nutzen werden. Aber Anwaltsbriefe werden nach der Gebührenordnung abgerechnet, während Richter:innen sich nicht in der Cloud schöpfen lassen.



    Man kann sich natürlich über das Schmiermittel einer Maschine streiten. Aber man sollte die ganze Maschine nicht ignorieren, die unsere Lebensgrundlagen frisst.



    "So sieht eine Minute im Internet aus



    Eine Minute im Internet sieht laut einer Statistik des Visual Capitalist aus wie folgt: Innerhalb von 60 Sekunden werden 41 Millionen Nachrichten versendet, 3,8 Milliarden Suchanfragen gestellt, eine Million Streams geschaut, 46.200 neue Posts auf Instagram hochgestellt, 390.030 Apps heruntergeladen, 2,1 Millionen Snaps erstellt, 4,5 Millionen Videos geschaut und 188 Millionen E-Mails verschickt."



    www.finanzen.net/n...d-wide-web-8299805

    • @Drabiniok Dieter:

      Ich würde den vorsichtigen Verdacht hegen, dass Produktivität und Effizienz auch in nicht-kapitalistischen Ökonomien eine relevante Größe wären und, dass man mit mehr Ineffizienz - konkret also mehr Aufwand und Ressourcen für das gleiche Ergebnis, eher nicht nachhaltiger wird.

  • Was bei der ganzen Thematik immer unterschlagen wird, ist das die Alternative zu Netflix, ChatGTP und co. ja nicht einfach Nichtstun ist.

    Wenn ich mit dem (vollbesetzten) Bus in den Park fahre dann bewegt sich der CO2 Ausst0ß in der Gleichen Größenordnung wie einen Film zu streamen. Wenn ich eine Tasse Kaffee aufrechne (erwärmen, Tasse abspülen, der eigentliche Kaffee), dann kann ich dafür ausgiebig mit einer KI plaudern.

    Für manche Kommentierende reicht sicherlich die asketische Ekstase eine Wand anzustarren, aber für die große Mehrheit der Menschen sind digitale Angebote ein verdammt sparsamer Weg die Freizeit zu verbringen.

  • 3G
    31841 (Profil gelöscht)

    Für die geplanten Ausbaustufen des Mobilfunks werden trotz höherer Enegrieeffizienz etwa 10 % des künftigen Bedarfs veranschlagt. KI-Anwendungen selbst werden durch die Verknüpfung mit mobilen Endgeräten den Anteil am Gesamtbedarf sogar noch steigern.

    Wenn man bedenkt, dass der Strombedarf wegen der Elektrifizierung der Antriebe und von Heizgeräten etc. insgesamt stark zunehmen soll, dürfte das weiteren Druck auf die entsprechenden Erzeugngsressourcen bedeuten.

    P.S.: Mir fehlt auch hier eine gesamtökologische Nachhaltigkeitsbilanz.



    Mit KI könnte man evtl, kalkulieren, ob und wo ihr Einsatz nachhaltig wäre ... ;-)

  • Wir sind es alle! Eine einzige Google Anfrage braucht ~0,3 Wattstunden. Hört sich wenig an , aber es läppert sich!

    • @A.S.:

      Und eine Kanne Tee/Kaffee dürfte überschlägig mit rund 150 Wattstunden und damit dem Äquivalent von 500 Suchanfragen zu Buche schlagen.

    • @A.S.:

      Ja, hört sich wenig an, mit der gleichen Energie könnte man eine 6 Watt LED Lampe ganze 3 Minuten betreiben.

      Das reicht um im Bett zu lesen aber auch nicht für viel mehr, und dabei ist das Buch noch gar nicht eingerechnet.

  • Wouh! Dankeschön für den besten Artikel, den ich bisher bei TAZ-Online gelesen habe. Chapeau! :-)

  • Stichwort: sinkender Grundwasserspiegel

    Die taiwanesischen Reisbauern bekommen Entschädigungen, weil ihnen das Wasser abgezapft wird.



    Aber der Reis fehlt doch dann auf dem Markt. Dadurch steigen die Reispreise.



    Echt, eine Superentwicklung.

    Ach so, die KI wird bestimmt eine Lösung davon finden.

    Meinen jedenfalls die unkritischen Technikgläubigen.

    • @Diogeno:

      Man muss KI nicht mögen oder gut finden, aber deutsche Technologiefeindlichkeit wird unsere Wirtschaft noch in den Abgrund treiben. Und keiner wird unsere Mahnungen lesen können, da sie per Fax verschickt wurde. Geld regiert die Welt. Der, der welches hat, bestimmt, wo es lang geht und das sind nicht wir. Waren wir sowieso nie. Unser Wohlstand basiert auf Trittbrettfahrerei, so auch die friendly US-sponsored Klimabewegung inklusive Vollkasko-Argumentationshilfe. Selber denken, ich glaube manche würden sich wundern, wenn sie wüssten, wie wenig das eigentlich praktiziert wird.

    • @Diogeno:

      Wie groß ist denn der taiwanesische Anteil an der globalen Reisproduktion und wieviel davon geht in den Export?

  • Die 20W fürs eigene Denken müssen in Bezug gesetzt werden zum Verbrauch, um diese Energie zu erzeugen — und um den größeren Zeitbedarf abzudecken.

    Wer mit eigenem Denken einen Tag für ein Problem braucht, statt eine Stunde, hat für dieses Problem einen um etwa 300kg höheren CO₂-Ausstoß (bei 10t CO₂-Äquivalenten pro Person und Jahr).

    Und der Energieverbrauch von KI bei der Nutzung sinkt rapide. 2017 habe ich noch geschrieben, dass AlphaGo so viel Energie verbraucht wie 3000 Menschen.

    Schon ein halbes Jahr später brauchte Alpha Go Zero bei gleichen Fähigkeiten nur noch so viel Energie wie 15 Menschen: www.draketo.de/english/alphago-power

  • Irgendwann werden die Menschen feststellen, dass man Daten nicht essen kann.

  • Wie definiert man eigentlich bei den Supercomputern den "Verbrauch" von Kühlwasser? Das verschwindet ja nicht einfach und wird als reines Kühlmittel weder verschmutzt noch kontaminiert. Kühlsysteme sind doch normalerweise Kreisläufe.

    • @Stefan L.:

      "Kühlsysteme sind doch normalerweise Kreisläufe."



      In einer optimalen Welt wird die Abwärme aus einem Rechenzentrum in ein Nahwärmenetz, eine Aquaponikfarm oder eine andere "Wärmesenke" geleitet. In der Realität geht sie immer noch zu oft in die Atmosphäre oder in den nächsten Fluss.

      • @Django:

        Ok, selbst wenn das warme Wasser wieder in den Fluss fliesst, ist es ja nicht weg und wird somit auch nicht verbraucht.



        Wenn ich aber in der Wüste Erdbeeren anpflanze und sie mit dem letzten Grundwasser bewässere, verdunstet es eben zum größten Teil. Physikalisch ist es auch nicht weg, es steht aber niemanden mehr zur Verfügung. Da würde ich eher von "Verbrauch" sprechen aber nicht bei einem industriellen Kreislauf-Kühlsystem.

  • "Vielleicht sollte man öfter mal den eigenen Denkapparat einschalten, anstatt Chatbots mit Fragen zu löchern."



    Ach, KI fördert doch das eigene Denken. Das braucht man doch, um die Sekrete der Chatbots wenigstens auf Plausibilität zu überprüfen...

  • Zitat:

    "Selbst zu denken ist umweltfreundlich"

    Und ich selbst denke sogar noch weiter:

    Denken macht Spaß.

    Viel Spaß noch.

  • Meine Fr...., wenn ich das hier so lese:



    Selber Denken scheint wirklich eine aussterbende Art zu werden. Mir graut vor dieser Zukunft - bin ich froh, ein Alter zu haben, um die kommenden "Katastropen" nicht mehr zu erleben.

  • Bitcoin-Mining im Jahr 2020:



    75,4 TwH



    Deutschland:



    418,626 TwH

    .... nur so am Rande.

    Vieles andere ist dann doch mal wieder ein wenig polemisch. Das Wasser ist hinterher ja nicht weg, es dient zur Kühlung. In der Regel wird die Energie auch wiedergewonnen.

    Im Gegensatz zur Mango. Da braucht ein Kilo 2000 Liter Wasser. Peru erntet bis zu 500.000 Tonnen Mangos, das macht dann 1 Milliarde Liter Wasser.

    Da ist Chat-GPT doch etwas ziemlich genügsam.

    Ich brauche weder Mangos noch Bitcoin noch Chat-GPT.... liegt also an jedem selbst :)

    • @F. Tee:

      "In der Regel wird die Energie auch wiedergewonnen."



      Gibt es denn Statistiken, wieviel % der Abwärme tatsächlich in anderen Prozessen genutzt werden und wieviel dann doch Luft und / oder Wasser aufheizen?

  • Wenn man die Zahlen nicht ins Verhältnis setzt, wird aus Fakten schnell Polemik. Ja das Training ist energieintensiv und das Äquivalent von 5 PKW-Lebensspannen oder 120 Haushalten scheint keinesfalls zu hoch gegriffen, wenn dann so ein Modell allerdings wie GPT von 100 Millionen Menschen genutzt wird relativiert sich das doch recht schnell wieder. Wenn sich 100 Mio. je 5 PKW teilen würden, wäre wir der Lösung der Klimakatastrophe schon einen großen Schritt weiter.



    Auch TSMC ist sicher nicht sauber, fertigt aber eben auch den Löwenanteil des weltweiten Chipbedarfs, so dass man auch hier vielleicht mal der Frage nachgehen sollte, wie sich die 60 olympischen Schwimmbecken etwa im Vergleich zur globalen Papierindustrie verhalten.

    • @Ingo Bernable:

      "wenn dann so ein Modell allerdings wie GPT von 100 Millionen Menschen genutzt wird relativiert sich das doch recht schnell wieder."

      Und was produzieren die 100 Millionen Menshcne mit ChatGPT? Irgendetwas von bleibendem Wert? Nein, es ist Wohlstandsmüll - Texte, über die man mal kurz lächelt, und die nach einem Tag wieder vergessen sind.

      AI sind die neuen NFTs: eine Ablenkung. Die Fiedel zum brennenden Rom.

      • @Ajuga:

        Das war bei den Texten nur mit Brain-Mitteln auch nicht anders.

        Der Unterschied ist nur, dass der Müll nun schneller produziert werden kann Resourcen frei werden, die für sinnvollere Aktionen als die Produktion von "Wohlstandsmüll - Texten".

        Insofern ist ChatGPT zu begrüßen.

      • @Ajuga:

        Also ich nutze KI bislang eher beruflich als privat, durchaus mit erheblichen(!) Produktivitätsgewinnen. Andere Anwendungen von denen man bislang las waren etwa die Entwicklung neuer Antibiotika gegen multiresistente Keime, bessere Analysen in der Krebserkennung. Alles Ablenkung und überflüssiger Wohlstandsmüll? Darüberhinaus geht es etwa um die Optimierung der Steuerung von Stromnetzen oder bei Google auch der Kühlung von Rechenzentren mit dem Ergebnis einer Reduktion um 40%. Bei einer solchen Bilanz dürfte sich die eingesetzte Energie also doch recht schnell amortisieren.



        Und ja sicher, eine Rückkehr ins analoge oder gleich ins vorindustrielle Zeitalter würde noch erheblich mehr Energie einsparen, angesichts einer Gesellschaft die weder bereit ist ein Tempolimit von 130 zu akzeptieren, noch den Abschied von fossilen Heizungen bis 2045, scheint es keine besonders realistische Option komplett aus KI, dem Internet oder gleich der IT im Allgemeinen auszusteigen.



        www.deepmind.com/b...cooling-bill-by-40

  • 6G
    687478 (Profil gelöscht)

    Wegen dem bisschen Strom wird selbst nun die technologische Revolution mittels KI infrage gestellt? Der Klimafundamentalismus ist erschreckend ist im wortwörtlichen Sinne anti-sozial. Denn ohne Automatisierung einfacher geistiger Arbeit müssen Millionen, weltweit sogar Milliarden Arbeiter repetitive und anspruchslose Aufgaben verrichten. So wie vor der Industrialisierung es manuelle Arbeiter taten.

    • @687478 (Profil gelöscht):

      Zum einen: Ja, es sind Expertensysteme (aka "KI") denkbar, die tatsächlich einen Nutzen bringen. Aber davon abgesehen: Bitcoin-Mining und Video on Demand sind wahrscheinlich deutlich größere Stromverbraucher als das Training von "KI". Wer gegen ChatGPT ist, muss Netflix & Co. allemal ablehnen.

    • @687478 (Profil gelöscht):

      "BTW: "Es gibt nichts, was so umweltfreundlich ist wie das eigene Denken." Ich habe selten einen Satz gelesen, der weniger mit der Realität zu tun hatte als dieser."

      Wie kommen Sie zu dieser Meinung?

    • @687478 (Profil gelöscht):

      Die freigesetzten Arbeiter werden bestimmt froh sein bei Lieferando & Co einen anspruchsvollen Arbeitsplatz an der frischen Luft zu bekommen.

    • @687478 (Profil gelöscht):

      Technologische Revolution Stand Jetzt ist:

      -Raubbau von seltenen Erden und damit Umweltverschmutzung und die Zerstörung der Heimat anderer Menschen.



      -Einfachere Überwachung aller Menschen.



      -Einfachere Sammlung von Daten aller Menschen.



      -Erhöhtes Konsumverhalten, was damit enden muss, alle zwei Jahre ein neues Smartphone besitzen zu wollen.



      -Förderung von kürzeren Produktlebenszyklen, zum Teil unreparierbar.



      -Filigrane Technik im Nano- und Mikrometerbereich wird zum Wegwerfen designt; ist fast so wie wenn ein Uhrenmacher seine handgefertigte Kuckucksuhr nach Fertigstellung in den Mülleimer schmeißt.

      Aber ja, schieben wir das ruhig auf den energische Klimaschützer. Als ob es nicht schon genug Probleme gäbe....

  • Ganz unabhängig davon, ob "KI" wirklich irgendein Problem lösen wird (oder, was IMHO wahrscheinlicher ist, eine Menge davon verursachen): es gibt vermutlich keine Eigenschaft von "KI" die unwichtiger ist als ihr Energieverbrauch.



    BTW: "Es gibt nichts, was so umweltfreundlich ist wie das eigene Denken." Ich habe selten einen Satz gelesen, der weniger mit der Realität zu tun hatte als dieser.

    • @Brobdignag:

      Ich bin ja zu 100% Ihrer Meinung, kann aber nicht ganz verstehen was den inkriminierten Satz mit der Realität in Konflikt bringt.

  • Ich bin kein Tech-Gläubiger, aber finde, dass die Mengen an Strom, die hier angegeben werden, nicht so schlimm klingen. Der Jahresverbrauch von 120 US-Haushalten, um eine Software wie Chat-GPT zu trainieren, klingt finde ich vertretbar.

    Dass alle Rechenzentren 1 % des globalen Stromverbrauchs verantworten, ist m.E. schon eine dramatischere Zahl...