Profil-Einstellungen
Login Kommune
Hier könnten Ihre Kommentare stehen
Herzlich willkommen.
Auch Sie haben eine Stimme und auch die soll gehört und gelesen werden.
Hier werden alle Kommentare gesammelt, die Sie verfassen. Außerdem können Sie Kontaktmöglichkeiten hinterlegen und sich präsentieren.
Wir freuen uns, wenn Sie die taz.kommune mit Ihren klugen Gedanken bereichern.
Viel Freude beim Lesen & Schreiben.
meine Kommentare
30.07.2023 , 09:14 Uhr
Im Buch "ChatGPT, OpenAI und der blaue Planet" kommt folgender Link vor: www.3sat.de/gesell...er-werden-100.html Mit anderen Worten: Wer seine Texte in der "Cloud" schreibt, verbraucht signifikant mehr Energie als beim lokalen Texteditor. Hinzu kommt noch die "Verpackung" in Protokollen für z.B. ein einziges eingefügtes Wort.
zum Beitrag29.07.2023 , 23:40 Uhr
Man kann für alle möglichen Szenarien hinterfragen, wo der Energieverbrauch höher ist Am lokalen PC/Laptop/Raspi4 oder remote beim Server der bei ChatGPT in den USA ist. Klar "denkt" sich das GPT-Modell etwas zusammen und das bewirkt zusammen mit den Datentransfer eine weitaus köhere Last als der Empfang von 2000 Byte Text beim Nutzer.
zum Beitrag29.07.2023 , 19:19 Uhr
Nun ja, da nicht jeder Leser versteht, daß ein Raspberry Pi 4 Linux PC wahrlich nicht viel Energie zieht, habe ich einfach PC geschrieben. Klar kann ein HighEnd-PC ein 1000 W Netzteil haben. Das bedeutet aber kaum, daß bei jedem Wikipedia-Zugriff 1000W gezogen werden. Es ging mir um das Bewußtsein und mehr oder weniger sinnlose Serverzugriffe z.B. weil Möchtegern-Influencer(innen) meinen durch 100-Fach abspielen des eigenen Videos das eigene Ranking zu verbessern. Diese Denkweise also...
zum Beitrag28.07.2023 , 23:51 Uhr
In der Tat die ganze "Klimakiller-Intelligenz" hat sich hinter diesem Artikel versammelt und erklärt ihre Solidarität. Aber es gibt ein paar Irrtümer in diesem so betitelten ökologischen Rundumschlag. So wird die cerebrale energetische Last mit 20 Watt angegeben. Das ist aber falsch bzw. verwirrend, denn der gesamte erwachsene Mensch gibt permanent etwa 100 Watt Abwärme ab. Der nächste Irrtum besteht darin ChatGPT isoliert zu sehen und die KI-Bildgeneratoren komplett zu ignorieren. Hier sind die zu verarbeitenden Datenmengen weitaus größer und so skaliert auch der Energieaufwand schon bestehender LLMs außerhalb der Trainingsphase. Der nächste Irrtum besteht darin Chipfabriken mit einzubeziehen, denn hier liegt der maximale Energieverbrauch nach dem Schöpfungsprozess. So gesehen ist eine CPU/GPU die für OpenAI arbeitet erheblich effizienter als die CPU die in der Ukraine schon bald ihr Leben aushaucht. Und nun zu uns Hominiden, die es gewohnt sind sich per SIM-Karte in den Weiten des Internets zu bewegen statt mit 1/5 des Energieverbrauch per Festnetz zu surfen. Wir messen den Energieverbrauch nur in Deutschland (so will es die Bundesregierung) und nicht bei den von uns angesteuerten Tik-Tok-Kochrezepten und Servern im Ausland. Und weil wir die bösen Serverfarmen wegen CO2 auch nicht in Deutschland haben wollen, bleibt unser CO2-Fußabdruck in Deutschland auch niedriger. So bekommen wir auf dem Papier schöne Zahlen und Abwanderung von Industrie, IT und KnowHow ins Ausland. Global gesehen wird NICHTS gewonnen. Voll zutreffend ist allerdings der Satz: "eine Ökologie der Information zu formulieren, die kritisch hinterfragt, ob man jedes Selfie mit einem KI-Filter aufhübschen und in sozialen Medien posten muss" und das bedeutet konsequent Smartphones zu vermeiden und zum klassischen PC zurückzukehren. Aber ich muß als Buchautor zugeben in Bezug auf ChatGPT keine neutrale Position zu vertreten: "ChatGPT, OpenAI und der blaue Planet". Auch Klimafragen sind dort ein Thema.
zum Beitrag