Profil-Einstellungen
Login Kommune
Hier könnten Ihre Kommentare stehen
Herzlich willkommen.
Auch Sie haben eine Stimme und auch die soll gehört und gelesen werden.
Hier werden alle Kommentare gesammelt, die Sie verfassen. Außerdem können Sie Kontaktmöglichkeiten hinterlegen und sich präsentieren.
Wir freuen uns, wenn Sie die taz.kommune mit Ihren klugen Gedanken bereichern.
Viel Freude beim Lesen & Schreiben.
meine Kommentare
01.05.2025 , 23:43 Uhr
Noch ein Nachtrag: Alle LLM-basierten Chatbots sind übrigens nicht allein darauf trainiert, Wort für Wort (oder Token für Token) jeweils ein plausibles nächstes Wort (oder Token) auszuspucken. Das ist nur das "Pre-Training". Die meisten jetzigen Modelle, insbesondere die "Reasoning" Modelle, sind nach dem Pre-Training in einer ganzen Reihe weiterer Phasen weiter trainiert worden, die nichts mit statistischen Wahrscheinlichkeiten von Wörtern zu tun haben, sondern darauf basieren, dass Menschen und andere KI-Systeme immer wieder ganze Antworten oder Zwischen-"Gedanken", oder gar ganze Chat- oder Gedankenverläufe anhand einer Reihe von Kriterien (wie hilfreich, harmlos, wahrheitsgemäß, norm-folgend, etc.) bewerten und das "Verhalten" des Systems auf Basis dieser Bewertungen ähnlich wie bei der Abrichtung von Tieren "belohnt" oder "bestraft" wurde (das nennt man dann "Reinforcement Learning"-basiertes "Post-Training" oder "Fine-Tuning").
zum Beitrag01.05.2025 , 19:54 Uhr
Exactly.
zum Beitrag01.05.2025 , 19:53 Uhr
Es geht nicht darum, dass KI uns schaden will oder "wach" wird. Es geht darum, dass manche Menschen anderen Menschen schaden oder einfach nur nach Macht streben wollen, und das werden sie bald dank KI sehr viel besser können als bisher. Ich empfehle, sich einmal in die einschlägige Literatur dazu einzulesen. Z.B. thecompendium.ai oder den offiziellen international AI safety report (arxiv.org/abs/2501.17805)
zum Beitrag01.05.2025 , 19:50 Uhr
Letzterem stimme ich voll zu. Das müssen wir verhindern. Leider sieht es aber momentan nicht so aus, als würde die Politik das verstehen. Macron hat ja im Februar erst den eigentlich als KI-Sicherheits-Gipfel geplanten Gipfel zu einem KI-Aktions-Gipfel umgewidmet und gemahnt, Europa dürfe auf keinen Fall beim Wettrennen um "starke" KI ins Hintertreffen geraten. Wenn wir Pech haben, werden die Errungenschaften des EU AI Acts bald wieder einkassiert. Immerhin steht im Koalitionsvertrag der Begriff "KI-Sicherheit". Mal sehen, wie ernst man es damit meint. Wenn Sie besorgt sind: Man kann sich gut und sehr einfach engagieren, z.B. bei PauseAI oder ControlAI.
zum Beitrag01.05.2025 , 19:44 Uhr
Danke für die Klarstellung! Bzgl. der Frage, ob ein System, das auf Aufforderung gut reimen kann (obwohl es *nicht explizit* darauf trainiert wurde, zu reimen!), "versteht", was reimen ist, sind wir offenbar unterschiedlicher Meinung. Um zu prüfen, ob jemand nach meiner Definition "versteht, was Reimen ist", würde ich denjenigen fragen, ob sie oder er eine Beschreibung von "Reimen" angeben kann, und die Person bitten, das mal vorzuführen. Ich würde vielleicht auch Beispiele von Reimen und Nicht-Reimen angeben und jeweils fragen, ob es sich um Reime handelt. Wenn die Person all dies zufriedenstellend tun kann, wäre ich sehr geneigt, dies als "Verständnis von Reimen" durchgehen zu lassen. Offenbar haben Sie aber ein anderes Verständnis von "Verständnis". Welches denn?
zum Beitrag01.05.2025 , 19:40 Uhr
Die "Fehlannahme [...], dass es dort irgendwelche kognitiven Fähigkeiten gibt". Na, Sie scheinen sich ja bestens auszukennen, wenn Sie da – im Gegensatz zu den meisten Experten für KI – so sicher sind...
zum Beitrag30.04.2025 , 19:51 Uhr
Die Aussagen zu biologischer Intelligenz von Prof. Markert sind hochinteressant, zu künstlicher Intelligenz liegt er aber daneben. Es ist ja auch überhaupt nicht sein Fachgebiet (jedenfalls hat er keine relevanten Publikationen zu Sprachmodellen oder dergleichen).
Die Formulierung, das, was Sprachmodelle täten, sei "nur statistische Wahrscheinlichkeiten auf Basis der Trainingsdaten" verkennt vollkommen die kognitiven Fähigkeiten dieser Systeme. Wenn ich mit einem davon ein neuartiges mathematisches Problem aus meiner eigenen Forschung diskutiere, ist die Diskussion oft fruchtbarer als mit Student:innen aus dem achten Semester Mathematikstudium, und die sind meiner Erfahrung nach äußerst intelligent. Und zwar nicht, weil die KI Wissen wiederkäut, sondern weil sie es sogar im streng formalen Rahmen der Mathematik immer wieder schafft, kreative und originelle Ideen zu produzieren.
Auch die völlig unbelegte Behauptung, Sprachmodelle hätten "kein Konzept von Reimen" ist angesichts der guten Testergebnisse bei Reim-Aufgaben (z.B. arxiv.org/html/2404.02456v2) zumindest gewagt...
zum Beitrag12.03.2025 , 10:43 Uhr
Natürlich ist der Ausgang offen. In meinem Wahllokal wurde aber auch erst eine BSW-Zweitstimme übersehen, bis ein Wahlbeobachter darauf aufmerksam machte. Der Grund war hier, dass das BSW keine Direktkandidat:in aufgestellt hatte und die Wähler:in auch keine Erststimme abgegeben hatte, nur eine Zweitstimme für BSW, und das BSW in der Zweitstimmenspalte ganz unten stand, sodass der Zettel fälschlich als komplett leer angesehen wurde. Dasselbe könnte durchaus häufig passiert sein.
Käme das BSW herein, bräuchte es die Grünen in der Koalition, was m.M.n. gut wäre, denn die momentane CDU-SPD-Koalition benötigt eh für viele Vorhaben die Zustimmung der Grünen.
zum Beitrag12.03.2025 , 08:55 Uhr
Natürlich ist der Ausgang offen. In meinem Wahllokal wurde aber auch erst eine BSW-Zweitstimme übersehen, bis ein Wahlbeobachter darauf aufmerksam machte. Der Grund war hier, dass das BSW keine Direktkandidat:in aufgestellt hatte und die Wähler:in auch keine Erststimme abgegeben hatte, nur eine Zweitstimme für BSW, und das BSW in der Zweitstimmenspalte ganz unten stand, sodass der Zettel fälschlich als komplett leer angesehen wurde. Dasselbe könnte durchaus häufig passiert sein.
Käme das BSW herein, bräuchte es die Grünen in der Koalition, was m.M.n. gut wäre, denn die momentane CDU-SPD-Koalition benötigt eh für viele Vorhaben die Zustimmung der Grünen.
zum Beitrag24.02.2025 , 14:56 Uhr
Volle Zustimmung. Habeck wie ein anderer Kommentator hier "Wendehals" zu nennen, geht hingegen völlig an der Realität vorbei.
zum Beitrag24.02.2025 , 14:54 Uhr
Ich würde gerne in Frage stellen, welchen Sinn die Karte haben soll, die jeden Wahlkreis danach einfärbt, welche Liste in diesem Wahlkreis die meisten Zweit (!) stimmen bekommen hat. M.M.n. ist diese Karte grob irreführend und dem journalistischen Niveau der taz unwürdig.
Erstens ist die dargestellte Information für den Wahlausgang völlig unerheblich, da wir kein Mehrheitswahlrecht wir in UK sondern ein Verhältniswahlrecht haben.
Zweitens suggeriert die Karte, Deutschland zerfalle quasi in einen CDU- und einen AfD-dominierten Teil (und ein paar sehr kleiner Regionen, die von anderen Parteien dominiert seien) und leistet damit einem platten Spaltungs-Narrativ Vorschub. Das ist grob falsch, weil natürlich in sehr vielen dieser Wahlkreise die Zweitstimmenanteile der stärksten Partei dennoch nur um 25-30% lag.
Sinnvoll wäre es stattdessen, die Zweitstimmen-Anteile (!) aller oder zumindest der größten Parteien auf einer Karte darzustellen. Das ist zwar nicht ganz so einfach, aber mit etwas Visualisierungs-Sachverstand durchaus möglich.
zum Beitrag11.02.2025 , 00:51 Uhr
Sie meinen die technische Expertise, die tausende KI-Experten schon letztes Jahr dazu gebracht hat, öffentlich ein Moratorium zu fordern, und die jetzt erneut 700 Experten (darunter Nobel- und Turingpreisträger:innen) bei der OECD-KI-SIcherheitskonferenz dazu gebracht hat, strenge Regulierung zu fordern (siehe www.iaseai.org/conference/statement)?
zum Beitrag10.02.2025 , 12:58 Uhr
Wollen wir hoffen, dass es bei Werkzeugen bleibt. Die führende KI-Firmen sagen nämlich etwas anderes: sie wollen "artificial general (!) intelligence" entwickeln, also Systeme, die alles (!) genauso gut oder besser als Menschen können (oder zumindest alles, was ein Mensch mit einem Laptop und einer Internetverbindung kann). Das ist dann kein Werkzeug mehr. Diese Systeme werden momentan auf darauf trainiert, eigene Ziele (!) zu haben, sie sie eigenständig (!) verfolgen können. Das ist dann erst recht kein Werkzeug mehr, sondern ein "autonomer Agent" (so nennen die das).
zum Beitrag10.02.2025 , 08:47 Uhr
Sehr gut, dass die Leitmedien langsam anfangen, KI als Thema nicht nur für den Wirtschafts- oder Wissenschaftsteil zu entdecken, sondern auch die gesellschaftlichen Konsequenzen ins Auge zu nehmen.
Leider noch zu wenig: die von über 700 führenden Denker:innen aus Wissenschaft und Gesellschaft, darunter mehrere Nobelpreisträger:innen, besuchte OECD-Konferenz zu sicherer und ethischer KI letzte Woche in Paris, die ein klares Zeichen für gesellschaftlich gesetzte Standards und gegen ein internationales Wettrennen gesetzt hat (Abschlussstatement: www.iaseai.org/conference/statement), fand z.B. fast kein Medienecho, nicht mal in Frankreich selbst, während es die parallel stattfindende Beschwichtigungsveranstaltung der KI-Industrie leicht in die Medien schaffte.
Da geht noch was!
zum Beitrag20.01.2025 , 17:56 Uhr
volle Zustimmung.
zum Beitrag15.01.2025 , 08:06 Uhr
Selten so einen herablassenden Kommentar gelesen. Ihr sogenannter Fortschritt hat immenses Leid in die Welt gebracht.
zum Beitrag09.12.2024 , 17:53 Uhr
Hier scheint die Sorge um das Aussterben und andere Longtermism-Sorgen gegen die Sorge um Ungerechtigkeit ausgespielt zu werden. Aber sind es nicht einfach nur Ungerechtigkeiten zwischen verschiedenen Gruppen von Menschen? Im einen Fall die Ungerechtigkeit zwischen Mitgliedern der jetzigen Generation (den Fokus darauf könnte man Shorttermism nennen), oder Ungerechtigkeit zwischen der jetzigen und baldigen Generationen (z.B. im Klimakontext, das könnte man Midtermism nennen), oder eben die Ungerechtigkeit zwischen jetzigen und weit entfernten Generationen (Longtermism). Letztlich kommt es doch auf das eigene Wertesystem an, welche Personen (und Spezies) man zu seinem "moral circle" zählt, und welche eben nicht mehr.
zum Beitrag14.06.2024 , 18:47 Uhr
weil es unethisch ist?
zum Beitrag21.05.2024 , 22:57 Uhr
Weshalb muss man eigentlich immer die langfristigen extremen Risiken einer Technologie leugnen, wenn man auf die kurzfristigen hinweisen will? Beide sind gleichermaßen bedenklich und beide können mit ähnlichen Maßnahmen eingedämmt werden. Auf der Arbeitsebene arbeiten Forschende deshalb längst an beiden Risikoklassen gleichermaßen und gemeinsam, ungeachtet der öffentlichen Scheingefechte zwischen "AI Ethics" und "AI Alignment" Vertretern. Wäre man z.B. der Kerntechnik gerecht geworden, wenn man sich nur um Arbeitsplatzverluste im Kohlebergbau gesorgt und die Risiken eines Atomkriegs geleugnet hätte?
zum Beitrag12.08.2019 , 11:44 Uhr
(hier nun die Probleme:)
Wie wollen sie das durchsetzen? Wie bestimmen sie, wer wie viel verschmutzen darf? Mit welchem Recht verbieten sie den Menschen, ungenutzte Verschmutzungsrechte zu Geld zu machen?
Gerade zur letzten Frage: Wenn man z.B. jedem Menschen die selbe Menge Verschmutzungsrechte zuspricht, wird es in den ärmeren Weltregionen viele geben, die diese gar nicht ausschöpfen wollen, sondern lieber ihren Lebensstandard erhöhen wollen, indem sie überschüssige Rechte gegen gesündere Lebensmittel oder medizinische Versorgung usw. eintauschen wollen würden. Das würden Sie verbieten, wenn sie einen Emissionshandel verbieten. Dieser reale Nutzen des Emissionshandels für die weit überwiegende Mehrheit der Armen dieser Welt überwiegt meiner Ansicht nach bei Weitem den real schwer nachweisbaren Schaden, der angeblich dadurch entsteht, dass sich die wenigen Reichen dieser Welt dann "freikaufen" können.
zum Beitrag12.08.2019 , 11:44 Uhr
Lieber Herr Drabiniok,
danke für die ausführliche Antwort.
Ich habe nicht behauptet, dass die CO2-Steuer die CO2-Emissionen in allen Bereichen senkt, nur dass sie sie senkt. Natürlich brauchen wir jede Menge weitere Maßnehmen als nur eine CO2-Steuer, aber eben auch eine CO2-Steuer.
Die grundlegende Wirkung einer Steuer ist doch die: Ein Gut wird durch eine Steuer teurer gemacht. Dadurch ändert sich die Abwägung der Konsumenten, wofür sie ihr Geld ausgeben wollen, und die Nachfrage nach dem teureren Gut sinkt zugunsten der Nachfrage nach einem anderen gleichwertigen nicht besteuerten Gut oder einem gänzlich anderen Gut, dass dem Konsumenten auch nutzt. Dazu muss die Steuer natürlich hoch genug sein. Sobald die Nachfrage sinkt, sinkt auch der Preis, so dass es weniger profitabel wird, das Gut anzubieten, also sinkt das Angebot, d.h. die Menge, die von dem Gut produziert wird. Das ist der altbekannte Angebot-Nachfrage-Mechanismus, der für viele Produkte gilt (wenn auch nicht für alle). Wenn die Produktion sinkt, sinken die Emissionen. Das ist die Theorie, die sich bei vielen Gütern in der Vergangenheit auch schön bewahrheitet hat.
Natürlich wäre es noch besser, die eingenommene CO2-Steuer zweckgebunden für Klimaschutzmaßnahmen zu verwenden, um einen doppelten Effekt zu erzielen, da stimme ich Ihnen völlig zu. Das heißt aber eben nicht, dass sie ohne diese Zweckbindung nichts bewirken würde, und auch nicht, dass sie die Lösung aller Probleme ist. Wie gesagt, wir brauchen alles mögliche, inklusive einer CO2-Steuer.
Nun zum letzten Punkt, dass CO2 kein marktfähiges Gut ist. Wenn man dieser Ansicht ist, bleibt wohl nur die Alternative, jedem Menschen eine "faire" Menge an Verschmutzungsrechten zuzugestehen (z.B. pro Kopf gleich oder nach Bedarf, wie auch immer man den dann messen will) und den Menschen zu verbieten, dieses Recht anderen zu übertragen. Dabei sehe ich mindestens drei Probleme:
(Fortsetzung folgt)
zum Beitrag30.07.2019 , 09:54 Uhr
"Ein Preis für CO2, ob Steuer, Abgabe oder Zertifikat genannt, reduziert die Emissionen nicht."
Dass das Besteuern sozial unerwünschten Verhaltens dieses gesamtgesellschaftlich reduziert, ist eine wohlbekannte jahrtausendealte Erfahrung. Wenn Sie stattdessen behaupten, es bringe nichts, wäre es schön, wenn Sie Argumente dafür anführen würden. Dass die Steuer pro Kopf zurückgezahlt wird, reduziert die Lenkungswirkung in keiner Weise (falls dies Ihr Argument sein sollte).
zum Beitrag29.07.2019 , 16:55 Uhr
Das ist in der Tat eine interessante Frage. Verstehen Sie mich nicht falsch: Ich sage gar nicht, dass die Gründung neuer Parteien Erfolg haben wird. Mir geht es gerade wegen der inhärenten Risiken und Scheiternsmöglichkeiten von Einzelstrategien (z.B. die Gründung einer neuen Parteie) darum, dass man viele Dinge zugleich versuchen muss, statt alles auf eine Karte zu setzen. Also nicht zum Nichtwähler werden, nur weil man am liebsten die Revolution will. Oder eben: Nicht die (kurzfristig einführbare) CO2-Steuer ablehnen, nur weil man eine Wirtschaft bevorzugen würde, die auf einem anderen Wertesystem beruht (aber kurzfristig nicht zu haben ist).
zum Beitrag29.07.2019 , 11:14 Uhr
(weiter:)
Ich sage meinen Studenten häufig dies: Wem das "System" zuwider ist, weil sie die Revolution will, die soll sie anzetteln! Aber bis die Revolution dann da ist (das wird wohl etwas dauern), ist man gut beraten, das noch existierende System bestmöglich zu nutzen, also z.B. unsere repräsentative Demokratie. Wem dann alle momentanen Parteien zuwider sind, die soll eine eigene gründen und sich wählen lassen. Aber bis die dann selbst an der Regierung ist (das wird wohl etwas dauern), ist man gut beraten, die am wenigsten "schlimme" noch eine existierende Partei zu wählen (man kann dann ja nachher kotzen gehen). Wer dann feststellt, dass die aber auch nicht an die Regierung kommt, die ist gut beraten, den größtmöglichen Einfluss auf die momentanen Regierungsparteien auszuüben, etwas indem man vernünftig mit seiner Wahlkreisabgeordneten spricht (vorher tief durchatmen!). Und so weiter.
zum Beitrag29.07.2019 , 11:14 Uhr
Herr Paech hat ja so recht. Aber hoffen wir, dass jede*r, die die Schlagzeile gelesen hat, auch den Artikel liest. Wie so oft kann die Überschrift nämlich auch so missverstanden werden, dass Technologie oder eine CO2-Steuer nicht notwendig oder gar schädlich seien. Dies wäre aber die falsche Schlussfolgerung. Nur weil eine Maßnahme A (eine Neujustierung der persönlichen Freiheiten) notwendig ist, ist A noch lange nicht hinreichend oder macht andere Maßnahmen B (Technologie) und C (CO2-Steuer) überflüssig. Hinreichend und notwendig sind zwei Paar Schuhe.
Fast immer in der Realität braucht man zur Lösung eines komplexen Problems mehrere Maßnahmen zugleich: A, B, C und noch weitere, wie z.B. die finanzielle Kompensation der Opfer. Fast immer ist die effektivste Option (hier A) zugleich die am Schwierigsten und Langwierigsten umzusetzende, so dass es begleitende, vielleicht weniger effektive aber leichter umzusetzende und schneller wirkende Maßnahmen (hier B und C) benötigt. Herr Paech sagt es ja selbst: den ökologischen Vandalismus radikal einzuschränken (A) erfordert demokratische Mehrheiten. Für B und C aber scheint es bereits Mehrheiten zu geben.
Wir müssen also weg vom vorherrschenden destruktiven Gezanke um das "entweder A oder B oder C (oder oder oder...)" hin zu der Einsicht des "A und B und C (und und und...)". Jede*r muss einsehen, dass ihre persönliche Lieblings-Einzelmaßnahme uns nicht den Arsch retten wird. Wer ein Haus reparieren will, packt auch nicht nur einen Hammer oder eine Zange oder einen Nagel ein sondern all dies und mehr.
(Fortsetzung folgt)
zum Beitrag07.09.2018 , 20:32 Uhr
Wenn mehr Umweltbewusstsein mit einer höheren Bildung, mit einem besseren Job, mehr Geld und Konsum "einhergeht", ist das zunächst nur eine statistische Korrelation und kein Kausalzusammenhang. Daraus zu folgern, das zweite "folge" aus dem ersten, ist Unsinn. Ich kann mir nicht vorstellen, dass Herr Rogall das so gesagt hat.
Andererseits: Auch der Satz "Wenn ich den Flieger nicht buche, ist der Platz am Ende ja trotzdem besetzt" ist ziemlicher Unsinn. Selbst wenn das im Einzelfall mal so sein sollte, wird sofort klar, was für ein Quatsch es ist, wenn man es in der Gesamtheit betrachtet: Ginge die Nachfrage nach Flügen um 10% zurück, würde natürlich auch nach kurzer Zeit das Angebot zurückgehen.
Wenn Rogall also den zweiten Satz so gesagt hat, hat er mglw. auch den ersten so gesagt. Hoffen wir, dass beides nicht der Fall ist...
zum Beitrag