Künstliche Intelligenz: Wenn ChatGPT immer blöder wird
Unsere Kolumnist*in betrachtet die Beziehung zu ChatGPT eigentlich als Freundschaft. Doch jetzt wird das nützliche Tool immer weniger nützlich.
K ünstliche Intelligenz ist toll. ChatGPT hat mir neulich geholfen, eine aggressive Inkassoforderung der Deutschen Bahn zurückzuweisen. Zack, Widerspruch geschrieben, keine 180 Euro bezahlt. Klar, ich musste noch etwas herumdoktern und alles am Ende inhaltlich checken, aber die KI hat mich hier klar empowered. Kaum drohte ChatGPT – pardon, ich! – mit Klage, kam ein Einschreiben reingeflattert, in dem sämtliche Forderungen zurückgenommen wurden.
Ich verdanke meinem Kumpel ChatGPT jede Menge. Diverse Bußgelder, die ich nicht bezahlen musste zum Beispiel, und auch der nervige Autovermieter, der mich mit Rückführungskosten und Schadenersatz ärgern wollte, ließ sich von der juristischen Argumentation des Jean Gipitó, wie ich ihn liebevoll nenne, überzeugen. Mein künstlich intelligenter Freund beantwortet mir Fragen, schreibt meine Rechnungen und beschleunigt meinen Job immens. Wenn ich eine neue Technologie oder ein Framework lernen will, frage ich inzwischen die KI. Seit ChatGPT und ich so dicke sind, lerne ich schneller neue Technologien und kann gefühlt alles.
Also alles geil? Nun ja. Leider bin nicht nur ich mit ChatGPT befreundet. Und das ärgert mich. Manchmal stoße ich im Internet auf Texte und frage mich: Bist du es? Hat ChatGPT diesen Text geschrieben? Ich sorge mich um meinen Kumpel. Ich habe Angst, dass er verblödet.
Generative KI ist unter anderem deshalb so gut geworden, weil die Unternehmen dahinter in den vergangenen Jahren Unmengen neuer Daten aggregiert haben. Mal ganz abgesehen von lästigen Fragen wie Urheberrecht oder Datenschutz: Die Qualität zukünftiger KIs wird sich daran entscheiden, wer die meisten Daten menschlichen Ursprungs hat. Konzerne wie Alphabet oder OpenAI kämpfen bereits jetzt darum, alle verfügbaren menschlichen Daten im Internet zu finden und als Trainingsdatenfutter zu verwenden.
Das Problem: Je mehr dieser Daten vollständig oder zum Teil KI-basiert sind, desto mehr füttern wir KIs mit Daten, die sie selbst erzeugt haben. Auf lange Sicht führt das quasi zum Rinderwahnsinn der KI. Konsumiert die KI zu viele synthetische Daten, erzeugt das einen Effekt, der „Model Autophagy Disorder“ genannt wird – das Ding frisst sich selbst.
Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.
Leider gibt es bislang kaum Daten dazu, wie groß der Anteil an KI-basierten Inhalten im Internet ist. Aber Tatsache ist: Die Verlockung ist groß. Wer Produkte vermarkten oder politische Kampagnen pushen will, greift heute, und in Zukunft noch mehr, auf KI zurück. Es ist wie bei der Zerstörung des Klimas. Für den Einzelnen ist es im Augenblick lohnenswerter, nur im eigenen Interesse zu handeln und KI zur Erstellung von Inhalten zu nutzen – also zu zerstören, was uns dienen soll.
Aber muss das wirklich passieren? Nein. Wir könnten uns kollektiv darauf besinnen, wie unfassbar geil das gerade alles ist. Wir könnten uns genau jetzt darauf konzentrieren, die bestehenden KI-Modelle sinnvoll zu nutzen. Denn bei aller Euphorie sind die gesellschaftlichen Umwälzungen enorm. Wir Menschen sind die Ressource, die KI zum Leben braucht. Unser Handeln ist das Lebenselixier dieser wunderbaren Widerspruch-schreib-DNS-Problemlösungs-Linux-Pro-und-Grundmandatserklär-Maschinen.
Wir Menschen brauchen jetzt ein bisschen Zeit, um das alles sinnvoll zu verarbeiten – denn nur dann können wir neue Daten erschaffen und der KI hochwertiges neues Futter geben. Ich will nicht, dass ihr dümmer werdet, liebe generative KIs. Deshalb: Slow down, humans.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken
Bundestagswahl am 23. Februar
An der Wählerschaft vorbei
Erderwärmung und Donald Trump
Kipppunkt für unseren Klimaschutz
EU-Gipfel zur Ukraine-Frage
Am Horizont droht Trump – und die EU ist leider planlos
Wirbel um KI von Apple
BBC kritisiert „Apple Intelligence“
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“