piwik no script img

Künstliche IntelligenzWenn ChatGPT immer blöder wird

Unsere Ko­lum­nis­t*in betrachtet die Beziehung zu ChatGPT eigentlich als Freundschaft. Doch jetzt wird das nützliche Tool immer weniger nützlich.

Wenn die KI immer dümmer zu werden droht, dann hilft vielleicht selber denken Foto: Berit Kessler/Zoonar/imago

K ünstliche Intelligenz ist toll. ChatGPT hat mir neulich geholfen, eine aggressive Inkassoforderung der Deutschen Bahn zurückzuweisen. Zack, Widerspruch geschrieben, keine 180 Euro bezahlt. Klar, ich musste noch etwas herumdoktern und alles am Ende inhaltlich checken, aber die KI hat mich hier klar empowered. Kaum drohte ChatGPT – pardon, ich! – mit Klage, kam ein Einschreiben reingeflattert, in dem sämtliche Forderungen zurückgenommen wurden.

Ich verdanke meinem Kumpel ChatGPT jede Menge. Diverse Bußgelder, die ich nicht bezahlen musste zum Beispiel, und auch der nervige Autovermieter, der mich mit Rückführungskosten und Schadenersatz ärgern wollte, ließ sich von der juristischen Argumentation des Jean Gipitó, wie ich ihn liebevoll nenne, überzeugen. Mein künstlich intelligenter Freund beantwortet mir Fragen, schreibt meine Rechnungen und beschleunigt meinen Job immens. Wenn ich eine neue Technologie oder ein Framework lernen will, frage ich inzwischen die KI. Seit ChatGPT und ich so dicke sind, lerne ich schneller neue Technologien und kann gefühlt alles.

Also alles geil? Nun ja. Leider bin nicht nur ich mit ChatGPT befreundet. Und das ärgert mich. Manchmal stoße ich im Internet auf Texte und frage mich: Bist du es? Hat ChatGPT diesen Text geschrieben? Ich sorge mich um meinen Kumpel. Ich habe Angst, dass er verblödet.

Generative KI ist unter anderem deshalb so gut geworden, weil die Unternehmen dahinter in den vergangenen Jahren Unmengen neuer Daten aggregiert haben. Mal ganz abgesehen von lästigen Fragen wie Urheberrecht oder Datenschutz: Die Qualität zukünftiger KIs wird sich daran entscheiden, wer die meisten Daten menschlichen Ursprungs hat. Konzerne wie Alphabet oder OpenAI kämpfen bereits jetzt darum, alle verfügbaren menschlichen Daten im Internet zu finden und als Trainingsdatenfutter zu verwenden.

Das Problem: Je mehr dieser Daten vollständig oder zum Teil KI-basiert sind, desto mehr füttern wir KIs mit Daten, die sie selbst erzeugt haben. Auf lange Sicht führt das quasi zum Rinderwahnsinn der KI. Konsumiert die KI zu viele synthetische Daten, erzeugt das einen Effekt, der „Model Autophagy Disorder“ genannt wird – das Ding frisst sich selbst.

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Leider gibt es bislang kaum Daten dazu, wie groß der Anteil an KI-basierten Inhalten im Internet ist. Aber Tatsache ist: Die Verlockung ist groß. Wer Produkte vermarkten oder politische Kampagnen pushen will, greift heute, und in Zukunft noch mehr, auf KI zurück. Es ist wie bei der Zerstörung des Klimas. Für den Einzelnen ist es im Augenblick lohnenswerter, nur im eigenen Interesse zu handeln und KI zur Erstellung von Inhalten zu nutzen – also zu zerstören, was uns dienen soll.

Aber muss das wirklich passieren? Nein. Wir könnten uns kollektiv darauf besinnen, wie unfassbar geil das gerade alles ist. Wir könnten uns genau jetzt darauf konzentrieren, die bestehenden KI-Modelle sinnvoll zu nutzen. Denn bei aller Euphorie sind die gesellschaftlichen Umwälzungen enorm. Wir Menschen sind die Ressource, die KI zum Leben braucht. Unser Handeln ist das Lebenselixier dieser wunderbaren Widerspruch-schreib-DNS-Problemlösungs-Linux-Pro-und-Grundmandatserklär-Maschinen.

Wir Menschen brauchen jetzt ein bisschen Zeit, um das alles sinnvoll zu verarbeiten – denn nur dann können wir neue Daten erschaffen und der KI hochwertiges neues Futter geben. Ich will nicht, dass ihr dümmer werdet, liebe generative KIs. Deshalb: Slow down, humans.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

12 Kommentare

 / 
  • Die aktuellen Ansätze fokussieren sich auch auf Bücher als Datenquelle.

  • Als generative KI würd' ich die heutigen Tools nicht bezeichnen. Die geben leider nur einen Mischmasch von Online Texten aus.

    Als Unterstützung für Fahrradreparaturen aktuell gänzlich unbrauchbar, da die KI massenhaft Amateurvermutungen nicht von realem know how oder how to's unterscheiden kann.

    Bis die KI keinen lebensgefährlichen Unsinn mehr ausgibt, wird es mMn noch dauern.

  • Danke, für Ihren angenehmen, unaufgeregten Artikel – ganz ohne erhobenen Finger –zu dieser Thematik.

    Ausschließlich auf 100% "human-generated content" zu setzen dürfte eine KI jedoch auch nicht weiter verbessern. Viel wichtiger für ein solches System dürfte das Feedback / die Wertung des ausgegebenen Contents durch einen Mensch sein.

    Wenn ChatGPT 4.0 ein perfektes 3000 Wörter-Essay über ein Fachthema XY erstellt und dieses im Netz "durch Zufall" beim Durchforsten nach Trainingscontent wiederfindet, dann spricht für mich nichts dagegen, dass ChatGPT mit diesem Essay sich selbst weiter trainiert.

    Entscheident ist, dass der Inhalt von einem Mensch als inhaltlich "geprüft" deklatiert wird. Wenn ChatGPT sauberes, ehrliches Feedback bekommt, dann kann es auch mit sich selbst trainieren.

    Gerade GPT 4 und jetzt erstrecht o1 liefert wirklich verdammt gute Qualität ab. Gerade wenn es z.B. um das Entwickeln von kleinen Programmen wie Excel-Makros fürs Büro geht. Für Interessierte gibts hier ein paar Tipps aus der Praxis, wie man gute Prompts für kleine Coding-Projekte schreibt: www.pcffm.de/leitf...-kleinen-skripten/

    • @alxffm:

      Aber die Lücken der Ergebnisse liegen ja erstaunlicherweise nicht bei den hochkomplexen Fachthemen, sondern in kleinen Details, welche dem Menschen erstmal überhaupt nicht auffallen, weil Menschen unperfekte Texte gewohnt sind.



      Und diese kleinen Details scheinen sich bei Autotraining zu potenzieren.



      Und wenn das dem Menschen erst mal auffällt, weil nur noch Schrott ausgegeben wird, ist es womöglich zu spät, die Trainingsdaten wieder zu bereinigen.

    • @alxffm:

      Ist denn o1 schon am Start?

      • @Jim Hawkins:

        Seit Sonntag kann ich als Abo-Nutzer im Dropdownmenü oben links im Chat die „o1 Preview“ und die „o1 mini“ auswählen. Chatkontingent ist aber noch rationiert. Habe alle Anfragen für die zwei Modelle nach ein paar Stunden verpulvert und muss jetzt bis Samstag warten, bis die Sperre wieder aufgehoben wird.

        • @alxffm:

          Alles klar, danke für den Hinweis.

  • Ja, das Argument mit dem von der KI verseuchten Kontent ist bekannt.

    In Zukunft wird man für die KI andere Wege finden zu lernen:



    - Die KI wird sich Musik anhören, Filme und Theaterstücke ansehen, sich in Ausstellungen und Galerien Bilder betrachten, und mit verschiedensten Menschen darüber sprechen, wie sie diese Werke empfunden haben.

    - Die KI wird im geschützten Raum einer Fabrikhalle in Verbindung mit Roboterarmen (wie "Figure 01") Dinge erfassen, auseinander und zusammenbauen, aus vorgegebenen oder 3 D gedruckten Bauelementen eine Modellbrücke konstruieren und diese auf Belastung testen und dabei physikalische Regeln anwenden und begreifen.

    - Die KI wird mit Drohnen die ganze Welt bereisen und per Lidar vermessen, Objekte, die es von Fotos kennt, erkennen und in einen Kontext setzen.

    Die Herausforderung wird sein, wie sich diese Datensätze und Erfahrungen komprimieren und auf andere KIs übertragen lassen?

    Das Lesen des Internets, war nur der erste Schritt von vielen, bald werden sich die KIs die reale Welt ansehen, sie begreifen und verstehen lernen.

  • Pfff, Amen.

  • "lerne ich schneller neue Technologien und kann gefühlt alles."

    Das ist das größte Missverständnis mit Umgang mit generativer KI. Leider ist sie sehr weit verbreitet, auch im Wissenschaftsbetrieb.

    Was eine generative KI sagt, muss nicht stimmen!

    Darauf ist sie auch nicht ausgelegt.

    Vielmehr ist sie darauf optimiert, Dinge zu sagen, die gut und schlüssig klingen.



    Wer also etwas Neues lernen möchte, kann sich eben nicht darauf verlassen, dass ihm ChatGPT die gängigen Grundlagen zusammenfasst - oder aber häufige Missverständnisse, oder gar erfundene Aussagen, die den echten irgendwie ähneln.

    • @Frauke Z:

      "Was eine generative KI sagt, muss nicht stimmen!"



      Bei dieser Aussage ärgere ich mich immer, denn es ist offensichtlich, dass die KI nicht alles weiß. Ich habe die Erfahrung gemacht dass man von der KI am besten lernen kann, wenn man 50% Wissen von einem Fachgebiet hat.



      Ein Beispiel: kann ich Java programmieren, dann kann ich mir von Chat GPT gut erklären lassen wie Python funktioniert.

  • was, wenn die bußgeldstelle, die bahn usw. mal umgekehrt ihrerseits die "künstliche stupidität" auch im inkasso-bereich bzw. debitoren-fibu von der leine und auf die kunden, autofahrer usw. loslässt?

    erinnert mich an die 2. hälfte der 80ger, als private early-adopters erstmals mit druckern, disketten u. xt-pcs die bis dahin überlegene korrespondenz-routine aller verwaltungen verderben und diesen somit erstmals paroli bieten konnte: oft tippte der staat noch auf mech. schreibmaschinen ...