piwik no script img

KI beleidigt dein Insta-ProfilRebellischer Teenager

Ein neues Tool von ChatGPT bewertet Inhalte von Instagram-Profilen. Auch das der taz wurde geroastet.

Mach meinen Account so richtig fertig! Foto: Westend61/picture alliance

Ein nerviges Kind, das ungefragt auf Partys über Politik redet. So beschreibt Insta Guru den Instagram-Account der taz. Dabei wolle er eigentlich der „rebellische Teenager unter den deutschen Medien sein“. Das ist erstaunlich lustig für eine Künstliche Intelligenz und trifft auch noch zu.

Seit ein paar Wochen kann man das Social-Media-Profil von Insta Guru mit einem neuen KI-Werkzeug des beliebten Chatbots ChatGPT „roasten“ lassen. Dafür muss man Screenshots seines Profils zur Verfügung stellen und fragen: Kannst du meinen Account so richtig fertig machen?

Dann bewertet die KI die Beiträge (bei der taz: „Quantität über Qualität“), die Profilbeschreibung („Du nennst dich selbst radikal? Mutig“) und Dinge wie die Themenmischung und das Farbschema. „Eine Pfote gehört auf eine Tierfuttermarke, nicht auf eine Zeitung.“

Instagram-Profile als Trainingsdaten

Tja, und warum das Ganze? Manche Leute stehen einfach drauf, mal so richtig fertiggemacht zu werden. Das scheinen nicht wenige zu sein. In den letzten Wochen haben auf Instagram viele die Ergebnisse der „Roasting-Challenge“ gepostet.

Man kann die KI sogar fragen, ob sie „noch härter“ beim Fertigmachen sein kann. Künstliche Intelligenz als Werkzeug zum Heruntermachen hat aber nicht ChatGPT erfunden. So gibt es seit ein paar Jahren ein Tool der Datenjournalismus-Plattform „The Pudding“, das testet, „wie schlecht“ der Musikgeschmack bei Spotify ist. Manche nutzen den neuen Insta Guru vielleicht auch, weil sie wirklich wissen wollen, wie ihr Profil von außen wirkt.

Das Web-Phänomen

Insta Guru

bei ChatGPT

Gut, dass Insta Guru dann auch noch nützliche Tipps zur Verbesserung bereitstellt. Bei der taz empfiehlt die KI etwa, leichtere Inhalte mit den schweren Themen zu mischen. OpenAI dürfte sich auch die Hände reiben, denn während alle ihren Spaß haben, bekommt das Unternehmen ganz automatisch Instagram-Profile als Trainingsdaten für ihre Künstliche Intelligenz. Was mit den Daten passiert? Keine Ahnung.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • Oh, geroasted wurde das Profil der taz? Warum nicht getoasted, gebaked oder geboiled?

  • Screenshots vom Profil? Das dürfte ja auch recht einfach zu fälschen sein, oder?

  • Diese "roasting" Analysen werden nicht lange als solche erkennbar sein. Sie werden als "normale" Meinungen von irgendjemand Lebendiges in Internet eingehen und dort zitierbar werden und als "real" akzeptiert werden. Und -natürlich- wieder als Input, als Trainingsmaterial an "der Realität", wiederverwendet zu werden.



    Da droht eine Blase von KI-generierten Inhalten, die sich selbst ständig weiter füttern.



    Und die die Menschen in ihrer "Realitäts"wahrnehmung verändert.

    • @Monomi:

      Da sind wir leider schon, seit es vollautomatische Youtube/Tiktok...-Kanäle gibt und längst bereits automatisierte Blogs, "News" etc.

      Und wenn der Mensch dann mitmischt, dann verstärkt er den Effekt häufig auch noch, da er inzwischen die AI nicht mehr als solche erkennt, sondern fröhlich zitiert und dadurch noch Anerkennung und Bühne bietet.

      Es wird Zeit, Platformen und "soziale" Medien in die Verantwortung für veröffentlichte Inhalte zu nehmen. Und dass nicht nur für die öffentlichen Inhalte, sondern auch für die halböffentlichen Gruppen.

      Jeder Forenbetreiber ist dafür verantwortlich, warum nicht die neueren Platformen? Korruption? Angst? Erpressung?