KI beleidigt dein Insta-Profil: Rebellischer Teenager
Ein neues Tool von ChatGPT bewertet Inhalte von Instagram-Profilen. Auch das der taz wurde geroastet.
Ein nerviges Kind, das ungefragt auf Partys über Politik redet. So beschreibt Insta Guru den Instagram-Account der taz. Dabei wolle er eigentlich der „rebellische Teenager unter den deutschen Medien sein“. Das ist erstaunlich lustig für eine Künstliche Intelligenz und trifft auch noch zu.
Seit ein paar Wochen kann man das Social-Media-Profil von Insta Guru mit einem neuen KI-Werkzeug des beliebten Chatbots ChatGPT „roasten“ lassen. Dafür muss man Screenshots seines Profils zur Verfügung stellen und fragen: Kannst du meinen Account so richtig fertig machen?
Dann bewertet die KI die Beiträge (bei der taz: „Quantität über Qualität“), die Profilbeschreibung („Du nennst dich selbst radikal? Mutig“) und Dinge wie die Themenmischung und das Farbschema. „Eine Pfote gehört auf eine Tierfuttermarke, nicht auf eine Zeitung.“
Instagram-Profile als Trainingsdaten
Tja, und warum das Ganze? Manche Leute stehen einfach drauf, mal so richtig fertiggemacht zu werden. Das scheinen nicht wenige zu sein. In den letzten Wochen haben auf Instagram viele die Ergebnisse der „Roasting-Challenge“ gepostet.
Man kann die KI sogar fragen, ob sie „noch härter“ beim Fertigmachen sein kann. Künstliche Intelligenz als Werkzeug zum Heruntermachen hat aber nicht ChatGPT erfunden. So gibt es seit ein paar Jahren ein Tool der Datenjournalismus-Plattform „The Pudding“, das testet, „wie schlecht“ der Musikgeschmack bei Spotify ist. Manche nutzen den neuen Insta Guru vielleicht auch, weil sie wirklich wissen wollen, wie ihr Profil von außen wirkt.
Gut, dass Insta Guru dann auch noch nützliche Tipps zur Verbesserung bereitstellt. Bei der taz empfiehlt die KI etwa, leichtere Inhalte mit den schweren Themen zu mischen. OpenAI dürfte sich auch die Hände reiben, denn während alle ihren Spaß haben, bekommt das Unternehmen ganz automatisch Instagram-Profile als Trainingsdaten für ihre Künstliche Intelligenz. Was mit den Daten passiert? Keine Ahnung.
Leser*innenkommentare
Manfred Peter
Oh, geroasted wurde das Profil der taz? Warum nicht getoasted, gebaked oder geboiled?
Jeff
Screenshots vom Profil? Das dürfte ja auch recht einfach zu fälschen sein, oder?
Monomi
Diese "roasting" Analysen werden nicht lange als solche erkennbar sein. Sie werden als "normale" Meinungen von irgendjemand Lebendiges in Internet eingehen und dort zitierbar werden und als "real" akzeptiert werden. Und -natürlich- wieder als Input, als Trainingsmaterial an "der Realität", wiederverwendet zu werden.
Da droht eine Blase von KI-generierten Inhalten, die sich selbst ständig weiter füttern.
Und die die Menschen in ihrer "Realitäts"wahrnehmung verändert.
Jeff
@Monomi Da sind wir leider schon, seit es vollautomatische Youtube/Tiktok...-Kanäle gibt und längst bereits automatisierte Blogs, "News" etc.
Und wenn der Mensch dann mitmischt, dann verstärkt er den Effekt häufig auch noch, da er inzwischen die AI nicht mehr als solche erkennt, sondern fröhlich zitiert und dadurch noch Anerkennung und Bühne bietet.
Es wird Zeit, Platformen und "soziale" Medien in die Verantwortung für veröffentlichte Inhalte zu nehmen. Und dass nicht nur für die öffentlichen Inhalte, sondern auch für die halböffentlichen Gruppen.
Jeder Forenbetreiber ist dafür verantwortlich, warum nicht die neueren Platformen? Korruption? Angst? Erpressung?