Digitalkolumne taz FUTURZWEI : Sind Pfirsiche und Macadamianüsse verwandt?
KI-generierte Medien sind inzwischen so billig, zugänglich und qualitativ hochwertig, dass überall ein gut gemachter Deepfake lauern könnte. Was tun?
![Zu sehen sind Pfirsiche an einem Ast, darum grüne Blätter. Zu sehen sind Pfirsiche an einem Ast, darum grüne Blätter.](https://taz.de/picture/7534323/14/jason-leung-K1PU6sqsFPs-unsplash.jpg)
taz FUTURZWEI | Im letzten Jahr haben sich 44 Prozent der 18- bis 24-Jährigen zum aktuellen Weltgeschehen über soziale Medien informiert. Dabei werden Nachrichten über Social Media eher unbewusst aufgenommen.
Genauer gesagt: Wir verarbeiten Informationen über Instagram, TikTok und Snapchat nicht systematisch, wie bei einer Schlussfolgerung, bei der wir zuvor gründlich alle Aspekte abgewägt haben, sondern heuristisch, also durch schnelle Mutmaßungen. Obwohl wir also nur im Vorbeiscrollen Schlagzeilen überfliegen und der kognitive Aufwand für die Informationsverarbeitung gering bleibt, fühlen wir uns gut informiert.
Dieser Trugschluss, nämlich umfassend und ausgewogen informiert zu sein, wird durch unsere eigene Filterblase verschärft. Wir nehmen innerhalb der Nachrichten, die uns erreichen, solche stärker wahr, die zu unseren Vorstellungen passen.
taz FUTURZWEI, das Magazin für Zukunft – Ausgabe N°31: GEMEINSINN
Gemeinsinn gilt manchen als gut gemeint, salonlinks oder nazimissbraucht. Kann und wie kann Gemeinsinn zur Lösung gesellschaftlicher Probleme beitragen?
Mit Aleida Assmann, Armin Nassehi, Barbara Bleisch, Florian Schroeder, Jagoda Marinić, Wolf Lotter, Heike-Melba Fendel, Florence Gaub, Paulina Unfried, Tim Wiegelmann und Harald Welzer.
Hinzu kommt eine algorithmische Selektion von Inhalten: Instagram, TikTok und Co. zeigen uns solche Inhalte an, die wir eher kommentieren oder liken. So erreichen uns vor allem jene Nachrichten, die unser bereits bestehendes Weltbild bestärken. Und selbst bei Meldungen, die nicht diesem Schema entsprechen, interpretieren und erinnern wir uns selektiv, ausgehend davon, wie gut die Info zu unseren Einstellungen passt.
Verzerrung und Falschnachrichten
Neben diesen Mechanismen, das algorithmische Selektieren sowie menschliches Erinnern, verzerren und formen darüber hinaus auch noch Falschnachrichten unsere Wahrnehmung und individuelle Realität. Zwei Effekte kommen hier besonders zum Tragen. Zum einen der Schläfer-Effekt, der beschreibt, wie wir dazu tendieren zu vergessen, aus welcher Quelle bestimmte von uns gelesene Informationen stammen und ob wir diese Quelle vorher für glaubwürdig befunden haben.
Der Witz dabei: Der Informationsgehalt selbst bleibt uns als Nachricht im Gedächtnis! Zum anderen besagt der sogenannte Effekt der illusorischen Wahrheit, dass wir eine Falschinformation irgendwann für wahr halten, wenn sie uns häufiger und aus verschiedenen Quellen präsentiert wird.
Als wäre unsere Nachrichtenaufnahme nicht schon kompliziert genug, müssen wir jetzt auch noch lernen mit einer neuen Technologie umzugehen: mit synthetisch hergestellten Foto-, Video- oder Audiodateien, sogenannten Deepfakes.
Alles könnte ein Deepfake sein
Warum uns diese so leicht hinters Licht führen und warum wir ihnen unbewusst vertrauen, begründet Nina Schick in ihrem Buch Deepfakes mit der „Verarbeitungsflüssigkeit“. Demnach verarbeitet das menschliche Gehirn manche Informationen schneller als andere.
So werden zum Beispiel schon Informationen, die in einer Kombination von Text und Bild dargestellt werden, besser aufgenommen als die reine Textform.
Schick nennt folgendes Beispiel: Menschen bestätigen die Aussage „Macadamianüsse gehören derselben Familie an wie Pfirsiche“ in der Tendenz eher, wenn neben dem Satz ein Bild von Macadamianüssen zu sehen ist. Dieser Effekt tritt bereits bei einem einfachen Foto ein und verstärkt sich noch einmal deutlich bei Videodateien.
Bis vor Kurzem waren die Einstiegshürden für synthetisch hergestellte Medien noch hoch: Man brauchte eine Menge Können, Zeit und/oder Geld, um Fotos, Audios oder Videos zu faken. Inzwischen jedoch sind KI-generierte Medien qualitativ hochwertig, für jeden zugänglich und das zu geringen Kosten.
Umso dringender wird es, dass wir lernen mit Deepfakes umzugehen – und mit der Möglichkeit, dass alles ein Deepfake sein könnte.
Der Angriff auf die Privatsphäre
Die realen Konsequenzen der technologischen Entwicklung sind zwar noch nicht demokratiegefährdend, verstärken aber schon jetzt bestehende, systematische Diskriminierung – etwa durch das leichte Erstellen und Verbreiten nicht einvernehmlicher Pornografie.
Dem fielen bereits Prominente wie die Schauspielerinnen Maisie Williams (bekannt als Arya Stark in Game of Thrones) und Emma Watson (bekannt als Hermine Granger in Harry Potter) zum Opfer.
Sowohl Williams als auch Watson sind eine leichte Zielscheibe, stehen sie doch seit ihrer Kindheit vor Kameras, die über die Jahre unzählige, öffentlich zugängliche Fotos und Videoaufnahmen von den beiden Frauen produziert haben.
Durch die Menge der Bilder und mithilfe einer Face-Swap-App lassen sich in Sekundenschnelle, anonym und mit nur einem Knopfdruck Pornos von Personen erstellen, die dem Ganzen nie zugestimmt haben.
Die Angriffe auf die Privatsphäre und das Sicherheitsempfinden dieser Frauen ist verheerend, in manchen anderen Szenarien können die Videos sogar lebensbedrohlich werden. So werden bereits heute KI-generierte Videos in autokratisch regierten Ländern zur Diskreditierung und Verhaftung bis hin zu Folter von oppositionellen Politiker*innen genutzt.
Informationsökosystem und Infokalypse
Wie gehen wir am besten mit Deepfakes und einer davon befeuerten Krise des Vertrauens in die Medien um, ohne in einer „Infokalypse“ zu landen?
Bisherige Versuche zeigten, dass das Löschen von Falschinformationen nur auf die Logik der Verschwörungserzählungen einzahlt: Es wird als Beleg für Zensur und eine Beschränkung der Meinungs- und Informationsfreiheit wahrgenommen.
Der bloße Hinweis auf Falschnachrichten wirkt dagegen wenig, denn wir vergessen ihn schnell wieder, wohingegen sich der falsche Inhalt im Kopf festsetzt. Nichtsdestotrotz muss sowohl die allgemeine Medienkompetenz des Einzelnen als auch das Informationsökosystem als Ganzes gestärkt werden.
Es braucht eine starke Presse und Plattformen, die zur Verantwortung gezogen werden können (hier wird sich der Effekt des EU-Gesetzes über digitale Dienste in den nächsten Jahren zeigen). Schließlich befinden wir uns erst dann endgültig in Schicks prognostizierter „Infokalypse“, wenn das Vertrauen in Politik, Staat und Medien verloren ist.
Und wie Georg Simmel festgestellt hat: Jemand, der alles weiß, muss nicht vertrauen, aber jemand, der nichts weiß, kann nicht vertrauen. Wir müssen also die Balance finden zwischen Vertrauen in verlässliche Medien und eigenem kritischen Mitdenken.
Klingt komplex, aber manchmal ist es auch ganz einfach: Pfirsiche sind orangefarbene Steinfrüchte, Macadamianüsse sind Nüsse – Foto hin oder her.
■ Dieser Artikel ist in der neuesten Ausgabe unseres Magazin taz FUTURZWEI erschienen. Wenn Sie zukünftig regelmäßig Leser:in von taz FUTURZWEI sein wollen, sichern Sie sich jetzt das Abo für nur 34 Euro im Jahr. Lösungen für die Probleme unserer Zeit – alle drei Monate neu in ihrem Briefkasten. Jetzt bestellen!