piwik no script img

KI-Fakes von Giorgia MeloniEin antifeministischer Kampf gegen die Wahrheit

Italiens rechte Premierministerin wehrt sich zu recht gegen KI-generierte Bilder von ihr. Doch das Problem geht weit über bekannte Politikerinnen hinaus.

Von Giorgia Meloni sind KI-generierte Bilder im Umlauf Foto: Matteo Minnella/imago

Auch mal eine spannende Entwicklung: Eine rechtspopulistische Politikerin warnt doch tatsächlich vor Falschinformationen im Internet. Irre! Auch irre: Mal sagen zu müssen, dass sie recht hat. Italiens Premierministerin Giorgia Meloni hat sich am Dienstag kritisch auf X über Deepfakes geäußert, die wohl von ihr in Umlauf sind.

Sie schreibt die mit KI-generierten Fakes „eifrigen Gegnern“ zu, die, „um anzugreifen und Falschheiten zu erfinden, inzwischen auf alles Mögliche setzen“ würden. Dazu postete sie einen Screenshot, auf dem ein Social-Media-Beitrag zu sehen ist. Er zeigt ein Bild von Meloni in Unterwäsche auf einem Bett, und einen Kommentar: „Dass sich eine Premierministerin in diesem Zustand präsentiert, ist wahrlich beschämend und ihrer institutionellen Rolle unwürdig. Aber sie kennt keine Scham.“

„Keine Scham“ ist das Stichwort, allerdings in Bezug auf die Menschen, die solche Bilder erstellen oder teilen. Dass es nun eine Rechte trifft, sollte keine Häme hervorrufen. Meloni, selbst wenn sie Vorsitzende der rechten Fratelli d’Italia ist, ist nur ein weiteres Opfer einer Praktik, die insbesondere gegen Frauen genutzt wird: Die Gegnerin wird sexualisiert, die Bilder geteilt.

Dabei geht es nicht unbedingt darum, eine Lüge zu verbreiten. Es geht vor allem darum, eine Regierungschefin auszuziehen in einer Welt, in der Anzugträger dominieren. Es geht um Erniedrigung.

Bikini- und Nacktbilder

Auch wenn Meloni schreibt, der Täter habe sie durch diese Darstellung „ganz erheblich aufgewertet“, weist sie auf die Gefahren hin. „Deepfakes sind ein gefährliches Werkzeug, weil sie täuschen, manipulieren und jeden treffen können. Ich kann mich wehren. Viele andere nicht.“ Damit hat sie recht.

Dafür muss es aber nicht mal ein Deepfake sein. Erst 2025 wurde öffentlich bekannt, dass Männer in einer italienischen Facebook-Gruppe mit knapp 32.000 Mitgliedern Fotos ihrer Partnerinnen und Ex-Partnerinnen posteten, auf denen sie in Bikini oder Unterwäsche zu sehen waren – oder nackt. Inzwischen hat Meta die Gruppe abgeschaltet.

All das ist keine Pornografie. Es fehlt die Zustimmung der Gezeigten – bei der Aufnahme selbst, beim Erstellen des KI-Fakes, beim Verbreiten. Es ist schlicht in Bilder gepresste sexualisierte Gewalt. Dass die jeden treffen könnte, wie Meloni schreibt, ist nicht konkret genug: Männer sind eben doch recht selten Opfer.

Dass ausgerechnet eine Rechtspopulistin nun auf die Gefahren von KI und Desinformation hinweist und den Ratschlag gibt, Inhalte erst mal zu prüfen, bevor man sie glaubt oder teilt, ist dennoch ironisch. Seit Jahren tun sich gerade rechte Parteien und ihr politisches Vorfeld auf Social-Media-Plattformen damit hervor, dass sie mit Lügen und Verschwörungserzählungen Hass und damit Wäh­le­r*in­nen­stim­men oder gar Gewalt mehren.

Komplett erfundene Fake-Charaktere

Seit dem Aufstieg von KI, seit sich damit immer echter wirkendes Material erzeugen lässt, wird diese auch immer stärker dafür eingesetzt. Nicht nur, um falsche Fotos und Videos von Geg­ne­r*in­nen zu erzeugen, sondern auch um ganze Fake-Charaktere zu erstellen, zu denen Use­r*in­nen eine Beziehung aufbauen und so schneller in menschenverachtende Ideologien gezogen werden sollen.

Und auch das funktioniert hervorragend über Sexualisierung: junge Frauen, die vor Migration warnen, erfundenen Nazi-Vorfahren huldigen – und vor allem leicht zu steuern sind, eben weil sie nicht existieren. Meloni nun per KI schlecht darstellen zu wollen, ist keine Lösung im Kampf gegen rechts, sondern ein antifeministischer Kampf gegen die Wahrheit.

Gemeinsam für freie Presse

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare