Künstliche Intelligenz als Fotogenerator: Falsche Gesichter
Eine Website erzeugt täuschend echte Fotos von Menschen, die es nicht gibt. Das soll als Warnung dienen, hilft aber vor allem Fake-Accounts und Bots.
Dass sich Fotos von Personen dank Software extrem verändern lassen, ist nicht neu. Und auch nicht, dass Programme Figuren nach menschlichem Vorbild generieren können. Doch was künstliche Intelligenz in Sachen Fälschung – und Täuschung – schon alles kann, da zeigt jetzt die Website thispersondoesnotexist.com (deutsch: Diese Person existiert nicht).
Mit jeder Aktualisierung erstellt die Website ein neues Portraitfoto einer Person, das so in jedem Facebook-Account erscheinen könnte. Manchmal sehen die Bilder aus wie Urlaubsfotos, auf denen am Rand noch die Schulter eines herausgeschnittenen Menschen zu sehen ist. Andere Bilder wirken wie Bewerbungsfotos, die Menschen in formeller Kleidung vor neutralem Hintergrund zeigen. Nur: Die Menschen auf den Fotos gibt es nicht. Sie wurden mithilfe von künstlicher Intelligenz erstellt.
Fälschungen aus echten Gesichtern
Der Vorgang, der hinter dem zufälligen Fake-Face-Generator steckt, macht sich das Prinzip sogenannter Generative Adversarial Networks (GAN) zunutze, das schon hinter den „Deepfakes“, also dem Skandal um Bewegtbildmanipulation, steckte. Im Frühjahr 2018 wurde die Öffentlichkeit auf diese Form der Fälschung aufmerksam, als Buzzfeed ein gefälschtes Video vom damaligen US-Präsidenten Barack Obama veröffentlichte und Internetnutzer*innen die Gesichter von Schauspieler*innen in Pornos hinein montierten.
Die Website mit den falschen Gesichtern erinnert nun daran, dass von Fälschungen nicht nur Prominente betroffen sein können. Auf Grundlage der GAN-Technologie greift ein Algorithmus zunächst auf ein riesiges Datenset von Fotos echter Menschen zu. Verschiedene Merkmale der Bilder werden durchmischt und so zu einem neuen Gesicht zusammengefügt. Im nächsten Schritt prüft ein anderer Algorithmus, ob das Bild echt oder gefälscht ist. Wenn der Computer die Täuschung erkennt, geht das Foto wieder zurück zum ersten Schritt – um es noch besser zu machen.
Urheber der Website ist Philip Wang, der als Software-Ingenieur beim Shuttle-Dienst Uber arbeitet. „Den meisten Menschen ist nicht klar, wie gut künstliche Intelligenz künftig Bilder miteinander verschmelzen können wird“, sagte Wang gegenüber Motherboard in der vergangenen Woche.
Kritiker*innen sind durch die Technik hinter dem zufälligen Fotogenerator alarmiert. Das Problem bleibt seit Jahren dasselbe: Die Technik entwickelt sich schneller, als die Gesellschaft mit Regularien und Medienkompetenz folgen kann. Die zunehmend gute Qualität der Bilder macht es nur noch schwerer, Fake-Profile und Bots von echten Accounts zu unterscheiden – und in der Konsequenz die Glaubwürdigkeit von Inhalten im Netz zu gewährleisten.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken
Bundestagswahl am 23. Februar
An der Wählerschaft vorbei
Erderwärmung und Donald Trump
Kipppunkt für unseren Klimaschutz
EU-Gipfel zur Ukraine-Frage
Am Horizont droht Trump – und die EU ist leider planlos
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“
Wirbel um KI von Apple
BBC kritisiert „Apple Intelligence“