piwik no script img

Manipulation von LippenbewegungenObama sagt, was du willst

US-Forscher haben eine Software entwickelt, um Lippenbewegungen in Videos zu fälschen. Oder um diese Fälschungen zu entlarven.

Über das Setzen von Vektorpunkten lassen sich Lippenbewegungen verändern Screenshot: YouTube

Künstliche Intelligenz, liebevoll KI abgekürzt, ist das Baby der Wissenschaft. Jeden Tag lernt es etwas Neues und die Mamis und Papis kippen um vor Stolz. Wenn der kleine Racker sein Wissen nur mal nicht anders anwendet, als sie es gerne hätten.

Die University of Washington hat gerade ein Projekt veröffentlicht mit dem Namen „Synthesizing Obama: Learning Lip Sync from Audio“. Eine neue Software, mit der man Videos mithilfe von Audiodateien verändern kann.

Die Wissenschaftler zeigen an einem Video des ehemaligen US-Präsidenten Barack Obama, wie die neue Software funk­tio­niert: Anstatt der tatsächlich von ihm gehaltenen Rede werden Obama Worte in den Mund gelegt, die er zu einem anderen Zeitpunkt gesagt hat.

Dazu fütterte das Team die Software mit vierzehn Stunden Audiomaterial von Obamas Stimme. Diese Daten werden anschließend in eine virtuelle Simulation von Lippen eingefügt. Vektorpunkte bilden eine virtuelle Simulation von Obamas Lippen und bewegen sich wie die des Vorbildes. In der nächsten Phase nehmen die Lippen menschliche Gestalt an: Aus den giftgrünen Punkten wird ein hautfarbener Mund. Nach ein paar Nachbesserungen von Zähnen und weiteren Details wird der so gefälschte untere Gesichtsteil in ein ganz anderes Video von Obama eingefügt. Die Computeranimateure passen dann noch schnell die Kopfbewegungen an das Gesagte an, damit der neu-alte Oba­ma keine unnatürlichen Bewegungen macht. Et voilà! Fertig ist das Obama-Video mit einer ganz neuen Botschaft.

Der Unterschied ist kaum erkennbar

Das Bahnbrechende an dieser Technik ist: Die Qualität des Ursprungsvideos kann sehr schlecht sein, das Video gar aus einer ganz anderen Zeit stammen – und die Person nicht mal im Bild gewesen sein. Denn der Bearbeitungsprozess benötigt nur Audiodateien.

Forscher der Stanford University haben bereits 2016 ein ähnliches Projekt namens „Face2Face“ vorgestellt. Anders als bei der University of Washington stützten sie sich jedoch auf ein Gesichtserkennungs­programm. Das Ergebnis ist auch hier verblüffend: Der Nutzer wird mit einer Kamera gefilmt und seine Gesichtsbewegungen werden in Echtzeit auf das Gesicht projiziert.

Allerdings ist das Ergebnis aus Stanford noch nicht so akkurat und somit leichter als Fälschung identifizierbar. Bei den Ergebnissen aus Washington hingegen ist es für den Laien kaum mehr möglich, den Unterschied zu einem authentischen Video zu erkennen.

Das Projekt fasziniert und beängstigt gleichermaßen. Was mit der heutigen Technik alles möglich ist, vor allem bei dem harmlosen Beispiel: Obama sagt etwas, was er zu einem anderen Zeitpunkt schon einmal gesagt hat. Es sind immer noch Aussagen von Obama selbst.

Wirkungsvolle Babysitter programmieren

Allerdings gibt es auch ein Projekt vom Forschungsteam der University of Alabama in Birmingham, das sich mit der Imitation von Stimmen beschäftigt. Hier reichen bereits drei bis fünf Minuten Audiomaterial aus, um eine synthetische Stimme zu erschaffen, die sowohl Menschen als auch biometrische Stimmerkennungssicherheitssysteme täuschen kann.

Kombiniert man nun das Verfahren der Universität Washington, wo die Videomanipulation nur noch Audiodateien benötigt, mit den Ergebnissen aus Birmingham: Horrorkopfkino.

Ira Kemelmacher-Shlizerman aus dem Forschungsteam an der University of Washington ist sich dessen bewusst. CNN sagte sie: „Es ist wichtig zu wissen, dass Videos genau wie Fotos verändert werden können.“

Das war laut der Forscherin auch ein Grund dafür, die Ergebnisse zu veröffentlichen: damit entsprechend auch Algorithmen entwickelt werden können, die bearbeitete Videos identifizieren.

Fakt ist: Dass die KI-Babys groß werden und beunruhigende Fähigkeiten entwickeln, ist nicht zu verhindern. Jetzt ist es an der Zeit, ihnen wirkungsvolle Babysitter zu programmieren.

Eine Koalition, die was bewegt: taz.de und ihre Leser:innen

Unsere Community ermöglicht den freien Zugang für alle. Dies unterscheidet uns von anderen Nachrichtenseiten. Wir begreifen Journalismus nicht nur als Produkt, sondern auch als öffentliches Gut. Unsere Artikel sollen möglichst vielen Menschen zugutekommen. Mit unserer Berichterstattung versuchen wir das zu tun, was wir können: guten, engagierten Journalismus. Alle Schwerpunkte, Berichte und Hintergründe stellen wir dabei frei zur Verfügung, ohne Paywall. Gerade jetzt müssen Einordnungen und Informationen allen zugänglich sein. Was uns noch unterscheidet: Unsere Leser:innen. Sie müssen nichts bezahlen, wissen aber, dass guter Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Es wäre ein schönes Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
  • Ja wie? "…Künstliche Intelligenz, liebevoll KI abgekürzt, ist das Baby der Wissenschaft. Jeden Tag lernt es etwas Neues und die Mamis und Papis kippen um vor Stolz. Wenn der kleine Racker sein Wissen nur mal nicht anders anwendet, als sie es gerne hätten.…"

     

    Eben - Was daran & am ResteText aber KI sein soll?!

    Heinz von Foerster hat recht - "Ma waaset nich!"

    Feine Showtechnik zum öffentliche Forschungsgelder

    Abgreifen & Installierung privater -,

    Gelddruckmaschinen!

    Na Mahlzeit.