Künstliche Intelligenz in der Kunst: Tanzen nach Zahlen
Wenn Künstliche Intelligenz die Schritte lenkt: Die Choreografie für das Stück „Deep Dance“ stammt von einem neuronalen Netzwerk.
Dass menschengemachte Maschinen unterhaltsam tanzen können, hat der US-Roboterhersteller Boston Dynamics gerade erst bewiesen: Zwei Humanoide, ein Roboterhund und ein Logistikroboter hüpfen in einem Video vom vergangenen Dezember munter zu schmissiger Musik herum, damit bloß keiner denkt, die Dinger und ihre immer autonomer und dabei auch noch vernetzt entscheidenden Elektronenhirne seien irgendwie bedrohlich.
Und dass künstliche Intelligenz zwar noch ziemlich schlecht darin ist, aus Bewegungsmustern von Tanzenden ein bestimmtes Musikgenre abzuleiten, dafür aber überraschenderweise in der Lage ist, einzelne Menschen an ihren charakteristischen Tanzbewegungen zu erkennen, haben finnische Forscher:innen schon ein Jahr zuvor herausgefunden. Nur beim Heavy Metal klappt das nicht. Zumindest im finnischen Sample gilt also offenbar: Beim Headbangen gibt es keine Individuen mehr.
Noch ein Jahr zuvor haben Forscher:innen der University of California ein Deep-Learning-System entwickelt, das auf der Grundlage relativ mies getanzter Laien-Performances und großartig getanzter Videosequenzen professioneller Tänzer:innen den ungelenken Laien-Stil ganz massiv verbessern kann – jedenfalls im dann errechneten Video. Dafür muss man allerdings damit leben können, dass dabei zumindest vorübergehend und virtuell auch mal ein Körperteil verloren geht.
Mit dem Zusammenhang von Tanz, Software und Technologie beschäftigt sich auch der Hamburger Choreograf Jascha Viehstädt schon länger, gemeinsam mit der offenen Formation Costa Compagnie, dem Regisseur Felix Meyer-Christian und dem Künstler und Ingenieur Erik Kundt.
Tänzer:innen befolgen digitale Befehle
2018 entwickelten sie zusammen etwa die Performance „Ok, Google“ rund um den und mit dem Stimmassistenten des Tech-Konzerns. Fünf Performer:innen unterhalten sich in einer Choreografie live auf der Bühne mit Googles Servern über alle möglichen Aspekte eines immer technoider werdenden Alltags, Googles Smart-Home-Assistent steuert dazu Licht und Ton der Performance.
Für „Deep.Dance“ nun hat Viehstädt gemeinsam mit einem Team von Künstler:innen eine komplette Choreografie durch ein künstliches neuronales Netzwerk erstellen lassen, das sie eigens dafür programmiert haben. Drei Tänzer:innen führen sie bis ins letzte Detail aus.
Auf diese Weise werde ein eindringlicher Blick auf eine sonst hermetisch abgeschlossen scheinende „hyperlogische Welt des Codes“ möglich, erklärt die Webseite zum Projekt. Auf der finden sich neben einem Video der einstündigen Performance, das noch bis Sonntag, 27. Juni, 23.59 Uhr zu sehen ist, auch Texte über die Beziehungen zwischen künstlicher Intelligenz und Tanz sowie Erklärungen, wie Maschinen eigentlich Tanz und Choreografie lernen können. Nerds finden zudem Schnipsel des selbstgeschriebenen Codes.
Die hinterm Projekt steckenden Fragen: Wie nützlich und realistisch ist die Nutzung der viel gehypten künstlichen Intelligenz in künstlerischer Arbeit – und wie wünschenswert ist das? Kann eine Software, kann eine Maschine im eigentlichen Sinn kreativ sein? Merkt man dem Ergebnis an, dass Unorganisches dahintersteckt? Und was unterscheidet ein menschliches Wesen dann überhaupt vom künstlichen?
Technisch geht das Ganze so: Ein System nutzt Maschinenlernen, um Bewegungssequenzen zu studieren und neue Sequenzen zu entwickeln. Visualisiert, also für Menschen leichter erkenn- und umsetzbar, werden diese Sequenzen anschließend mit einer Software. Eine weitere Software hat das Team noch entwickelt, die ein LED-Licht-Setup auf einer Bühne kontrolliert.
Für die Daten, mit denen das neuronale Netzwerk gefüttert wurde, haben Tänzer:innen eine Reihe von vordefinierten Bewegungen ausgeführt. Bild für Bild wurden diese mit Software in eine Sequenz von Schlüsselpunkten verwandelt. Neue Bewegungen entstanden dann, weil ein rekurrierendes neuronales Netzwerk in der Lage ist, aus der Abfolge einer Schlüsselpunktserie Aussagen über den wahrscheinlichsten nächsten Wert zu treffen.
Tanz der künstlichen Synapsen
Damit die Performer:innen die so entstandene Choreografie exakt nachstellen können, hat das Team die Sequenzen mit Strichmännchen darstellen lassen: ein einfaches Tool mit Play-, Pause- und Stopp-Taste, das die einzelnen Tänzer:innen ganz unterschiedlich genutzt haben, um die KI-Bewegungen in einen Audiocode zu übersetzen. Der enthält Anweisungen in Form von Countdowns, gesprochenen Bildern oder rhythmischen Klängen, die jede:r der drei bei der Live-Performance – wieder mit der KI synchronisiert – über Kopfhörer umgesetzt hat.
Das Ergebnis wirkt dann erstaunlich organisch und lebendig. Auf einem Quadrat mit weichen Matten, von der Seite mit LED-Leisten beleuchtet, tanzen die Performer:innen zu dritt, zu zweit, allein ein ganz typisches Repertoire, das auch ein:e Choreograf:in hätte vorgeben können: Schrittfolgen, Armbewegungen, Drehungen, Rollen und Liegen auf dem Boden. Nichts lässt erkennen, dass diese Bewegungsfolgen künstlich erzeugt wurden. Nichts wirkt ungewöhnlich, nichts unpassend.
Das Video der Performance ist noch bis So, 27.6., 23.59 Uhr, zu sehen: https://deep.dance. Die Homepage bleibt auch danach online.
Aber es ist interessant, sich das Ganze mit dieser Frage anzusehen: Wo ist da etwas Künstliches? Wo entlarvt sich die KI sozusagen, wo zeigt sie vielleicht Mängel? Aber erst später gibt es kürzere Sequenzen zu sehen, die sich mit nur minimalen Nuancen wiederholen. Das wirkt dann analytischer, stockt im Fluss. Aber das tut menschliche Intelligenz ja auch. Noch später kommen die Audiocodes dazu. Wirkt das nun roboterhaft, wie die Anweisungen sich da so schnell immer wiederholen?
Aber schauen Sie selbst, langweilig wird Ihnen bestimmt nicht. Denn eines kann dieses bedrohlich gut gelungene Zusammenspiel von künstlicher konzeptioneller und menschenkörperlich-motorischer Intelligenz genauso gut wie eine von einem lebenden Wesen erdachte Performance: für eine Stunde einen Raum eröffnen, in dem sich in Auseinandersetzung mit all diesen zumindest nicht alltäglichen Bewegungen und all den ausufernden Fragen im Angesicht des unbestritten immer technoider werdenden Alltags ein unterhaltsamer Tanz der Synapsen im eigenen Kopf einstellt. Man hätte jetzt zum Beispiel noch so gern gesehen, wie die putzigen Roboter von Boston Dynamics das Ganze aufführen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
Starten Sie jetzt eine spannende Diskussion!