Künstliche Intelligenz in der Kunst: Tanzen nach Zahlen

Wenn Künstliche Intelligenz die Schritte lenkt: Die Choreografie für das Stück „Deep Dance“ stammt von einem neuronalen Netzwerk.

Auf einer grauen Fläche und vor einem schwarzen Hinterhgrund stellen drei vom Computer generierte Strichmännchen Bewegungen dar

Maschinendenken für Menschen verstehbar gemacht: Strichmännchen zeigen die Bewegungsfolgen Foto: Erik Kundt/Lea Schorling/Nikolas Zöller

Dass menschengemachte Maschinen unterhaltsam tanzen können, hat der US-Roboterhersteller Boston Dynamics gerade erst bewiesen: Zwei Humanoide, ein Roboterhund und ein Logistikroboter hüpfen in einem Video vom vergangenen Dezember munter zu schmissiger Musik herum, damit bloß keiner denkt, die Dinger und ihre immer autonomer und dabei auch noch vernetzt entscheidenden Elektronenhirne seien irgendwie bedrohlich.

Und dass künstliche Intelligenz zwar noch ziemlich schlecht darin ist, aus Bewegungsmustern von Tanzenden ein bestimmtes Musikgenre abzuleiten, dafür aber überraschenderweise in der Lage ist, einzelne Menschen an ihren charakteristischen Tanzbewegungen zu erkennen, haben finnische For­sche­r:in­nen schon ein Jahr zuvor herausgefunden. Nur beim Heavy Metal klappt das nicht. Zumindest im finnischen Sample gilt also offenbar: Beim Headbangen gibt es keine Individuen mehr.

Noch ein Jahr zuvor haben For­sche­r:in­nen der University of California ein Deep-Learning-System entwickelt, das auf der Grundlage relativ mies getanzter Laien-Performances und großartig getanzter Videosequenzen professioneller Tän­ze­r:in­nen den ungelenken Laien-Stil ganz massiv verbessern kann – jedenfalls im dann errechneten Video. Dafür muss man allerdings damit leben können, dass dabei zumindest vorübergehend und virtuell auch mal ein Körperteil verloren geht.

Mit dem Zusammenhang von Tanz, Software und Technologie beschäftigt sich auch der Hamburger Choreograf Jascha Viehstädt schon länger, gemeinsam mit der offenen Formation Costa Compagnie, dem Regisseur Felix Meyer-Christian und dem Künstler und Ingenieur Erik Kundt.

Tän­ze­r:in­nen befolgen digitale Befehle

2018 entwickelten sie zusammen etwa die Performance „Ok, Google“ rund um den und mit dem Stimm­assistenten des Tech-Konzerns. Fünf Per­for­me­r:in­nen unterhalten sich in einer Choreografie live auf der Bühne mit Googles Servern über alle möglichen Aspekte eines immer technoider werdenden Alltags, Googles Smart-Home-Assistent steuert dazu Licht und Ton der Performance.

Für „Deep.Dance“ nun hat Viehstädt gemeinsam mit einem Team von Künst­le­r:in­nen eine komplette Choreografie durch ein künstliches neuronales Netzwerk erstellen lassen, das sie eigens dafür programmiert haben. Drei Tän­ze­r:in­nen führen sie bis ins letzte Detail aus.

Schritte, Armbewegungen, Drehungen. Nichts lässt erkennen, dass diese Bewegungsabfolgen künstlich konzipiert wurden

Auf diese Weise werde ein eindringlicher Blick auf eine sonst hermetisch abgeschlossen scheinende „hyperlogische Welt des Codes“ möglich, erklärt die Webseite zum Projekt. Auf der finden sich neben einem Video der einstündigen Performance, das noch bis Sonntag, 27. Juni, 23.59 Uhr zu sehen ist, auch Texte über die Beziehungen zwischen künstlicher Intelligenz und Tanz sowie Erklärungen, wie Maschinen eigentlich Tanz und Choreografie lernen können. Nerds finden zudem Schnipsel des selbstgeschriebenen Codes.

Die hinterm Projekt steckenden Fragen: Wie nützlich und realistisch ist die Nutzung der viel gehypten künstlichen Intelligenz in künstlerischer Arbeit – und wie wünschenswert ist das? Kann eine Software, kann eine Maschine im eigentlichen Sinn kreativ sein? Merkt man dem Ergebnis an, dass Unorganisches dahintersteckt? Und was unterscheidet ein menschliches Wesen dann überhaupt vom künstlichen?

Technisch geht das Ganze so: Ein System nutzt Maschinenlernen, um Bewegungssequenzen zu studieren und neue Sequenzen zu entwickeln. Visualisiert, also für Menschen leichter erkenn- und umsetzbar, werden diese Sequenzen anschließend mit einer Software. Eine weitere Software hat das Team noch entwickelt, die ein LED-Licht-Setup auf einer Bühne kontrolliert.

Für die Daten, mit denen das neuronale Netzwerk gefüttert wurde, haben Tän­ze­r:in­nen eine Reihe von vordefinierten Bewegungen ausgeführt. Bild für Bild wurden diese mit Software in eine Sequenz von Schlüsselpunkten verwandelt. Neue Bewegungen entstanden dann, weil ein rekurrierendes neuronales Netzwerk in der Lage ist, aus der Abfolge einer Schlüsselpunktserie Aussagen über den wahrscheinlichsten nächsten Wert zu treffen.

Tanz der künstlichen Synapsen

Damit die Per­for­me­r:in­nen die so entstandene Choreografie exakt nachstellen können, hat das Team die Sequenzen mit Strichmännchen darstellen lassen: ein einfaches Tool mit Play-, Pause- und Stopp-Taste, das die einzelnen Tän­ze­r:in­nen ganz unterschiedlich genutzt haben, um die KI-Bewegungen in einen Audiocode zu übersetzen. Der enthält Anweisungen in Form von Countdowns, gesprochenen Bildern oder rhythmischen Klängen, die je­de:r der drei bei der Live-Performance – wieder mit der KI synchronisiert – über Kopfhörer umgesetzt hat.

Das Ergebnis wirkt dann erstaunlich organisch und lebendig. Auf einem Quadrat mit weichen Matten, von der Seite mit LED-Leisten beleuchtet, tanzen die Per­for­me­r:in­nen zu dritt, zu zweit, allein ein ganz typisches Repertoire, das auch ein:e Cho­reo­gra­f:in hätte vorgeben können: Schrittfolgen, Armbewegungen, Drehungen, Rollen und Liegen auf dem Boden. Nichts lässt erkennen, dass diese Bewegungsfolgen künstlich erzeugt wurden. Nichts wirkt ungewöhnlich, nichts unpassend.

Das Video der Performance ist noch bis So, 27.6., 23.59 Uhr, zu sehen: https://deep.dance. Die Homepage bleibt auch danach online.

Aber es ist interessant, sich das Ganze mit dieser Frage anzusehen: Wo ist da etwas Künstliches? Wo entlarvt sich die KI sozusagen, wo zeigt sie vielleicht Mängel? Aber erst später gibt es kürzere Sequenzen zu sehen, die sich mit nur minimalen Nuancen wiederholen. Das wirkt dann analytischer, stockt im Fluss. Aber das tut menschliche Intelligenz ja auch. Noch später kommen die Audiocodes dazu. Wirkt das nun roboterhaft, wie die Anweisungen sich da so schnell immer wiederholen?

Aber schauen Sie selbst, langweilig wird Ihnen bestimmt nicht. Denn eines kann dieses bedrohlich gut gelungene Zusammenspiel von künstlicher konzeptioneller und menschenkörperlich-motorischer Intelligenz genauso gut wie eine von einem lebenden Wesen erdachte Performance: für eine Stunde einen Raum eröffnen, in dem sich in Auseinandersetzung mit all diesen zumindest nicht alltäglichen Bewegungen und all den ausufernden Fragen im Angesicht des unbestritten immer technoider werdenden Alltags ein unterhaltsamer Tanz der Synapsen im eigenen Kopf einstellt. Man hätte jetzt zum Beispiel noch so gern gesehen, wie die putzigen Roboter von Boston Dynamics das Ganze aufführen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de