Die Erforschung des Wir-Empfindens

EU-PROJEKT Forscher vom Hamburger Universitätsklinikum wollen verstehen, wie Kommunikation ohne Worte funktioniert, um einen Roboter mit Gefühlen zu entwickeln

„In den Szenarien in unserem Forschungsprojekt sollen die Roboter Aufgaben erfüllen“

ALEXANDER MAYE, UKE

Vieles kann die Technik schon: Waschmaschinen versenden SMS, wenn die Wäsche fertig ist, Schrittmacher bringen bei Herzrhythmusstörungen selbstständig das Herz wieder in den richtigen Takt. Gefühle verstehen war bisher eher nicht Sache der Technik. Am Universitätsklinikum Hamburg-Eppendorf (UKE) wird jetzt an einem Roboter geforscht, der mit Menschen ohne Worte interagieren können soll. Untersucht werden soll etwa, wie Menschen mit und Menschen ohne Autismus mit Robotern kooperieren.

Das Grundlagenforschungsprojekt „Socialising Sensori-Motor Contingencies“ ist auf vier Jahre angelegt und wird von der EU insgesamt mit knapp 3,8 Millionen Euro gefördert. An dem Hamburger Projekt sind insgesamt acht Forschergruppen aus vier Ländern beteiligt und mehr als 900.000 Euro Fördergelder fließen direkt an den Hamburger Standort. Die UKE-Forscher wollen, dass Roboter künftig sensibel für menschliche Bewegungen und Gesten werden und Bewegungen ihres Gegenübers sogar vorausahnen können.

„Das Hauptziel des Projekts ist die Erforschung eines neuen Konzeptes zu Erklärung des Wir-Empfindens“, sagt Alexander Maye vom Institut für Neurophysiologie und Pathophysiologie im UKE, wo das Projekt angesiedelt ist. Die Forscher untersuchen die Interaktionen zwischen Versuchspersonen, um auf dieser Grundlage dann Modelle zu entwickeln, mit denen künftig Roboter gesteuert werden könnten. Am Ende soll ein Roboter herauskommen, der für menschliches Verhalten sensibilisiert ist. Der könnte dann auch die nonverbale Kommunikation interpretieren.

Dabei orientieren sich die Forscher an alltäglichen Tätigkeiten. „Stellen Sie sich vor, Sie wollen mit einem Roboter zusammen bei einem Umzug Möbel durch ein enges Treppenhaus tragen, selbstverständlich ohne anzuecken“, sagt Andreas Engel, Koordinator des EU-Forschungsprojekts am UKE. „Zwei Menschen schaffen das schweigend, die Kommunikation und die Abstimmung der Bewegungen aufeinander klappen wie von selbst.“ Um dem Roboter genau das beibringen zu können, müssen sie verstehen, wie die wortlose Verständigung läuft. Dazu werden die Hamburger Forscher etwa Testpersonen wortlos ein Geschicklichkeitsspiel spielen lassen und gleichzeitig deren Hirnströme messen. „Wir wollen, dass Menschen eines Tages auf eine natürlichere Art und Weise mit Robotern interagieren können als jetzt“, sagt Engel.

Der Fokus des Projekts liegt aber nicht nur auf dem Transport von Möbeln, vielmehr sollen die Ergebnisse der Forschung auch Menschen mit Autismus zugute kommen. Darum soll auch untersucht werden, ob Menschen mit und ohne Autismus auf unterschiedliche Weise mit Robotern umgehen. „Wir vermuten, dass bei Menschen mit Autismus die Fähigkeit gestört ist, sich mit anderen Personen zu synchronisieren“, sagt Engel. Und gerade diese Unterschiede könnten entscheidende Hinweise für die weiteren Forschungen liefern.

Das Telekommunikations- und Medienunternehmen Softbank hat bereits eine Art humanoiden Roboter entwickelt. „Pepper“ wird als „Roboter, der Emotionen lesen kann“ für einen Kaufpreis von rund 2.000 US-Dollar beworben. Und mit „Jibo“ soll Weihnachten 2015 noch ein Roboter auf den Markt kommen, mit dem man sich unterhalten können soll. „Jibo“ soll nur 500 Dollar kosten. „Diese Roboter sind aber in erster Linie zur Unterhaltung der Besitzer gedacht“, erklärt Maye den Unterschied. „In den Szenarien in unserem Projekt sollen die Roboter Aufgaben erfüllen.“  FRIDA KAMMERER