Aussschnitt aus dem Gesicht eines Roboters

Ist das nur eine Maschine? Foto: Karsten Moran/TNYT/Redux/laif

Entwicklung von Künstlicher Intelligenz:Selbstbewusste Roboter

Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen.

Ein Artikel von

9.4.2023, 13:33  Uhr

Hod Lipson hat den größten Teil seiner Karriere mit einer Sache verbracht, die man in seiner Branche auch „das C-Wort“ nennt. An einem sonnigen Morgen sitzt der in Israel geborene Roboteringenieur hinter einem Tisch in seinem Labor und sagt: „Dieses Thema war tabu. Es war uns fast verboten, darüber zu sprechen. ‚Redet nicht über das C-Wort, sonst bekommt ihr keine Anstellung.‘ Anfangs musste ich deshalb oft so tun, als ginge es um etwas anderes.“ Lipson, der heute das Creative Machines Lab an der Columbia University in New York leitet, grinst ein bisschen, als er das sagt. Zwischen seinen Vorderzähnen blitzt eine kleine Lücke auf.

So sprach man in den frühen Nullerjahren über Roboterentwicklung, als Lipson noch Assistenzprofessor an der Cornell University in New York war. Er arbeitete damals an der Entwicklung von Maschinen, die erkennen, wenn etwas mit ihrer eigenen Hardware nicht stimmt – ein defektes Teil, eine fehlerhafte Verkabelung –, und daraufhin ihr Verhalten ändern, um den Bug ohne die lenkende Hand eines Programmierers zu kompensieren. So wie ein Hund, der bei einem Unfall ein Bein verloren hat und sich danach selbst beibringen kann, auf eine andere Art zu laufen.

Diese eingebaute Anpassungsfähigkeit werde immer wichtiger, je mehr wir uns auf Maschinen verließen, sagt Lipson. Roboter würden heute für chirurgische Eingriffe, die Herstellung von Lebensmitteln und den Warentransport eingesetzt; die Anwendungsmöglichkeiten für Maschinen seien schier endlos. Weil sie immer mehr unser Leben bestimmten, könne jeder Fehler in ihrer Funktionsweise gleichbedeutend mit einer Katastrophe sein. „Wir werden unser Leben buchstäblich einem Roboter überlassen“, sagt er. „Also will man, dass diese Maschinen widerstandsfähig sind.“

Um das zu erreichen, kann man sich zum Beispiel von der Natur inspirieren lassen. Tiere und insbesondere Menschen sind gut darin, sich an Veränderungen anzupassen. Diese Fähigkeit könnte man als Ergebnis einer Millionen Jahre währenden Evolution sehen: Auf Verletzungen und Veränderungen in der Umwelt zu reagieren, erhöht in der Regel die Chancen eines Tiers, zu überleben und sich fortzupflanzen.

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Lipson hat sich gefragt, ob man diese Art von natürlicher Selektion in seinem Code nachbilden und so eine verallgemeinerbare Form von Intelligenz schaffen kann, die etwas über ihren eigenen Körper und ihre eigenen Funktionen lernen kann – ganz egal, was für ein Körper das ist und welche Funktion er hat.

Wenn es möglich wäre, eine solche Intelligenz zu entwickeln, wäre sie flexibel und schnell. Sie wäre in stressigen Situationen genauso gut wie der Mensch oder sogar besser.

Weil das maschinelle Lernen immer besser funktionierte, schien dieses Ziel realisierbar. Lipson erhielt eine Festanstellung, ihm eilte ein Ruf als kreativer und ehrgeiziger Ingenieur voraus. Also begann er, seine grundlegende Motivation für diese Arbeit zu formulieren. Er sprach das C-Wort laut aus: consciousness, auf Deutsch: Bewusstsein. Er wollte Roboter mit einem Bewusstsein erschaffen.

„Dies ist nicht bloß eine weitere Forschungsfrage – es ist die Frage aller Fragen“, sagt er. „Es geht um mehr als die Heilung von Krebs. Wenn wir eine Maschine erschaffen können, die ein Bewusstsein hat, das dem des Menschen ebenbürtig ist, wird das alles andere in den Schatten stellen, was wir bisher gemacht haben. Diese Maschine kann selbst Krebs heilen.“

Das Creative Machines Lab im ersten Stock des Seeley W. Mudd Building der Columbia University ist in Boxen unterteilt. In Fächern verstreut finden sich Roboter und ihre Einzelteile. Ein blaues Gesicht starrt ausdruckslos aus einem Regal; eine grüne, spinnenartige Maschine, die ihre Beine aus einem Korb auf dem Boden streckt, ist zu sehen, zudem ein zierlicher Libellenroboter, der auf einem Arbeitstisch balanciert.

Blick in das Labor von Hod Lipso, in einem Regal stehen roboterköpfe, Mschinenbauteile, Werkzeug - ein Sammelsurium

Soll das menschlich werden? Im Creative Machines Lab der Columbia University in New York liegen Roboter und ihre Einzelteile herum Foto: Karsten Moran/TNYT/Redux/laif

Philosophen und Ingenieure

Die erste Schwierigkeit bei der Analyse des C-Worts besteht darin, dass es keinen Konsens darüber gibt, worauf es sich eigentlich bezieht. Bei vielen vagen Begriffen wie etwa Freiheit, Sinn, Liebe und Existenz ist dies der Fall, doch oft sind diese Bereiche Philosophen vorbehalten, nicht Ingenieuren.

Einige haben versucht, Bewusstsein mithilfe von Gehirnfunktionen oder metaphysischen Stoffen zu klassifizieren, aber diese Versuche sind wenig überzeugend und werfen eher weitere Fragen auf. Selbst eine weit verbreitete Definition des sogenannten phänomenalen Bewusstseins, wie die des Philosophen Thomas Nagel, mutet vage an. Er spricht von einem bewussten Organismus, „wenn es etwas gibt, das weiß, was es heißt, dieser Organismus zu sein“.

Hod Lipson, Roboteringenieur

„Ich möchte, dass ein Roboter sich über seinen Körper bewusst ist und über seine Pläne nachdenkt“

Für Robotiker und Informatiker ist es wenig zufriedenstellend, derart im Trüben zu fischen. Antonio Chella, Robotiker an der Universität von Palermo in Italien, sagt: „Solange das Bewusstsein nicht mitgedacht wird, hat man das Gefühl, dass [den intelligenten Maschinen] etwas fehlt.“

Schon in den Anfängen der Forschung zur künstlichen Intelligenz im Jahr 1955 hatte man es auf menschliche Züge abgesehen, als eine Gruppe von Wissenschaftlern in Dartmouth fragte, wie Maschinen „Probleme lösen und sich selbst verbessern können, wie es heute dem Menschen vorbehalten ist“. Sie wollten fortgeschrittene Fähigkeiten des Gehirns wie Sprache, abstraktes Denken und Kreativität maschinell nachbilden. Für viele dieser Fähigkeiten scheint das Bewusstsein von zentraler Bedeutung zu sein.

Der Versuch, das schwammige C-Wort mit belastbaren Daten und Funktionen darzustellen, ist eine schwierige, wenn nicht gar unmögliche Aufgabe. Die meisten Robotiker und Ingenieure neigen dabei dazu, die Philosophie zu übergehen und ihre eigenen Definitionen zu entwickeln.

Bewusstsein als Prozess

Thomas Sheridan, emeritierter Professor für Maschinenbau am Massachusetts Institute of Technology, glaubt, dass das Bewusstsein auf einen bestimmten Prozess reduziert werden könne und dass, je mehr wir über das Gehirn herausfinden, das Konzept des Bewusstseins klarer würde. „Was anfangs unheimlich und irgendwie religiös war, ist jetzt eine Art geradlinige, objektive Wissenschaft“, meint er.

Nicht nur unter Robotikern sind solche Annahmen verbreitet. Philosophen wie Daniel Dennett und Patricia Church­land und der Neurowissenschaftler Michael Graziano haben eine Reihe funktionaler Theorien des Bewusstseins aufgestellt.

Hod Lipson und seine Mitarbeiter stehen in dieser Tradition. „Ich muss mich dem Begriff des Bewusstseins praktisch, nüchtern und unromantisch nähern“, sagt er. Er entschied sich also für ein praktisches Kriterium, um Bewusstsein zu definieren, und schränkte es auf die Fähigkeit ein, sich in die Zukunft zu versetzen.

Laut Lipson besteht der grundlegende Unterschied zwischen den verschiedenen Bewusstseinsformen – dem menschlichen Bewusstsein, dem Bewusstsein einer Krake oder dem einer Ratte etwa – darin, ob sich das Wesen sich selbst in der Zukunft vorstellen kann. Bewusstsein müsste man sich demnach als Kontinuum vorstellen. An dem einen Ende steht ein Organismus, der ein Gefühl dafür hat, wo er sich in der Welt befindet – ein primitives Selbstbewusstsein.

Intelligenter ist die Fähigkeit, sich vorzustellen, wo der eigene Körper in der Zukunft sein wird, darüber hinaus die Fähigkeit, sich vorzustellen, was eines Tages vorstellbar sein könnte. „Irgendwann werden diese Maschinen also in der Lage sein zu verstehen, was sie sind und was sie denken“, so Lipson. „Dann kommen Emotionen und andere Dinge dazu.“ Im Moment, fügt er hinzu, „sind wir noch bei einem Kakerlakenmodell.“

Hod Lipson trägt Jeans und steht lächelnd in der geöffneten Tür zu seinem Labor

Er leitet das Creative Machines Lab: Hod Lipson Foto: Karsten Moran/TNYT/Redux/laif

Der Vorteil einer so funktionalen Theorie des Bewusstseins liegt darin, dass sie technologischen Fortschritt ermöglicht.

Eine Simulation von sich selbst

Einer der ersten Roboter mit einem Selbstbewusstsein, der aus dem Creative Machines Lab hervorging, hatte vier klappbare Beine und einen schwarzen Körper, an dem Sensoren angebracht waren. Dadurch, dass er sich bewegte und wahrnehmen konnte, wie sich die Informationen, die seine Sensoren empfingen, veränderten, konnte der Roboter eine Strichmännchensimulation von sich selbst erstellen. Während er sich weiterbewegte, setzte er einen Algorithmus für maschinelles Lernen ein, um die Übereinstimmung zwischen seinem Modell von sich selbst und seinem tatsächlichen Körper zu verbessern.

Der Roboter nutzte dieses Selbstbild, um – in der Simulation – eine Methode zu finden, sich vorwärtszubewegen. Daraufhin wendete er diese Methode auf seinen Körper an. Er hatte herausgefunden, wie er laufen kann, ohne dass es ihm beigebracht wurde.

Dies sei ein großer Schritt nach vorn, sagt Boyuan Chen, ein Robotiker an der Duke University, der im Creative Machines Lab arbeitet. „Wenn ich früher einen Roboter auf eine neue Fähigkeit trainiert habe, war immer ein Mensch dabei“, sagt er.

Vergangenes Jahr veröffentlichten Boyuan Chen und Hod Lipson einen Artikel in der Zeitschrift Science Robotics, in dem sie ihre derart selbstbewusste Maschine vorstellten: einen einfachen Zweiarmroboter, der an einem Tisch befestigt war. Mithilfe von Kameras, die um ihn herum angebracht waren, beobachtete der Roboter sich selbst, während er sich bewegte – „wie ein Baby in einer Wiege, das sich selbst in einem Spiegel betrachtet“, so Lipson.

Anfangs hatte der Roboter kein Gefühl dafür, wo er sich im Raum befand, doch innerhalb weniger Stunden war er dank eines leistungsstarken Deep-Learning-Algorithmus und eines Wahrscheinlichkeitsmodells in der Lage, sich in der Welt zurechtzufinden. „Er hat eine wolkige Vorstellung von sich selbst“, sagt Lipson.

Aber war das schon Bewusstsein?

Sprache und Körper

Wenn man sich auf eine einzige Theorie des Bewusstseins festlegt, besteht das Risiko, dass man sich angreifbar macht. Sicher, die Selbstwahrnehmung scheint wichtig, aber gibt es nicht noch andere Schlüsselmerkmale für das Bewusstsein? Können wir etwas als bewusst bezeichnen, wenn es sich für uns nicht bewusst anfühlt?

Der italienische Robotiker Antonio Chella glaubt, Bewusstsein könne ohne Sprache nicht existieren. Er hat Roboter entwickelt, die innere Monologe führen können und die über sich und über die Dinge, die um sie herum passieren, reflektieren können. Einer seiner Roboter war in der Lage, sich selbst im Spiegel zu erkennen, und bestand damit den wohl berühmtesten Test des tierischen Selbstbewusstseins.

Joshua Bongard, ein Robotiker an der Universität von Vermont und ehemaliges Mitglied des Creative Machines Lab, glaubt, dass Bewusstsein nicht nur aus Kognition und geistiger Aktivität besteht, sondern auch ganz wesentlich einen körperlichen Aspekt hat. Er hat Geschöpfe entwickelt, die er Xenobots nennt. Sie bestehen aus Froschzellen, die so miteinander verbunden sind, dass ein Programmierer sie wie Maschinen steuern kann.

Laut Bongard ist es nicht nur so, dass Menschen und Tiere sich so entwickelt haben, dass sie sich an ihre Umgebung anpassen und miteinander interagieren können. Auch unsere Gewebe hätten sich so entwickelt, dass sie auf diese Art anpassungsfähig sein können, unsere Zellen hätten sich so entwickelt, dass sie unseren Geweben dienen können. „Wir sind intelligente Maschinen, die aus intelligenten Maschinen gemacht sind, die aus intelligenten Maschinen gemacht sind, und immer so weiter, bis nach ganz unten“, sagt er.

Im Sommer vergangenen Jahres, etwa zur selben Zeit als Lipson und Chen ihren neuesten Roboter vorstellten, erklärte ein Google-Ingenieur, dass der verbesserte Chatbot des Unternehmens, genannt LaMDA, ein Bewusstsein habe und es verdiene, wie ein kleines Kind behandelt zu werden. Diese Aussage wurde mit Skepsis aufgenommen, vor allem, weil, wie Lipson feststellt, der Chatbot „einen Code verarbeitet, der geschrieben wurde, um eine Aufgabe zu erfüllen“. Es gebe keine zugrunde liegende Struktur des Bewusstseins, so andere Forscher, sondern nur eine Illusion davon. Lipson sagt: „Der Roboter war sich seiner selbst nicht bewusst. Das ist Betrügerei.“

Aber wer kann bei so viel Dissens schon sagen, was Betrug ist und was nicht?

Robert Long, Philosoph

„Ich würde lieber in einer Welt leben, in der sich die Dinge viel langsamer entwickeln und in der Menschen viel mehr darüber nachdenken, was in diese Maschinen eingebaut wird“

Freiheitsrechte für Roboter?

Eric Schwitzgebel, Philosophieprofessor an der University of California in Riverside, der zu künstlichem Bewusstsein geforscht hat, glaubt zu wissen, woher die Ungewissheit rührt: Bei der Geschwindigkeit, mit der die Dinge voranschritten, werde die Menschheit wahrscheinlich eher einen Roboter entwickeln, dem viele Bewusstsein zusprechen würden, als dass sie sich darüber einig werde, welche Kriterien das Bewusstsein überhaupt definieren.

Wenn es so kommen sollte, sollte man dem Roboter dann Rechte zugestehen? Freiheitsrechte? Sollte er so programmiert werden, dass er Glücksgefühle empfindet, wenn er uns dient? Soll er für sich selbst sprechen dürfen? Soll er wählen dürfen?

Derartige Fragen haben in Büchern von Autoren wie Isaac Asimov und Kazuo Ishiguro und in Fernsehserien wie „Westworld“ und „Black Mirror“ ein ganzes Science-Fiction-Subgenre begründet.

Moralische Fragen sind ein zentrales Thema in der Tierrechtsdebatte. Wenn ein Tier Schmerzen empfinden kann, ist es dann falsch, es für sein Fleisch zu töten? Wenn Tiere nicht die gleichen Erfahrungen machen wie Menschen, heißt es dann, dass wir sie zu unserem eigenen Vergnügen benutzen können? Ob ein Tier ein bestimmtes Maß an Bewusstsein hat, scheint in der Debatte, ob es Rechte haben sollte, oft eine Rolle zu spielen. Aber es gibt keinen Konsens darüber, welche Fähigkeiten dafür maßgeblich sein sollten.

Grauzone zwischen Bewusstsein und Materie

Angesichts dieser Ungewissheit plädiert Schwitzgebel für das, was er in Bezug auf die künftige KI-Entwicklung „die Politik der ausgeschlossenen Mitte“ nennt. Die Idee dahinter: Wir sollten nur Maschinen entwerfen, die unseres Erachtens moralisch keinerlei Bedeutung haben – oder eben definitiv moralisch bedeutend sind. Alles, was sich in der Grauzone zwischen Bewusstsein und Materie ansiedele, könne in der einen oder anderen Hinsicht ernsthaften Schaden anrichten.

Robert Long, Philosoph am Future for Humanity Institute der Universität Oxford, unterstützt diesen vorsichtigen Kurs. Er sagt, die Entwicklung von KI in großen Forschungslabors und Unternehmen gebe ihm das Gefühl, „auf eine Zukunft zuzusteuern, die alle möglichen verschiedenen Probleme hervorbringt, auf die wir nicht vorbereitet sind“.

Ein bekanntes Beispiel ist die Vorstellung, der Mensch könnte superintelligente Maschinen schaffen, die in der Lage sind, die menschliche Bevölkerung auszulöschen. Die Entwicklung von Robotern, denen man Bewusstsein zuspricht, würde es erschweren, diese Risiken zu händeln. „Ich würde lieber in einer Welt leben, in der sich die Dinge viel langsamer entwickeln und in der Menschen viel mehr darüber nachdenken, was in diese Maschinen eingebaut wird“, sagt Long.

Die Kehrseite der Vorsicht wäre jedoch eine langsamere technologische Entwicklung. Schwitzgebel und Long räumen ein, dass der behutsamere Ansatz der Entwicklung einer widerstandsfähigeren und nützlicheren künstlichen Intelligenz im Weg stehen könnte.

Für Wissenschaftler im Labor können solche Debatten frustrierend abstrakt wirken. „Ich denke, dass wir diesem Risiko noch nicht nahe sind“, sagt Antonio Chella auf die Frage nach den Risiken der Entwicklung von Robotern mit menschenähnlichen Bewusstseinsfähigkeiten. Lipson fügt hinzu: „Ich mache mir Sorgen, aber ich denke, es gibt mehr Chancen als Risiken. Wenn wir uns mehr und mehr auf die Technologie verlassen, muss die Technologie widerstandsfähiger werden.“

Und weiter: „Dazu kommt sicher eine gewisse Hybris, Leben erschaffen zu wollen. Das ist die ultimative Herausforderung, wie eine Reise zum Mond.“ Nur noch viel beeindruckender.

Auf dem Spielplatz

An einem der Arbeitsplätze im Creative Machines Lab setzt sich ein selbstbewusster Roboterarm in Bewegung. Yuhang Hu, ein Doktorand im Labor, hat zuvor einen mechanischen Prozess in Gang gesetzt. Jetzt beobachtet sich der Roboter nicht selbst und macht sich kein Bild von sich selbst – er bewegt sich nur zufällig und dreht sich alle paar Sekunden. Wenn er ein Bewusstsein hat, dann zumindest nicht in diesem Augenblick.

Lipson lehnt sich in seinem Stuhl zurück und betrachtet den Roboter, dann sagt er zu Hu: „Eine weitere Sache, die wir machen müssen, ist, diesen Roboter ein Bild von sich selbst machen zu lassen, indem er einfach gegen Dinge stößt.“ Hu, mit zerzaustem Haar, stützt sein Kinn in die Hand. „Ja, das ist interessant“, sagt er. Lipson fährt fort: „Denn auch jemand, der blind ist, kann sich ein Bild von sich selbst machen.“ – „Wir können einfach eine Schachtel darüberstülpen“, sagt Hu. „Richtig“, entgegnet Lipson. „Und in seiner Umgebung muss so viel los sein wie auf einem Spielplatz.“

Die beiden Wissenschaftler sitzen da und denken nach, oder sie scheinen nachzudenken und starren dabei auf den Roboter, der sich weiter auf dem Tisch bewegt. So laufe die Forschung in seinem Labor ab, sagt Lipson: Die Forscher richteten den Blick nach innen und nähmen etwas von und an sich selbst wahr – ein körperliches Selbstbewusstsein, ein Gefühl für die Umgebung, ein Selbstbewusstsein gegenüber anderen Menschen –, und versuchten dann, dieses Element auf die Maschine zu übertragen.

„Ich möchte so weit gehen, wie ich kann“, sagt Lipson. „Ich möchte, dass ein Roboter sich über seinen Körper bewusst ist und über seine Pläne nachdenkt.“

In gewisser Weise ist dies die einfachste aller Robotikübungen. Etwas, das Grundschulkinder mit alter Elektronik machen. Wenn man das mit einem ausgedienten Drucker machen kann, warum dann nicht auch mit dem eigenen Verstand? Man zerlegt ihn, sieht, wie er funktioniert, und versucht dann, ihn wieder aufzubauen.

Dieser Text erschien zuerst am 10. Januar 2023 in der „New York Times“. Er wurde mithilfe von humaner und künstlicher Intelligenz übersetzt.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.