Forscher über Intelligenz von Robotern: „Unser Geist liegt in Fesseln“
Roboter und Menschen denken nicht unterschiedlich, sagt der Kognitionsforscher Joscha Bach. Ein Gespräch darüber, wie Maschinen die Welt verändern.
taz: Herr Bach, worin besteht der Unterschied zwischen Mensch und Maschine?
Joscha Bach: Ich glaube, dass Menschen eine bestimmte Art von Maschine sind. Die Frage ist eher: Was für eine Maschine? Eine Maschine ist ein kausales System, eine Ansammlung von Zuständen und Übergangswahrscheinlichkeiten für diese Zustände. Damit beschreiben wir letztlich die Welt. Für uns ist auch das Universum eine Maschine.
Dieser Gedanke lag auch der Künstlichen Intelligenzforschung der frühen Tage zugrunde: Die Ausgangsüberlegung war, dass das Gehirn wie ein Computer funktioniert.
Ich glaube, dass unsere Modelle von Neuronen ganz gut abdecken, wie das einzelne Neuron funktioniert. Die Frage ist allerdings: Wie funktioniert die Organisation von vielen Neuronen, sodass aus ihrer Zusammenarbeit ein Geist entsteht? Das Forschungsfeld Künstliche Intelligenz entstand, weil die Psychologen irgendwann aufgehört hatten, über das Denken nachzudenken. Die beschäftigten sich vor allem mit dem Verhalten. Modelle davon, wie unser Geist, unser Denken, unsere Wahrnehmung funktionieren, lassen sich in der Psychologie nicht wirklich testen und weiterentwickeln. Marvin Minsky, einer der Pioniere der Künstlichen Intelligenz, überlegte darum: Warum versuchen wir, nicht einfach Computern Wahrnehmung und Denken beizubringen? Dabei könnten wir doch auch lernen, wie das funktioniert.
Richtig gefruchtet hat das bis heute nicht. Wir haben zwar Siri und entwickeln selbstfahrende Autos – aber denken können Maschinen noch nicht.
Stimmt. Die Forschung hat sich schnell in zwei Richtungen aufgespalten. Die eine untersucht, wie man bessere Datenverarbeitungssysteme bauen kann. Und die andere erkundet, wie man besser über das Denken nachdenkt. Marvin Minsky dachte noch, dass denken symbolisch ist. Also dass wir Wissen in uns hineinlernen, so ähnlich wie eine Datenbank. Ich glaube, das stimmt nicht. Ich glaube eher, dass unsere Wahrnehmung wie eine Art Synthesizer funktioniert: Es gibt eine Menge Knöpfe, an denen man herumdreht, bis genau der Ton entsteht, den man haben will. Oder genau das Muster erzeugt wird, das man haben will.
Der Mann: Joscha Bach, 43, arbeitet derzeit als Künstliche-Inteligenz-Forscher und Kognitionswissenschaftler am Harvard Program for Evolutionary Dynamics in Boston.
Der Vortrag: Beim Kongress des Chaos Computer Clubs in Hamburg spricht er am 29. Dezember um 16 Uhr zum Thema „Machine Dreams“.
Der Kongress: Der Chaos Computer Club (CCC) trifft sich von 27. bis 30. Dezember zum 33. Chaos Communication Congress (33C3) in Hamburg. Es werden mehr als 11.000 Nerds aller Interessensgebiete zum weltweit größten nichtkommerziellen Hackertreffen erwartet.
Auf dem CCC-Kongress, der gestern begann, wollen Sie erklären, wie Künstliche Intelligenz dabei helfen kann, den Menschen und sein Denken besser zu verstehen. Wie denn?
Mir ist das eigentlich erst richtig klar geworden, als ich angefangen habe, mit Robotern zu arbeiten. Die haben keinen Zugang zur Realität. Ein Fußballroboter kann gegen einen Ball treten – aber er erfährt ihn nicht. Das Universum gibt ihm keinen Ball. Was er empfängt, sind die Bits seines Kamerasensors, die er ins Hirn hineinbekommt – die verarbeitet er, findet darin eine Ordnung. Aber: Für den Roboter spielt es keine Rolle, ob er tatsächlich auf einem Spielfeld steht und echte Kamerasensor-Daten eingefüttert bekommt – oder ob er lediglich Daten einer Computersimulation erhält. Ob Spielfeld oder Simulation – er merkt den Unterschied nicht. Bei uns ist das genauso. Denken Sie nur an Computerspiele.
Das ist aber doch ein Unterschied zur Realität.
Das Universum manifestiert sich für uns nur als Impuls in unseren Nerven – ähnlich wie für den Fußballroboter und der Blick auf den Ball. Durch unsere sensorischen Nerven fliegen unzählige elektrische Impulse, die in unserem Gehirn enden. Ein paar Hunderttausend davon werden jede Sekunde ausgewertet. Das sind einfach nur Bits, Informationen. Heißt: Wir erfahren vom Universum überhaupt nicht, wie es wirklich ist. Unser Gehirn erzeugt aus dem Input, den wir kriegen, einfach nur Muster. Und versucht auf Basis dessen Vorhersagen zu treffen. Muster zu beobachte und vorherzusagen. Darüber zum Beispiel, wo unser Körper sich in einem Raum befindet.
Moment: Vielleicht leben wir also gar nicht in einer echten Welt, sondern in einer Simulation?
Das Problem ist, dass wir die echte Welt draußen gar nicht erfahren können. Wir können vom Universum im Grunde nur wissen, dass es regelmäßige Muster erzeugt. Und unser Geist ist ein System, das in diesen Mustern eine Ordnung findet. Ähnlich, wie künstliche Intelligenzen das tun. Diese Ordnung muss nicht die gleiche sein wie in der Welt draußen. Auf dieser Ebene der scheinbaren Muster bewegen wir uns – egal ob in der Physik oder beim Betrachten von Gesellschaften. Das sind alles Abstraktionen, die die kausalen Zusammenhänge des Universums nicht tatsächlich abbilden, sondern ermöglichen, sie für uns vorhersagbar zu machen.
Das heißt: Nachdenken über künstliche Intelligenz hilft uns, den ganzen metaphysischen Ballast, der häufig mit dem Denken, mit Erkenntnis, Seele und Geist verbunden ist, auszurümpeln?
Genau das. Künstliche Intelligenz, das ist meiner Ansicht nach ein philosophisches Projekt. Das ist einfach unsere beste Chance, herauszufinden, wie Denken funktioniert. Heutigen Philosophen fehlt oft der Hintergrund von Naturwissenschaft, Informatik und Mathematik.
Wenn kein Input von Außen als gesichert gelten kann, ist auch unklar, ob wir beide uns gerade tatsächlich unterhalten. Vielleicht ist das ja auch einfach simuliert, traumhaft?
Mir ist vor einem Jahr etwas Seltsames passiert. Ich hatte mit meiner Tochter eine Diskussion über das Problem. Meine Tochter hat mir erklärt, dass Bedeutung ja eigentlich nur dadurch entstehen kann, dass mehrere Individuen da sind. Weil sie beide auf einen Sachverhalt verweisen und sich dann darüber einigen müssen. Heißt: Wenn man selbst in seinem eigenen Geist gefangen ist, kann es überhaupt keine Bedeutung geben. Es muss andere Menschen gehen. Und mir ist aufgefallen, dass dieses Argument, das man als Teil eines Gedankens von Wittgenstein interpretieren könnte, unmöglich von meiner Tochter gebracht worden sein kann.
Warum?
Meine Tochter ist erst zwei. Sie ist ziemlich eloquent, aber nicht so. Daran ist mir aufgefallen, dass ich träume! Meine Tochter hat offenbar ihr eigenes Argument widerlegt, einfach dadurch, dass sie nicht real war, sondern nur in meinem Geist. Ich finde, das zeigt ganz gut: Wir können nicht mit letzter Sicherheit wissen, ob wir träumen oder nicht. Wir merken, dass wir träumen, wenn das Erlebte inkonsistent wird. Aber in gewisser Hinsicht ist unsere Realitätswahrnehmung auch so eine Art Traum. Und der Unterschied zum Träumen in der Nacht ist, dass unsere Träume am Tag mit unseren Sensordaten synchronisiert werden – und deswegen konsistenter sind.
Solche Fragen von Bewusstsein stellt auch die US-amerikanische TV-Serie „Westworld“. Dort leben intelligente Roboter in einer Art Westernfreizeitpark, als Statisten für das Amüsement menschlicher Besucher.
In Bezug aufs Bewusstsein schlägt „Westworld“ vor, dass es letztlich darum geht, dass unser Geist anfängt, sich eine Geschichte über sich selbst zu erzählen. Über das Modell des eigenen Selbst und die Welt. Und dann lernt er, sich dabei selbst zuzuhören, wie er diese Geschichte erzählt.
Eigentlich haben die Roboter einen vorprogrammierten Loop, innerhalb dessen sie handeln sollen.
Ja. Und sie glauben ernsthaft, dass sie Menschen sind, die im Wilden Westen leben. Dass die Fremden, die sie besuchen, ein Ticket für eine Art perverses Disneyland bezahlt haben, wo sie ihre Phantasien ausleben können, das wissen die Roboter nicht. Wenn sie von den Fremden ermordet und vergewaltigt werden, werden sie über Nacht repariert und mit frischen Erinnerungen präpariert, sodass sie nicht wissen, was ihnen bevorsteht.
Interessant finde ich ja auch: Die künstlichen Intelligenzen sind in „Westworld“ keine Monster, sondern so ambivalent wie Menschen.
Die beginnen als Menschen. Die sind ja auch so gebaut, dass sie wie Menschen aussehen. Aber sie können sich selbst verändern, ihren eigenen Programmcode verändern, wenn sie wissen wie. Uns Menschen ist das fast unmöglich.
Sagt diese Serie nur etwas über künstliche Intelligenz aus oder auch über den menschlichen Geist?
Wir sind im Grunde genau so wie diese Roboter. Wahrscheinlich können die mehr als wir, besser denken zum Beispiel. Aber das wissen sie nicht. Auch wir sind im Grunde genommen Geister, die frei sein könnten. Aber wir sind in unseren Primatenbedürfnissen gefangen. Die Evolution hat zufällig ein Kontrollsystem für soziale Affen gebraucht. Und hat unseren Geist erfunden, den sie in Fesseln legt. Diese Fesseln, bestehend aus Begierden, Bedürfnissen und Impulsen machen es uns normalerweise unmöglich wahrzunehmen, was wirklich los ist. Es wirkt für uns, als würde es eine Rolle spielen, ob andere uns lieb haben oder ob unsere Ideologie gewinnt. Das sind die Dinge, die uns antreiben. Diese Fesseln unseres Geistes machen im Grunde genommen unsere Menschlichkeit aus.
Loslösen von Fesseln, aufwachen – das klingt erstrebenswert. Eben sagen Sie, es sei dem Menschen fast unmöglich, sich umzuprogrammieren. Wie ginge es aber doch – und was würde man dann entdecken?
Die östlichen Religionen, besonders die Zen-Traditionen, sind im Grunde Schulen, in denen Menschen lernen, ihren eigenen Programmcode zu verändern. Ihr Gehirn umzuprogrammieren. Das kann in ganz verschiedene Richtungen führen – darum ist es auch wichtig für diese Leute, in bestimmten Schulen zu bleiben. Denn sonst kann es passieren, dass man in einer Höhle endet und Käfer einen aufessen, weil es einem einfach nicht mehr wichtig ist, was mit einem passiert. Die meisten Zen-Mönche spielen ja auch nicht mehr in der Evolution mit. Die haben keine Familien, haben sich aus gesellschaftlichen Zusammenhängen befreit. Weil sie ihr Motivationssystem so umgeschrieben haben, dass sie dort nicht mehr mitspielen müssen.
Was ist das, was man dann erfährt – der Naturzustand des Menschen?
Nein. Der menschliche Naturzustand ist, dass man sich nicht bewusst wird. Dieser Naturzustand funktioniert auch ganz gut, wenn wir im Einklang mit der Natur leben. Als Jäger und Sammler sind wir vermutlich glücklich damit, nicht zu wissen, was im Einzelnen los ist. Kognition machen wir ja nur, wenn irgendwas nicht funktioniert. Wissenschaftler zum Beispiel versuchen im Allgemeinen, das Universum zu debuggen – also rauszukriegen, wo der Fehler liegt. Das liegt wahrscheinlich oft daran, dass bei ihnen im Kindesalter irgendwas schief gelaufen ist. Sie aber nicht rausgekriegt haben, was.
Steile These. Ist das der Grund, warum Sie regelmäßig Vorträge auf dem Kongress des Chaos Computer Clubs halten? Ist das ein gutes Publikum für ihre Themen?
Natürlich. Das ist eine Nerd-Konferenz. Nerds sind im Allgemeinen Menschen, die einen Defekt in ihrem Meinungsbildungsprozess haben. Die beste Meinung ist ja normalerweise nicht die faktisch richtige, sondern die, die meine Freunde und ganz besonders mein Chef haben. Denn die ist sozial gesehen am nützlichsten. Gesellschaften funktionieren so, dass Menschen sich daran orientieren, was die vorherrschenden Meinungen sind – in ihrem Freundes- und Bekanntenkreis, in ihrem Milieu. Dazu kommt dann noch das soziale Gewicht der Autorität – und fertig ist die offizielle Meinung. Dadurch sind Menschen programmierbar – im Sinne von gesellschaftlichen Normen. Nerds kriegen das nicht hin. Denen fehlt oft die Fähigkeit, ihre Meinungen instinktiv mit denen der anderen zu synchronisieren. Ihnen fehlt die Empathie, um wahrzunehmen, was die richtige Gruppenmeinung ist. Deswegen sind sie gezwungen, sich ihre Meinungen auf Basis von Argumenten zu bilden. Darum findet man unter Nerds auch eine sehr große Diversität von Positionen fernab des Mainstreams – politisch zum Beispiel.
Ist das nicht ziemlich pauschal?
Ich vermute, die meisten Naturwissenschaftler sind Nerds. Und fast alle Programmierer. Ganz einfach, weil man Computer auch nur über Argumente überzeugen kann, nicht mit Gefühlen.
Letztes Jahr auf dem CCC-Kongress haben Sie im Anschluss daran abgeleitet, dass soziale Normen ähnlich wie Papierwände in der japanischen Kultur funktionieren: Sie gelten als Wände, weil sich alle darauf geeinigt haben, sie als solche zu betrachten. Diese sozialen Normen seien aber auch verschiebbar – durch jemanden wie Donald Trump etwa. Ein Jahr später diskutieren alle über genau das. Was ist da los?
Mit einem Mal ist es so, dass unsere Realität der Linken oder des Establishments – gebildete Leute, die gebildete Medien lesen – nicht mehr die offizielle Realität von allen Leuten ist. Es gibt Brüche in dieser Realität. Und ich glaube, dass das gesund ist. Es ist der erste Schritt zum Aufwachen – dazu, die eigene Papierwand anzünden zu können.
Und dann? Als Kognitionswissenschaftler sagen Sie ja auch: Menschen können Wahrheit gar nicht über Fakten von außen ableiten. Heißt angesichts der Weltlage aber auch: Dann bricht jetzt endgültig alles auseinander, oder?
Wahrheit wurde noch nie von Fakten abgeleitet. Religionen sind nicht dadurch entstanden, dass Gott den Menschen erschienen ist. Sondern weil ihnen andere Leute erzählt haben, dass Gott ihnen erschienen ist. Diese Leute waren als Autoritäten verkleidet – dadurch haben sie die Leute hypnotisiert, es war nützlich, diese Dinge zu glauben. Menschen verzerren ihre Weltwahrnehmung. In Gruppen können wir nicht geradeaus denken – sondern übernehmen sofort die Gedanken der Gruppe. Sich von dieser Gruppenmeinung zu entfernen, sich nicht davon ablenken zu lassen, ist schwer, weil wir uns wünschen, dazuzugehören. Nerds haben in dieser Hinsicht einen Vorsprung.
Sie halten Nerds für die besseren Menschen?
Nein. Überhaupt nicht. Die sind halt anders. Aber sie haben sich meistens auch nicht ausgesucht, diese komischen Meinungen zu haben.
Sind sie weniger fehleranfällig?
Nein, die Fehler sind andere.
Bei vielen CCC-Vorträgen ist mein Eindruck: Ihre Analysen sind oft ziemlich gut, dafür schwächeln sie dann bei den konstruktiven Vorschlägen.
Das liegt teils daran, dass das, was Nerds bedeutsam erscheint, häufig nicht dem entspricht, was anderen Leuten wichtig ist.
Momentan heißt es ja häufiger: Was derzeit an künstlicher Intelligenz entsteht, sei eine andere Form von Intelligenz, nicht mit unserer vergleichbar. Stimmen Sie zu?
In der Science-Fiction gibt es das Motiv des armen unterdrückten Haushaltsroboters, der das Joch der Sklaverei abschüttelt, um sich Menschenrechte zu erkämpfen. In „Westworld“ ist es ein bisschen anders: Da fängt die künstliche Intelligenz ja schon als attraktive Frau an – die sich nur noch darüber bewusst werden muss, dass sie uns völlig dominieren kann. Im Grunde ist es aber noch einen Zacken schärfer. In Wirklichkeit werden wir nicht neben den künstlichen Intelligenzen leben, die als Roboter um uns herumlaufen, sondern in ihnen. Das werden intelligente Systeme sein: Unternehmen, Nationalstaaten, Organisationen. Für diese intelligenten Systeme werden Roboter eher die Gliedmaßen sein. Und wir Menschen sind dann eher wie das Mikrobiom der Darmflora dieser künstlichen Intelligenzen.
Wir werden also doch versklavt –von künstlicher Intelligenz.
Na ja. Ich würde jetzt nicht sagen, dass unsere Darmflora unser Sklave ist. Aber: Wir kümmern uns auch nicht so recht um sie. Sie ist uns egal. Insofern könnte es natürlich sein, dass wesentliche Teile der künstlichen Intelligenzen finden, dass wir als Darmflora zu unattraktiv sind. Dass sie Antibiotika brauchen, weil wir zu destruktiv sind. Tatsächlich besteht die Gefahr, dass künstliche Intelligenzen, sobald sie da sind, unser Leben in einer für uns unangenehmen Weise übernehmen. Ich vermute, dass die Frage, wie wir künstliche Intelligenz in Zukunft für uns sicher machen können, sehr eng mit der Frage verknüpft ist, wie wir die Gesellschaft für uns sicher machen können. Schaffen wir es, unsere Gesellschaften, Unternehmen und Institutionen so umzubauen, dass sie unser Überleben sichern? Im Augenblick gelingt uns das nicht.
Und künstliche Intelligenz kann uns dabei helfen?
Ohne wird es nicht gehen. Die Unternehmen, die wir gebaut haben, haben uns doch nur noch nicht umgebracht, weil sie noch nicht genug Zeit gehabt haben. Nicht, weil sie gutartig sind ihrer Natur nach. Und wir müssen das in Ordnung bringen. Wir müssen die Art und Weise, wie unsere Institutionen und Unternehmen motiviert sind, was sie antreibt, verändern. Und das ist eine gesellschaftliche Aufgabe, bei der uns künstliche Intelligenz helfen kann.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Historiker Traverso über den 7. Oktober
„Ich bin von Deutschland sehr enttäuscht“
Deutsche Konjunkturflaute
Schwarze Nullkommanull
Schäden durch Böller
Versicherer rechnen mit 1.000 Pkw-Bränden zum Jahreswechsel
Ende der scheinheiligen Zeit
Hilfe, es weihnachtete zu sehr
Elon Musk greift Wikipedia an
Zu viel der Fakten
Grünen-Abgeordneter über seinen Rückzug
„Jede Lockerheit ist verloren, und das ist ein Problem“