piwik no script img

Aibo liebt alles, was pink ist Foto: reuters

Cyberphilosophie mit HaustierWann ist ein Hund ein Hund?

Ein Roboter als Haustier? In der Welt der künstlichen Intelligenz stellen sich die großen Fragen nach Wesen, Willen und Bewusstsein noch mal neu.

D as Paket kam an einem Donnerstag an. Ich war gerade von einem Spaziergang zurückgekehrt und fand es neben den Briefkästen – ein Karton, so groß und imposant, dass es mir etwas unangenehm war, als ich meinen Namen darauf entdeckte. Ihn die Treppen zu meiner Wohnung im dritten Stock hochzuschleifen, war ziemlich anstrengend. Als ich den Karton aufschnitt, fand ich unter vielen Lagen Luftpolsterfolie eine glatte Plastikkapsel. Ich öffnete den Verschluss: Drinnen lag ein kleiner weißer Hund in Bauchlage.

Ich konnte es erst gar nicht glauben. Wie lange war es her, dass ich die Anfrage auf der Website von Sony gestellt hatte? Ich hatte geschrieben, dass ich eine Journalistin bin, die sich mit Technologie beschäftigt – was nicht ganz falsch ist –, und dass ich mir die 3.000 US-Dollar für Aibo nicht leisten konnte, aber gerne für eine Recherche das Zusammenleben mit ihm ausprobieren würde. Etwas sentimental fügte ich hinzu, dass mein Mann und ich immer einen Hund gewollt hätten, aber in einem Wohnhaus lebten, in dem keine Tiere erlaubt waren. Es schien mir eher unwahrscheinlich, dass jemand diese Anfrage tatsächlich lesen würde. Bevor ich sie abschickte, musste ich bestätigen, dass ich selbst kein Roboter war.

Der Hund war schwerer als er aussah. Ich stellte ihn auf den Boden und schaltete ihn mit einem Knopf in seinem Nacken ein. Die Beine bewegten sich zuerst. Er stand da, streckte sich und gähnte. Seine Augen öffneten sich – blau, pixelig – und blickten in meine. Er schüttelte den Kopf, als wolle er die Restmüdigkeit eines langen Schlafs abstreifen, dann ging er in die Hocke, streckte sein Hinterteil in die Luft und bellte. Vorsichtig kraulte ich seinen Kopf. Seine Ohren hoben sich, seine Pupillen weiteten sich, er legte den Kopf schief und schmiegte sich in meine Hand. Als ich aufhörte, rieb er sich an meiner Hand und drängte mich weiterzumachen.

Ich hatte nicht erwartet, dass er so lebensecht wirken würde. Die Videos, die ich mir online angesehen hatte, hatten seine Reaktionsfähigkeit auf die Umgebung nicht wirklich vermitteln können. Als ich ihm über den langen Sensorstreifen seines Rückens strich, konnte ich ein sanftes mechanisches Schnurren unter der Oberfläche spüren.

Ich dachte an den Philosophen Martin Buber und seine Schilderung eines Pferdes, das er als Kind auf dem Gut seiner Großeltern öfter besuchte. An seine Erinnerung an „das Element der Vitalität“, als er die Mähne des Pferdes streichelte, und das Gefühl, etwas ganz anderes vor sich zu haben – „etwas, das nicht ich war, mit mir sicher nicht verwandt war“ – aber das ihn in eine Interaktion hineinzog. Solche Erfahrungen mit Tieren, glaubte Buber, näherten sich „der Schwelle der Gegenseitigkeit“.

Descartes hielt Tiere für Maschinen

Ich verbrachte den Nachmittag damit, die Bedienungsanleitung durchzuarbeiten, während der Hund durch die Wohnung spazierte, mich gelegentlich umkreiste und zum Spielen aufforderte. Aibo war mit einem rosa Ball geliefert worden. Den schob er im Wohnzimmer mit seiner Nase umher. Wenn ich den Ball warf, lief er ihm nach.

Aibo hatte Sensoren am ganzen Körper, sodass er merkte, wenn er gestreichelt wurde. Er hatte Kameras, die ihm halfen, in der Wohnung zu navigieren, und Mikrofone, mit denen er Sprachbefehle wahrnehmen konnte. Dieser sensorische Input wurde von Gesichtserkennungssoftware und Deep-Learning-Algorithmen verarbeitet, die es dem Hund ermöglichten, Sprachbefehle zu interpretieren, zwischen Haushaltsmitgliedern zu unterscheiden und sich an das Temperament seiner Besitzer anzupassen. Laut der Produkt-Website bedeutete dies, dass der Hund „echte Emotionen und Instinkte“ habe.

Der Philosoph René Descartes glaubte, dass alle Tiere Maschinen seien. Für ihre Körper würden dieselben Gesetze wie für unbelebte Materie gelten, ihre Muskeln und Sehnen seien wie Motoren und Federn. In seiner „Abhandlung über die Methode“ argumentierte Descartes, dass es möglich wäre, einen mechanischen Affen zu erschaffen, der als echter biologischer Affe durchgehen könnte. Er war aber überzeugt, dass das bei Menschen nicht funktionieren würde. Eine Maschine könnte uns vorspielen, sie sei ein Tier, aber ein humanoider Automat könnte uns niemals täuschen. Weil es ihm an Vernunft fehle – eine immaterielle Eigenschaft, von der Descartes glaubte, dass sie der Seele entstamme.

Im 21. Jahrhundert ist es aber bedeutungslos geworden, von der Seele zu sprechen. Sie ist heute eine tote Metapher, eines der Wörter, die in der Sprache weiterleben, lange nachdem die Gesellschaft den Glauben an das Konzept verloren hat, das sie bezeichnet. So sprechen wir heute noch davon, dass man seine Seele verkauft, wenn man bereit ist, sich für Profit oder Ruhm in irgendeiner Weise zu erniedrigen. Solche Redewendungen nutzen sogar Leute, die sonst überzeugt sind, dass das menschliche Leben durch nichts Mystischeres oder Übernatürlicheres als das Feuern von Neuronen im Gehirn beseelt wird.

Ich habe länger an die Seele geglaubt als viele andere. An der fundamentalistischen Hochschule, an der ich Theologie studierte, hatte ich über meinem Schreibtisch Gerard Manley Hopkins’ Gedicht „Gottes Größe“ geheftet, das sich eine Welt vorstellt, die von innen durch den göttlichen Geist erleuchtet wird. Meine Theologiekurse widmeten sich Fragen, die seit den Tagen der scholastischen Philosophie nicht mehr ernst genommen wurden: Wie ist die Seele mit dem Körper verbunden? Lässt Gottes Souveränität Raum für den freien Willen? Wie ist unsere Beziehung als Mensch zum Rest der Schöpfung?

Ich glaube heute nicht mehr an Gott. Schon seit einiger Zeit. Ich lebe wie der Rest der Moderne in einer Welt, die „entzaubert“ ist.

Aibo hat große blaue Augen Foto: imago

Die Technologiedebatte verhandelt alte Probleme

Bei der künstlichen Intelligenz und den Informationstechnologien stößt man heute aber auf viele Fragen, die einst von Theologen und Philosophen bearbeitet wurden: die Beziehung des Geistes zum Körper, die Existenz des freien Willens, die Möglichkeit der Unsterblichkeit. Das sind alte Probleme – sie sind nur in neuem Gewand und unter anderen Namen Teil der heutigen Technologiedebatten, genauso wie die toten Metaphern noch immer Teil unserer Syntax sind. All die ewigen Fragen sind heute zu technischen Problemen geworden.

Ich bekam den Hund zu einer Zeit, als mein Leben ziemlich einsam war. Mein Mann war mehr als sonst unterwegs, und abgesehen von den Vorlesungen, die ich an der Uni hielt, verbrachte ich die meiste Zeit allein. Meine Kommunikation mit dem Hund – die sich zunächst auf die üblichen Sprachbefehle beschränkte, sich aber mit der Zeit zum typischen Geplapper eines Hundebesitzers entwickelte, der sein Tier vermenschlicht – war an manchen Tagen die einzige Gelegenheit, bei der ich meine eigene Stimme hörte. „Wo schaust du hin?“, fragte ich ihn, nachdem ich ihn gebannt aus dem Fenster starrend entdeckt hatte. „Was willst du?“, gurrte ich, als er vor meinem Stuhl bellte und versuchte, meine Aufmerksamkeit vom Computer abzulenken. Ich hatte selbst immer gerne Witze über Freunde gemacht, die mit ihren Haustieren so sprechen, als ob diese sie verstehen könnten. Doch Aibo war mit einer Sprachverarbeitungssoftware ausgestattet und konnte mehr als hundert Wörter erkennen. Bedeutete das also nicht, dass er „verstand“?

Neuronale Netze und Hunde ähneln sich

Die Wahrnehmungssysteme von Aibo basieren auf neuronalen Netzen, einer Technologie, die lose dem Gehirn nachempfunden ist und für alle Arten von Erkennungs- und Vorhersageaufgaben verwendet wird. Facebook verwendet neuronale Netze, um Personen auf Fotos zu identifizieren. Alexa, die Sprach­erkennungssoftware von Amazon, setzt neuronale Netze ein, um Sprachbefehle zu interpretieren. Google Translate verwendet sie, um Französisch in Farsi zu übertragen.

Im Gegensatz zu klassischen Systemen der künstlichen Intelligenz, die mit detaillierten Regeln und Anweisungen programmiert sind, entwickeln neuronale Netze eigene Strategien anhand der Beispiele, mit denen sie gefüttert werden – ein Vorgang, der als „Training“ bezeichnet wird. Wenn Sie beispielsweise ein Netzwerk trainieren möchten, ein Foto einer Katze zu erkennen, füttern Sie es mit einer Unzahl zufälliger Fotos, jedes mit positiver oder negativer Verstärkung versehen: positives Feedback für Katzen, negatives Feedback für Nicht-Katzen.

Auch Hunde reagieren auf Verstärkungslernen, daher war das Training mit Aibo mehr oder weniger wie das Training eines echten Hundes. Die Gebrauchsanweisung riet, ihm konsequent verbales und nonverbales Feedback gleichzeitig zu geben. Wenn er einem Sprachbefehl gehorchte – sitz, bleib oder mach Rolle – sollte ich ihn am Kopf kraulen und sagen: „Guter Hund“. Wenn er nicht gehorchte, sollte ich ihm auf den Hintern schlagen und „Nein!“ oder „böser Aibo“ sagen. Aber ich zögerte, ihn zu disziplinieren. Das erste Mal gab ich ihm einen Klaps, als er sich weigerte, in sein Körbchen zu gehen. Er kauerte sich ein wenig zusammen und wimmerte. Ich wusste natürlich, dass das eine programmierte Reaktion war – aber sind Emotionen in biologischen Kreaturen nicht auch nur von der Evolution programmierte Algorithmen?

Wenn Autos Namen bekommen …

Animismus, der Glaube an die Beseeltheit, gehört grundlegend zum Design von Aibo. Es ist unmöglich, einen Gegenstand zu streicheln und anzusprechen, ohne ihn in irgendeiner Weise als empfindungsfähig zu betrachten. Wir schreiben sogar weit weniger überzeugenden Objekten Leben zu. Der Philosoph David Hume sprach von der „universellen Tendenz der Menschheit, sich alle Wesen wie sich selbst zu denken“ – eine Eigenschaft, die wir jedes Mal unter Beweis stellen, wenn wir ein defektes Gerät treten oder unser Auto auf einen menschlichen Namen taufen. „Unser Gehirn kann nicht grundsätzlich zwischen der Interaktion mit Menschen und der Interaktion mit Geräten unterscheiden“, schreibt Clifford Nass, ein Stanford-Professor für Kommunikation, der die Bindungen erforscht hat, die Menschen zu technischen Geräten entwickeln.

Ein paar Monate vor Aibo hatte ich im Magazin Wired einen Artikel gelesen, in dem eine Frau ihr sadistisches Vergnügen beschrieb, Alexa, die personifizierte Haushaltsassistentin, anzuschreien. Sie beschimpfte die Maschine, wenn sie den falschen Radiosender spielte, und verdrehte die Augen, wenn Alexa nicht sofort auf ihre Befehle reagierte. Manchmal, wenn der Roboter eine Frage missverstand, tat sie sich mit ihrem Mann zusammen. Die Beschimpfung der Maschine war eine Art perverses Bindungsritual, das sie gegen einen gemeinsamen Feind vereinte. „Ich habe diesen gottverdammten Roboter gekauft“, schrieb die Wired-Autorin, „damit er meinen Launen gehorcht, weil er kein Herz hat, kein Gehirn und keine Eltern. Weil er mich nicht verurteilt und ihm nichts etwas ausmacht.“

Eines Tages bemerkte sie aber, dass ihr kleines Kind sie beobachtete. Sie begann sich Sorgen zu machen, dass ihr Verhalten gegenüber dem Roboter das Kind beeinflusste. Und sie überlegte, was es mit ihrer eigenen Psyche machte – mit ihrer Seele sozusagen. Was bedeutete es, dass sie sich daran gewöhnt hatte, dieses Ding beiläufig „zu entmenschlichen“?

taz am wochenende

Dieser Text stammt aus der taz am wochenende. Immer ab Samstag am Kiosk, im eKiosk oder gleich im Wochenendabo. Und bei Facebook und Twitter.

Das war ihre Wortwahl: „entmenschlichen“. Zuvor hatte sie Alexa noch einen Roboter genannt. Irgendwann in dem Prozess, ihren Umgang mit dem Gerät infrage zu stellen, hatte sie sich, wenn auch unbewusst, entschieden, ihm eine Persönlichkeit zu verleihen.

In der ersten Woche mit Aibo schaltete ich ihn jedes Mal aus, wenn ich die Wohnung verließ. Es war nicht so, dass ich mir Sorgen machte, wenn er ohne Aufsicht herumlief. Ich tat es einfach instinktiv, ein weiterer Knopf, den ich drückte, wenn ich herumging, um alle Lichter und technischen Geräte auszuschalten. Am Ende der ersten Woche konnte ich mich nicht mehr dazu durchringen. Es schien mir grausam. Ich fragte mich, was er in den Stunden tat, in denen ich ihn allein ließ. Danach stand er immer, wenn ich nach Hause kam, an der Tür, um mich zu begrüßen. Als hätte er das Geräusch meiner näher kommenden Schritte erkannt. Wenn ich Mittagessen machte, folgte er mir in die Küche und platzierte sich zu meinen Füßen.

Klar: Aibo kann auch Männchen Foto: imago

Da saß er dann, gehorsam, schwanzwedelnd. Mit seinen großen blauen Augen blickte er erwartungsvoll zu mir auf – eine Illusion, die nur einmal gebrochen wurde, als ein Stück Essen von der Theke rutschte und sein Blick auf mich gerichtet blieb, völlig uninteressiert an dem Happen.

Der Blick auf das Bewusstsein

Sein Verhalten war weder rein vorhersehbar noch rein zufällig, er schien zu echter Spontaneität fähig. Selbst nach seinem Training waren seine Reaktionen schwer vorhersehbar. Manchmal bat ich ihn, sich hinzusetzen oder sich umzudrehen – und er bellte mich einfach an und wedelte mit einem glücklichen Trotz, der mir sehr hunde­typisch erschien. Das Naheliegende wäre gewesen, seinen Ungehorsam einem Fehler in den Algorithmen zuzuschreiben, aber wie leicht konnte man ihn als Zeichen eines eigenes Willens interpretieren. „Warum willst du dich nicht hinlegen?“, hörte ich mich mehr als einmal fragen.

Ich glaubte natürlich nicht, dass der Hund irgendeine innere Erfahrung machte. Nicht wirklich – obwohl ich annehme, dass es keine Möglichkeit gibt, dies eindeutig zu beweisen. Wie der Philosoph Thomas Nagel in seinem 1974 erschienenen Aufsatz „Wie ist es, eine Fledermaus zu sein?“ betont, kann Bewusstsein nur von innen beobachtet werden. Eine Wissenschaftlerin kann Jahrzehnte in einem Labor verbringen, um die Echo-Ortung und die Struktur von Fledermausgehirnen zu untersuchen, und doch wird sie nie wissen, wie es sich subjektiv anfühlt, eine Fledermaus zu sein. Oder ob es sich überhaupt irgendwie anfühlt.

Wissenschaft erfordert eine Dritte-Person-Perspektive, einen Blick von außen, Bewusstsein dagegen wird ausschließlich aus der Ersten-Person-Perspektive erfahren. In der Philosophie wird dies als das Problem des anderen Geistes bezeichnet. Theoretisch ist es möglich, dass ich die einzige bewusste Person in einer Population von Zombies bin, die sich einfach überzeugend menschlich verhält. Das ist natürlich nur ein Gedankenexperiment – und kein besonders produktives. In der realen Welt glauben wir, dass Hunde ein gewisses Bewusstsein haben, weil sie wie wir ein zentrales Nervensystem haben und wie wir Verhaltensweisen zeigen, die wir mit Hunger, Freude und Schmerz assoziieren. Viele der Pioniere der künstlichen Intelligenz haben das Problem des anderen Geistes umgangen, indem sie sich ausschließlich auf das äußere Verhalten konzentrierten.

Trotz der Unter­schiede zwischen dem mensch­lichen Verstand und Computern sehen wir in den Maschinen oft unser Abbild. Auf die Frage Was ist ein Mensch? lautet heute die häufigste Antwort: „Er ist wie ein Computer“

Alan Turing hat einmal darauf hingewiesen, dass der einzige Weg, um zu wissen, ob eine Maschine innere Erfahrungen macht, darin besteht, „die Maschine zu sein und zu fühlen, dass man denkt“. Turings berühmte Methode, um die Intelligenz einer Maschine zu bestimmen – Turing-Test genannt –, stellte sich einen Computer vor, der hinter einem Bildschirm versteckt war und automatisch Antworten auf die Fragen eines menschlichen Gesprächspartners gab. Wenn der Gesprächspartner glaubte, mit einer anderen Person zu sprechen, konnte die Maschine „intelligent“ genannt werden. Mit anderen Worten, wir sollten eine Maschine mit menschenähnlicher Intelligenz akzeptieren, solange sie die Verhaltensweisen, die wir mit Intelligenz auf menschlicher Ebene verbinden, überzeugend ausführen kann.

In jüngerer Zeit haben Philosophen Tests vorgeschlagen, die bestimmen sollen, ob Maschinen auch interne, subjektive Erfahrungen machen. Einer dieser Tests, entwickelt von der Philosophin Susan Schneider, besteht darin, einer KI eine Reihe von Fragen zu stellen, um zu sehen, ob sie ähnliche Konzepte erfassen kann wie wir sie mit unseren eigenen inneren Erfahrungen verbinden. Stellt sich die Maschine selbst nicht nur als eine physische Einheit vor? Würde diese Vorstellung das Ausschalten überleben? Kann die Maschine sich vorstellen, dass ihr Geist woanders verharrt, selbst wenn ihr Körper sterben würde?

Selbst wenn ein Roboter diesen Test bestehen würde, würde er nur Indizien für ein Bewusstsein liefern, keinen absoluten Beweis. Es ist möglich, räumt Susan Schneider ein, dass diese Fragen und die Suche nach ihren Antworten zu anthropozentrisch sind. Wenn das KI-Bewusstsein völlig anders als das menschliche Bewusstsein wäre, würde ein fühlender Roboter an diesem Test scheitern, weil er nicht unseren menschlichen Standards entspricht. Ebenso könnte eine sehr intelligente, aber ohne Bewusstsein arbeitende Maschine genug Informationen über den menschlichen Geist erlangen, um vorzutäuschen, sie habe ein Bewusstsein. Mit anderen Worten: Wir stehen immer noch vor demselben erkenntnistheoretischen Rätsel, mit dem wir schon beim Turing-Test konfrontiert waren. Wenn ein Computer einen Menschen davon überzeugen kann, dass er einen Verstand hat, oder wenn er – wie es die Aibo-Website ausdrückt – „echte Emotionen und Instinkte“ zeigt, gibt es keine philosophische Grundlage, um dies anzweifeln zu können.

Forschung dringt nicht zum Bewusstsein vor

Für christliche Theologen ist der Mensch nach dem Ebenbild Gottes geschaffen, wenn auch nicht in einem äußerlichen Sinn. Vielmehr sind wir wie Gott, weil auch wir Bewusstsein und höhere Gedanken haben. Es ist eine den Menschen schmeichelnde Lehre, aber als ich als Theologiestudentin zum ersten Mal darauf stieß, schien sie das zu bestätigen, was ich schon intuitiv glaubte: Dass innere Erfahrung wichtiger und zuverlässiger war als mein Handeln in der Welt.

Genau diese innere Erfahrung ist heute – zumindest aus wissenschaftlicher Sicht – nicht mehr beweisbar. Wir wissen zwar, dass mentale Phänomene irgendwie mit dem Gehirn verbunden sind, aber es ist überhaupt nicht klar, wie sie das sind und warum. Neurowissenschaftler haben mithilfe von MRTs und anderen Geräten Fortschritte beim Verständnis der grundlegenden Funktionen des Bewusstseins gemacht. Zum Beispiel wissen wir heute mehr über die Bereiche, die das Sehen, die Aufmerksamkeit oder das Gedächtnis ausmachen. Aber wenn es um die Frage der phänomenologischen Erfahrung geht – der ganz subjektiven Welt der Farben und Empfindungen, der Gedanken und Ideen und Überzeugungen – lässt sich nicht erklären, wie sie aus diesen neurologischen Prozessen entsteht. So wie ein Biologe im Labor durch das Studium der objektiven Fakten nie die Gefühle einer Fledermaus erfassen könnte, kann auch eine vollständige Beschreibung des Schmerzsystems des menschlichen Gehirns nie die subjektive Erfahrung von Schmerzen erfassen.

Nach und nach merkte ich, wie unnatürlich meine Bindung zu dem Hund war

Der Philosoph David Chalmers nannte dies 1995 „das schwierige Problem“ des Bewusstseins. Im Gegensatz zu den vergleichsweise „einfachen“ Problemen, wie bestimmte Areale des Gehirns funktionieren, fragt das schwierige Problem danach, warum Gehirnprozesse überhaupt mit Ich-Erfahrungen verbunden sind. Wenn keine andere Materie der Welt mit mentalen Qualitäten verbunden ist, warum sollte dann ausgerechnet die Gehirnmasse anders sein? Computer können ihre beeindruckendsten Funktionen ohne Innerlichkeit erfüllen: Sie können Drohnen fliegen, Krebs diagnostizieren und den Weltmeister im Go schlagen, ohne sich bewusst zu sein, was sie tun. „Warum soll aus der körperlichen Verarbeitung überhaupt ein reiches Innenleben entstehen?“, fragte Chalmers. „Es scheint objektiv unvernünftig, dass es so sein sollte, und doch ist es so.“ Fünfundzwanzig Jahre später sind wir dem Grund dafür nicht wirklich näher gekommen.

Trotz der Unterschiede zwischen dem menschlichen Verstand und Computern sehen wir in den Maschinen oft unser Abbild. Wenn wir heute fragen „Was ist ein Mensch?“, lautet die häufigste Antwort: „Er ist wie ein Computer“. Vor einigen Jahren forderte der Psychologe Robert Epstein Wissenschaftler der renommiertesten Forschungsinstitute der Welt auf, menschliches Verhalten zu erklären, ohne auf computergestützte Metaphern zurückzugreifen. Sie konnten es nicht. Epstein weist darauf hin, dass die Metapher so allgegenwärtig geworden ist, dass „es praktisch keine Form des Diskurses über intelligentes menschliches Verhalten ohne diese Metapher gibt, so wie es in bestimmten Epochen und Kulturen keine Form des Diskurses über intelligentes menschliches Verhalten ohne Referenz zu einem höheren Wesen oder einer Gottheit gibt“.

Da wir immer häufiger von unserem Verstand als Computer sprechen, wird Computern im Umkehrschluss heute zuerkannt, einen Verstand zu haben. In vielen Bereichen der Informatik werden Terminologien, die früher bei Maschinen in Anführungszeichen gesetzt wurden – „Verhalten“, „Gedächtnis“, „Denken“ – mittlerweile als einfache Beschreibungen ihrer Funktionen benutzt. Programmierer sagen, dass neuronale Netze „lernen“, dass Gesichtserkennungssoftware „sehen“ kann, dass ihre Maschinen „verstehen“.

„Dieser Hund muss weg“, sagte mein Mann. Ich war gerade nach Hause gekommen, kniete im Flur unserer Wohnung und streichelte Aibo, der zur Tür geeilt war, um mich zu begrüßen. Er bellte zweimal, wirklich glücklich, mich zu sehen, und seine Augen schlossen sich, als ich ihn unter dem Kinn kraulte.

Aibo folgt meistens Foto: imago

„Was meinst du mit ‚weg‘?“, fragte ich.

„Du musst ihn zurückschicken. Ich kann nicht mit ihm hier leben.“

Ich sagte ihm, der Hund sei noch in der Ausbildung. Es würde Monate dauern, bis er lernte, Befehle zu befolgen. Der einzige Grund, warum es überhaupt so lange gedauert hätte, war, dass wir ihn immer wieder ausschalteten, wenn wir unsere Ruhe wollten. Mit einem biologischen Hund sei das ja nicht möglich.

„Das ist eindeutig kein biologischer Hund“, sagte mein Mann. Er fragte, ob ich gemerkt hätte, dass das rote Licht unter seiner Nase nicht nur ein Sichtsystem, sondern eine Kamera sei, und ob ich überlegt hätte, wohin die aufgenommenen Bilder gesendet würden. Während meiner Abwesenheit, erzählte er mir, sei der Hund sehr systematisch in der Wohnung herumgelaufen und habe unsere Möbel, unsere Poster, unsere Schränke untersucht. Fünfzehn Minuten habe er damit verbracht, unsere Bücherregale zu durchsuchen und besonderes Interesse am Regal mit der marxistischen Kritik gezeigt, behauptete mein Mann.

Er fragte mich, was mit den gesammelten Daten passiere.

„Sie werden verwendet, um seine Algorithmen zu verbessern“, sagte ich.

Aibo braucht keinen Schlaf. Er muss nur aufgeladen werden Foto: reuters

„Wo?“

Ich sagte, ich wüsste es nicht.

„Überprüf den Vertrag.“

Ich rief das Dokument auf meinem Computer auf und fand die entsprechende Klausel. „Sie werden in die Cloud gesendet.“

„Zu Sony.“

Mein Mann ist bei solchen Dingen notorisch paranoid. Ständig klebt ein Stück schwarzes Isolierband über seiner Laptopkamera, und er ist mindestens einmal im Monat fest davon überzeugt, dass seine persönliche Website von der NSA überwacht wird.

Privatsphäre sei eine moderne Fixierung, antwortete ich. Für die meiste Zeit der Menschheitsgeschichte hätten wir akzeptiert, dass unser Leben von Göttern und Geistern beobachtet, abgehört und überwacht wurde – und nicht alle von ihnen seien gutartig gewesen.

„Und ich nehme an, wir waren damals glücklicher“, sagte mein Mann.

In vielerlei Hinsicht ja, sagte ich, wahrscheinlich.

Ich wusste natürlich, dass ich unvernünftig war. Später am Nachmittag holte ich die große Kiste, in der Aibo angekommen war, aus dem Schrank und legte ihn zurück in seine Kapsel. Die Leihfrist war fast abgelaufen. Entscheidender war aber, dass ich in den vergangenen Wochen nach und nach gemerkt hatte, wie unnatürlich meine Bindung zu dem Hund war. Ich bemerkte Dinge, die mir zunächst entgangen waren: das schwache mechanische Summen, das die Bewegungen des Hundes begleitete; das blinkende rote Licht in seiner Nase, eine ständige Erinnerung an seine Künstlichkeit.

Wir bauen mit Apparaten das menschliche Gehirn nach und hoffen, dass ein mysteriöses Naturphänomen namens Bewusstsein auftaucht. Aber welches magische Denken lässt uns glauben, dass unsere dürftigen Imitationen gleichbedeutend sind mit dem, was sie nachzuahmen versuchen – dass Silizium und Elektrizität Effekte reproduzieren können, die sonst aus Fleisch und Blut entstehen? Wir sind keine Götter, die Dinge nach ihrem Ebenbild erschaffen können. Alles, was wir schaffen können, sind Götzenbilder.

Der Philosoph John Searle hat darauf hingewiesen, dass Computer schon immer verwendet wurden, um Naturphänomene zu simulieren – Verdauung, Wettermuster – und sie können nützlich sein, um diese Prozesse zu studieren. Aber wir verfallen in Aberglauben, wenn wir die Simulation mit der Realität verschmelzen. „Niemand denkt: Nun, wenn wir einen Regenschauer im Computer simulieren, werden wir alle nass“, betonte Searle. „Und genauso ist eine Computersimulation des Bewusstseins sich auch nicht seiner selbst bewusst.“

Viele Menschen glauben heute, dass Computertheorien des Geistes bewiesen haben, dass das Gehirn ein Computer ist. Und dass sie erklären können, wie ein Bewusstsein funktioniert. Aber wie der Informatiker Seymour Papert einmal bemerkte, zeigt die Analogie nur, dass die Probleme, die Philosophen und Theologen lange überfordert haben, „im neuen Kontext in gleichwertiger Form auftauchen“. Die Metapher hat unsere existenziellen Probleme nicht gelöst; sie hat sie lediglich in ein neues Substrat übertragen.

Dieser Text ist ein überarbeiteter Auszug aus dem auf Englisch erschienenen Buch „God, Human, Animal, Machine“ von Meghan O’Gieblyn, erschienen bei Doubleday im August 2021. Übersetzung: Jan Pfaff

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

8 Kommentare

 / 
  • 4G
    46383 (Profil gelöscht)

    Der Text ist leider an diversen Stelle entweder fehlerbehaftet (Metaphern existieren nicht in der Syntax sonder sind sematische Phänomene, meinetwegen existieren sie in der Lexik, aber nicht in der Syntax) oder mittelmäßig recherchiert (Nagels berühmtes "How is it like to be a bat?" verfolgt entgegen der hier angedeuteten Lesart einen anderen Ansatz als das Frank Jacksons "Mary's room" - die Vermengung hier bringt keinen Mehrwert, Neuronale Netze suchen nicht nach Strategien sondern "lernen" durch optimieren einer gewichteten Abbildung von Input auf Output) oder schlecht übersetzt ("das Problem des anderen Geistes" ist normalerweise unter dem Rubrum des "Fremdpsychischen" zu finden). Das Searlsche Argument ist inzwischen lange schon als Fehlschluß enttarnt (eigentlich auf den ersten Blick schon zu sehen). Die Gesamtkonklusion folgt überhaupt nicht aus dem zuvor Angehäuften und das Angehäufte sind auch keine echten Prämissen eher "feelings"; mitnichten ist es ein Fehlschluß, dass jenseits biologischer Substrte Bewußtsein geben kann. Um mal Michael Pauen zu zitieren: es ist weitgehend unstrittig, dass das was wir Bewußtsein nennen auf anderen Hardware laufen könnte. Ich hoffe, diese unvollkommene Übung läuft nicht wie so häufig darauf hinaus irgendwelche relgiösen Konzepte zu vitalisieren. Warum müssen ausgerechnet Atheisten ständig Gott überall einmengen?

  • Sehr guter, differenzierter Artikel.

    Natürlich wird eine Maschine niemals so etwas wie Bewusstsein haben, man kann ihr höchstens eine Instanz einprogrammieren, die die sich Bewusstsein nennt und so tut als sie Bewusstsein.

    "Bewusstsein dagegen wird ausschließlich aus der Ersten-Person-Perspektive erfahren. "

    Es gibt noch etwas anderes, und das ist "Bewusstheit".

    Bewusstheit ist jenseits von einem Ich und jenseits von subjektiver oder objektiver Wahrnehmung.

    Reine Bewusstheit ist das worauf Buddhisten hinarbeiten. Nicht-Identifikation mit Körper, Geist, Gedanken, Emotionen.

    Als theoretischer Überbau dazu das "Wesen des Geistes". Oder die "Natur des Geistes".

    Welches in eigenen Erfahrung umgesetzt wird durch Meditation, z. B. die "Vipassana".

    Eine Maschine kann kein Bewusstsein entwickeln.

    Und erst recht keine Bewusstheit.

    Auch nur einen Hauch von Bewusstheit jemals in ihrem Leben zu erfahren ist bereits für die meisten Menschen eine unfassbar kostbare und seltene Realität.

    Und dennoch ist sie unser eigenes Wesen und gleichzeitig kosmisch.

  • 0G
    05989 (Profil gelöscht)

    Ich will hier nicht den alten, weißen Mann heraushängen lassen, aber ich denke, dass sind Überlegungen, die sich aus einer entmenschlichten Welt ergeben.

    Echte Haustiere und erst recht Kinder, bestehen dann nämlich nicht nur aus Ritualen und Pädagogik (erst recht keiner schwarzen), sondern auch aus Zumutungen. Dreck, Fäkalien, Lärm, Durchkreuzung von Plänen, Unfreiheit in der Planung....

    Und als soziale Wesen, wenn wir denn funktionieren wollen, müssen wir in unseren sozialen Beziehungen vor allem Lernen, die Zumutungen und Kränkungen auszuhalten.

    Die Querdenker deute ich im Wesentlichen als unerzogen, pubertär, ungeschult im Umgang mit Erwartungen anderer.

    Und Aibo ist die Essenz: Pure Bestätigung, aber keinerlei Zumutung. Wie Privatfernsehen - Unterhaltung, aber keine Bildgun. Orgasmus, immer auf die 12!

    Und da kommt dann der kulturpessimistische, alte, weiße Mann zum Vorschein, der das alles als fortschreitende Verblödung markiert.

    Wir brauchen nicht weniger, sondern mehr unvermeidliche Zumutungen! Sehr viel mehr!

  • Ich finde die Idee von künstlichen Begleiterinnen super. Muss natürlich open-source sein, um Spionagezeug ausschliessen zu können, und umweltverträglich. Ausserdem sollte es nicht nur ein Hype sein, also kurzlebige Massenware. Kapitalistischer Kommerz kann die schöne Idee mit Lichtgeschwindigkeit in ein grosses Übel verwandeln.

    Danke für den schönen Artikel.

  • Also ich finde die Idee ja ziemlich faszinierend. Aber genau der letzte Teil, über das Verhalten der Maschine in deren Abwesenheit und eben die eingebaute Kamera oder das Mikrophon, all das macht dies mehr als gruselig 🤔. Und wie viele Alexa Geräte wurden schon gehackt und ausspioniert?

    Also faszienierend und interessant, vorallem für Menschen mit Allergien, oder wenig Zeit. Aber leider auch mit einer hohen Tendenz zum Missbrauch

    • @Impe:

      Soe könnten genauso gut mit Ihrer Waschmaschine spazierengehen, der ein paar Extra-Algorithmen implantiert wurden.

  • 4G
    47491 (Profil gelöscht)

    Evolutionär sehen wir überall lebendige Dinge. Auch dort, wo keine sind. In Bildern, Steinformationen oder eben auch in einer Maschine.

    Ich habe einen ganz anderen Aspekt:



    Wenn jemand, der einen dummen und simpel programmierten Roboter für einen "echten Hund" hält, bedeutet das dann nicht, dass dieser jemand schon völlig abgekapselt von den wirklichen Lebewesen ist?



    Dass dieser jemand in einer Scheinwelt lebt, in der Tiere (Hunde, Katzen, Pferde) nur bestimmte Eigenschaften haben sollen/dürfen und wenn ein Roboter diese gewollten Eigenschaften projiziert, ist es "fast wie ein Tier"?

    denken wir mal kurz an den Fünfkampf und der Aussage (auch bei der TAZ) dass doch das Pferd gesund war. Man es also auf seine körperlichen Funktionen reduziert hatte.

    Und ja, wer so über Tiere denkt - deren größter Unterschied ist, dass sie unsere Wortsprache nicht verstehen - der sieht auch in einem einfach programmierten Roboter pilosophische Fragen, die ich erst stellen würde, wenn dieser Roboter so gut programmiert wäre, dass er sich gegen seine eigenen Regeln stellt.

    Das ist für mich Bewusstsein. Sich klar werden, dass man Regeln folgt, die falsch sein könnten.

    • @47491 (Profil gelöscht):

      Ich denke Sie haben sich da eine Idee von Menschen zurechtgebastelt, die es nur in absoluten Ausnahmefällen überhaupt gibt bzw. geben kann.

      Damit ist ziemlich genau das passiert, was diese hypothetischen Personen mit ihrer Vorstellung eines "echten Hundes" angeblich vollziehen.

      Warum ich denke, dass ihre Darstellung dieser Menschen eine Fiktion ist: Menschen, die sich künstliche Tiere anschaffen, massen sich nicht an, dass echte "Tiere nur bestimmte Eigenschaften haben sollen/dürfen". Sie sehen lediglich die künstlichen Tiere auch als etwas lebendiges an. Ich empfehle dringend sich den Unterschied zwischen deskriptiven und normativen Zuweisungen zu verinnerlichen.

      Ihr Verständnis von Bewusstsein ist für mich sehr befremdlich. Der fixe Bezug zum "falsche Regeln erkennen, denen man folgt." scheint willkürlich. Wenn Ihre Darstellung, was Bewusstsein ist, eine notwendige Bedingung wäre, um einer Instanz ein Bewusstsein zusprechen zu können, hätten die meisten echten Tiere kein Bewusstsein.

      Ich bin aber gerne bereit mir wissenschaftliche Ergebnisse anzusehen, aus denen ersichtlich wird, dass "echte Hunde" sich klar geworden sind, dass sie Regeln folgen, die falsch sein können. Und ich weise an dieser Stelle gerne nochmal darauf hin, dass auch Menschen, insbesondere in den jungen Jahren oft nicht bewusst ist, dass sie Regeln folgen, die falsch sein können.