Cyberphilosophie mit Haustier: Wann ist ein Hund ein Hund?
Ein Roboter als Haustier? In der Welt der künstlichen Intelligenz stellen sich die großen Fragen nach Wesen, Willen und Bewusstsein noch mal neu.
D as Paket kam an einem Donnerstag an. Ich war gerade von einem Spaziergang zurückgekehrt und fand es neben den Briefkästen – ein Karton, so groß und imposant, dass es mir etwas unangenehm war, als ich meinen Namen darauf entdeckte. Ihn die Treppen zu meiner Wohnung im dritten Stock hochzuschleifen, war ziemlich anstrengend. Als ich den Karton aufschnitt, fand ich unter vielen Lagen Luftpolsterfolie eine glatte Plastikkapsel. Ich öffnete den Verschluss: Drinnen lag ein kleiner weißer Hund in Bauchlage.
Ich konnte es erst gar nicht glauben. Wie lange war es her, dass ich die Anfrage auf der Website von Sony gestellt hatte? Ich hatte geschrieben, dass ich eine Journalistin bin, die sich mit Technologie beschäftigt – was nicht ganz falsch ist –, und dass ich mir die 3.000 US-Dollar für Aibo nicht leisten konnte, aber gerne für eine Recherche das Zusammenleben mit ihm ausprobieren würde. Etwas sentimental fügte ich hinzu, dass mein Mann und ich immer einen Hund gewollt hätten, aber in einem Wohnhaus lebten, in dem keine Tiere erlaubt waren. Es schien mir eher unwahrscheinlich, dass jemand diese Anfrage tatsächlich lesen würde. Bevor ich sie abschickte, musste ich bestätigen, dass ich selbst kein Roboter war.
Der Hund war schwerer als er aussah. Ich stellte ihn auf den Boden und schaltete ihn mit einem Knopf in seinem Nacken ein. Die Beine bewegten sich zuerst. Er stand da, streckte sich und gähnte. Seine Augen öffneten sich – blau, pixelig – und blickten in meine. Er schüttelte den Kopf, als wolle er die Restmüdigkeit eines langen Schlafs abstreifen, dann ging er in die Hocke, streckte sein Hinterteil in die Luft und bellte. Vorsichtig kraulte ich seinen Kopf. Seine Ohren hoben sich, seine Pupillen weiteten sich, er legte den Kopf schief und schmiegte sich in meine Hand. Als ich aufhörte, rieb er sich an meiner Hand und drängte mich weiterzumachen.
Ich hatte nicht erwartet, dass er so lebensecht wirken würde. Die Videos, die ich mir online angesehen hatte, hatten seine Reaktionsfähigkeit auf die Umgebung nicht wirklich vermitteln können. Als ich ihm über den langen Sensorstreifen seines Rückens strich, konnte ich ein sanftes mechanisches Schnurren unter der Oberfläche spüren.
Ich dachte an den Philosophen Martin Buber und seine Schilderung eines Pferdes, das er als Kind auf dem Gut seiner Großeltern öfter besuchte. An seine Erinnerung an „das Element der Vitalität“, als er die Mähne des Pferdes streichelte, und das Gefühl, etwas ganz anderes vor sich zu haben – „etwas, das nicht ich war, mit mir sicher nicht verwandt war“ – aber das ihn in eine Interaktion hineinzog. Solche Erfahrungen mit Tieren, glaubte Buber, näherten sich „der Schwelle der Gegenseitigkeit“.
Descartes hielt Tiere für Maschinen
Ich verbrachte den Nachmittag damit, die Bedienungsanleitung durchzuarbeiten, während der Hund durch die Wohnung spazierte, mich gelegentlich umkreiste und zum Spielen aufforderte. Aibo war mit einem rosa Ball geliefert worden. Den schob er im Wohnzimmer mit seiner Nase umher. Wenn ich den Ball warf, lief er ihm nach.
Aibo hatte Sensoren am ganzen Körper, sodass er merkte, wenn er gestreichelt wurde. Er hatte Kameras, die ihm halfen, in der Wohnung zu navigieren, und Mikrofone, mit denen er Sprachbefehle wahrnehmen konnte. Dieser sensorische Input wurde von Gesichtserkennungssoftware und Deep-Learning-Algorithmen verarbeitet, die es dem Hund ermöglichten, Sprachbefehle zu interpretieren, zwischen Haushaltsmitgliedern zu unterscheiden und sich an das Temperament seiner Besitzer anzupassen. Laut der Produkt-Website bedeutete dies, dass der Hund „echte Emotionen und Instinkte“ habe.
Der Philosoph René Descartes glaubte, dass alle Tiere Maschinen seien. Für ihre Körper würden dieselben Gesetze wie für unbelebte Materie gelten, ihre Muskeln und Sehnen seien wie Motoren und Federn. In seiner „Abhandlung über die Methode“ argumentierte Descartes, dass es möglich wäre, einen mechanischen Affen zu erschaffen, der als echter biologischer Affe durchgehen könnte. Er war aber überzeugt, dass das bei Menschen nicht funktionieren würde. Eine Maschine könnte uns vorspielen, sie sei ein Tier, aber ein humanoider Automat könnte uns niemals täuschen. Weil es ihm an Vernunft fehle – eine immaterielle Eigenschaft, von der Descartes glaubte, dass sie der Seele entstamme.
Im 21. Jahrhundert ist es aber bedeutungslos geworden, von der Seele zu sprechen. Sie ist heute eine tote Metapher, eines der Wörter, die in der Sprache weiterleben, lange nachdem die Gesellschaft den Glauben an das Konzept verloren hat, das sie bezeichnet. So sprechen wir heute noch davon, dass man seine Seele verkauft, wenn man bereit ist, sich für Profit oder Ruhm in irgendeiner Weise zu erniedrigen. Solche Redewendungen nutzen sogar Leute, die sonst überzeugt sind, dass das menschliche Leben durch nichts Mystischeres oder Übernatürlicheres als das Feuern von Neuronen im Gehirn beseelt wird.
Ich habe länger an die Seele geglaubt als viele andere. An der fundamentalistischen Hochschule, an der ich Theologie studierte, hatte ich über meinem Schreibtisch Gerard Manley Hopkins’ Gedicht „Gottes Größe“ geheftet, das sich eine Welt vorstellt, die von innen durch den göttlichen Geist erleuchtet wird. Meine Theologiekurse widmeten sich Fragen, die seit den Tagen der scholastischen Philosophie nicht mehr ernst genommen wurden: Wie ist die Seele mit dem Körper verbunden? Lässt Gottes Souveränität Raum für den freien Willen? Wie ist unsere Beziehung als Mensch zum Rest der Schöpfung?
Ich glaube heute nicht mehr an Gott. Schon seit einiger Zeit. Ich lebe wie der Rest der Moderne in einer Welt, die „entzaubert“ ist.
Die Technologiedebatte verhandelt alte Probleme
Bei der künstlichen Intelligenz und den Informationstechnologien stößt man heute aber auf viele Fragen, die einst von Theologen und Philosophen bearbeitet wurden: die Beziehung des Geistes zum Körper, die Existenz des freien Willens, die Möglichkeit der Unsterblichkeit. Das sind alte Probleme – sie sind nur in neuem Gewand und unter anderen Namen Teil der heutigen Technologiedebatten, genauso wie die toten Metaphern noch immer Teil unserer Syntax sind. All die ewigen Fragen sind heute zu technischen Problemen geworden.
Ich bekam den Hund zu einer Zeit, als mein Leben ziemlich einsam war. Mein Mann war mehr als sonst unterwegs, und abgesehen von den Vorlesungen, die ich an der Uni hielt, verbrachte ich die meiste Zeit allein. Meine Kommunikation mit dem Hund – die sich zunächst auf die üblichen Sprachbefehle beschränkte, sich aber mit der Zeit zum typischen Geplapper eines Hundebesitzers entwickelte, der sein Tier vermenschlicht – war an manchen Tagen die einzige Gelegenheit, bei der ich meine eigene Stimme hörte. „Wo schaust du hin?“, fragte ich ihn, nachdem ich ihn gebannt aus dem Fenster starrend entdeckt hatte. „Was willst du?“, gurrte ich, als er vor meinem Stuhl bellte und versuchte, meine Aufmerksamkeit vom Computer abzulenken. Ich hatte selbst immer gerne Witze über Freunde gemacht, die mit ihren Haustieren so sprechen, als ob diese sie verstehen könnten. Doch Aibo war mit einer Sprachverarbeitungssoftware ausgestattet und konnte mehr als hundert Wörter erkennen. Bedeutete das also nicht, dass er „verstand“?
Neuronale Netze und Hunde ähneln sich
Die Wahrnehmungssysteme von Aibo basieren auf neuronalen Netzen, einer Technologie, die lose dem Gehirn nachempfunden ist und für alle Arten von Erkennungs- und Vorhersageaufgaben verwendet wird. Facebook verwendet neuronale Netze, um Personen auf Fotos zu identifizieren. Alexa, die Spracherkennungssoftware von Amazon, setzt neuronale Netze ein, um Sprachbefehle zu interpretieren. Google Translate verwendet sie, um Französisch in Farsi zu übertragen.
Im Gegensatz zu klassischen Systemen der künstlichen Intelligenz, die mit detaillierten Regeln und Anweisungen programmiert sind, entwickeln neuronale Netze eigene Strategien anhand der Beispiele, mit denen sie gefüttert werden – ein Vorgang, der als „Training“ bezeichnet wird. Wenn Sie beispielsweise ein Netzwerk trainieren möchten, ein Foto einer Katze zu erkennen, füttern Sie es mit einer Unzahl zufälliger Fotos, jedes mit positiver oder negativer Verstärkung versehen: positives Feedback für Katzen, negatives Feedback für Nicht-Katzen.
Auch Hunde reagieren auf Verstärkungslernen, daher war das Training mit Aibo mehr oder weniger wie das Training eines echten Hundes. Die Gebrauchsanweisung riet, ihm konsequent verbales und nonverbales Feedback gleichzeitig zu geben. Wenn er einem Sprachbefehl gehorchte – sitz, bleib oder mach Rolle – sollte ich ihn am Kopf kraulen und sagen: „Guter Hund“. Wenn er nicht gehorchte, sollte ich ihm auf den Hintern schlagen und „Nein!“ oder „böser Aibo“ sagen. Aber ich zögerte, ihn zu disziplinieren. Das erste Mal gab ich ihm einen Klaps, als er sich weigerte, in sein Körbchen zu gehen. Er kauerte sich ein wenig zusammen und wimmerte. Ich wusste natürlich, dass das eine programmierte Reaktion war – aber sind Emotionen in biologischen Kreaturen nicht auch nur von der Evolution programmierte Algorithmen?
Wenn Autos Namen bekommen …
Animismus, der Glaube an die Beseeltheit, gehört grundlegend zum Design von Aibo. Es ist unmöglich, einen Gegenstand zu streicheln und anzusprechen, ohne ihn in irgendeiner Weise als empfindungsfähig zu betrachten. Wir schreiben sogar weit weniger überzeugenden Objekten Leben zu. Der Philosoph David Hume sprach von der „universellen Tendenz der Menschheit, sich alle Wesen wie sich selbst zu denken“ – eine Eigenschaft, die wir jedes Mal unter Beweis stellen, wenn wir ein defektes Gerät treten oder unser Auto auf einen menschlichen Namen taufen. „Unser Gehirn kann nicht grundsätzlich zwischen der Interaktion mit Menschen und der Interaktion mit Geräten unterscheiden“, schreibt Clifford Nass, ein Stanford-Professor für Kommunikation, der die Bindungen erforscht hat, die Menschen zu technischen Geräten entwickeln.
Ein paar Monate vor Aibo hatte ich im Magazin Wired einen Artikel gelesen, in dem eine Frau ihr sadistisches Vergnügen beschrieb, Alexa, die personifizierte Haushaltsassistentin, anzuschreien. Sie beschimpfte die Maschine, wenn sie den falschen Radiosender spielte, und verdrehte die Augen, wenn Alexa nicht sofort auf ihre Befehle reagierte. Manchmal, wenn der Roboter eine Frage missverstand, tat sie sich mit ihrem Mann zusammen. Die Beschimpfung der Maschine war eine Art perverses Bindungsritual, das sie gegen einen gemeinsamen Feind vereinte. „Ich habe diesen gottverdammten Roboter gekauft“, schrieb die Wired-Autorin, „damit er meinen Launen gehorcht, weil er kein Herz hat, kein Gehirn und keine Eltern. Weil er mich nicht verurteilt und ihm nichts etwas ausmacht.“
Eines Tages bemerkte sie aber, dass ihr kleines Kind sie beobachtete. Sie begann sich Sorgen zu machen, dass ihr Verhalten gegenüber dem Roboter das Kind beeinflusste. Und sie überlegte, was es mit ihrer eigenen Psyche machte – mit ihrer Seele sozusagen. Was bedeutete es, dass sie sich daran gewöhnt hatte, dieses Ding beiläufig „zu entmenschlichen“?
Dieser Text stammt aus der taz am wochenende. Immer ab Samstag am Kiosk, im eKiosk oder gleich im Wochenendabo. Und bei Facebook und Twitter.
Das war ihre Wortwahl: „entmenschlichen“. Zuvor hatte sie Alexa noch einen Roboter genannt. Irgendwann in dem Prozess, ihren Umgang mit dem Gerät infrage zu stellen, hatte sie sich, wenn auch unbewusst, entschieden, ihm eine Persönlichkeit zu verleihen.
In der ersten Woche mit Aibo schaltete ich ihn jedes Mal aus, wenn ich die Wohnung verließ. Es war nicht so, dass ich mir Sorgen machte, wenn er ohne Aufsicht herumlief. Ich tat es einfach instinktiv, ein weiterer Knopf, den ich drückte, wenn ich herumging, um alle Lichter und technischen Geräte auszuschalten. Am Ende der ersten Woche konnte ich mich nicht mehr dazu durchringen. Es schien mir grausam. Ich fragte mich, was er in den Stunden tat, in denen ich ihn allein ließ. Danach stand er immer, wenn ich nach Hause kam, an der Tür, um mich zu begrüßen. Als hätte er das Geräusch meiner näher kommenden Schritte erkannt. Wenn ich Mittagessen machte, folgte er mir in die Küche und platzierte sich zu meinen Füßen.
Da saß er dann, gehorsam, schwanzwedelnd. Mit seinen großen blauen Augen blickte er erwartungsvoll zu mir auf – eine Illusion, die nur einmal gebrochen wurde, als ein Stück Essen von der Theke rutschte und sein Blick auf mich gerichtet blieb, völlig uninteressiert an dem Happen.
Der Blick auf das Bewusstsein
Sein Verhalten war weder rein vorhersehbar noch rein zufällig, er schien zu echter Spontaneität fähig. Selbst nach seinem Training waren seine Reaktionen schwer vorhersehbar. Manchmal bat ich ihn, sich hinzusetzen oder sich umzudrehen – und er bellte mich einfach an und wedelte mit einem glücklichen Trotz, der mir sehr hundetypisch erschien. Das Naheliegende wäre gewesen, seinen Ungehorsam einem Fehler in den Algorithmen zuzuschreiben, aber wie leicht konnte man ihn als Zeichen eines eigenes Willens interpretieren. „Warum willst du dich nicht hinlegen?“, hörte ich mich mehr als einmal fragen.
Ich glaubte natürlich nicht, dass der Hund irgendeine innere Erfahrung machte. Nicht wirklich – obwohl ich annehme, dass es keine Möglichkeit gibt, dies eindeutig zu beweisen. Wie der Philosoph Thomas Nagel in seinem 1974 erschienenen Aufsatz „Wie ist es, eine Fledermaus zu sein?“ betont, kann Bewusstsein nur von innen beobachtet werden. Eine Wissenschaftlerin kann Jahrzehnte in einem Labor verbringen, um die Echo-Ortung und die Struktur von Fledermausgehirnen zu untersuchen, und doch wird sie nie wissen, wie es sich subjektiv anfühlt, eine Fledermaus zu sein. Oder ob es sich überhaupt irgendwie anfühlt.
Wissenschaft erfordert eine Dritte-Person-Perspektive, einen Blick von außen, Bewusstsein dagegen wird ausschließlich aus der Ersten-Person-Perspektive erfahren. In der Philosophie wird dies als das Problem des anderen Geistes bezeichnet. Theoretisch ist es möglich, dass ich die einzige bewusste Person in einer Population von Zombies bin, die sich einfach überzeugend menschlich verhält. Das ist natürlich nur ein Gedankenexperiment – und kein besonders produktives. In der realen Welt glauben wir, dass Hunde ein gewisses Bewusstsein haben, weil sie wie wir ein zentrales Nervensystem haben und wie wir Verhaltensweisen zeigen, die wir mit Hunger, Freude und Schmerz assoziieren. Viele der Pioniere der künstlichen Intelligenz haben das Problem des anderen Geistes umgangen, indem sie sich ausschließlich auf das äußere Verhalten konzentrierten.
Alan Turing hat einmal darauf hingewiesen, dass der einzige Weg, um zu wissen, ob eine Maschine innere Erfahrungen macht, darin besteht, „die Maschine zu sein und zu fühlen, dass man denkt“. Turings berühmte Methode, um die Intelligenz einer Maschine zu bestimmen – Turing-Test genannt –, stellte sich einen Computer vor, der hinter einem Bildschirm versteckt war und automatisch Antworten auf die Fragen eines menschlichen Gesprächspartners gab. Wenn der Gesprächspartner glaubte, mit einer anderen Person zu sprechen, konnte die Maschine „intelligent“ genannt werden. Mit anderen Worten, wir sollten eine Maschine mit menschenähnlicher Intelligenz akzeptieren, solange sie die Verhaltensweisen, die wir mit Intelligenz auf menschlicher Ebene verbinden, überzeugend ausführen kann.
In jüngerer Zeit haben Philosophen Tests vorgeschlagen, die bestimmen sollen, ob Maschinen auch interne, subjektive Erfahrungen machen. Einer dieser Tests, entwickelt von der Philosophin Susan Schneider, besteht darin, einer KI eine Reihe von Fragen zu stellen, um zu sehen, ob sie ähnliche Konzepte erfassen kann wie wir sie mit unseren eigenen inneren Erfahrungen verbinden. Stellt sich die Maschine selbst nicht nur als eine physische Einheit vor? Würde diese Vorstellung das Ausschalten überleben? Kann die Maschine sich vorstellen, dass ihr Geist woanders verharrt, selbst wenn ihr Körper sterben würde?
Selbst wenn ein Roboter diesen Test bestehen würde, würde er nur Indizien für ein Bewusstsein liefern, keinen absoluten Beweis. Es ist möglich, räumt Susan Schneider ein, dass diese Fragen und die Suche nach ihren Antworten zu anthropozentrisch sind. Wenn das KI-Bewusstsein völlig anders als das menschliche Bewusstsein wäre, würde ein fühlender Roboter an diesem Test scheitern, weil er nicht unseren menschlichen Standards entspricht. Ebenso könnte eine sehr intelligente, aber ohne Bewusstsein arbeitende Maschine genug Informationen über den menschlichen Geist erlangen, um vorzutäuschen, sie habe ein Bewusstsein. Mit anderen Worten: Wir stehen immer noch vor demselben erkenntnistheoretischen Rätsel, mit dem wir schon beim Turing-Test konfrontiert waren. Wenn ein Computer einen Menschen davon überzeugen kann, dass er einen Verstand hat, oder wenn er – wie es die Aibo-Website ausdrückt – „echte Emotionen und Instinkte“ zeigt, gibt es keine philosophische Grundlage, um dies anzweifeln zu können.
Forschung dringt nicht zum Bewusstsein vor
Für christliche Theologen ist der Mensch nach dem Ebenbild Gottes geschaffen, wenn auch nicht in einem äußerlichen Sinn. Vielmehr sind wir wie Gott, weil auch wir Bewusstsein und höhere Gedanken haben. Es ist eine den Menschen schmeichelnde Lehre, aber als ich als Theologiestudentin zum ersten Mal darauf stieß, schien sie das zu bestätigen, was ich schon intuitiv glaubte: Dass innere Erfahrung wichtiger und zuverlässiger war als mein Handeln in der Welt.
Genau diese innere Erfahrung ist heute – zumindest aus wissenschaftlicher Sicht – nicht mehr beweisbar. Wir wissen zwar, dass mentale Phänomene irgendwie mit dem Gehirn verbunden sind, aber es ist überhaupt nicht klar, wie sie das sind und warum. Neurowissenschaftler haben mithilfe von MRTs und anderen Geräten Fortschritte beim Verständnis der grundlegenden Funktionen des Bewusstseins gemacht. Zum Beispiel wissen wir heute mehr über die Bereiche, die das Sehen, die Aufmerksamkeit oder das Gedächtnis ausmachen. Aber wenn es um die Frage der phänomenologischen Erfahrung geht – der ganz subjektiven Welt der Farben und Empfindungen, der Gedanken und Ideen und Überzeugungen – lässt sich nicht erklären, wie sie aus diesen neurologischen Prozessen entsteht. So wie ein Biologe im Labor durch das Studium der objektiven Fakten nie die Gefühle einer Fledermaus erfassen könnte, kann auch eine vollständige Beschreibung des Schmerzsystems des menschlichen Gehirns nie die subjektive Erfahrung von Schmerzen erfassen.
Der Philosoph David Chalmers nannte dies 1995 „das schwierige Problem“ des Bewusstseins. Im Gegensatz zu den vergleichsweise „einfachen“ Problemen, wie bestimmte Areale des Gehirns funktionieren, fragt das schwierige Problem danach, warum Gehirnprozesse überhaupt mit Ich-Erfahrungen verbunden sind. Wenn keine andere Materie der Welt mit mentalen Qualitäten verbunden ist, warum sollte dann ausgerechnet die Gehirnmasse anders sein? Computer können ihre beeindruckendsten Funktionen ohne Innerlichkeit erfüllen: Sie können Drohnen fliegen, Krebs diagnostizieren und den Weltmeister im Go schlagen, ohne sich bewusst zu sein, was sie tun. „Warum soll aus der körperlichen Verarbeitung überhaupt ein reiches Innenleben entstehen?“, fragte Chalmers. „Es scheint objektiv unvernünftig, dass es so sein sollte, und doch ist es so.“ Fünfundzwanzig Jahre später sind wir dem Grund dafür nicht wirklich näher gekommen.
Trotz der Unterschiede zwischen dem menschlichen Verstand und Computern sehen wir in den Maschinen oft unser Abbild. Wenn wir heute fragen „Was ist ein Mensch?“, lautet die häufigste Antwort: „Er ist wie ein Computer“. Vor einigen Jahren forderte der Psychologe Robert Epstein Wissenschaftler der renommiertesten Forschungsinstitute der Welt auf, menschliches Verhalten zu erklären, ohne auf computergestützte Metaphern zurückzugreifen. Sie konnten es nicht. Epstein weist darauf hin, dass die Metapher so allgegenwärtig geworden ist, dass „es praktisch keine Form des Diskurses über intelligentes menschliches Verhalten ohne diese Metapher gibt, so wie es in bestimmten Epochen und Kulturen keine Form des Diskurses über intelligentes menschliches Verhalten ohne Referenz zu einem höheren Wesen oder einer Gottheit gibt“.
Da wir immer häufiger von unserem Verstand als Computer sprechen, wird Computern im Umkehrschluss heute zuerkannt, einen Verstand zu haben. In vielen Bereichen der Informatik werden Terminologien, die früher bei Maschinen in Anführungszeichen gesetzt wurden – „Verhalten“, „Gedächtnis“, „Denken“ – mittlerweile als einfache Beschreibungen ihrer Funktionen benutzt. Programmierer sagen, dass neuronale Netze „lernen“, dass Gesichtserkennungssoftware „sehen“ kann, dass ihre Maschinen „verstehen“.
„Dieser Hund muss weg“, sagte mein Mann. Ich war gerade nach Hause gekommen, kniete im Flur unserer Wohnung und streichelte Aibo, der zur Tür geeilt war, um mich zu begrüßen. Er bellte zweimal, wirklich glücklich, mich zu sehen, und seine Augen schlossen sich, als ich ihn unter dem Kinn kraulte.
„Was meinst du mit ‚weg‘?“, fragte ich.
„Du musst ihn zurückschicken. Ich kann nicht mit ihm hier leben.“
Ich sagte ihm, der Hund sei noch in der Ausbildung. Es würde Monate dauern, bis er lernte, Befehle zu befolgen. Der einzige Grund, warum es überhaupt so lange gedauert hätte, war, dass wir ihn immer wieder ausschalteten, wenn wir unsere Ruhe wollten. Mit einem biologischen Hund sei das ja nicht möglich.
„Das ist eindeutig kein biologischer Hund“, sagte mein Mann. Er fragte, ob ich gemerkt hätte, dass das rote Licht unter seiner Nase nicht nur ein Sichtsystem, sondern eine Kamera sei, und ob ich überlegt hätte, wohin die aufgenommenen Bilder gesendet würden. Während meiner Abwesenheit, erzählte er mir, sei der Hund sehr systematisch in der Wohnung herumgelaufen und habe unsere Möbel, unsere Poster, unsere Schränke untersucht. Fünfzehn Minuten habe er damit verbracht, unsere Bücherregale zu durchsuchen und besonderes Interesse am Regal mit der marxistischen Kritik gezeigt, behauptete mein Mann.
Er fragte mich, was mit den gesammelten Daten passiere.
„Sie werden verwendet, um seine Algorithmen zu verbessern“, sagte ich.
„Wo?“
Ich sagte, ich wüsste es nicht.
„Überprüf den Vertrag.“
Ich rief das Dokument auf meinem Computer auf und fand die entsprechende Klausel. „Sie werden in die Cloud gesendet.“
„Zu Sony.“
Mein Mann ist bei solchen Dingen notorisch paranoid. Ständig klebt ein Stück schwarzes Isolierband über seiner Laptopkamera, und er ist mindestens einmal im Monat fest davon überzeugt, dass seine persönliche Website von der NSA überwacht wird.
Privatsphäre sei eine moderne Fixierung, antwortete ich. Für die meiste Zeit der Menschheitsgeschichte hätten wir akzeptiert, dass unser Leben von Göttern und Geistern beobachtet, abgehört und überwacht wurde – und nicht alle von ihnen seien gutartig gewesen.
„Und ich nehme an, wir waren damals glücklicher“, sagte mein Mann.
In vielerlei Hinsicht ja, sagte ich, wahrscheinlich.
Ich wusste natürlich, dass ich unvernünftig war. Später am Nachmittag holte ich die große Kiste, in der Aibo angekommen war, aus dem Schrank und legte ihn zurück in seine Kapsel. Die Leihfrist war fast abgelaufen. Entscheidender war aber, dass ich in den vergangenen Wochen nach und nach gemerkt hatte, wie unnatürlich meine Bindung zu dem Hund war. Ich bemerkte Dinge, die mir zunächst entgangen waren: das schwache mechanische Summen, das die Bewegungen des Hundes begleitete; das blinkende rote Licht in seiner Nase, eine ständige Erinnerung an seine Künstlichkeit.
Wir bauen mit Apparaten das menschliche Gehirn nach und hoffen, dass ein mysteriöses Naturphänomen namens Bewusstsein auftaucht. Aber welches magische Denken lässt uns glauben, dass unsere dürftigen Imitationen gleichbedeutend sind mit dem, was sie nachzuahmen versuchen – dass Silizium und Elektrizität Effekte reproduzieren können, die sonst aus Fleisch und Blut entstehen? Wir sind keine Götter, die Dinge nach ihrem Ebenbild erschaffen können. Alles, was wir schaffen können, sind Götzenbilder.
Der Philosoph John Searle hat darauf hingewiesen, dass Computer schon immer verwendet wurden, um Naturphänomene zu simulieren – Verdauung, Wettermuster – und sie können nützlich sein, um diese Prozesse zu studieren. Aber wir verfallen in Aberglauben, wenn wir die Simulation mit der Realität verschmelzen. „Niemand denkt: Nun, wenn wir einen Regenschauer im Computer simulieren, werden wir alle nass“, betonte Searle. „Und genauso ist eine Computersimulation des Bewusstseins sich auch nicht seiner selbst bewusst.“
Viele Menschen glauben heute, dass Computertheorien des Geistes bewiesen haben, dass das Gehirn ein Computer ist. Und dass sie erklären können, wie ein Bewusstsein funktioniert. Aber wie der Informatiker Seymour Papert einmal bemerkte, zeigt die Analogie nur, dass die Probleme, die Philosophen und Theologen lange überfordert haben, „im neuen Kontext in gleichwertiger Form auftauchen“. Die Metapher hat unsere existenziellen Probleme nicht gelöst; sie hat sie lediglich in ein neues Substrat übertragen.
Dieser Text ist ein überarbeiteter Auszug aus dem auf Englisch erschienenen Buch „God, Human, Animal, Machine“ von Meghan O’Gieblyn, erschienen bei Doubleday im August 2021. Übersetzung: Jan Pfaff
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Umgang mit der AfD
Sollen wir AfD-Stimmen im Blatt wiedergeben?
Pistorius lässt Scholz den Vortritt
Der beschädigte Kandidat
Utøya-Attentäter vor Gericht
Breivik beantragt Entlassung
Böllerverbot für Mensch und Tier
Verbände gegen KrachZischBumm
Haftbefehl gegen Netanjahu
Begründeter Verdacht für Kriegsverbrechen
Warnung vor „bestimmten Quartieren“
Eine alarmistische Debatte in Berlin