piwik no script img

Philosophin über Robotherethik„Technik ist nicht neutral“

Wie und warum wir Roboter bauen und was wir sie tun lassen, ist immer auch eine moralische Frage: Janina Loh spricht in Hamburg über Roboterethik.

Dahinter steckt immer der Mensch: NRW-Innenminister Herbert Reul (CDU) im Januar 2022 Foto: Rolf Vennenbernd/dpa
Alexander Diehl
Interview von Alexander Diehl

taz: Janina Loh, werden Sie oft auf Isaac ­Asimov angesprochen?

Janina Loh: Ständig. Ich würde sagen, von den 130 Interviews, die ich bislang geben durfte, haben ein Viertel, vielleicht sogar ein Drittel Asimov zumindest in irgendeiner Form thematisiert.

Naheliegend insofern, als der in einer seiner Science-Fiction-Geschichten drei „Roboter-Gesetze“ formuliert hat; ein viertes – beziehungsweise nulltes – kam später hinzu. Ich könnte mir vorstellen, dass diese Gesetze vielen Menschen zuerst einfallen, wenn diese auf Ihr Buch „Roboter­ethik“ stoßen und damit ihr Arbeitsgebiet.

Was Asimov selbst immer wieder gezeigt hat, ist, wie diese Gesetze miteinander in Konflikt geraten und dass sie letztlich nur den Ausgangspunkt darstellen, aber keine fertige Ethik sein können. Aus meiner Sicht sind sie nicht besser oder schlechter als beispielsweise die zehn Gebote oder der Kategorische Imperativ von Immanuel Kant – ein Vorschlag.

Verhandelt wird darin: wie soll und wie darf ein Roboter handeln. Das ist die eine Dimension. Und es gibt eine andere.

Im Interview2Inews: Janina Loh

37, hat in Berlin studiert und bekleidet nach Stationen in Kiel und Wien derzeit eine Stabsstelle Ethik bei der Stiftung Liebenau in Mecken­beuren am Bodensee. Lohs Buch „Robotherethik“ ist 2019 bei Suhrkamp erschienen.

Das ist die Perspektive, dass Roboter genauso wenig wie ein Toaster oder ein anderes elektronisches Gerät moralisch handeln können. Aber dass gerade jene, die im besonderen Umgang mit Menschen sind, zum Beispiel Pflegeroboter, einen besonderen moralischen Wert für uns haben. Und das heißt, dass wir mit diesen Robotern nicht alles machen dürfen, was wir wollen.

Vielleicht noch mal einen Schritt zurück: Wie definieren Sie einen Roboter?

Als besondere Form von Maschine. Alle Roboter sind Maschinen, aber nicht alle Maschinen sind Roboter. Es gibt drei technische Kriterien: Ein Roboter besteht erstens aus Sensoren, die Daten aus der Umgebung sammeln, und diese zweitens an mindestens einen Prozessor weitergeben, der sie verarbeitet, und drittens an mindestens einen Effektor oder Aktor übergibt; der übersetzt die Daten in mechanische Abläufe. Hinzu kommen drei philosophisch interessantere Aspekte.

Welche sind das?

Ein Roboter verfügt erstens über einen eigenständigen Körper, mit dem er zweitens in seine Umgebung hineinwirken kann. Und zwar in einer Weise, wie das ein Computer beispielsweise nicht kann. Ein Smartphone ist also eine supersmarte Maschine, aber kein Roboter.

Die Robotergesetze

Erstmals formuliert hat der US-amerikanische Science-Fiction-Autor Isaac Asimov (1920–1992) seine Robotergesetze in der Kurzgeschichte „Runaround“, erschienen 1942. Diesen zunächst drei „Grundregeln des Roboterdienstes“ fügte Asimov in den frühen 1980er-Jahren eine vierte hinzu; die anderen drei wurden diesem „nullten Gesetz“ untergeordnet:

0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.

2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.

3. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

Und der dritte Aspekt?

Ein Roboter agiert zumindest quasi autonom. Das heißt, es sieht von außen so aus, als würde er autonom agieren, ohne direkten Einfluss von Menschen. Das ist dann auch der Grund, warum ich sagen würde, eine Drohne, zumindest die bekannten Drohnen, die von Menschen extern gesteuert werden, sind keine Roboter.

Also der Typ Drohne, bei dem es immer noch irgendwo einen Menschen mit einem Joystick vor einem Bildschirm gibt. Aber entwickelt sind oder werden ja auch solche Drohnen, bei denen der Mensch nicht mehr eingreifen kann – und das auch gar nicht mehr können soll.

Es gibt in der Militärrobotik wie in allen anderen Bereichen der Robotik umfangreiche Studien dazu. Und Gremien, die darüber diskutieren, ob es sinnvoll ist, solche Roboter zu entwickeln. Und Leute, die finanzstark wie auch, sage ich mal, politische Schwergewichte sind, die darauf Einfluss haben. Aber nach wie vor sind solche Entwicklungen keine Naturgesetze. Wir sind da immer noch im Bereich des Menschlichen und menschlicher Entwicklung, die wir als Bür­ge­r*in­nen demokratischer Länder mitbestimmen können: was soll passieren dürfen in einem Land, was nicht.

Das beantwortet ja eigentlich auch etwaige Zweifel, ob und warum Roboter überhaupt Thema der Philosophie und also der Ethik sein können, die sich ja genuin für den Menschen interessiert. Denn hinter diesen Maschinen stehen immer noch Menschen, menschliche Entscheidungen, menschliche Konflikte.

Das ist eine sehr grundlegende Frage. Viele Leute, vor denen ich Vorträge halte, kommen nach wie vor mit dieser irreführenden Position, dass es hier nur um Einsen und Nullen gehe, dass Technik immer neutral sei. Und das ist hochgradig schwierig.

DIe Lesung

Philosophisches Café „Wie frei wird der digitale Mensch?“ mit Janina Loh und Anna-Verena Nosthoff (Moderation: Wolfram Eilenberger): Di, 30. 8., 19 Uhr, Hamburg, Literaturhaus (sowie als Stream)

Hat sich daran etwas geändert in der Zeit, die Sie sich nun damit beschäftigen? Vor vier Jahren ungefähr gab es etwas Aufregung um diesen automatisierten Seifenspender, ich glaube, dann auch noch ausgerechnet bei Facebook: Der funktionierte unterschiedlich gut, je nach Hautfarbe der Nutzer*innen. Und den hatte ja irgendjemand so programmiert.

Es gab auch diesen Microsoft-Chatbot, der sich weiterentwickeln sollte durch Interaktion mit Use­r*in­nen im Internet – und nach nicht mal 24 Stunden vom Netz genommen werden musste, weil er rassistisch und sexistisch geworden war. Aber ja, da ist eine Entwicklung zu sehen. Ich selbst, mit meiner Arbeit, wurde vor vielleicht sieben oder acht Jahren immer noch ein bisschen schräg angeschaut, wenn ich auf einmal auf Podien saß, neben Künstliche-Intelligenz-Leuten und vielleicht noch Rechtswissenschaftler*innen: Was macht eine Person, die sich um Philosophie kümmert, um Ethik, in dieser Runde?

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen