Philosophin über Robotherethik: „Technik ist nicht neutral“

Wie und warum wir Roboter bauen und was wir sie tun lassen, ist immer auch eine moralische Frage: Janina Loh spricht in Hamburg über Roboterethik.

Herbert Reul, CDU-Innenminister von Nordrhein-Westfalen, betrachtet einen Roboter-Diensthund

Dahinter steckt immer der Mensch: NRW-Innenminister Herbert Reul (CDU) im Januar 2022 Foto: Rolf Vennenbernd/dpa

taz: Janina Loh, werden Sie oft auf Isaac ­Asimov angesprochen?

Janina Loh: Ständig. Ich würde sagen, von den 130 Interviews, die ich bislang geben durfte, haben ein Viertel, vielleicht sogar ein Drittel Asimov zumindest in irgendeiner Form thematisiert.

Naheliegend insofern, als der in einer seiner Science-Fiction-Geschichten drei „Roboter-Gesetze“ formuliert hat; ein viertes – beziehungsweise nulltes – kam später hinzu. Ich könnte mir vorstellen, dass diese Gesetze vielen Menschen zuerst einfallen, wenn diese auf Ihr Buch „Roboter­ethik“ stoßen und damit ihr Arbeitsgebiet.

Was Asimov selbst immer wieder gezeigt hat, ist, wie diese Gesetze miteinander in Konflikt geraten und dass sie letztlich nur den Ausgangspunkt darstellen, aber keine fertige Ethik sein können. Aus meiner Sicht sind sie nicht besser oder schlechter als beispielsweise die zehn Gebote oder der Kategorische Imperativ von Immanuel Kant – ein Vorschlag.

Verhandelt wird darin: wie soll und wie darf ein Roboter handeln. Das ist die eine Dimension. Und es gibt eine andere.

37, hat in Berlin studiert und bekleidet nach Stationen in Kiel und Wien derzeit eine Stabsstelle Ethik bei der Stiftung Liebenau in Mecken­beuren am Bodensee. Lohs Buch „Robotherethik“ ist 2019 bei Suhrkamp erschienen.

Das ist die Perspektive, dass Roboter genauso wenig wie ein Toaster oder ein anderes elektronisches Gerät moralisch handeln können. Aber dass gerade jene, die im besonderen Umgang mit Menschen sind, zum Beispiel Pflegeroboter, einen besonderen moralischen Wert für uns haben. Und das heißt, dass wir mit diesen Robotern nicht alles machen dürfen, was wir wollen.

Vielleicht noch mal einen Schritt zurück: Wie definieren Sie einen Roboter?

Als besondere Form von Maschine. Alle Roboter sind Maschinen, aber nicht alle Maschinen sind Roboter. Es gibt drei technische Kriterien: Ein Roboter besteht erstens aus Sensoren, die Daten aus der Umgebung sammeln, und diese zweitens an mindestens einen Prozessor weitergeben, der sie verarbeitet, und drittens an mindestens einen Effektor oder Aktor übergibt; der übersetzt die Daten in mechanische Abläufe. Hinzu kommen drei philosophisch interessantere Aspekte.

Welche sind das?

Ein Roboter verfügt erstens über einen eigenständigen Körper, mit dem er zweitens in seine Umgebung hineinwirken kann. Und zwar in einer Weise, wie das ein Computer beispielsweise nicht kann. Ein Smartphone ist also eine supersmarte Maschine, aber kein Roboter.

Erstmals formuliert hat der US-amerikanische Science-Fiction-Autor Isaac Asimov (1920–1992) seine Robotergesetze in der Kurzgeschichte „Runaround“, erschienen 1942. Diesen zunächst drei „Grundregeln des Roboterdienstes“ fügte Asimov in den frühen 1980er-Jahren eine vierte hinzu; die anderen drei wurden diesem „nullten Gesetz“ untergeordnet:

0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.

2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.

3. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

Und der dritte Aspekt?

Ein Roboter agiert zumindest quasi autonom. Das heißt, es sieht von außen so aus, als würde er autonom agieren, ohne direkten Einfluss von Menschen. Das ist dann auch der Grund, warum ich sagen würde, eine Drohne, zumindest die bekannten Drohnen, die von Menschen extern gesteuert werden, sind keine Roboter.

Also der Typ Drohne, bei dem es immer noch irgendwo einen Menschen mit einem Joystick vor einem Bildschirm gibt. Aber entwickelt sind oder werden ja auch solche Drohnen, bei denen der Mensch nicht mehr eingreifen kann – und das auch gar nicht mehr können soll.

Es gibt in der Militärrobotik wie in allen anderen Bereichen der Robotik umfangreiche Studien dazu. Und Gremien, die darüber diskutieren, ob es sinnvoll ist, solche Roboter zu entwickeln. Und Leute, die finanzstark wie auch, sage ich mal, politische Schwergewichte sind, die darauf Einfluss haben. Aber nach wie vor sind solche Entwicklungen keine Naturgesetze. Wir sind da immer noch im Bereich des Menschlichen und menschlicher Entwicklung, die wir als Bür­ge­r*in­nen demokratischer Länder mitbestimmen können: was soll passieren dürfen in einem Land, was nicht.

Das beantwortet ja eigentlich auch etwaige Zweifel, ob und warum Roboter überhaupt Thema der Philosophie und also der Ethik sein können, die sich ja genuin für den Menschen interessiert. Denn hinter diesen Maschinen stehen immer noch Menschen, menschliche Entscheidungen, menschliche Konflikte.

Das ist eine sehr grundlegende Frage. Viele Leute, vor denen ich Vorträge halte, kommen nach wie vor mit dieser irreführenden Position, dass es hier nur um Einsen und Nullen gehe, dass Technik immer neutral sei. Und das ist hochgradig schwierig.

Philosophisches Café „Wie frei wird der digitale Mensch?“ mit Janina Loh und Anna-Verena Nosthoff (Moderation: Wolfram Eilenberger): Di, 30. 8., 19 Uhr, Hamburg, Literaturhaus (sowie als Stream)

Hat sich daran etwas geändert in der Zeit, die Sie sich nun damit beschäftigen? Vor vier Jahren ungefähr gab es etwas Aufregung um diesen automatisierten Seifenspender, ich glaube, dann auch noch ausgerechnet bei Facebook: Der funktionierte unterschiedlich gut, je nach Hautfarbe der Nutzer*innen. Und den hatte ja irgendjemand so programmiert.

Es gab auch diesen Microsoft-Chatbot, der sich weiterentwickeln sollte durch Interaktion mit Use­r*in­nen im Internet – und nach nicht mal 24 Stunden vom Netz genommen werden musste, weil er rassistisch und sexistisch geworden war. Aber ja, da ist eine Entwicklung zu sehen. Ich selbst, mit meiner Arbeit, wurde vor vielleicht sieben oder acht Jahren immer noch ein bisschen schräg angeschaut, wenn ich auf einmal auf Podien saß, neben Künstliche-Intelligenz-Leuten und vielleicht noch Rechtswissenschaftler*innen: Was macht eine Person, die sich um Philosophie kümmert, um Ethik, in dieser Runde?

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.