piwik no script img

Philosophin über Robotherethik„Technik ist nicht neutral“

Wie und warum wir Roboter bauen und was wir sie tun lassen, ist immer auch eine moralische Frage: Janina Loh spricht in Hamburg über Roboterethik.

Dahinter steckt immer der Mensch: NRW-Innenminister Herbert Reul (CDU) im Januar 2022 Foto: Rolf Vennenbernd/dpa
Alexander Diehl
Interview von Alexander Diehl

taz: Janina Loh, werden Sie oft auf Isaac ­Asimov angesprochen?

Janina Loh: Ständig. Ich würde sagen, von den 130 Interviews, die ich bislang geben durfte, haben ein Viertel, vielleicht sogar ein Drittel Asimov zumindest in irgendeiner Form thematisiert.

Naheliegend insofern, als der in einer seiner Science-Fiction-Geschichten drei „Roboter-Gesetze“ formuliert hat; ein viertes – beziehungsweise nulltes – kam später hinzu. Ich könnte mir vorstellen, dass diese Gesetze vielen Menschen zuerst einfallen, wenn diese auf Ihr Buch „Roboter­ethik“ stoßen und damit ihr Arbeitsgebiet.

Was Asimov selbst immer wieder gezeigt hat, ist, wie diese Gesetze miteinander in Konflikt geraten und dass sie letztlich nur den Ausgangspunkt darstellen, aber keine fertige Ethik sein können. Aus meiner Sicht sind sie nicht besser oder schlechter als beispielsweise die zehn Gebote oder der Kategorische Imperativ von Immanuel Kant – ein Vorschlag.

Verhandelt wird darin: wie soll und wie darf ein Roboter handeln. Das ist die eine Dimension. Und es gibt eine andere.

Katharina Gossow
Im Interview: Janina Loh

37, hat in Berlin studiert und bekleidet nach Stationen in Kiel und Wien derzeit eine Stabsstelle Ethik bei der Stiftung Liebenau in Mecken­beuren am Bodensee. Lohs Buch „Robotherethik“ ist 2019 bei Suhrkamp erschienen.

Das ist die Perspektive, dass Roboter genauso wenig wie ein Toaster oder ein anderes elektronisches Gerät moralisch handeln können. Aber dass gerade jene, die im besonderen Umgang mit Menschen sind, zum Beispiel Pflegeroboter, einen besonderen moralischen Wert für uns haben. Und das heißt, dass wir mit diesen Robotern nicht alles machen dürfen, was wir wollen.

Vielleicht noch mal einen Schritt zurück: Wie definieren Sie einen Roboter?

Als besondere Form von Maschine. Alle Roboter sind Maschinen, aber nicht alle Maschinen sind Roboter. Es gibt drei technische Kriterien: Ein Roboter besteht erstens aus Sensoren, die Daten aus der Umgebung sammeln, und diese zweitens an mindestens einen Prozessor weitergeben, der sie verarbeitet, und drittens an mindestens einen Effektor oder Aktor übergibt; der übersetzt die Daten in mechanische Abläufe. Hinzu kommen drei philosophisch interessantere Aspekte.

Welche sind das?

Ein Roboter verfügt erstens über einen eigenständigen Körper, mit dem er zweitens in seine Umgebung hineinwirken kann. Und zwar in einer Weise, wie das ein Computer beispielsweise nicht kann. Ein Smartphone ist also eine supersmarte Maschine, aber kein Roboter.

Die Robotergesetze

Erstmals formuliert hat der US-amerikanische Science-Fiction-Autor Isaac Asimov (1920–1992) seine Robotergesetze in der Kurzgeschichte „Runaround“, erschienen 1942. Diesen zunächst drei „Grundregeln des Roboterdienstes“ fügte Asimov in den frühen 1980er-Jahren eine vierte hinzu; die anderen drei wurden diesem „nullten Gesetz“ untergeordnet:

0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.

2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.

3. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

Und der dritte Aspekt?

Ein Roboter agiert zumindest quasi autonom. Das heißt, es sieht von außen so aus, als würde er autonom agieren, ohne direkten Einfluss von Menschen. Das ist dann auch der Grund, warum ich sagen würde, eine Drohne, zumindest die bekannten Drohnen, die von Menschen extern gesteuert werden, sind keine Roboter.

Also der Typ Drohne, bei dem es immer noch irgendwo einen Menschen mit einem Joystick vor einem Bildschirm gibt. Aber entwickelt sind oder werden ja auch solche Drohnen, bei denen der Mensch nicht mehr eingreifen kann – und das auch gar nicht mehr können soll.

Es gibt in der Militärrobotik wie in allen anderen Bereichen der Robotik umfangreiche Studien dazu. Und Gremien, die darüber diskutieren, ob es sinnvoll ist, solche Roboter zu entwickeln. Und Leute, die finanzstark wie auch, sage ich mal, politische Schwergewichte sind, die darauf Einfluss haben. Aber nach wie vor sind solche Entwicklungen keine Naturgesetze. Wir sind da immer noch im Bereich des Menschlichen und menschlicher Entwicklung, die wir als Bür­ge­r*in­nen demokratischer Länder mitbestimmen können: was soll passieren dürfen in einem Land, was nicht.

Das beantwortet ja eigentlich auch etwaige Zweifel, ob und warum Roboter überhaupt Thema der Philosophie und also der Ethik sein können, die sich ja genuin für den Menschen interessiert. Denn hinter diesen Maschinen stehen immer noch Menschen, menschliche Entscheidungen, menschliche Konflikte.

Das ist eine sehr grundlegende Frage. Viele Leute, vor denen ich Vorträge halte, kommen nach wie vor mit dieser irreführenden Position, dass es hier nur um Einsen und Nullen gehe, dass Technik immer neutral sei. Und das ist hochgradig schwierig.

DIe Lesung

Philosophisches Café „Wie frei wird der digitale Mensch?“ mit Janina Loh und Anna-Verena Nosthoff (Moderation: Wolfram Eilenberger): Di, 30. 8., 19 Uhr, Hamburg, Literaturhaus (sowie als Stream)

Hat sich daran etwas geändert in der Zeit, die Sie sich nun damit beschäftigen? Vor vier Jahren ungefähr gab es etwas Aufregung um diesen automatisierten Seifenspender, ich glaube, dann auch noch ausgerechnet bei Facebook: Der funktionierte unterschiedlich gut, je nach Hautfarbe der Nutzer*innen. Und den hatte ja irgendjemand so programmiert.

Es gab auch diesen Microsoft-Chatbot, der sich weiterentwickeln sollte durch Interaktion mit Use­r*in­nen im Internet – und nach nicht mal 24 Stunden vom Netz genommen werden musste, weil er rassistisch und sexistisch geworden war. Aber ja, da ist eine Entwicklung zu sehen. Ich selbst, mit meiner Arbeit, wurde vor vielleicht sieben oder acht Jahren immer noch ein bisschen schräg angeschaut, wenn ich auf einmal auf Podien saß, neben Künstliche-Intelligenz-Leuten und vielleicht noch Rechtswissenschaftler*innen: Was macht eine Person, die sich um Philosophie kümmert, um Ethik, in dieser Runde?

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare

  • Noch keine Kommentare vorhanden.
    Starten Sie jetzt eine spannende Diskussion!