Technikforscher über neue Intelligenz

„Eine typische Vermenschlichung“

Die Rechenleistung von Maschinen überholt das menschliche Gehirn. Von „neuer Intelligenz“ will Technikforscher Christopher Coenen nicht sprechen.

Kleine Roboter

Vor denen müssen wir wohl eher keine Angst haben. (Archivbild 2003) Foto: reuters

taz.am wochenende: Herr Coenen, Sie bearbeiten mit Kollegen vom Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) momentan ein Projekt zum Thema „Mensch-Maschine-Entgrenzung“. Hat die Politik Angst vor Künstlicher Intelligenz?

Christopher Coenen: Von Angst würde ich nicht sprechen. Aber manche Abgeordnete sind besorgt und fragen sich, was sich in der Neuro- und in der KI-Forschung entwickelt. Sie interessieren sich auch für die aktuellen Diskussionen um Cyborgs, also Mensch-Technik-Verschmelzungen, und um Künstliche Intelligenz (KI). Die Politiker wollen wissen, ob diesen „transhumanistischen“ Diskussionen realistische Zukunftsbilder zugrunde liegen.

Der Informatiker Jürgen Schmidhuber, der zu Künstlicher Intelligenz forscht, glaubt, dass in wenigen Jahrzehnten ein einziger Computer die Rechenkraft der ganzen Menschheit haben wird.

Zweifellos wird die Rechenleistung weiter schnell wachsen. Das ist eine überzeugende Prognose.

Schmidhuber sagt, das stelle den Menschen als Krone der Schöpfung infrage.

Ich glaube nicht, dass dies ein zutreffendes Bild ist. Diese Angst-Lust teile ich nicht, dass da etwas kommt, das uns zerstört oder erlöst von unserer metaphysischen Einsamkeit im All.

Intelligent sein heißt lernen zu können. Das können auch Maschinen. Sie erkennen Emotionen in menschlichen Gesichtern und lernen zu sprechen. Muss uns das Angst machen? Lesen Sie ein Dossier über neuronale Netze und künstliche Intelligenz in der taz.am wochenende vom 12./13. September. Außerdem: Ludwig Minelli leistet in der Schweiz Sterbehilfe. Er findet, der Suizid sollte kein Tabu mehr sein. Im Interview spricht er über seine Arbeit, die vielen Suizide, die misslingen und die Kosten, die daraus folgen. Und: eine Reportage aus dem österreichischen Großraming, einem Dorf, das seine Angst vor Flüchtlingen verloren hat. Und das, obwohl die manchmal ohne Warnweste Fahrrad fahren. Am Kiosk, eKiosk oder gleich im praktischen Wochenendabo.

Verharmlosen Sie damit nicht die Entwicklung?

Es stimmt, dass die Systeme immer komplexer werden und von den Menschen zum Teil gar nicht mehr zu verstehen sind. Sie könnten auch außer Kontrolle geraten. Aber ich sehe nicht, dass daraus eine gänzlich neue Form der Intelligenz entsteht.

Sie sehen also keine Anhaltspunkte dafür, dass Künstliche Intelligenz ein Selbstbewusstsein entwickeln kann?

Nein. Wir haben ja schon kein gutes Verständnis davon, warum wir selbst selbstbewusst sind. Ein denkendes Wesen mit Bewusstsein und einer Persönlichkeit wie HAL aus „2001 – Odyssee im Weltraum“ – sehe ich nicht entstehen.

47, ist Politikwissenschaftler. Er arbeitet am Institut für Technikfolgenabschätzung und Sys­tem­analyse (ITAS) im Karlsruher Institut für Technologie (KIT) und forscht zu ethisch kontroversen neuen Wissenschafts- und Technikfeldern, wie zum Beispiel zu Neurotechnologien. Zudem gibt er die Zeitschrift NanoEthics heraus.

Aktuell arbeitet er gemeinsam mit Kollegen vom Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) in einem Projekt zum Thema Mensch-Maschine-Entgrenzung. Dort wird interdisziplinär im Auftrag des Deutschen Bundestags geforscht und das Parlament beraten.

Was ist der Unterschied zwischen Intelligenz und Selbstbewusstsein?

Selbstbewusstsein ist das Wissen um die eigene Existenz, die Fähigkeit, sich selbst und seine Handlungen zu reflektieren. Das ist etwas anderes als Rechenleistung. Wie soll aus der Quantität eine neue Qualität werden?

Würden Sie also sagen, Maschinen können nur instrumentelle Vernunft erlernen?

Auch wenn quasi eine andere Art von Vernunft in sie hineingebaut würde, blieben es letztlich Instrumente. Diese Vernunft bliebe deshalb also immer zweckrational.

Der Historiker Philip Mirowski spricht schon heute von einer Cyborg-Ökonomie.

Ja, aber das ist etwas anderes: Soziotechnische Systeme, wie das in der Soziologie genannt wird, werden auf jeden Fall immer komplexer. Ein Beispiel ist die Börsenwelt. Die Händler verstehen nicht mehr, wie ihre Systeme funktionieren.

Heißt das, wir sind schon heute der Technik unterworfen?

In gewisser Hinsicht konnten wir uns noch nie unabhängig von Technik definieren. Das Smartphone, das unser Gespräch hier aufzeichnet, bestimmt unser Verhalten mit. Der Mensch ist das Technik nutzende Wesen.

Viele Wissenschaftler sind von den Möglichkeiten der Künstlichen Intelligenz, die sie in Zukunft erwarten, begeistert. Andere warnen: Die KI könnte das Ende der Menschheit einläuten.

Aber beide Aussagen kommen aus dem gleichen, stark transhumanistisch geprägten Milieu. Diejenigen, die Diskussionen über solche existenziellen Risiken anfachen, erhoffen sich zugleich besonders viel von der Künstlichen Intelligenz. Beispielsweise der Internetunternehmer Elon Musk oder der Philosoph Nick Bostrom. Das ist die Aufmerksamkeitsökonomie: In dieser ist es fast egal, ob du sagst, irgendeine Entwicklung kann die Welt retten oder vernichten. Ähnliches findet sich bei den Diskussionen um synthetische Biologie oder Nanotechnologie: Neuerschaffung oder Untergang der Welt.

Utopie und Dystopie liegen nah beieinander. Wo verorten Sie sich?

Aus der Perspektive der Technikfolgenabschätzung würde ich sagen: Da tun sich viele interessante Dinge, aber radikal Umstürzendes im transhumanistischen Sinn sehe ich nicht. Trotzdem habe ich seit Monaten fast jede Woche eine Interviewanfrage zu dem Thema. Es ist ein Hype.

Wie erklären Sie sich das?

Wir haben umstürzende Veränderungen in unserer Realität, eine vollkommene Technisierung des Soziallebens, angefangen mit dem Babyphone und endend mit dem virtuellen Friedhof. Das beunruhigt uns. Wenn wir über Gefahren von Künstlicher Intelligenz in der Zukunft sprechen, geht es eigentlich um unsere Gegenwart.

Computersysteme können heute selbst lernen. Ist das nicht eine andere Qualität als ein Babyphone?

Sicherlich, aber der Mainstream der KI-Forscher unterscheidet zu Recht zwischen Maschinenlernen und den übertriebenen Visionen zu Künstlicher Intelligenz. Die Forschung kann sich zum Teil daran orientieren, wie das menschliche Gehirn funktioniert, aber es geht nicht um die Erschaffung neuer Wesen. Viele KI-Forscher sind irritiert über die aktuelle Diskussion. Die fragen sich: Kommt jetzt wieder eine Debatte, die dem Ansehen des Fachs schadet, wie es sie bis Mitte der 1990er Jahre mehrfach gegeben hat?

Aber seitdem hat sich in der Forschung viel getan. Mittlerweile können Geräte sogar unsere Gefühle erfassen und simulieren.

Das stimmt zum Teil. Aber das heißt ja nicht, dass uns etwas gegenüber sitzt, das selbst fühlt. Im Alltag gibt es schon KI, die Gefühle simuliert: Datingportale nutzen zum Beispiel Bots, die dem Nutzer antworten, und der denkt, er spricht mit seiner Traumfrau. Aber dieser Bot ist doch trotzdem nicht jemand, der sich fragt, warum er existiert und ob es einen Gott gibt.

Die Künstliche Intelligenz kann also unkontrollierbar werden, aber nicht die Macht ergreifen.

„Die Macht ergreifen“, das ist so eine typische Vermenschlichung. Es gibt das Gedankenspiel des Philosophen Bostrom von einer Künstlichen Intelligenz, die erschaffen wurde, um Büroklammern herzustellen. Und dann ordnet diese Künstliche Intelligenz alles dem Ziel unter, Büroklammern herzustellen. Das endet in einem Universum, das vollständig in Büroklammern umgearbeitet ist.

Klingt unwahrscheinlich.

Ja, aber es können Systeme geschaffen werden, denen Ziele eingebaut sind, und wir Menschen unterwerfen uns solchen Systemen. Das kann auch eine positive Vision sein.

Eine Büroklammern-Maschine ist ja nicht die gefährlichste Vision. Auch im Militär wird an der KI geforscht. In einem offenen Brief hat der berühmte Physiker Stephen Hawking zusammen mit mehr als 16.000 anderen Wissenschaftlern vor einer „dritten Revolution“ in der Waffentechnik gewarnt – nach dem Schwarzpulver und der Nukleartechnik.

Die Beunruhigung ist verständlich, weil es um existenzielle Entscheidungen geht – Leben oder Tod. Wenn wir an diese Geräte Entscheidungen übertragen, hat das im militärischen Bereich eine andere Qualität als eine Konsumempfehlung.

Wo sollten wir der KI Grenzen setzen?

Wir sollten keine Entscheidungen, bei denen es um Leben und Tod geht, durch technische Prozesse ersetzen. So neu ist das Problem aber nicht.

Warum?

Schon heute ist es Realität, etwa in der Medizin oder an der Börse, dass Entscheidungen auf der Basis technisch erzeugter Handlungsempfehlungen getroffen werden. Der Mensch versteht nicht, wie es zu den Empfehlungen kommt, und muss sich darauf verlassen.

Wir haben die Grenze also längst überschritten.

Ja. Aber weiterhin wichtig ist, dass solche Prozesse möglichst transparent sind. Das wäre eine Art ethische Leitlinie. Das ist in der Realität allerdings nicht immer möglich. Wenn wir sehr schnell eine Entscheidung treffen müssen, dann vertrauen wir darauf, dass Technik von gutwilligen Menschen so eingerichtet wurde, dass wir geeignete Entscheidungsgrundlagen erhalten. Aber dann bleibt es trotzdem noch unsere Entscheidung, was wir tun.

Im 19. Jahrhundert haben Arbeiter Maschinen zerstört, weil sie Angst hatten, überflüssig zu werden. Kommt der Kampf zwischen Mensch und Maschine zurück?

Nein, es ist auch heute noch ein Kampf zwischen Menschen um Ressourcen. Wir müssen uns die Frage stellen, was wir aus dem technischen Fortschritt und dem Produktivitätszuwachs machen. Wir sind nah dran, dass fast alle stupiden Arbeiten von Maschinen übernommen werden können. Klar ist, dass viele Jobs wegfallen und durch Technik ersetzt werden, um Kosten zu sparen. Es ist eine politische Frage, wie wir damit umgehen.

.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de

Ihren Kommentar hier eingeben