piwik no script img

Technikforscher über neue Intelligenz„Eine typische Vermenschlichung“

Die Rechenleistung von Maschinen überholt das menschliche Gehirn. Von „neuer Intelligenz“ will Technikforscher Christopher Coenen nicht sprechen.

Vor denen müssen wir wohl eher keine Angst haben. (Archivbild 2003) Foto: reuters
Kersten Augustin
Interview von Kersten Augustin und Bigna Fink

taz.am wochenende: Herr Coenen, Sie bearbeiten mit Kollegen vom Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) momentan ein Projekt zum Thema „Mensch-Maschine-Entgrenzung“. Hat die Politik Angst vor Künstlicher Intelligenz?

Christopher Coenen: Von Angst würde ich nicht sprechen. Aber manche Abgeordnete sind besorgt und fragen sich, was sich in der Neuro- und in der KI-Forschung entwickelt. Sie interessieren sich auch für die aktuellen Diskussionen um Cyborgs, also Mensch-Technik-Verschmelzungen, und um Künstliche Intelligenz (KI). Die Politiker wollen wissen, ob diesen „transhumanistischen“ Diskussionen realistische Zukunftsbilder zugrunde liegen.

Der Informatiker Jürgen Schmidhuber, der zu Künstlicher Intelligenz forscht, glaubt, dass in wenigen Jahrzehnten ein einziger Computer die Rechenkraft der ganzen Menschheit haben wird.

Zweifellos wird die Rechenleistung weiter schnell wachsen. Das ist eine überzeugende Prognose.

Schmidhuber sagt, das stelle den Menschen als Krone der Schöpfung infrage.

Ich glaube nicht, dass dies ein zutreffendes Bild ist. Diese Angst-Lust teile ich nicht, dass da etwas kommt, das uns zerstört oder erlöst von unserer metaphysischen Einsamkeit im All.

taz. am Wochenende

Intelligent sein heißt lernen zu können. Das können auch Maschinen. Sie erkennen Emotionen in menschlichen Gesichtern und lernen zu sprechen. Muss uns das Angst machen? Lesen Sie ein Dossier über neuronale Netze und künstliche Intelligenz in der taz.am wochenende vom 12./13. September. Außerdem: Ludwig Minelli leistet in der Schweiz Sterbehilfe. Er findet, der Suizid sollte kein Tabu mehr sein. Im Interview spricht er über seine Arbeit, die vielen Suizide, die misslingen und die Kosten, die daraus folgen. Und: eine Reportage aus dem österreichischen Großraming, einem Dorf, das seine Angst vor Flüchtlingen verloren hat. Und das, obwohl die manchmal ohne Warnweste Fahrrad fahren. Am Kiosk, eKiosk oder gleich im praktischen Wochenendabo.

Verharmlosen Sie damit nicht die Entwicklung?

Es stimmt, dass die Systeme immer komplexer werden und von den Menschen zum Teil gar nicht mehr zu verstehen sind. Sie könnten auch außer Kontrolle geraten. Aber ich sehe nicht, dass daraus eine gänzlich neue Form der Intelligenz entsteht.

Sie sehen also keine Anhaltspunkte dafür, dass Künstliche Intelligenz ein Selbstbewusstsein entwickeln kann?

Nein. Wir haben ja schon kein gutes Verständnis davon, warum wir selbst selbstbewusst sind. Ein denkendes Wesen mit Bewusstsein und einer Persönlichkeit wie HAL aus „2001 – Odyssee im Weltraum“ – sehe ich nicht entstehen.

Bild: ITAS
Im Interview: Christopher Coenen

47, ist Politikwissenschaftler. Er arbeitet am Institut für Technikfolgenabschätzung und Sys­tem­analyse (ITAS) im Karlsruher Institut für Technologie (KIT) und forscht zu ethisch kontroversen neuen Wissenschafts- und Technikfeldern, wie zum Beispiel zu Neurotechnologien. Zudem gibt er die Zeitschrift NanoEthics heraus.

Aktuell arbeitet er gemeinsam mit Kollegen vom Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) in einem Projekt zum Thema Mensch-Maschine-Entgrenzung. Dort wird interdisziplinär im Auftrag des Deutschen Bundestags geforscht und das Parlament beraten.

Was ist der Unterschied zwischen Intelligenz und Selbstbewusstsein?

Selbstbewusstsein ist das Wissen um die eigene Existenz, die Fähigkeit, sich selbst und seine Handlungen zu reflektieren. Das ist etwas anderes als Rechenleistung. Wie soll aus der Quantität eine neue Qualität werden?

Würden Sie also sagen, Maschinen können nur instrumentelle Vernunft erlernen?

Auch wenn quasi eine andere Art von Vernunft in sie hineingebaut würde, blieben es letztlich Instrumente. Diese Vernunft bliebe deshalb also immer zweckrational.

Der Historiker Philip Mirowski spricht schon heute von einer Cyborg-Ökonomie.

Ja, aber das ist etwas anderes: Soziotechnische Systeme, wie das in der Soziologie genannt wird, werden auf jeden Fall immer komplexer. Ein Beispiel ist die Börsenwelt. Die Händler verstehen nicht mehr, wie ihre Systeme funktionieren.

Heißt das, wir sind schon heute der Technik unterworfen?

In gewisser Hinsicht konnten wir uns noch nie unabhängig von Technik definieren. Das Smartphone, das unser Gespräch hier aufzeichnet, bestimmt unser Verhalten mit. Der Mensch ist das Technik nutzende Wesen.

Viele Wissenschaftler sind von den Möglichkeiten der Künstlichen Intelligenz, die sie in Zukunft erwarten, begeistert. Andere warnen: Die KI könnte das Ende der Menschheit einläuten.

Aber beide Aussagen kommen aus dem gleichen, stark transhumanistisch geprägten Milieu. Diejenigen, die Diskussionen über solche existenziellen Risiken anfachen, erhoffen sich zugleich besonders viel von der Künstlichen Intelligenz. Beispielsweise der Internetunternehmer Elon Musk oder der Philosoph Nick Bostrom. Das ist die Aufmerksamkeitsökonomie: In dieser ist es fast egal, ob du sagst, irgendeine Entwicklung kann die Welt retten oder vernichten. Ähnliches findet sich bei den Diskussionen um synthetische Biologie oder Nanotechnologie: Neuerschaffung oder Untergang der Welt.

Utopie und Dystopie liegen nah beieinander. Wo verorten Sie sich?

Aus der Perspektive der Technikfolgenabschätzung würde ich sagen: Da tun sich viele interessante Dinge, aber radikal Umstürzendes im transhumanistischen Sinn sehe ich nicht. Trotzdem habe ich seit Monaten fast jede Woche eine Interviewanfrage zu dem Thema. Es ist ein Hype.

Wie erklären Sie sich das?

Wir haben umstürzende Veränderungen in unserer Realität, eine vollkommene Technisierung des Soziallebens, angefangen mit dem Babyphone und endend mit dem virtuellen Friedhof. Das beunruhigt uns. Wenn wir über Gefahren von Künstlicher Intelligenz in der Zukunft sprechen, geht es eigentlich um unsere Gegenwart.

Computersysteme können heute selbst lernen. Ist das nicht eine andere Qualität als ein Babyphone?

Sicherlich, aber der Mainstream der KI-Forscher unterscheidet zu Recht zwischen Maschinenlernen und den übertriebenen Visionen zu Künstlicher Intelligenz. Die Forschung kann sich zum Teil daran orientieren, wie das menschliche Gehirn funktioniert, aber es geht nicht um die Erschaffung neuer Wesen. Viele KI-Forscher sind irritiert über die aktuelle Diskussion. Die fragen sich: Kommt jetzt wieder eine Debatte, die dem Ansehen des Fachs schadet, wie es sie bis Mitte der 1990er Jahre mehrfach gegeben hat?

Aber seitdem hat sich in der Forschung viel getan. Mittlerweile können Geräte sogar unsere Gefühle erfassen und simulieren.

Das stimmt zum Teil. Aber das heißt ja nicht, dass uns etwas gegenüber sitzt, das selbst fühlt. Im Alltag gibt es schon KI, die Gefühle simuliert: Datingportale nutzen zum Beispiel Bots, die dem Nutzer antworten, und der denkt, er spricht mit seiner Traumfrau. Aber dieser Bot ist doch trotzdem nicht jemand, der sich fragt, warum er existiert und ob es einen Gott gibt.

Die Künstliche Intelligenz kann also unkontrollierbar werden, aber nicht die Macht ergreifen.

„Die Macht ergreifen“, das ist so eine typische Vermenschlichung. Es gibt das Gedankenspiel des Philosophen Bostrom von einer Künstlichen Intelligenz, die erschaffen wurde, um Büroklammern herzustellen. Und dann ordnet diese Künstliche Intelligenz alles dem Ziel unter, Büroklammern herzustellen. Das endet in einem Universum, das vollständig in Büroklammern umgearbeitet ist.

Klingt unwahrscheinlich.

Ja, aber es können Systeme geschaffen werden, denen Ziele eingebaut sind, und wir Menschen unterwerfen uns solchen Systemen. Das kann auch eine positive Vision sein.

Eine Büroklammern-Maschine ist ja nicht die gefährlichste Vision. Auch im Militär wird an der KI geforscht. In einem offenen Brief hat der berühmte Physiker Stephen Hawking zusammen mit mehr als 16.000 anderen Wissenschaftlern vor einer „dritten Revolution“ in der Waffentechnik gewarnt – nach dem Schwarzpulver und der Nukleartechnik.

Die Beunruhigung ist verständlich, weil es um existenzielle Entscheidungen geht – Leben oder Tod. Wenn wir an diese Geräte Entscheidungen übertragen, hat das im militärischen Bereich eine andere Qualität als eine Konsumempfehlung.

Wo sollten wir der KI Grenzen setzen?

Wir sollten keine Entscheidungen, bei denen es um Leben und Tod geht, durch technische Prozesse ersetzen. So neu ist das Problem aber nicht.

Warum?

Schon heute ist es Realität, etwa in der Medizin oder an der Börse, dass Entscheidungen auf der Basis technisch erzeugter Handlungsempfehlungen getroffen werden. Der Mensch versteht nicht, wie es zu den Empfehlungen kommt, und muss sich darauf verlassen.

Wir haben die Grenze also längst überschritten.

Ja. Aber weiterhin wichtig ist, dass solche Prozesse möglichst transparent sind. Das wäre eine Art ethische Leitlinie. Das ist in der Realität allerdings nicht immer möglich. Wenn wir sehr schnell eine Entscheidung treffen müssen, dann vertrauen wir darauf, dass Technik von gutwilligen Menschen so eingerichtet wurde, dass wir geeignete Entscheidungsgrundlagen erhalten. Aber dann bleibt es trotzdem noch unsere Entscheidung, was wir tun.

Im 19. Jahrhundert haben Arbeiter Maschinen zerstört, weil sie Angst hatten, überflüssig zu werden. Kommt der Kampf zwischen Mensch und Maschine zurück?

Nein, es ist auch heute noch ein Kampf zwischen Menschen um Ressourcen. Wir müssen uns die Frage stellen, was wir aus dem technischen Fortschritt und dem Produktivitätszuwachs machen. Wir sind nah dran, dass fast alle stupiden Arbeiten von Maschinen übernommen werden können. Klar ist, dass viele Jobs wegfallen und durch Technik ersetzt werden, um Kosten zu sparen. Es ist eine politische Frage, wie wir damit umgehen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
Kommentarpause ab 30. Dezember 2024

Wir machen Silvesterpause und schließen ab Montag die Kommentarfunktion für ein paar Tage.
  • Die "Künstliche Intelligenz" ist etwas, das eine umfassende Lösung bzw. Gefahr enthält, die es so nicht geben wird. Extreme Veränderungen sind ohne Zweifel da, wie die Atomkraft.

    Der Film 2001 - Odyssee im Weltraum zeichnet schon das Bild von Nick Bostrom. Nur ging Stanley Kubik einen Schritt weiter: Er (und sein Autor) erforscht wie es mit dem LEBEN weitergeht, wie die Veränderung nach dem TOD mit dem Individuum vollzogen wird. Hier setzt das DENKEN aus. Hier ist eine andere DIMENSION im Spiel, eine Dimension, mit der sich Philosophie und Bewusstseins-Forschung beschäftigen. Bereits in der Antike. Kant und Hegel auch Derrida sehen in der Mathematik nur die Grenze unserer Erkenntnisse. Da kann die KI nichts weiteres erreichen, auch wenn Analog = Welle + Holographie zu den Digital-Algorithmen dazukommen.

    Alle Menschen, sogar Pflanzen und Tiere sind mit einer Bewusstseins-Ebene verbunden, die auf reine Intelligenz verzichtet. Woher sie kommt und wohin sie geht, ob zeitlich oder ewig: Das ist die eigentliche Frage.

    Ich halte die zerstörerischen Kräfte, wie Krieg, Terrorismus und Machtpolitik der Menschen für gefährlicher.

  • Die Maschine ist der Sklave der Neuzeit und gleichzeitig Inbegriff der Versklavung des Menschen an seine Bequemlichkeit und der Angst, sich von Mitmenschen abhängig machen zu müssen. Der Mensch kann aufhören zu lieben, denn das was die Maschine nicht braucht, ist Liebe. Die Maschine ist der berechenbare, gewissenlos austauschbare Partner im autoritären Verhältnis. Nummer 5 wird nie leben.

  • Neue Technik ist weder gut oder schlecht. Maßgeblich ist, für welchen Zweck sie eingesetzt wird und was sie am Ende ersetzt.

     

    Gegenwärtig hat es jeder vor Augen, daß Menschen durch Maschinen ersetzt werden. Doch Maschinen zahlen weder Lohnsteuer noch Sozialabgaben. Diese zahlen die verbleibenden arbeitenden Menschen, deren Nettolohn dadurch ständig niedriger wird. Die Gewinne aus diesem Ungleichgewicht kassieren die Konzerne, und selbst die Steuern, die Konzerne entrichten, sind in den Endpreis der Produkte eingerechnet und werden tatsächlich nur vom Endverbraucher bezahlt.

     

    So besehen tun die im Bericht angesprochenen Computer vor allem eines: Sie ersetzen das verbliebene Restgewissen diverser Manager durch pseudologisch verklärte totale Skrupellosigkeit.

  • Bei den Fragen scheint - mit Verlaub - so eine Art

    Kinderglaube bzgl. KI durch - den der

    Herr Coenen zwar tapfer immer wieder zurückweist -

    Aber schon ärgerlich ist - weil dadurch die gesellschaftlich

    relevanten Fragestellungen aus dem Blick geraten.

    Zum Beispiel die Kriterien und Entscheidungen über die

    Schwerpunktbildung, insbesondere dazu die Verteilung der

    Forschungsmittel.

    Einfach mal bei Heinz von Foerster rumblättern -

    Wie das aus MIT- und seiner Sicht -

    Jahre zuvor - in ->

    Usa- und zwar falsch - pro KI ! - gelaufen ist.

     

    Allein solches führt zur Entdämonisierung und zur

    Realistischen Einschätzung - & ->

    Whats going on - & next - & why?!