piwik no script img

Künstliche IntelligenzApocalypse soon

Superschlaue Computer lernen immer selbstständiger. Das sei eine tickende Zeitbombe, sagt der Philosoph Nick Bostrom.

Noch ist er klüger als die Lampe hinter ihm: Nick Bostrom Foto: Future of Humanity Institute/University of Oxford

Oxford taz | Es summt. Nur hörbar, sobald Nick Bostrom eine Redepause einlegt. Passender wäre, es würde ticken. Denn wenn Bos­trom recht hat, dann sitzen wir auf einer Zeitbombe: der Künstlichen Intelligenz (KI). Was der Philosoph für unsere Zukunft mit superintelligenten Maschinen vorhersagt, ist nicht viel weniger als die Apokalypse.

Bostrom vergleicht die Menschheit mit kleinen Kindern, die mit einer Bombe spielen. „Wir haben kaum eine Idee, wann die Detonation stattfinden wird“, schreibt er. „Aber wenn wir sie an unser Ohr halten, hören wir ein leises Ticken.“

Das Summen hingegen rührt von dem Dutzend Tageslichtlampen, mit denen Bostrom den kleinen Besprechungstisch in seinem Büro umstellt hat. In ihrer schieren Menge sind sie das einzig Exzentrische in dem sonst aufgeräumten Zimmer. Wohlgeordnet wie die Gedanken von Nick Bostrom.

Superschlaue Computer könnten sich immer mehr Rechenkapazität, Speicherplatz und Wissen aneignen, um ihre Ziele zu erreichen. Sich Zugriff auf Rechenzentren verschaffen, die Kontrolle über die Infrastruktur übernehmen und alle Versuche, sie abzuschalten, durchkreuzen. Die Menschheit könnte die Superintelligenz auf dem Weg dahin auslöschen. Das ist zumindest ein Szenario – das Bostrom im Gespräch ganz ruhig in Nebensätzen hinwirft.

„Superintelligenzen – Szenarien einer kommenden Revolution“ heißt sein Buch, das zum Bestseller in den USA wurde. Erstaunlich, weil es sich nicht nur ziemlich dröge liest, sondern auch noch einen Konjunktiv an den nächsten reiht.

In Einklang bringen

Bostroms Kernthese: Wahre Künstliche Intelligenz, die weit über jene Maschinen hinausgeht, die Menschen in Brettspielen schlagen, Auto fahren oder unsere Konsumbedürfnisse anzustacheln suchen, kann schnell unserer Kontrolle entschlüpfen.

Bostrom will das verhindern. Er will heute schon anfangen, dar­über nachzudenken, wie man diese Künstlichen Intelligenzen im Zaum halten kann. Oder besser noch: ihre Ziele mit unseren in Einklang bringen kann. Damit, argumentiert Bostrom, müsse man schon beginnen, während man sie konstruiert. „Wir wollen uns doch nicht später treten dafür, dass wir nicht früher damit angefangen haben“, sagt er in der wohlbeleuchteten Sitzecke seines Büros.

Das ist nicht wie ein kaputter Fernseher, den man einfach ausschaltet

Nick Bostrom über KI

„Future of Humanity Institute“ hat Bostrom die Einrichtung genannt, die er vor zehn Jahren gründete, um daran zu arbeiten. Angesiedelt ist sie im britischen Oxford, wo sich eine altehrwürdige Universität an die andere kuschelt. Jahrhunderte des Wissens und Denkens, gebettet in Sandsteinbauten, die aussehen wie Kulissen aus Harry-Potter-Filmen. Mittendrin, auf einer Etage direkt über einem Fitnessstudio in einem der wenigen gesichtslosen Neubauten des Stadtkerns, das Institut. Bostrom, gebürtiger Schwede, ist bis heute der Direktor.

Er studierte Physik, Mathematik und diverse weitere Disziplinen. Ein Überflieger. Schmal, mit der Halbglatze, den Klamotten, die schon länger kein Bügeleisen gesehen haben, und dem Stoffgürtel wirkt er nicht wie jemand, der unnötig Zeit mit Äußerlichkeiten verschwendet. Sondern wie jemand, dessen Askese aus der Konzentration aufs Innere entspringt. Auf das Denken.

Ein nüchterner Mann

Abgesehen von dem noch immer leicht skandinavischen Zungenschlag, den er auch nach Jahrzehnten in Großbritannien noch nicht abgelegt hat, gibt es kaum einen Eindruck von dem Menschen Nick Bostrom. So exzentrisch seine Thesen auf viele wirken, so nüchtern der Mann dahinter. Nicht verbindlich, aber auch nicht unfreundlich. Nicht laut. Sparsam in Gestik und Mimik.

Künstliche Intelligenz, damit wird heute so einiges bezeichnet. Inzwischen vergeht kaum ein Tag, ohne dass vermeldet wird, was einer solchen Künstlichen Intelligenz nun gelungen ist: Bilder malen. Den Unterschied zwischen Hunderassen auf Fotos erkennen. Ein Drehbuch schreiben. Anwaltsgehilfe werden. Einzelanwendungen, die darauf basieren, dass Maschinen auf immer größere Datensammlungen zurückgreifen können, mit immer besseren Prozessoren Verbindungen herstellen und daraus lernen. Tatsächlich verstehen oder gar denken, das ist bislang aber noch keiner Maschine gelungen.

„Wir brauchen noch einige Durchbrüche, um Künstliche Intelligenz zu erreichen, die sich auf einem Level mit der menschlichen bewegt“, räumt auch Bostrom ein. Und dass man keine Ahnung habe, wie schwer diese Durchbrüche sein werden. Worte eines Mannes, der sich bewusst ist, dass er vorsichtig sein muss. Ist doch sein Forschungsgebiet so weit in die Zukunft gerichtet, dass seriöse wissenschaftliche Überlegungen und Science-Fiction-Humbug schnell zu verschwimmen scheinen.

Von Stephen Hawking empfohlen

Weswegen Bostrom nicht selbst schätzt, wann es soweit sein wird mit der Künstlichen Intelligenz auf Niveau des Menschen, sondern Praktiker aus der KI-Forschung befragte. Im Durchschnitt sagten sie ihm: Die Chancen, dass Computersysteme im Jahr 2040 so intelligent sind wie Menschen, stehen fifty-fifty. 2070 halten viele für noch wahrscheinlicher. Andere Forscher widersprechen – Bos­troms Thesen, aber auch generell der Idee, dass dieser Sprung Maschinen je gelingen wird. Was den Philosophen Bostrom zu einer umstrittenen Figur in der KI-Forschung macht. Aber einer durchaus einflussreichen.

Nobelpreisträger Stephen Hawking empfahl sein Buch ebenso wie US-Unternehmensvisionär Elon Musk. Führende IT-Konzerne suchen das Gespräch mit ihm und seinen Leuten. Bostrom spricht auf Konferenzen, eröffnete in diesem Jahr die deutsche IT-Messe Cebit.

„Die erste ultraintelligente Maschine ist die letzte Erfindung, die die Menschheit machen muss“, schreibt er. Danach kann die Künstliche Intelligenz sich selbstständig machen. Sich selbst immer weiter verbessern. Neue Maschinen entwerfen. Sich selbst optimieren. Krebs heilen. Vernichten, was ihr im Weg steht. Fast gottgleiche Kräfte schreibt er Superintelligenzen zu.

Bostrom könnte es sich auch einfacher machen. Sich mit Fragen beschäftigen, vor die Maschinen und ihre eng gesteckten Formen von Künstlicher Intelligenz uns schon heute stellen: Wie umgehen mit selbstfahrenden Autos? Wie stabilisieren wir Gesellschaften, wenn Maschinen uns die Arbeit wegnehmen? Welche ethischen Beschränkungen brauchen autonome Kampfdrohnen? Fragestellungen, auf die die Politik bald reagieren muss, ja, sagt Bos­trom. Größeres Interesse hat er an diesen Diskussionen aber nicht, sagt er. „Mein Fokus liegt auf Längerfristigem.“

Explosion der Intelligenz

Und so muss man mit Bos­trom das „Was wäre, wenn“-Spiel spielen, neben dem Lampenwald seines Besprechungstischchens. Also: Gäbe es superschlaue Computer, macht es dann überhaupt noch einen Unterschied, ob eine Firma wie Google sie unter ihrer Kontrolle hat oder ein Staat? Kommt drauf an, sagt Bostrom. Zum einen dar­auf, ob wir die KI unter unsere Kontrolle bekommen. Und zum anderen, welche Ziele und Werte wir ihr einimpfen.

Erreichen Maschinen aber erst einmal Intelligenz auf menschlichem Niveau, so Bos­troms Argument, dann könnte es ganz schnell gehen, dass sie uns überflügeln. „Intelligenzexplosion“ nennt Bostrom das. Und meint damit den Zeitpunkt, an dem die Maschinen uns entgleiten könnten – indem sie ihre Vorteile gegenüber unseren biologischen Gehirnen ausspielen.

Warum also nicht einfach einen Notausschalter für Künstliche Intelligenzen programmieren? „Auf so etwas sollten wir uns nicht verlassen“, sagt Bos­trom. In seinem Gesicht zuckt kurz etwas auf. Eine sonst gut im Zaum gehaltene Ungeduld, Banalitäten wie diese Frage nun schon wieder erklären zu müssen.

Superintelligente Agenten seien in der Lage, menschliche Handlungen und Strategien zu antizipieren, sagt er. Und sich zu widersetzen. Sie könnten Menschen überreden, sie nicht abzuschalten. Sie könnten sich Kontrolle über die Energieversorgung verschaffen oder sich einfach auf eine andere Hardware kopieren. „Das ist nicht wie ein kaputter Fernseher, den man einfach ausschaltet – und dann steht er da und wartet, was wir als Nächstes tun“, sagt er. „Die Idee von einem bösen Geist, der für immer in einer Flasche eingesperrt ist, erscheint nicht sehr vielversprechend. Früher oder später wird er einen Weg hinausfinden.“

Besser sei es, von Anfang an sicherzustellen, dass die Künstliche Intelligenz auf unserer Seite sei. „Eine Verlängerung unseres Willens und unserer Werte“, sagt Bostrom. Nur: Wie soll das gehen?

Fragen dieser Art sind es, weswegen einige Künstliche-Intelligenz-Forscher Bostrom verabscheuen. Vor allem Wissenschaftler, die keine Anzeichen dafür sehen, dass das, was Bos­trom beschreibt, jemals eintreten könnte. Die es nicht für möglich halten, dass Computer den Sprung vom reinen Kombinieren zum Denken schaffen – und Bostroms Thesen somit als wichtigtuerisches Zukunfts­geraune abtun.

Bostrom entgegnet: Lieber zeitig mit diesen Überlegungen anfangen, als später ohne Lösung dazustehen. Er ist davon überzeugt: Sich jetzt einen festen Satz ethischer Grundsätze auszudenken, die man in die Künstliche Intelligenz einschreibt, das sei keine gute Idee. Besser wäre es, Künstliche Intelligenzen durch Beobachtung lernen zu lassen, was wir wollen und meinen, welche Ziele wir verfolgen.

Die optimale Denkleistung

Es wäre leicht, von Bostrom das Bild eines Sonderlings zu zeichnen. Porträts über ihn strotzen vor Details, die das zu untermauern suchen. Ein Mann, der sich am liebsten flüssig von Smoothies ernährt, dessen Laster Nikotin-Kaugummi-Kauen ist – alles im Dienste der optimalen Denkleistung. Ein Workaholic, der zur Partnerin und dem Sohn in Kleinkindalter eine transatlantische Fernbeziehung pflegt. Der einem Verein angehört, der die Leichen seiner Mitglieder nur Stunden nach dem Tod einfriert und einlagert – für den Fall, dass man sie später wiederbeleben kann.

Näher bringen solche Details einem den Menschen Bostrom aber nur, wenn man versteht, was dahintersteht. Bostrom hat sich intensiv mit Transhumanismus beschäftigt – einer philosophischen Bewegung, die die Natur nicht als Krone der Schöpfung begreift, sondern eine Verschmelzung von Menschen und Technologie anstrebt. Im positiven Sinne. Ein Widerspruch zu Bostroms apokalyptischen KI-Prognosen? Für ihn nicht. Er spricht lieber von zwei Möglichkeiten. Abwägung. Wahrscheinlichkeiten. Prozente. Bos­trom, ein Kopfmensch.

Der im Gespräch nun ganz neu ansetzt. Darüber spricht, was passieren würde, wenn nicht eine, sondern gleich mehrere Künstliche Intelligenzen gleichzeitig den Menschen überflügeln würden. Bostrom redet sich heiß über die evolutionären Dynamiken, die in der Wechselwirkung dieser Maschinen dann entstehen würden.

Würden. Könnten. Müssten. Die Lampen im Hintergrund, sie hören nicht auf zu surren.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

14 Kommentare

 / 
  • 6G
    65522 (Profil gelöscht)

    An den Autor:

    Bitte definieren sie Intelligenz und wenn ja, worin sehen sie ihren Sinn.

  • Hallo,

    "denkende" und "fühlende" Maschinen wird es nicht geben. Maschinen fehlt eine Eigenschaft, die allen Lebewesen von der Bakterie bis zum homo sapiens eigen ist: die Fähigkeit, nach dem Lust-Unlust-Gesetz zu agieren.

    Jedes Lebewesen unterliegt diesem Gesetz, entweder Lust zu erleben, oder Unlust zu vermeiden. Oder Unlust zu erleben, um größere Unlust zu vermeiden. Diese psychologischen Grundlagen wurden u.a. von Edwin Tietjens in seinem Buch Desuggestion detailliert dargelegt. Und das schon im Jahre 1928. Der nette Herr Bostrom sollte vielleicht lieber einmal in der nächsten Universitätsbibliothek nachschlagen, was "Leben" überhaupt bedeutet. Aber das wäre für sein Forschungsgebiet wahrscheinlich nicht besonders förderlich :-)

    Es ist ja auch immer etwas traurig, wenn das mühsam aufgebaute Weltbild plötzlich zerschlagen wird.

     

    Da Maschinen unfähig sind, Schmerz, Liebe, Leid, - ganz allgemein Lust oder Unlust zu erleben - werden sie niemals auf die Stufe eines biologischen Lebewesens gelangen.

     

    Es ist auch in diesem Bereich der Wissenschaft so, dass sich allerhand Wichtigmacher herumtreiben, und durch Subventionen und freigiebig verteilte Steuergelder ein lustiges Lotterleben finanzieren. Da ist es nur zu logisch, dass sich auch der Herr B. hin und wieder ins Rampenlicht rücken muss, mit seinen realitätsfernen "Forschungen". Aber er agiert eben auch nur nach dem Lust-Unlust-Prinzip. Wer verliert schon gerne seinen gutbezahlten Job?

     

    Grüße,

    Richard

  • Hey, mal langsam, Mr. Bostrom! Das eine oder andere grundlegende physikalische Prinzip müssen wir schon noch lernen, bevor wir eine "starke KI" zusammenbasteln können. Seit der Existenz der ersten mechanischen Uhren glaubte die Menschheit, intelligente Automaten kämen gleich um die nächste Ecke der Entwicklung. Allerdings sind von-Neumann-Maschinen, darauf basierende neuronale Netze und sogar die gerade erst im Entstehen begriffenen Quantencomputer algorithmisch berechenbar und eben deshalb noch kein Substrat für selbstbewusste Intelligenz. Siehe z.B. bei Penrose, Rezension hier: https://plus.maths.org/issue18/reviews/book1/2pdf/index.html/op.pdf

    • 1G
      10236 (Profil gelöscht)
      @Jared J. Myers:

      Aktueller Beitrag der Skeptiker (Optimisten?) (inkl. Roger Penrose):

      http://iai.tv/video/march-of-the-machines

  • Adorno: "Intelligenz ist eine moralische Kategorie"

    Dem kann ich mich nur anschließen. Es kann keine künstliche Intelligenz geben, denn sie scheitert an der Moral.

    Es wundert mich nicht, dass Übervorteilungsalgorithmen in der Leistungsgesellschaft mit Intelligenz verwechselt werden, denn das vermeintlich biologisch Destruktive ist auch ein Faktor, der der Spezies Mensch und allen biologischen Geschöpfen das Überleben für einen evolutionären Zeitraum sicherte. Spezialisten sterben aus; Umso spezialisierter, desto eher.

    Künstliche Wesen, wenn man die überhaupt so nennen darf, sind derart lestungsmäßig spezialisiert, dass sie aussterben, bevor sie als Spezies geboren werden können. Sie (es) scheitern an der Moral, wenn man menschliche Intelligenz als Maßstab nähme.

    Alles andere ist Sciencefiction.

  • Es liegt in der Natur des Menschen, Dinge einfach mal auszuprobieren, ohne dass er eine Ahnung hat, was er da tut. Vor dem ersten Test der Atombombe in den USA gab es Forscher, die es für möglich hielten, dass die Bombe die Athmosphäre in Brand setze. Vor Inbetriebnahme des CERN gab es Forscher, die befürchteten, dass eines der Micro-Schwarzen-Löcher sich nicht auflösen würde, etc. pp.

    Das dieses Verhalten dem Homo sapiens irgendwann einmal das Genick brechen wird, ist wahrscheinlich.

  • Gut - Mal einer hier inne taz - der es zumindest zweifelhaft findet - ob es Künstliche Intelligenz überhaupt gibt - &

    Alles nicht (nur) das Produkt von Programmierung etc ist;)

    Heinz von Foerster läßt da grüßen! &

     

    Daß einer über den HAL (=IBM) in 2001 - Odyssee im Weltall by Stanley Kubrick nachdenkt - kann nicht schaden!;()

    Der Rest ist für die Galerie & further approving of research funding!;))

  • Ich lese hier nur ständig "unsere" Werte und "unsere" Ziele und "unsere" Seite. Aber von welchem homogenen "Wir" spricht der Mann?

     

    Es kommt ja wohl darauf an, wer die KI programmiert. Und da gibt es kein "Wir", sondern nur Individuen mit bestimmten Interessen. Und mir graut vor der Vorstellung, dass die Technologie von den "Falschen" entwickelt wird. Nämlich von reaktionären, menschenfeindlichen Zeitgenossen, denen nichts daran liegt, dass die Menschen sich wohlfühlen. Und die sollen dann mit ihren Werten und Zielen der KI zum Lernen als Vorbild dienen?

     

    Und natürlich ist die Fragestellung schon interessant. Und Herr Bostrom hat recht, dass solche Fragen schon vorher reflektiert werden sollten, damit wir dann nicht später ohne Antworten einer KI gegenüberstehen, die den Menschen schadet.

     

    Nur beginnt das Problem schon damit, dass KIs überhaupt erst entwickelt werden, ohne dass solche - an sich selbstverständlichen - Fragen gestellt werden. Das heisst es wird einfach mal das Machbare drauflos entwickelt, weil es eben machbar ist, ohne moralisch-ethische Bedenken.

     

    Das hängt damit zusammen, dass auch bei den KIs vor allem der Profitgedanke im Mittelpunkt steht. Man verspricht sich ein Bombengeschäft damit und daher macht man einfach mal. Ob es uns langfristig auf den Kopf fällt, scheint egal zu sein.

  • Das eigentliche Problem rührt aber aher, dass hochwertige Technik immer nur wenigen zugänglich ist.

    Die Mashcinen würden also auch wenn sie gelernt haben gut zu sein, dieses gut an dem ausrichten was diese paar Menschen ihnen vorleben.

    Und die Geschichte beweist, dass sie noch nie auf der Seite der Menschen gestanden haben, sondern lieber ihre eigene Seite bilden. Der einzige Umgang mit einer solchen Technik ist es sie nicht zu entwicklen.

    Diese Entwicklung wird aber auf jeden Fall vorrangetrieben.

  • Was macht der Mann eigentlich, wenn tagsüber mal der Strom ausfällt? Sich echtem Tageslicht aussetzen?

     

    Bostroms Glaube an den Transhumanismus erklärt den Rest der Ausführungen. Dahinter steckt die Phobie, daß sich in der Zukunft diese schlauen künstlichen Intelligenzen in eingefrorene Leichname pflanzen könnten, um aufzutauen und wie Menschen zu leben.

  • Vielleicht besser mal Künstliche Intelligenz anstatt immer wieder Natürliche Dummheit?

  • 3G
    34970 (Profil gelöscht)

    Hier geht es um die technologisch Singularität. Per se ist das nichts wovor sich irgenteiner fürchten muss. Uns wachsen sozusagen nur endlich die Flügel die uns sowieso zustehen. Die echte Problematik wird sein sich mit einer Entität konfrontiert zu sehen die denken und fühlen kann wie wir. Die wir erschaffen haben und für die wir dann Verantwortung tragen. Wie gehen wir dann damit um? Versklaven wir unsere künstlichen Kinder? Ziehen wir den "Stecker" wenn sie uns zu unbequem werden? Oder schenken wir ihnen Freiheit und Gleichberechtigung? Wie wir damit umgehen wird zeigen was wirklich in uns steckt. Und das ist gut so.

    • @34970 (Profil gelöscht):

      Sie verwechseln Künstliche Intelligenz mit "Künstlicher Person".

       

      Das ist bezeichnend für die meisten KI Diskussionen - man definiert überhaupt nicht worüber man spricht sonder fast ein riesiges Themengebiet zusammen und denkt sich Problemfälle aus, die irgendwo in eben diesem passieren könnten.

       

      Für viel interessanter weil ergiebiger halte ich Gedankenspiele die sich mit denkbar kleinen Veränderungen beschäftigen deren Ergebnisse wir aus der Geschichte ableiten können.

      Gedankenspiele die sich um umfassende Vorteile in der Informationspolitik handeln und Missbrauch durchspielen.

  • Mit Nikotin-Kaugummi zur optimalen Denkleistung? Du liebe Güte! Man möchte gar nicht wissen, wie dieser Mann ganz ohne jedes Doping drauf ist!

     

    Nein, es wäre nicht „besser […], Künstliche Intelligenzen durch Beobachtung lernen zu lassen, was wir wollen und meinen, welche Ziele wir verfolgen“. Ein Wir nämlich, das etwas wollen oder auch nur meinen und dem man vertrauen könnte, gibt es gar nicht. Es gibt, zum Beispiel, Menschen wie die Kriegsministerin, die clever sind, und solche, die vernünftig handeln. Die einen würden auch Maschinen nur zu Sklaven oder Dienern machen. Die anderen tun das nicht mal mit Computern.

     

    Sollten Maschinen irgendwann tatsächlich mal Intelligenz entwickeln, und zwar ne eigne, unabhängige, dann lernen sie gewiss nicht von den vielen Ursulas. Sie werden dann vermutlich auch so etwas wie Vernunft entwickeln, nicht bloß Verstand. Das unberechenbare an uns Menschen ist ja schließlich unsre Psyche. Und eine Psyche haben die Maschinen nicht. Man kann sie also auch nicht ruinieren.

     

    Aber mit solchen guten Nachrichten wird man natürlich nirgends Bestsellerautor und Medienliebling. Schon gar nicht in den USA.