Künstliche Intelligenz: Mensch, gib mir deine Daten

Die Entwicklung künstlicher Intelligenz ist ein altes Militärprojekt. Nun sprechen Forscher von einer Revolution. Gefahr oder Chance?

Der humanoide Kampfroboter „Atlas“ aus dem Hause Boston Dynamics – aufgekauft von Google. Foto: Boston Dynamics

Mensch: Worin besteht der Sinn des Lebens?

Maschine: Einem höheren Gut zu dienen.

Mensch: Worin besteht der Sinn zu sterben?

Maschine: Ein Leben zu haben.

Mensch: Was ist der Zweck von Intelligenz?

Maschine: Herauszufinden, was das ist.

Mensch: Welchen Zweck haben Gefühle?

Maschine: Das weiß ich nicht.

Diese Unterhaltung entstand während eines Forschungsprojekts von Google, dessen Ergebnis die Entwickler vor einigen Wochen veröffentlichten. Ein von ihnen konstruiertes künstliches neuronales Netzwerk hatte zuvor sein Sprachverständnis auf Basis von Filmuntertiteln erlernt. Danach führte das System Gespräche zu verschiedenen Themen mit den Forschern.

Für Alan Turing wäre mit dieser Konversation womöglich der Beweis für Künstliche Intelligenz (KI) erbracht. Der Mathematiker knackte die Nazi-Chiffriermaschine Enigma und war an der Entwicklung der ersten elektronischen Computer beteiligt. 1936 beschrieb er erstmals formal und praktisch, was ein Algorithmus ist. Alan Turing dachte auch als einer der Ersten darüber nach, ob Maschinen Intelligenz erlangen könnten. Das war 1950, sechs Jahre bevor der Begriff „Künstliche Intelligenz“ bei einer Konferenz in Dartmouth geprägt wurde.

Turing entwickelte einen Test zur Definition maschineller Intelligenz. Wenn bei einer verdeckten Konversation für einen Beobachter nicht unterscheidbar wäre, ob das Gespräch mit einer Maschine oder einem Menschen geführt wird, gelte der Test als bestanden. Für Turing reichte bereits die Imitation von Intelligenz – nicht zuletzt, weil damals wie heute die Frage ungeklärt ist, was Intelligenz überhaupt bedeutet.

Abseits der Frage, wann man von Künstlicher Intelligenz (KI) sprechen kann, zeigen vom Menschen gemachte Systeme bereits erstaunliche Fähigkeiten. Im Juni 2015 etwa führten chinesische Wissenschaftler ein künstliches neuronales Netz vor, das auch bei einem herkömmlichen IQ-Test menschliche Leistungen im Sprachverständnis übertraf.

Die Menschheitsgeschichte revolutionieren

Die Leistungskurve künstlicher neuronaler Netze verleitet selbst zurückhaltende Informatiker dazu, von einer Revolution zu sprechen. Jürgen Schmidhuber zählt nicht zu den zurückhaltenden Wissenschaftlern. Wer mit dem Bayern reden möchte, muss nach Lugano reisen. Oberhalb der Altstadt, in Manno, steht ein hässlicher Klotz: Das Istituto Dalle Molle di Studi sull’Intelligenza Artificiale (IDSIA) wird von Schmidhuber geleitet.

Künstliche neuronale Netze rastern die Welt nach Mustern. Das Bild zeigt die Stufe des „Erkennens“ von Angela Merkel. Foto: privat

Der Mann, der mit seiner Schiebermütze an einen Golfspieler erinnert, erforscht seit fast 30 Jahren die Entwicklung künstlicher neuronaler Netze. Er ist einer der Pioniere. „Jetzt passiert etwas, was die Menschheitsgeschichte revolutionieren wird. All das, was gemeinhin mit Intelligenz assoziiert wird, wird von künstlichen neuronalen Netzwerken und ähnlichen Systemen erledigt werden. Das stellt den Menschen als Krone der Schöpfung infrage.“

Das Forschungsfeld ist in unüberschaubare Untergruppen zersplittert. Schmidhuber geht es um „Artificial General Intelligence“ (AGI). Er möchte also eine echte Künstliche Intelligenz erschaffen, die einmal so klug wie ein Mensch sein soll und: mit steigender Rechenleistung viel intelligenter. Schmidhuber ist überzeugt, dass seine Kinder das noch erleben werden. Diese Prognose geht von einer stetig wachsenden Rechenleistung aus. Gordon Moore entdeckte bereits 1965 eine bis heute gültige Regelmäßigkeit: Etwa alle zwei Jahre verdoppelt sich die Prozessorleistung, die pro Dollar zu bekommen ist.

Ein Smartphone besitzt heute die gleiche Rechenpower wie ein Cray-Supercomputer aus den 1990er Jahren. Das Pentagon erwartet, dass „Computerprozessoren die Rechenleistung des menschlichen Gehirns wahrscheinlich in den 2020er Jahren erreichen werden“. Schmidhuber blickt noch weiter in die Zukunft: „In ein paar Jahrzehnten wird eine einzige relativ billige Maschine über die rohe Rechenkraft der gesamten Menschheit verfügen. Und es wird sehr viele solche Maschinen geben. Und dann hört es immer noch nicht auf.

Eine „Cyborg-Ökonomie“

Die Durchbrüche bei künstlichen neuronalen Netzen basieren auf Arbeiten, die fast 40 Jahre alt sind. Was lange Zeit fehlte, waren Rechenleistung und ausreichend Daten, um die Netze zu trainieren. Das ist nun erreicht, und das macht Forscher wie Schmidhuber zuversichtlich. Andere, wie Stephen Hawking, warnen nun vor den Gefahren solcher Systeme, die immer autonomer werden und immer mehr Bereiche der Gesellschaft durchdringen.

Das Rückgrat ganzer Ökonomien fußt bereits auf ihnen. 30.000 Deals wurden an der New Yorker Stock Exchange 2013 verbucht – pro Sekunde. Über 70 Prozent des US-amerikanischen Börsengeschehens vollzieht sich bereits automatisiert. Der Wissenschaftshistoriker Philip Mirowski spricht von einer „Cyborg-Ökonomie“, einer Wirtschaft, die sich wie ein Thermostat selbst reguliert. Das Hongkonger Unternehmen Deep Knowledge Ventures ernannte eine Künstliche Intelligenz gar zum Aufsichtsrat. „Vital“ heißt das System, „Validating Investment Tool for Advancing Life Sciences“. Es gilt als gleichwertiges Mitglied im Aufsichtsgremium.

Auch im Alltag sind wir von KI-Systemen umzingelt: Keine Suchanfrage bei Google ohne lernende Software, keine Empfehlungen bei Amazon ohne adaptive Systeme, kein Newsfeed bei Facebook ohne eine Form von KI. Bei künstlichen neuronalen Netzen handelt es sich um informationsverarbeitende Systeme, die bereits ohne Vorgaben eines Programmierers aus Rohdaten konkrete Informationen und Schlussfolgerungen ziehen. Es gibt Systeme, die aus tausenden medizinischen Studien inhaltliche Bezüge ableiten, die Texte und semantische Zusammenhänge zunehmend „verstehen“.

Das Prinzip des Lernens imitieren

Bei den besonders eigenständigen Systemen wurde ein verhaltenbiologisches Belohnungsprinzip eingebaut, das Lernen honoriert. Durch Versuch und Irrtum versuchen diese Systeme stets ihre Belohnung zu maximieren. Nebenbei lösen sie so Probleme. Es handelt sich um Systeme, die das Prinzip des Lernens als solches imitieren. Sie bauen aus vorher gelernten Fähigkeiten Erfahrungen auf, die als Grundlage zur Weiterentwicklung neuer Fähigkeiten dienen. Das macht ihre prinzipielle Universalität aus. Intelligenz meint hier die Fähigkeit, nahezu alle definierbaren Probleme lösen zu können. Der “universelle Problemlöser“ ist seit jeher ein Ziel der KI-Forschung.

In der Neuroinformatik beschreiben Neuronen eine mathematische Funktion. Ein solches Neuron besitzt jeweils eine Eingabefunktion (Input), eine Aktivierungsfunktion und eine Ausgabefunktion (Output). Input-Neuronen werden durch Sensoren aktiviert, die das System mit der Umwelt verbinden. Diese Aktivierung geben die Neuronen an die mit ihnen vernetzten Neuronen weiter, die dann ihrerseits aktiviert werden.

Auf diese Weise werden Informationen über das gesamte Netz codiert. In diesem Zustand hat das Netz einen spezifischen Aktivierungszustand erreicht, der als „Gewichtung“ bezeichnet wird und konkreten Informationen entspricht. Akustische Signale, Abbildungen oder Buchstaben drücken sich in neuronalen Netzen als eine spezifische Aktivierung sehr vieler verschiedener Neuronen aus.

Für einen solchen Vorgang wurde der Begriff “Deep Learning“, Tiefenlernen, geprägt, weil neuronale Netze aus mehreren Lagen von Neuronenschichten zu Milliarden Vernetzungen gekoppelt sind. Sie können extrem komplexe Funktionen aus Rohdaten errechnen und lernen. Je leistungsfähiger die Netze werden, desto anspruchsvoller wird die mathematische Funktion, desto genauer „versteht“ das System etwa sprachliche Zusammenhänge. So können etwa Filmuntertitel als Datenbasis dienen, um Zusammenhänge zwischen einzelnen Wörtern zu entziffern und zu reproduzieren: Maschinen lernen sprechen.

Den Schlüsselaspekt von Deep Learning erklärt Schmidhuber so: „Ich muss dieses System mit seinen vielen Millionen ‚Gewichten‘ nicht mehr explizit programmieren, dass es das Muster erkennt. Ich muss am Anfang nur ein paar Zeilen hinschreiben, nämlich den Lernalgorithmus, der dazu führt, dass aus den ganzen Trainingsbeispielen diese ‚Gewichte‘ extrahiert werden, die dazu führen, dass das System gut erkennt.“

„Big Data“ und Muster lesen

Ein Kollege Schmidbauers ergänzt diese Beschreibung. Bernhard Schölkopf arbeitet als Gründungsdirektor am Max-Planck-Institut für Intelligente Systeme in Tübingen. Er sagt: „Es geht darum, auf der Basis von empirischen Beobachtungen auf darunter liegende Gesetzmäßigkeiten zu schließen. Das ist dann nötig, wenn es Gesetzmäßigkeiten in der Welt gibt, die zu kompliziert sind, als dass man sie explizit modellieren könnte. Also versucht man mit Lernalgorithmen automatisch mathematische Beschreibungen dieser Gesetzmäßigkeiten zu extrahieren.“

Die neuronalen Netze erkennen so Muster. Aus großen Datenmengen – „Big Data“, etwa den Pixelinformationen von Millionen Fotos oder Videos. Auch Sprachsignale sind Daten, die von neuronalen Netzen als Muster gelesen werden können.

Die Menge an Daten wächst noch schneller als die Rechenleistung. Zunehmend sind es Daten von Menschen. Denn so, wie unser Körper bei jeder Bewegung Luft verdrängt, erzeugen wir heute ständig Daten, die berechenbar geworden sind. Dank Smartphone, „sozialer“ Medien und digitaler Vernetzung. So wird es möglich, soziale Phänomene und Gesetzmäßigkeiten wie in der experimentellen Physik zu erkunden.

Mit den massenhaften Auswertungen von Tweets und Mitteilungen bei Facebook lassen sich Revolutionen erkennen, bevor sie entstehen, ebenso die Ausbreitung von Krankheiten oder die Entstehung bestimmter Krebsarten. Die Polizei nutzt weltweit Prognosesoftware, um Verbrechen vorherzusagen.

Militärtechnologie sickert in die Gesellschaft

Bei aller Faszination für die Chancen, die Künstliche Intelligenz ermöglichen: Ihre Ursprünge gehen auf das Militär zurück. Auf den gleichen kybernetischen Prinzipien, auf denen der Mathematiker Norbert Wiener die Prognose der Flugbahnen von Jagdfliegern entwickelt hatte, fußt später die Flugraumüberwachung oder die Raketenabwehr mit KI-Systemen. Und nach denselben Prinzipien und vergleichbarer Technologie werden heute Menschen durch die Analyse von Massendaten überwacht, ihr Verhalten prognostiziert. Der US-amerikanische Rüstungskonzern Lockheed bietet dieselbe KI-Technologie zur Raketenabwehr und zur Diagnose von Blutvergiftung an.

Eine Technologie, die vom Militär entwickelt worden war, sickerte mit zunehmender Leistungsfähigkeit und Verbreitung des Computers in die Zivilgesellschaft. Es verwundert daher nicht, dass wir es gegenwärtig mit einer globalen Überwachung durch Regierungen und Konzernen gleichermaßen zu tun haben.

Milliardenschwere Forschungsprogramme des Pentagons waren, wie bei der Entwicklung des Computers, für die Entstehung der KI maßgeblich. Die Erfindung und die Konstruktion des Internets finanzierte und koordinierte die Defense Advanced Research Projects Agency, kurz: Darpa. Die Forschungsbehörde des Pentagons war 1958 als Schockreaktion auf den ersten Satelliten gegründet worden, den die UdSSR ins All schoss. Nie wieder sollten die USA derart überrascht werden.

Unter US-Präsident Ronald Reagan verdoppelte sich der Rüstungsetat. 1983 setzte Darpa ein Programm auf, um eine „künstliche Superintelligenz“ für das US-Militär zu entwickeln, die als informationelle Basis das Internet hatte: „Strategic Computing Initiative“ (SCI) hieß es. Federführend war Robert Kahn, der Mann, der auch die technischen Grundlagen des Internets entworfen hatte. Aus der SCI entwickelten sich später Programme, die den USA in den 1990er Jahren die Vormachtstellung bei Superrechnern sicherten.

Die NSA würde in Daten ertrinken

Nach dem 11. September 2001 entwickelte Darpa auf KI basierende Überwachungstechnologien, deren Einsatz Edward Snowden enthüllte. Die globale Überwachung durch Geheimdienste wie die NSA wäre ohne Künstliche Intelligenz nicht möglich. Die NSA würde in den Daten ertrinken.

Mit dieser militärischen Forschung eng verknüpft ist der Aufstieg von Google. Die Erschaffung von Künstlicher Intelligenz war der Grund, warum Larry Page und Sergey Brin überhaupt eine Suchmaschine entwickelten. Mit einem solchen System ließe sich irgendwann eine echte Künstliche Intelligenz erreichen, glauben sie. Google dürfte mittlerweile der größte KI-Konzern sein. Kürzlich heuerten sie Geoffrey Hinton an, der mit viel Eigenwerbung als „Pate“ künstlicher neronaler Netze bezeichnet wird. Google schluckte 2014 für 400 Millionen Pfund auch das KI-Unternehmen Deep Mind. Zwei der vier Gründer von Deep Mind waren Schmidhubers Studenten.

Die Central Intelligence Agency (CIA) unterstützte 1998 Sergey Brins Forschungsarbeit zum Bau einer Suchmaschine an der Stanford University auch finanziell. Man ließ sich von Brin regelmäßig über die Fortschritte informieren. Über ein Dutzend Robotikfirmen schluckte Google in den vergangenen Jahren – ein Teilbereich der Künstlichen-Intelligenz-Forschung. Darunter exklusive Vertragspartner der U.S. Army wie Boston Dynamics, deren humanoide Militärroboter sich mittlerweile problemlos auf zwei Beinen durch unwegsames Unterholz kämpfen.

Ein Produkt aus Googles Portfolio nennt sich „NIC“. Das steht für „Neuronal Image Caption Generator“, ein künstliches neuronales Netz, das Bilderkennung mit Spracherkennung kombiniert. Das Netz ist in der Lage, auf einem Bild die einzelnen Objekte zu erkennen und sprachlich zu beschreiben. Bei einem der Bilder entstanden folgende Beschreibungen: „Eine Gruppe junger Menschen spielt Frisbee.“ Oder: „Eine Herde Elefanten trottet über ein trockenes Grasfeld.“ Dieses System identifiziert nicht nur einzelne Objekte, es ist in der Lage, sie in Beziehung zu setzen und Aktionen zu erkennen.

Ähnliche Ergebnisse erzielte das System des Stanford Artificial Intelligence Lab. Es ist in der Lage, Bilder mit Sätzen per Sprachausgabe zu beschreiben. Die Forscher vergleichen die Fähigkeiten des Systems mit denen eines dreijährigen Kindes.

Die KI macht Konversation mit Kindern

Echte Kinder wiederum arbeiten daran mit, solche Systeme zu testen und zu optimieren. Die Firma ToyTalk etwa bietet künstliche „Freunde“ zum App-Download an. „Charaktere für echte Konversation“ warten auf anregende Unterhaltung mit Kindern zwischen 6 und 8 Jahren. Es gibt inzwischen eine ganze Reihe solcher künstlicher Freunde.

Zum Umgang mit den Daten steht in den Geschäftsbeziehungen, dass diese aufgezeichnet werden, auch akustisch. Sie werden teilweise transkribiert und ausgewertet. Die Firma Elemental Path bietet „CogniToys“ an. Zur Produktpalette gehört ein Plüschdino, mit dem sich Kinder unterhalten können. Das Gerät ist an die Cloud des KI-Systems IBM-Watson gekoppelt. Der Konzern investierte eine Milliarde Dollar und baute sein KI-System zu einer eigenen Sparte aus.

Google-Forscher Geoffrey Hinton spricht im Zusammenhang von künstlichen neuronalen Netzen inzwischen gar von „Gedanken“, die solche Systeme entwickelten. Hinton sagte, ihm sei klar, dass diese Beschreibung kontrovers klinge. Doch er glaube, es sei möglich, “Gedanken als Vektoren abzubilden“. Vektoren sind Zahlenketten.

Für Hintons Kollegen vom Max-Planck-Institut, Bernhard Schölkopf, klingt die Definition des „Gedanken-Vektors“ plausibel. „Jede neuronale Schicht hängt von einer Schicht davor ab, durch die Informationen hereinkommen. Man kann also sagen, jede Schicht ist eine Repräsentation dessen, was gerade bearbeitet wird. Nur, dass die Repräsentation zunehmend vom Input der Sensordaten entfernt ist. Die vorletzte Schicht lässt sich durchaus als ein ‚Gedanken-Vektor‘ – also eine Zahlenkette – beschreiben, weil dieser alle vorhergehenden Verarbeitungen repräsentiert.“ Die letzte Schicht besteht aus Ausgabe-Neuronen, die dann etwa ein Objekt identifizieren: „Das ist ein Elefant.“

KI soll Gefühle erkennen

Für Geoffrey Hinton ist dies der Schlüssel, mit dem die Systeme natürliche Sprachen und logisches Denken erlernen können. Mit den „Gedanken-Vektoren“ lassen sich Wörter als komplexe Zahlenketten repräsentieren, die sie innerhalb eines sprachlichen „Bedeutungsraums“ einnehmen: „Wenn Sie den Vektor für Paris nehmen und den Vektor für Frankreich abziehen und jenen von Italien hinzufügen, erhalten sie Rom“, erklärt Hinton.

Künstliche Intelligenz soll aber auch lernen, Gefühle zu erkennen. „Affective Computing“, nennt sich der Bereich, der nach Mustern sucht, die sich als Emotionen decodieren lassen. Bei einem Ansatz geht es darum, mit Gesichtserkennungssoftware Gefühle visuell zu detektieren. Das in den späten 1970er Jahren entwickelte „Facial Action Coding System“ (FACS) fußt auf einem 500 Seiten starken Gefühlsatlas von Gesichtsausdrücken. Informatiker in der Computeranimation verwenden dies heute ebenso wie die Polizei.

Ein anderes Verfahren untersucht die Verwendung bestimmter Wörter und deren Beziehung zueinander, aber auch die Art, wie wir Menschen sprechen: Pausen, Rhythmen, Intonation, Lautstärken. Auf Grundlage psychologischer und linguistischer Modelle klassifizieren künstliche neuronale Netze Emotionen. Die deutsche Firma Psyware etwa hat eine KI-Software entwickelt, die anhand der Stimmmuster von Menschen Persönlichkeitsprofile errechnet.

Die Ergebnisse seien objektiver als jene, die Psychologen lieferten. „Denn wie wir sprechen, das können wir kaum bewusst steuern, sobald wir länger als ein paar Minuten reden“, sagte einer der Entwickler in einem Interview. Das Ziel sei „kein geringeres, als Maschinen dieses Wissen einzupflanzen. Sie sollen verstehen lernen, wie der Mensch funktioniert.“

Der größte und letzte Moment der Geschichte

Im vergangenen Jahr warnte der Physiker Stephen Hawking in einem offenen Brief davor, die Risiken, die von Künstlicher Intelligenz ausgehen, zu unterschätzen. Das wäre „der größte Fehler in der Geschichte“. Alles, was Menschen hervorgebracht hätten, sei ein Produkt des Intellekts. Daher wäre auch die Entwicklung einer Künstlichen Intelligenz „der größte Moment in der Geschichte der Menschheit“, womöglich jedoch „der letzte“.

Eine KI wäre uns – dank Gordon Moores Gesetz – bald weit überlegen. Vor Kurzem veröffentlichte Hawking erneut eine Warnung, die sich auf den militärischen Einsatz Künstlicher Intelligenz bezieht. Hunderte von Wissenschaftlern schlossen sich dem Appell an, den schließlich 16.000 unterzeichneten. Darin wurde KI als „dritte Revolution der Kriegsführung“ nach Schwarzpulver und Nuklearwaffen bezeichnet.

Entstünde eine Superintelligenz, schrieben Stephen Hawking und seine Kollegen, könnte „sie Finanzmärkte überlisten, ebenso Forscher, sie würde menschliche Führungspersönlichkeiten manipulieren und Waffen entwickeln, die wir nicht mehr verstehen können“. Eine Maschine mit den kognitiven Fähigkeiten eines Menschen würde anfangen, sich selbst zu optimieren, immer wieder und immer schneller – eine „Intelligenzexplosion“ wäre die Folge.

Davor warnte der Mathematiker Irving John Good schon 1965, er war Chefstatistiker der Gruppe um Alan Turing, die im Zweiten Weltkrieg Enigma knackte: „Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch je machen muss, vorausgesetzt, die Maschine ist fügsam genug, um uns zu sagen, wie man sie unter Kontrolle hält.“

Kai Schlieter leitet das Ressort Reportage und Recherche der taz. Sein Buch „Die Herrschaftsformel: Wie Künstliche Intelligenz uns berechnet, steuert und unser Leben verändert“ erscheint am 25. September 2015 im Westend Verlag

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.