piwik no script img

Der konkurrenzlose Mensch

Noch immer hoffen einige Forscher, daß intelligente Computer es mit dem Menschen aufnehmen können. Doch auch mit verbesserter Technik wird es den elektronischen Übermenschen nicht geben  ■ Von Joachim Wrage

Computer und Roboter werden die Menschen bezüglich geistiger Fähigkeiten überflügeln und irgendwann ganz überflüssig machen, so die Behauptung von Hans Moravec von der Universität Pittsburgh im US-Bundesstaat Pennsylvania. Moravec ist ein schillernder Vertreter der Forschungsrichtung Künstliche Intelligenz (KI), allerdings eher ein Außenseiter mit seinen extremen Thesen. Eine gänzlich andere Meinung vertritt dagegen der Institutsleiter der Abteilung KI bei der Gesellschaft für Mathematik und Datenverarbeitung (GMD) – Forschungszentrum Informationstechnologie in Sankt Augustin, Thomas Christaller: „Wir sind Lichtjahre davon entfernt, Roboter zu entwickeln, die auch nur vergleichbar mit dem Menschen sind.“ Selbst die fortschreitende Computertechnik würde nicht ausreichen, um solche Maschinen zu entwickeln. Moderne Roboter hätten zehn bis zwanzig Verhaltensweisen, „die übliche Anzahl heutiger Roboterkontrollprogramme“. Um auch nur annähernd menschlich zu funktionieren, bräuchten die Maschinen aber Tausende oder gar Millionen solcher Programme. Auch effektivere Rechner und Speicher werden das laut Christaller nicht leisten können.

Allein der Name der Forschungsrichtung, „Künstliche Intelligenz“, regt schon die Phantasie an. Bis zu welchem Grad solche Phantasien wahr werden können oder ob die intelligente Maschine nur ein Hirngespinst ist, darüber gehen die Meinungen weit auseinander.

Kennzeichnend für diese Forschungsrichtung ist ein banaler Übersetzungsfehler. Als sich 1956 junge Wissenschaftler in den USA trafen, tauften sie das neue Forschungsgebiet „artificial intelligence“. Das amerikanische „intelligence“ bedeutet übersetzt aber nicht nur Intelligenz, sondern auch Informationen. In dieser Bedeutung taucht es beispielsweise im Namen des amerikanischen Geheimdienstes Central Intelligence Agency (CIA) auf.

Der Doppeldeutigkeit des amerikanischen „intelligence“ folgend, gibt es zwei Richtungen: die harte und die weiche Künstliche Intelligenz. Die Verfechter der harten Künstlichen Intelligenz glauben, es sei möglich, Computer und Roboter zu bauen, die intelligent sind und selbst denken können. Die Anhänger der weichen Künstlichen Intelligenz meinen dagegen, die Maschinen wären lediglich ein Mittel, das Denken zu erforschen, und allenfalls eine Imitation von Intelligenz.

Die Künstliche Intelligenz kann als Teil der Informatik gesehen werden, sie greift aber auch auf Theorien aus Psychologie, Linguistik, Philosophie sowie Teilen der Biologie zurück. Darüber hinaus beteiligt sich Künstliche Intelligenz an Lösungen zu Fragen aus diesen Gebieten. Daher sehen Forscher der Künstlichen Intelligenz die Informatik nur als einen Teil ihrer interdisziplinären Forschungsrichtung.

Die KI zielte zunächst nicht auf eine nutzbare Anwendung. Erst aus einem Grundlagenstreit entstand in den siebziger Jahren die erste konkrete Anwendung: die sogenannten Expertensysteme. Computer sollen menschliche Experten auf ihrem Spezialgebiet ersetzen können. Die Kenntnisse des Menschen werden in logische Aussagen übersetzt und in einem Wissensspeicher abgelegt. Deshalb gehören die Expertensysteme zu den sogenannten wissensbasierten Systemen.

Für Frieder Nake, Professor für Informatik an der Uni Bremen, handelt es sich hierbei um die gleiche Ungenauigkeit des Begriffs wie bei dem Namen Künstliche Intelligenz. „Die sogenannten wissensbasierten Systeme haben eine völlig blödsinnige Bezeichnung. Denn, enthält der Wissensspeicher wirklich Wissen?“ fragt Nake. Um ein Expertensystem zu erstellen, werden zunächst Experten befragt. Also müsse der Experte sein Wissen im wahrsten Sinne des Wortes ausdrücken. Das aber könne nicht perfekt sein, da Expertenwissen immer auch intuitives Wissen sei, erklärt Nake und fügt hinzu: „Das ist, als ob wir von Grund auf erklären müßten, wie man Fahrrad fährt.“ Also jede Muskelbewegung in den Beinen, wie die Lenkbewegungen abgestimmt sein müssen auf das, was die Augen sehen, und schließlich der Gleichgewichtssinn, der ein Umfallen verhindert. Nake sagt, das Wissen werde durch die Befragung der Experten schon so zerlegt, daß es nur noch eine Beschreibung des Wissens sei, aber nicht mehr das eigentliche Wissen. Er meint, der Wissensspeicher eines Expertensystems, der solche Beschreibungen enthält, sollte besser als Datenbank bezeichnet werden. Wissen im Sinne von Weisheit stecke dort nicht drin.

Die Kritik von Frieder Nake zielt darauf ab, daß wissensbasierten Systemen möglicherweise mehr zugetraut wird, als sie wirklich leisten können. Mit Intelligenz haben diese Systeme nichts zu tun, es ist lediglich eine geschickte Art, einen Computer zu programmieren. Nakes Kritik bedeutet nicht, daß Expertensysteme nicht funktionieren. Positives Beispiel ist ein System für die akustische Diagnose von Anlassern in Autos, vor kurzem vorgestellt von Wissenschaftlern des Forschungsinstituts für anwendungsorientierte Wissensverarbeitung in Ulm. Das System soll die Fehler erkennen können, die bislang ein erfahrener Automechaniker aus dem Stottern des Anlassers herausgehört hat.

Bei dem Anlasser-Expertensystem ist es nicht so tragisch, wenn seine Fähigkeiten überschätzt werden. Schlimmstenfalls kann der Fehler nicht behoben werden. Bedenklicher erscheinen medizinische und psychologische Einsätze: Einem Computer eine schwerwiegende Diagnose zu überlassen, würde wohl den wenigsten Patienten gefallen. Hier ist die Trennung zwischen einer reinen Datenbank und einem Computer, der eine Datenbank analysiert und selbständig eine Entscheidung fällt, am kritischsten.

Es ist unproblematisch, solange ein Arzt eine Datenbank wie ein effektives Buch benutzt, in dem aufgelistet ist, welche Therapie wie wirkt. Wenn aber der Computer seine Datenbank selber auswertet und die seiner programmierten Logik zufolge beste Behandlung ausgibt, dann stellen sich ernste Fragen: Wird der Arzt im Zweifelsfall dem Computer widersprechen? Kann ein Computer wirklich über alle relevanten Daten verfügen? Vielleicht ist gerade dieser Patient eine Ausnahme, die ein erfahrener Arzt erkennen würde, aber nicht ein Computerprogramm? Es gibt zwar medizinische Diagnosen, die von Computern erstellt werden, sie werden von Ärzten überprüft, aber die Fragen bleiben die gleichen.

Ein anderes Beispiel ist das Programm ELIZA, das als Sprach-Analyse- Programm konzipiert war. Der US- amerikanische Informatiker Joseph Weizenbaum, der zur Zeit eine Gastprofessur in Bremen hat, brachte sein Computerprogramm Anfang der sechziger Jahre in Umlauf. Es simuliert einen Psychologen, dem ein Patient seine Probleme schildern kann. Sehr erfolgreich täuscht es einen interessierten Gesprächspartner vor, aber diese Eigenschaften beruhen auf einem Taschenspielertrick: ELIZA wiederholt lediglich die Aussagen des Patienten als Frage formuliert.

ELIZA wurde hoch gelobt und gründlich mißverstanden. Einige Psychologen wollten es sogar zu einem kompletten Therapiewerkzeug ausbauen. Obwohl das Programm nicht ein Wort von dem versteht, was es sagt, vertrauten ihm Menschen ihre Probleme an. Eine einschneidende Erkenntnis für Joseph Weizenbaum, der unter anderem deshalb seit langer Zeit vor einer Überschätzung der Fähigkeiten von Computern warnt.

Eine grundsätzliche Anforderung an denkende Computer benennt Katharina Morik, Informatikprofessorin an der Universität Dortmund: „Ein System, das immer den selben Fehler macht, wird nicht als intelligent betrachtet.“ Das bedeutet, KI setzt Lernfähigkeit des Systems voraus. Hiermit beschäftigt sich die Forschungsrichtung Maschinelles Lernen. Als Beispiele nennt Morik besondere Filter für Informationen aus dem Internet. Diese Filter sollen mit der Zeit lernen, welche Informationen den Benutzer interessieren, um dann eine Auswahl treffen zu können, die auf die jeweilige Person abgestimmt ist. „Maschinelles Lernen analysiert Daten und schließt daraus Regeln“, faßt Morik die allgemeinen Prinzipien ihrer Forschungsrichtung zusammen.

Wolfgang Coy, Professor für Informatik an der Humboldt-Universität Berlin, bezeichnet sich als einen „mehr als kritischen Kritiker“ gegenüber der Künstlichen Intelligenz. Er sieht die Zukunft in der zunehmenden Vernetzung von Computern. Damit meint er nicht nur das Internet oder andere Computernetze. Schon heute sind Computerchips in Haushaltsgeräte eingebaut und steuern diese, zum Beispiel bei modernen Waschmaschinen. Wenn die Computerchips miteinander verbunden werden, können die Chips aufeinander abgestimmt arbeiten. Coy: „Die Waschmaschine weiß dann, daß der Kühlschrank leer ist – ich weiß zwar nicht, was sie damit anfangen soll, aber für andere Zusammenhänge mag das sinnvoll sein.“

Wie nah Wolfgang Coy an der Realität ist, zeigt eine Meldung aus Japan. Die Firma Matsushita Refrigeration bringt ab Mai einen Kühlschrank auf den Markt, der Sätze wie „Die Tür ist noch offen“ oder „Vorsicht, nicht zuviel Lebensmittel hineinstopfen“ von sich gibt. Für den deutschen Markt bedarf es nur noch eines „intelligenten“ Übersetzungsprogramms.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen