Wo bleibt die künstliche Intelligenz?

■ Über ein populäres Buch und einen hochwissenschaftlichen Kongreß

Gerd Wagner

Schon lange suchen Informatiker nach Möglichkeiten, ihre Computer nicht nur stupide rechnen zu lassen, sondern ihnen höhere Formen des Denkens beizubringen. Das deutsche Wort für Computer heißt Rechner. Es erinnert an den ursprünglichen Zweck dieser Technik: Es ging um die Konstruktion einer universalen Rechenmaschine. Dabei ist die Arithmetik, das Einmaleins nach Adam Riese, nur eine Form des Rechnens. Eine andere ist zum Beispiel die Textverarbeitung: das Erfassen und Manipulieren von Zeichen. Oder die Datenverwaltung des Einwohnermeldeamts.

Auch im Alltag sprechen wir davon, daß etwas mit Berechnung gemacht wird. Berechnen läßt sich also vieles, und es stellt sich die Frage, was alles berechenbar ist.

Helmut Schmidt zum Beispiel wollte, daß Politik berechenbar sei. Eine solche Aussage ist Wasser auf die Mühlen derjenigen, die es als die Aufgabe der KI-Forschung betrachten, Computerprogramme mit Expertenkompetenzen auszustatten, seien sie nun technisch -naturwissenschaftlicher oder sozialer Art. Es gibt in den USA ernsthafte Bemühungen, Politik-Expertensysteme zu entwickeln, Computerprogramme also, die rationale politische Entscheidungen treffen sollen! Aber ist rationale Politik tatsächlich berechenbar? Sind die Funktionen des menschlichen Verstandes auf Rechenmaschinen übertragbar?

Der durch seine KI-Kritik bekannt gewordene Philosoph Hubert Dreyfus sagt Nein und begründet dies in seinem Buch Künstliche Intelligenz - von den Grenzen der Denkmaschine und dem Wert der Intuition, erschienen in der Rowohlt -Taschenbuchreihe rororo computer. Sein Hauptargument ist die wichtige Rolle der menschlichen Intuition für die praktische Expertenintelligenz. Aber stutzt er damit wirklich die Flügel des KI-Optimismus?

In München versammelte sich im August die europäische KI -Gemeinde zur European Conference on Artificial Intelligence. Die Vorträge und Diskussionen waren eher nüchtern und wenig visionär. In der Öffentlichkeit war dagegen in den letzten Jahren ein phantastisches Bild von den Möglichkeiten künstlicher Intelligenz entstanden. Popularisiert durch Hofstadters Buch Gödel, Escher, Bach und gesponsert durch das Pentagon im Rahmen des SDI -Programms, wurde die KI-Informatik eilig zur Schlüsseltechnologie erkoren. Auch die zukunftsmarkthungrige Industrie ist auf diesen Zug gesprungen und inzwischen wetteifern Europa, Japan und die USA mit einander überbietenden staatlichen Förderungsprogrammen. Der Ostblock hingegen scheint wieder einmal weit abgeschlagen.

In der Bundesrepublik entsteht zur Zeit in Saarbrücken und Kaiserslautern unter Beteiligung einschlägiger Firmen ein neues Forschungszentrum zur künstlichen Intelligenz. Das Thema KI hat sich zu einem Motor für den Wissenschaftsbetrieb entwickelt, von dem sich nicht mehr nur die Informatik antreiben läßt. Auch Linguistik, Psychologie, Philosophie, Medizin und technische Wissenschaften sind mit von der Partie.

Als neue humanwissenschaftliche Disziplin ist im Rahmen der KI-Forschung die „Cognitive Science“ entstanden. Hier hat sich vor allem die University of Sussex in England profiliert. Weitere Etablierungsversuche neuer Wissenschaftsdisziplinen heißen auch unverblümt „Computational Philosophy“ oder „Computational Psychology“. „What is Computation?“

war das Thema einer Diskussionsrunde mit zwei Informatikern, Tarnlund und Siekmann, und zwei Cognitive-Science -Philosophen, Sloman und Clark. Was macht einen Computer aus? Was sind die Kräfte und Ingredienzen von Berechnungsvorgängen? Diese Fragen sind entscheidend für die Perspektive der KI-Forschung.

Der Berechnungsbegriff ist in der wissenschaftlichen Entwicklung geprägt durch das Konzept der Turing-Maschine, einer idealisierten Rechenmaschine, die trotz ihrer sehr einfachen Operationen im Prinzip alles berechnen kann, was sich berechnen läßt. Im Anschluß an die Arbeiten von Turing entstand die Theorie der Berechenbarkeit als Teilgebiet der Mathematischen Logik. Hier wurde der Berechnungsbegriff in einer mathematischen Form von Church präzisiert: Berechnung als Anwendung rekursiver Funktionen.

Tarnlund wies jedoch auf die geringe Bedeutung dieses theoretischen Begriffs für die Informatik und die KI -Forschung hin. Im Zuge neuer Entwicklungen im Bereich der Softwaretechnologie ist die Logik und der Deduktionsbegriff ins Rampenlicht der Informatik gerückt. Hier sieht Tarnlund vielversprechende Ansätze für eine neue und adäquatere Konzeption von Berechnung, nämlich als Deduktion.

Auch Siekmann bricht eine Lanze für die Logik. Nachdem die Nützlichkeit der Logik für die Informatik in der Vergangenheit mehrfach fundamental bezweifelt worden war, hätten sich logische Konzepte doch immer wieder siegreich aus ihrer Asche erhoben. Tatsächlich erlebt die Logik in der Informatik und KI-Forschung gegenwärtig einen enormen Boom. Dabei geht es zum Beispiel um Konzepte der logischen Semantik zur Modellierung von Zeit und von nicht monotonem Schließen aus unvollständigen beziehungsweise unsicheren Informationen.

Während die beiden Informatiker also der zentralen Rolle der Logik das Wort redeten, versuchten die KI-Philosophen den Berechnungsbegriff in die Nähe biologischer Vorgänge, speziell der neuronalen Prozesse des Hirns, zu bringen. Für Sloman gibt es keine scharfe Grenze zwischen Berechnungsvorgängen und anderen Prozessen. Kausale Interaktionen zwischen den Teilen eines Systems sind ihm zufolge grundlegend für Berechnung. So betrachtet er auch die Herausbildung eines Embryos als Berechnungsvorgang. Er fragt: Was ist keine Berechnung?

Ein Hurrikan zum Beispiel ist kein Berechnungsvorgang, sagt sein Kollege Clark. Während nämlich die Teilzustände des Gehirns oder einer konnektionistischen Maschine notwendigerweise als inhaltich bedeutungsvoll interpretierbar sind, ist dies bei den Teilzuständen eines Hurrikans nicht der Fall. Der allgemeine Computer zeichnet sich also dadurch aus, daß er formale Operationen auf interpretierbaren Objekten vollzieht. Diese Operanden sind in gegenwärtigen Computersystemen die klassischen Symbole, nämlich Zahlen, Zeichen eines Alphabets und Worte über einem Alphabet. Das Schisma der KI

Offensichtlich liegt den Kognitionsphilosophen aus Sussex die visionärste Strömung der heutigen KI-Gemeinde sehr am Herzen - der Konnektionismus. Einer seiner prominenteren Vertreter fällt durch den einzigen kontroversen Beitrag in der Diskussion auf: Luc Steels greift das verbreitete Vertrauen in die Möglichkeiten der Logik scharf an. Sein Auftritt dokumentiert die Spaltung der KI-Gemeinde. Siekmann, als der Vertreter des vorherrschenden logikorientierten Lagers, distanziert sich denn auch prompt von ihm. Dabei ist Steels der heimliche Star des Kongresses. Nicht nur, daß sein Sektionsbeitrag ausgezeichnet wird; seine pointierten Auftritte ernten viel Aufmerksamkeit und Sympathie.

Der Konnektionismus beansprucht, Lösungsweg für die fundamentalen Probleme der KI-Informatik zu sein, mit denen sich auch Dreyfus eingehend befaßt. Trotz vieler technologischer Fortschritte war die KI-Forschung wenig erfolgreich bei ihren Versuchen, die Kompetenzen des gesunden Menschenverstandes auf Computern zu realisieren. Für Menschen und Tiere ist es normalerweise kein Problem, die Objekte in ihrer Umgebung zu erkennen, auf die es ihnen ankommt. Mit Videosensoren ausgestattete Maschinen können zwar „sehen“, aber - auch mit heutigen KI-Programmen - nicht viel erkennen. Dazu fehlen ihnen das Alltagswissen und die Fähigkeiten des gesunden Menschenverstands.

Bei bisherigen Versuchen, diese Kompetenzen auf Symbolverarbeitung basierend zu programmieren, blieb immer die Allgemeinheit und Flexibilität der Problemlösung auf der Strecke. Aber gerade die machen Intelligenz aus. Nach wie vor sind daher die prominenten Roboter „HAL“ aus 2001 und „R2“ aus Star Wars Science-fiction-Gebilde. Auch beim Turingschen Test, wo ein Mensch sich über Mikrophon mit seinem Gegenüber in einem Nachbarraum unterhält und erkennen soll, ob es sich bei ihm um einen Computer oder einen menschlichen Gesprächspartner handelt, hätte kein existierender Computer eine Chance, da gerade auch sprachliche Kompetenzen auf gesundem Menschenverstand beruhen.

Symbolverarbeitung ist ein formal-sprachlicher Prozeß. Diskrete Symbole, die reale Gegenstände und Sachverhalte repräsentieren sollen, werden mehr oder weniger kontextfrei nach logischen Regeln manipuliert. Demgegenüber scheint der menschliche Verstand viele seiner Leistungen durch die direkte Verarbeitung der Wahrnehmung mit Hilfe bildhafter Erinnerungen zu vollbringen. Solche intuitiven Prozesse lassen sich im Symbolverarbeitungsmodell der KI-Informatik nicht in der gleichen Form nachbilden. Logikorientierte Ansätze wie die naive Physik benötigen eine diskretisierte symbolische Repräsentation der Welt. Viele kognitive Leistungen vollziehen sich aber nicht in einer kontextfrei -sprachlichen, sondern in einer holistisch-bildhaften Form.

Während sich nun Unverdrossene wie De-Jong, Spezialist für maschinelles Lernen, die Schwierigkeiten bei der symbolischen Formalisierung ihres Gebiets zwar eingestehen, nehmen sie ihre eigenen Zweifel nicht ernst und versuchen, sich und ihre Kollegen mit Statements wie: „Why doesn't AI really work?“ weiter anzufeuern.

Dreyfus dagegen kann in seiner Kritikerrolle aus dem Vollen schöpfen und prophezeien: „Die Zukunft der KI sieht düster aus.“ Die einzige Hoffnung der KI sieht er im konnektionistischen Ansatz. Die konnektionistische Vision

Der Konnektionsismus sieht das Heil in dem Versuch, die Strukturen und Funktionen des Gehirns nachzubilden. So sollen zum Beispiel „neuronale Netze“ Gedächtnisleistungen modellieren oder zur Repräsentation von Wissen herhalten. „Konnektionistische Maschine“ heißt das Konzept einer massiv parallelen, neuen Rechnerarchitektur, die generell eine erhöhte Computerleistung verspricht. Die echten Konnektionisten wollen aber außer einem neuen Computer -Design auch ein neues Programmier-Paradigma. Das Symbolverarbeitungsmodell halten sie nicht für adäquat.

Bildhaftes Wissen ist oft in Karten und Graphiken repräsentiert. Steels spricht von „analogen“ Karten und nennt Berechnungsvorgänge, die solche analoge Karten involvieren, „subsymbolisch“. Ganz ähnlich ist bei Hofstadter von der „subkognitiven“ Basis der Intelligenz die Rede. Sie ist verantwortlich für den Fluß der Erinnerung, für das Erkennen von Mustern und Ähnlichkeiten, für den gesunden Menschenverstand. Also für all jene Phänomene der Intelligenz, die der KI-Forschung die größten Schwierigkeiten bereiten. Beispielhaft dafür ist das bisher ungelöste Problem, in ein Computerprogramm das Wissen zu inkorporieren, das Menschen dazu befähigt, Buchstaben zu erkennen. Nach Hofstadter wird das zentrale Problem der KI durch die Frage „Was ist der Buchstabe K?“ repräsentiert. Denn tatsächlich gibt es noch kein Computerprogramm, das die scheinbar einfache Aufgabe, beliebige Varianten des Buchstabens K zu erkennen, meistert.

Der Konnektionismus setzt nun auf das soziale Phänomen einer produktiven Dynamik der „subkognitiven Basis“, wo es wie in einer Ameisengesellschaft zugeht: Es gibt keinen Supervisor, sondern nur lokale Kommunikation, Struktur entsteht durch Selbstorganisation. Die verschiedenen Aspekte der Intelligenz sollen als makroskopische Phänomene aus diesem mikrologischen Prozeß hervorgehen und nicht explizit programmiert werden. Es ist auch von einer „Society of Mind“ die Rede.

Natürlich stellt sich die Frage, nach welchen berechenbaren Gesetzmäßigkeiten die subkognitive Basis organisiert ist. Steels setzt für seine Konzeption subsymbolischer Berechnung auf die Theorie Dynamischer Systeme in der Physik und der Chemie. Erste Versuche, die Prinzipien von Reaktions -Diffusions-Systemen als Problemlösungsmechanismen einzusetzen, scheinen vielversprechend. Zum Beispiel erprobt Steels seine Methode bei der Lösung des „8-Puzzle“, wo auf einem 3x3-Brett die Zahlen 1 bis 8 willkürlich verteilt sind und nun durch einzelne Verschiebungen der Reihe nach geordnet werden sollen. Dieses künstliche Problem - und erst recht seine Verallgemeinerung auf 4x4 und mehr Felder - ist für die logisch-heuristische KI-Programmierung eine harte Nuß.

Trotz dieses „harten“ Ansatzes bleibt der Konnektionismus aber insgesamt eher vage. Auch Steels vermag es nicht, eine Verallgemeinerungsperspektive für seine Methode aufzuzeigen. Vielmehr bleibt er wie viele KI-Arbeiten in künstlichen Mikrowelten stecken. Und die lassen sich, wie Dreyfus betont, nicht zur realen Welt ausbauen. Zudem scheint der Konnektionismus mit Digitalcomputern nicht realisiserbar zu sein. Seine Bestrebungen, eine neue, biologisch-orientierte Computer-Architektur zu finden, sind futuristisch. Zumal es dem Gros der KI-Informatiker erst einmal näherliegt, die noch lange nicht ausgeschöpften Möglichkeiten der bisher enorm erfolgreichen Digitalcomputer zu erkunden. Die Konjunktur

der Expertensysteme

„Wie zu ihrer Zeit die Alchemie und der Behaviorismus haben auch KI-Projekte trotz ihrer Schwierigkeiten einen guten Ruf.“ (H. Dreyfus)

Seit einigen Jahren ist eine KI-Technologie in der Industrie regelrecht populär geworden: Expertensysteme. Das Ziel beim Einsatz solcher Programme ist die automatische Wissensverarbeitung in - oft technischen - Spezialgebieten, wo Expertenzeit teuer ist und sich daher der enorme Programmieraufwand lohnt. Expertensysteme sollen Hypothesen formulieren und auf ihre Plausibilität hin überprüfen können, sie sollen Diagnosen erstellen, Pläne ausarbeiten, Ratschläge erteilen und Entscheidungshilfen produzieren können. In ihrer natürlichen Allgemeinheit sind dies alles sehr komplexe Vorgänge, zu deren Beherrschung außer gesundem Menschenverstand spezifische Expertenintelligenz notwendig ist.

Kein Wunder, die heute verfügbaren Expertensystem-Programme tun sich schwer damit. Die Erfahrungen bei ihrem Einsatz sind ernüchternd. Dennoch werden sie als vielversprechende Zukunftstechnologie hoch gehandelt. In Anlehnung an den von der industrieorientierten technischen Informatik geprägten Begriff „Software-Ingenieur“ ist nun von „Wissensingenieuren“ die Rede. Als ob es eine Wissenstechnik gäbe, so wie es eine Fahrzeugtechnik gibt! Hier ist der Wunsch der Vater des Begriffs.

Die Wissensverarbeitung in Expertensystemen ist bis jetzt auf wenige, relativ simple Mechanismen beschränkt. Vorherrschend ist der regelbasierte Ansatz. Danach muß alles relevante problemspezifische Wissen in die Form von Wenn -dann-Regeln gebracht werden. Diese Regeln werden dann im Bedarfsfall zusammen mit einer zugrundeliegenden Faktensammlung und Terminologie verarbeitet, um den entsprechenden Output, wie zum Beispiel eine Diagnose oder einen Plan, zu erzeugen.

Abgesehen von technisch-logistischen Aufgabenstellungen erfordert wirkliche Expertenkompetenz jedoch viel mehr. Charakteristisch für die Kompetenzstufe der Expertin ist, wie Dreyfus darlegt, ihre auf großer Erfahrung beruhende unmittelbare Beziehung zu ihrem Fachgebiet, die ihr die intuitive Wahrnehmung von Ähnlichkeiten und eine darauf aufbauende Interpretations- und Schlußfolgerungsfähigkeit ermöglicht. Die dabei ablaufenden kognitiven Prozesse können auch logisches Kalkulieren beinhalten, lassen sich jedoch nicht darauf reduzieren. Insofern entziehen sie sich einer adäquaten Nachbildung in einem Computerprogramm.

Der Versuch, kognitive Expertenkompetenz auf der Basis eines Symbolverarbeitungsmodells zu programmieren, scheint daher wenig Aussichten auf Erfolg zu haben. Eine realistischere Zielsetzung ist wohl die Beschränkung auf Experten-Unterstützungssysteme. Denkbar wäre auch die Entwicklung alternativer „Experten„-Methoden, die zwar ähnliche Ergebnisse liefern würden wie wirkliche Experten, aber eben auf ganz andere, jedenfalls programmierbare Weise. Dies ist im Schach zu beobachten, wo es Computerprogramme zunehmend auch mit Großmeistern aufnehmen können, obwohl sie mit ihren eigenen, maschinengerechten Methoden arbeiten. Allerdings ist das Schach im Gegensatz zu den meisten Problembereichen der wirklichen Welt eine klar definierte, logische Domäne. Und selbst da sieht es so aus, als bliebe die natürliche Intelligenz zumindest der Spitzenspieler dem Symbolverarbeitungscomputer überlegen. Epilog:

Der „Personal-Computer“

des Jahres 2001

Auf einem Designwettewerb von des Herstellers Apple fand in diesem Jahr die Vorstellung des zukünftigen Computers für den Privatgebrauch statt. Er hat die Form eines Notizbuchs. Seine Oberfläche besteht aus einem berührungsempfindlichen LCD-Display. Die Bedienung erfolgt mit Hilfe eines Griffels, mit dem man auch direkt wie auf einem Notizblock schreiben und zeichnen kann. Was man handschriftlich eingegeben hat, kann der Computer erkennen und auf Bedarf in Maschinenschrift ausdrucken. Dazu steht das Gerät in drahtloser Verbindung mit einer Vielzahl von Ausgabegeräten.

Auf der Schreiboberfläche des Computers können mehrere Fernsehschirme frei definiert werden, über die ein simultaner Empfang mehrerer TV-Kanäle möglich ist. Optische Speicherkarten von der Größe einer Eurocheque-Karte fassen große Informationsmengen beliebiger Art, zum Beispiel einen vierstündigen Videofilm oder den Inhalt von 2.000 Büchern. Der portable Notizbuchcomputer dient im Auto als Verkehrsinformationssystem. Er nennt über den Voice -Synthesizer die kürzeste und am besten befahrbaren Wege und schlägt für den Besuch des Restaurants in der Innenstadt einen geeigneten - freien! - Parkplatz vor. Diese Informationen bekommt er über eine ständige Funkverbindung von einem zentralen Datenbankcomputer der Stadtverwaltung.

Der Computer des Jahres 2001 ermöglicht ganz neue Formen der Kommunikation. Wer Lust hat, sich mit jemandem zu treffen oder auch nur zu unterhalten, schickt eine entsprechende Meldung mit Angaben zu seiner Person in den Datenfernübertragungsäther. Ganz unaufdringlich empfangen nun alle anderen Kommunikationswilligen diese Meldung auf ihrer Anzeige oder hören sie über den Vioice-Synthesizer mit. Wer sich angesprochen fühlt, kann sofort reagieren und sich eine halbe Stunde später zum Essen verabreden. Aber auch ganz gezielte Kommunikation ist möglich. Ein Liebesbrief ist innerhalb von Sekunden in seiner handgeschriebenen Form auf dem Display des Geliebten. Wie romantisch!