Der Traum der denkenden Maschine

■ Forschung über Künstliche Intelligenz hat Zukunft - und trägt Verantwortung / Von Klaus Raatz

In dieser Woche konferierten in München 1.000 europäische Forscher über Künstliche Intelligenz. Dieser Forschungsrichtung fällt die Schlüsselrolle bei den Computeranwendungen der 90er Jahre zu. Und tatsächlich kann die KI-Forschung schon jetzt auf eine immer breitere Palette praktischer Anwendungen hinweisen.

Einer der wenigen Zettel am Schwarzen Brett in der Mensa der Technischen Universität München preist einen nicht gerade neuen Mikrocomputer an: „Fast geschenkt könnt ihr meinen Apple II bekommen, und wenn auch nur als intelligenten Türöffner!“ Da ist sie bereits - die angeblich intelligente Maschine. Was im Erdgeschoß der TU-Mensa nur angedeutet wird, füllt im ersten Stock eine kleine Ausstellung. Es werden konkrete Anwendungen künstlicher Intelligenz gezeigt, vor allem „Expertensysteme“, die derzeitigen Vorzeigeprodukte der KI.

Mit Expertensystemen, einer fortgeschrittenen Art von Computerprogrammen, werden Informationen aus einem eng eingegrenzten Gebiet erfaßt und aufbereitet, zum Beispiel Informationen über die Funktionen und möglichen Defekte eines technischen Gerätes. Ein Servicetechniker, versichert ein Expertensystem-Experte, soll damit schneller bei seiner Fehlerdiagnose vorankommen. Man will aber die Entscheidungshoheit jeweils bei denen belassen, die sie auch heute - ohne Expertensysteme - innehaben, betont Thies Wittig, Leiter eines KI-Projektes bei Krupp-Atlas in Bremen. Die künstliche Intelligenz eines Expertensystems soll zumal als neue Anwendung - dem menschlichen Experten zur Seite stehen, ihm zu einem besseren Informationsstand verhelfen, nicht aber ihn ersetzen.

Die insgesamt sehr klein geratene Ausstellung dient eher der Kontaktpflege als dem Verkauf. Die aufwendigeren und spektakulären KI-Produkte sind nicht vertreten. Also keine Roboter in Action, die - mit Fernsehkameras ausgerüstet einfache Bilder „verstehen“ und damit zum Beispiel unterschiedliche Werkstücke sortieren. Außerdem fehlen solche Systeme, die gesprochene Sprache oder einfache Texte aufnehmen und bearbeiten. Eine in natürlicher Sprache steuerbare Waschmaschine, die auf Zuruf gehorcht, könnte hier zum Beispiel stehen.

In den benachbarten Seminargebäuden suchen Referenten und Teilnehmer ihre Tagungsräume. Konferenzsprache ist Englisch, der Jargon überwiegend technisch-mathematisch geprägt. Bis zu fünf Veranstaltungen gleichzeitig laufen im Zwei -Stundentakt, das sind fast 150 Referate allein von Mittwoch morgen bis Freitag mittag. Wem da die Puste ausgeht, hat ja immer noch den Tagungsband, einen 700-Seiten-Wälzer, im Konferenzgepäck. Dabei behandelt die Konferenz nicht nur praktische Themen und Aspekte wie zum Beispiel Industrieanwendungen, Rechnerbau und Programmentwicklung. Viele der „Sessions“ kreisen um elementare theoretisch -abstrakte Fragen. Wie läßt sich der Informationsgehalt einer Nachricht oder eines Ereignisses quantifizieren? Was ist berechenbar? Wie läßt sich Wissen so darstellen, daß es leicht und effektiv von Computern aufbereitet und verarbeitet werden kann?

Die Fragen klingen ungeheuerlich, die Antworten fallen oft banal aus. So hänge der Informationsgehalt einer Nachricht davon ab, wie wahrscheinlich sie sei und wie überraschend für den Empfänger. Journalisten kennen dazu folgendes profane Beispiel: „Hund beißt Mann“ reißt als Schlagzeile niemanden aus dem Sessel - „Mann beißt Hund“ dagegen, das ist eine Nachricht! Doch die Banalität ist trügerisch. Zum einen kommen die versammelten KI-Forscher längst nicht mehr nur aus der Informatik. Es referieren Kognitions- und Kommunikationswissenschaftler ebenso wie Forscher von philosophischen und pädagogischen Instituten. Und wollte man ein gemeinsames Anliegen formulieren, könnte es durchaus so lauten: Information und Kommunikation, Wahrnehmung und Lernen in ihre elementaren Bestandteile zu zerlegen, um dann zu untersuchen, ob und wie bisher den Menschen vorbehaltene, geistige Aktivitäten auch Maschinen übertragen werden können.

Überschreiben wir dieses Projekt (ins Unreine) als den Versuch, quasi die Atome des gesunden Menschenverstandes und des gesellschaftlichen Zusammenlebens zu finden, so hat sich auch 1988 am ehrgeizigen Ziel der KI nichts geändert. Künstliche-Intelligenz-Forschung will zwar nicht künstliche Menschen bauen, aber doch immerhin simuliertes Verstehen konstruieren. Künstliche-Intelligenz-Forscher wollen Maschinen dazu bringen, „Aufgaben auszuführen, die, von einem Menschen ausgeführt, als intelligent angesehen würden“. So formuliert es beispielsweise der KI-Experte Alan Bundy.

Die KI-Forschung hat ihre Hebelpunkte indes neu gesetzt. Der Ansatz liegt nicht mehr in fixer, sturer, vorprogrammierter Computersoftware, sondern in „lernenden Systemen“. Von enormer Bedeutung hierfür: die Arbeiten an sogenannten neuronalen Netzen, einem Hardware-Konzept, das nicht auf einzelne Mikroprozessoren oder isolierte Computer baut, sondern auf viele „elektronische Nervenzellen“, die im Verbund miteinander äußere Sinnesreize aufnehmen und verarbeiten, ebenso aber mechanische oder andere Impulse auslösen können. Neu ist auch der personelle Aufschwung der KI-Forschung. In der Gesellschaft für Informatik (GI), der Berufsorganisation der Informatiker, waren Ende der siebziger Jahre gerade 50 Wissenschaftler in jenen Fachgruppen registriert, die sich der KI verschrieben haben. Heute versammeln sich über 4.000 (von etwa 14.000) GI -Mitgliedern in den mit künstlicher Intelligenz befaßten Unterorganisationen.

Ein enormer Anteil des Engagements der Informatik (und nicht nur der) fließt in die KI-Forschung, der zurecht eine Schlüsselrolle bei den Computeranwendungen der neunziger Jahre zugesprochen wird. Dabei sind nicht nur die immer vielfältiger werdenden praktischen Anwendungen zu beachten, sondern vor allem auch die Impulse aus dem zweiten Anlauf der KI.

Mit dem jetzt gegründeten Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI in Saarbrücken und Kaiserslautern), das im Herbst seine Arbeit aufnehmen soll, ist zudem ein entscheidender forschungspolitischer Schritt getan. Die junge, interdisziplinäre Disziplin kann im nächsten Jahrzehnt zig Millionen, wenn nicht Milliarden an Forschungsgeldern erwarten. Ergebnisse, Produkte und Anwendungen der KI werden uns alle berühren, in noch massiverer Form als Computertechnik von heute: als zivile wie militärische Technik, als Anwendung in der Arbeitswelt ebenso wie in der Ausbildung und der Freizeit. Was wird da noch kommen? Wie wird KI-Technik morgen aussehen? Nicht von morgen, sondern von heute ist die US-Schach-Rangliste, in der auf Platz sieben ein Computer steht.

Die Verantwortung für die sozial verträgliche Gestaltung dieser Entwicklung tragen vor allem jene, die in dieser Woche in München über Projekte des simulierten Verstehens konferierten, die der Großteil der Bevölkerung nicht einmal vom Hörensagen kennt, geschweige denn versteht. Zumindest scheint in dieser Forschungsbranche Gesprächsbereitschaft vorhanden zu sein. Im letzten Jahr widmete die Zeitschrift der Gesellschaft für Informatik ein Heft der „Verantwortung des Informatikers“ bei militärischen Informatikanwendungen. Im Herbst 1988 steht das Thema auf dem Programm der GI -Jahrestagung. Auch bezüglich der Künstlichen-Intelligenz -Forschung kann nicht genug menschliches Gehirnschmalz auf diesen Punkt verwendet werden.