Markt und Mythos der „Künstlichen Intelligenz“

■ Die „Fünfte Generation“ der Computer ist im Anmarsch / Anwendungsbereiche zeichnen sich in Hülle und Fülle ab / Lebens– und Arbeitswelt werden staunen

Von Cyber Punk

Man kennt sie aus der Science–Fiction–Literatur - die sprechenden und fühlenden Supercomputer und Robots, klassisch nachzulesen bei Asimov (“I Robot“) oder Clarke (“2001“), und man kennt sie aus den amerikanischen B–Filmen herrlicher Fernsehabende. Von sprechenden Gartenstühlen und Kücheneinrichtungen, von selbstlosen Alten–Robotern und gefühlsbegabten Denkmaschinen träumen jedoch auch hartgesottene Wissenschaftler wie E.Feigenbaum, seines Zeichens Professor für Computerwissenschaft und Spezialist für „Artificial Intelligence“ (AI) an der Stanford University/USA. Er gilt mit McCarthy, Newell und Simon als einer der Altväter im anspruchsvollsten Bereich der Datenverarbeitung. Die Mär vom „Elektronengehirn“ war nach der bekanntlich militärisch inspirierten Entwiclung der ersten Computer in den vierziger Jahren schnell in die Welt gesetzt. Und sie hält sich hartnäckig, obwohl diese Parallele so schräg ist, als wäre jemand mit der originellen Behauptung an die Weltöffentlichkeit getreten, sein Blasebalg fürs Schlauchboot sei eine 1 a–Gummilunge. Die in den USA der fünfziger Jahre mit fast ausschließlich Pentagon–Geldern begründete Wissenschaft von der „Artificial Intelligence“ beschäftigt sich mit der Erforschung und programmierten Simulation von menschlichen kognitiven Fähigkeiten. Anders gesagt: mit der Entwiclung von Computerprogrammen, die Leistungen vollbringen, für die man Menschen „Intelligenz“ zuschreiben würde. Und weil Menschen zum Rechnen Denkanstrengungen benötigen, zum Schachspielen Kombinationsfähigkeit, zum Sprachverstehen Auffassungsgabe, zum Bilderkennen komplizierte Fähigkeiten der Mustererfassung, unterstellt die AI–Forschung für Menschen messerscharf den Umkehrschluß. Eine neue Wissenschaft war geboren, mit Anleihen bei Wieners Kybernetik und viel Flirt mit der „Futurologie“ der sechziger Jahre. Die deutschen Protagonisten des neuen Megatrends übersetzten flugs ins Deutsche - die „Künstliche Intelligenz“ war geboren obwohl niemand z.B. „CIA“ mit „Zentrale Intelligenz Agentur“ übersetzen würde. Nichtsdestotrotz treffen beide Bezeichnungen den Kern der AI– Grundannahmen, die Verkürzung menschlicher Intelligenz auf bloße Kognition. Trotz wichtiger Entwicklungen im Bereich der Programmiersprachen (Lisp, Prolog), der Schach– und Spielprogramme und ersten Ansätzen funktionierender Expertensysteme konnten die hochfliegenden Versprechungen der fünfziger und sechziger Jahre bis weit in die siebziger Jahre hinein nicht im geringsten eingelöst werden. Der AI–Kritiker Dreyfuß kleidete dieses Dilemma in das nette Bonmot, die AI–Forscher hätten zwar einen Baum bestiegen, rühmten sich aber, bald den Mond zu erreichen. Ungeachtet der akademischen Auseinandersetzungen um die Möglichkeit und Unmöglichkeit maschineller Intelligenz schreitet die AI–Forschung und Entwicklung seit Beginn der achtziger Jahre mit enormem Aufwand und Tempo voran, und es wäre leichtsinnig, dies - wie es der hauptberufliche Computerkritiker Weizenbaum tut - als „Explosion des Quatsches“ abzutun. Der Aufwind der „Artificial Intelligence“ wird ermöglicht durch eine in den siebziger Jahren noch ungeahnte Revolution der Hardwarebasis, vor allem der Chip– Technologie, und forciert durch das 1982 ins Leben gerufene japanische Projekt der „Fifth (Computer) Generation“. Zielsetzung war und ist die schellstmögliche Entwicklung parallel–verarbeitender Computerarchitekturen, logische Programmierung statt konventionell prozeduraler und verstärkte Entwicklung leistungsfähiger Expertensysteme. Die japanische Herausforderung versetzte der Informatik und Politik in den USA und Europa einen regelrechten Schock vergleichbar dem Sputnik–Trauma der sechziger Jahre und provozierte hektische Gegenreaktionen. Die AI–Forschung der achtziger Jahre beginnt, Märkte zu er obern und damit kommerziell und profitabel zu werden. AI wird Business. Nach Schätzungen der US– Firma Digital Equipment soll sich das AI–Marktvolumen von 27 Millionen Dollar auf 3 Milliarden Dollar im Jahre 1990 steigern. Die Zeitschrift Management–Wissen schätzt alleine die US–Umsätze im AI–Bereich auf 220 Millionen Dollar für 1985, 780 Millionen Dollar 1988 und 8,5 Milliarden Dollar im Jahre 1993. In den USA sind laut Diebold– Management–Report mehr als 300 Firmen mit Künstlicher Intelligenz als Hauptaktivität im Geschäft. All diese Zahlen müssen selbstverständlich mit Vorsicht genossen werden. Zum einen sind kaum valide Daten für solche Prognosen verfügbar, zum anderen gehen in diese Volumenschätzungen nur Preisgrößen ein, wobei AI–Hard/ Software äußerst hochpreisig vermarktet werden. Der Umfang tatsächlicher Prototypen und Anwendungen hält sich in engeren Grenzen, als Preisgrößen es erscheinen lassen. Trotzdem kann zu Recht von einer enormen Dynamik auf dem AI–Markt nicht nur in den USA und Japan gesprochen werden. Der europäische KI–Markt präsentiert sich alljährlich auf der European Conference on Artificial Intelligence (ECAI) und entwickelt sich mit einem mehrjährigen time–lag hinter den USA zögerlich, aber stetig. Gregor von Drabich–Waechter, Geschäftsführer der 1985 gegründeten Firma Brainware (Berlin) schätzt das deutsche Marktvolumen auf 251 Millionen Mark und die Anzahl von AI–Gruppen und Abteilungen mit mehr als zwei Vollzeit–Mitarbeitern auf rund 160 im Jahre 1987. Rund 50 bis 60 Firmen beschäftigen sich in der Bundesrepublik geschäftlich mit „Artificial Intelligence“, darunter die Branchengrößen IBM, Siemens, Nixdorf, DEC und Hewlett Packard. Aber auch kleine Firmen sind dabei, spezialisierte Unternehmen wie die Berliner Brainware und Epsilon, Experteam in München, desgleichen große Unternehmensberater wie Roland Berger in München oder die BP–Tochter SCS aus Hamburg. Besonders aktiv sind auch halbstaatliche Institutionen wie die Gesellschaft für Mathematik und Datenverarbeitung (GMD) in St. Augustin bei Bonn. Auch spezielle EG–Programme wie Esprit und Eureka (1,35 Milliarden Dollar) und die BMFT– Verbundprojekte unterstützen mit beträchtlichen Budgets handfeste Forschung und Entwicklung in den AI–Hauptbereichen Mustererkennung, neue Rechnerarchitekturen, Sprachverarbeitung, Vision und Expertensysteme. Computer sollen also sehen, sprechen, hören und Wissen verarbeiten können, das ist der „kühne Wunschtraum“ (Wirtschaftswoche), den sich das BMFT und Mister Hightech Riesenhuber bis 1988 immerhin 200 Millionen Mark kosten lassen werden. Vor allem in Sachen Wissenschaftsverarbeitung werden erste kommerzielle Erfolge und praktikable Anwendungen verzeichnet. Expertensysteme, auch wissensbasierte Systeme genannt, erfassen das Spezialwissen technischer, medizinischer oder anderer menschlicher Experten und simulieren deren Tätigkeit vor allem im Bereich Beratung und Diagnose. Gerade auf dem Gebiet der sogenannten Wissensverarbeitung müssen in absehbarer Zeit mit weitreichenden und einschneidenden Entwicklungen in Richtung Taylorisierung und Maschinisierung von Kopfarbeit gerechnet werden. Diese neue Art von Software erfaßt und simuliert die wesentlichen Fähigkeiten spezialisierter Kopfarbeiter, sie soll Probleme erkennen, Lösungsvorschläge entwickeln und anwenden helfen und darüber hinaus auch in der Lage sein, Ratschläge und Erklärungen zu liefern, Ärzte, KFZ– Techniker, Steuer– und Wirt schaftsberater, auch Börsenfreaks und Sozialarbeiter sollen durch die Methoden des „Knowledge Engineering“ ihr Erfahrungs–, Anwendungs– und Regelwissen preisgeben, um es als Wissensbasis intelligenter Software zu programmieren. Die Berliner Gesellschaft für Neue Berufe (GNB) bildet seit Anfang 1987 in Jahreskursen vor allem Geistes– und Sozialwissenschaftler für den neuen Beruf „Knowledge Engineer“ aus. Die Kosten (18.000 bis 24.000 Mark) werden in den meisten Fällen von der Bundesanstalt für Arbeit getragen. Auch die Fachhochschule Furtwangen will einen eigenen Zweig „Knowledge Engineering“ aufbauen, denn es mangelt vor allem an qualifiziertem Personal, um wissensbasierte Systementwicklung zu betreiben. Nach Schätzungen von Brain ware existieren alleine in der BRD 80 fertige Expertensysteme, 400 sind angeblich im Bau. Peter Mertens, Lehrstuhlinhaber für Informatik und Betriebswirtschaft in Erlangen, registrierte in einer Studie von April 1986 weltweit 275 Expertensystementwicklungen, mittlerweile verzeichnet das amerikanische „CRI–Directory of Expert Systems“ weltweit 600 solcher Systeme. Der tatsächliche Einsatz von Expertensystemen ist aktuell noch weit geringer und dämpft die allgemeine Euphorie etwas. Professor Mertens zählt weltweit 113 eingesetzte Systeme, davon neun im deutschsprachigen Raum. Von 105 japanischen Prototypen sind nach Aussagen des Siemens–Experten für Expertensysteme, Dr. Eibl (München), nur fünf im Praxislauf, bei Siemens selbst von 36 Prototypen nur zwei im Einsatz. Trotzdem darf man sich wegen der noch geringen Anzahl tatsächlicher Anwendungen von „Expert Systems“ nicht über die schwerwiegende Bedeutung dieses AI– Anwendungsgebietes hinwegtäuschen. Es ist bekannt, daß viele Firmen Anwendungen noch zurückhalten oder geheimhalten - wie Z.B. bei der IBM, der laut Wirtschaftswoche alleine in Deutschland an die 100 AI–Projekte nachgesagt werden. Von der Bundesbahn über Deutsche Bank bis Bayer und Texaco rüstet sich das deutsche Business für den verstärkten Einstieg in eine neue Phase der Software– Technologie. Auch bei der Sprachverarbeitung, also Erfassen, Verstehen und Ausgabe natürlicher Sprache, speziell auch Übersetzungen, kann in Bälde mit ersten marktgängigen Produkten und deren Einsatz gerechnet werden, obwohl man hier noch kaum aus den Kinderschuhen herausgewachsen ist. Trotzdem werden leistungsfähige Systeme für den begrenzten Bereich z.B. der Übersetzung von Fachterminologie nicht mehr lange auf sich warten lassen. Nach wie vor scheitern viele Projekte und Illusionen an dem Irrtum, Sprache sei auf Grammatik und Syntax zu reduzieren, wie man bis weit in die siebziger Jahre hinein annahm. Bis auf weiteres bleibt es wohl bei Systemen, die aus dem deutschen Sinnspruch „Der Geist ist willig, aber das Fleisch ist schwach“ das russische Pendant „Der Wodka schmeckt gut, aber das Steak ist zäh“ machen. Auch schnelle Entwicklungen und große Würfe in Sachen Robotics werden noch einige Zeit auf sich warten lassen. Die präsentierten Prototypen bleiben im Mustererkennen, Hindernisse ausweichen etc. noch weit hinter den Erwartungen zurück. „Computer könnten eines Tages einen guten amerikanischen Präsidenten abgeben“ - so zumindest stellt sich der amerikanische AI–Matador Roger Schank die Zukunft vor. Der amerikanische Präsident wiederum dürfte darüber nicht so begeistert sein, hat selbst aber mit AI eine Menge vor. Die Reagan–Administration hat mit ihrem SDI–Projekt beträchtlichen Anteil am AI–Boom der achtziger Jahre. Ohne wissenverarbeitende Systeme, ohne entwickelte Robotic–Technologie ist das Reagansche Weltraumabenteuer technisch nicht machbar. Entsprechend hängt fast die gesamte institutionelle US–Forschung im AI–Bereich an den Dollar–Töpfen des Pentagon (Dapra– Projekt), allen voran das Massachusetts Institute of Technology (MIT), die Stanford und die Carnegie Mellon University. Es wäre jedoch naiv, den kommerziellen und industriellen Anwendungsbedarf und Anwendungsbemühungen mit Fingerzeig auf den militärischen Hintergrund der US–Forschung zu unterschätzen, um nicht in fünf bis zehn Jahren mit großen Augen vor den weitreichenden kulturellen und arbeitsmarktpolitischen Auswirkungen der AI–Technologie zu stehen und zu staunen. Es war zu erwarten.