: Unheimliche Freunde
■ Softwareagenten können den Weltraum ausspionieren - aber auch das Internet: Sie lernen, was Menschen wollen
Sie geistern durch die Köpfe der Computerfans und neuerdings auch durch das Internet. Intelligente Agenten beschäftigen Informatiker in aller Welt. Was heute ein intensiv bearbeitetes Forschungsgebiet ist, begann jedoch als literarische Phantasie. Der tschechische Autor Karel Capek dachte sich bereits 1920 in seinem Drama „R.U.R.“ intelligente Maschinen aus, die er „Robot“ taufte – nach dem tschechischen Wort „Robota“ für Fronarbeit. Capeks Roboter richteten sich gegen die ganze Menschheit, die spätere Unterhaltungsindustrie erfand freundlichere Zeitgenossen: den melancholischen „Marvin“ aus dem „Anhalter durch die Galaxis“, den niedlichen „R2D2“ im Film „Starwars“ oder den besserwisserischen „Data“ in der Star-Trek- Serie.
In letzter Zeit sind jedoch Roboter anderer Art, sogenannte Softbots, in den Vordergrund getreten: keine Blechmännchen oder starr blickenden Humanoiden mehr, sondern Computerprogramme. Das Internet und andere vernetzte Systeme bieten ihnen einen idealen Lebensraum, in dem sie etwa Informationen suchen und auswählen, komplexe Systeme überwachen und steuern und mit anderen Agenten interagieren.
Allen gemeinsam ist, daß sie in einer nicht vorhersehbaren Umgebung operieren, die sie über Sensoren wahrnehmen und durch Aktionen beeinflussen. Sie müssen über mindestens drei Eigenschaften verfügen, die auch für das menschliche Handeln typisch sind: Sie müssen „reaktiv“ sein, das heißt auf Ereignisse in ihrer Umgebung reagieren können; sie müssen außerdem „deliberativ“ sein, um Schlußfolgerungen aus ihren Informationen zu ziehen, und schließlich müssen sie „proaktiv“ selbständig ihre Ziele verfolgen. Diese abstrakte Definition ist der kleinste gemeinsame Nenner aller Agentenforschung. Ein breites Spektrum konkreter, sehr unterschiedlicher Anwendungen wurde zuletzt auf einer Konferenz über autonome Agenten in Los Angeles präsentiert. Das wohl spektakulärste Beispiel ist die Weltraummission „Deep Space One“ des Nasa- „New Millennium Program“, das Mitte nächsten Jahres beginnt. Bisher wurden Weltraummissionen von einer Bodenstation aus kontrolliert. In den Tiefen des Alls wird aber die Zeit des Informationsaustausches zwischen Bodenstation und Sonde zu einem unüberwindbaren Hindernis. Die Sonde muß daher unabhängig agieren, sich selbst überwachen, Fehler diagnostizieren und beheben, neue Pläne ausarbeiten, durchführen und gegebenenfalls revidieren können. Hauptkriterium ist deshalb die Autonomie der Sonde. Sie muß selbständig die begrenzten Ressourcen verwalten und unter Vorgabe von Terminen Manöver planen. Planungsalgorithmen berechnen für ein Ziel unter Vorgabe von möglichen Aktionen eine Sequenz von Aktionen, die das Ziel erreicht. Ein Ziel könnte etwa eine Aufnahme der Saturnringe sein, eine mögliche Aktion die Positionierung der Sonde und der Kamera. Sogenannte Terminierungsalgorithmen berechnen dann zum Beispiel, welche Geräte wann wieviel Energie verbrauchen dürfen.
Von einem Agenten kann man im Fall einer solchen Sonde deshalb sprechen, weil sie in einer nicht vorhersagbaren Umgebung operiert, sich reaktiv verhält und proaktiv ihre Ziele verfolgt. In einer völlig anderen Umgebung arbeiten die persönlichen Internet- Agenten. Im einfachsten Fall handelt es sich um Suchmaschinen, die Webseiten aufgrund von Suchbegriffen finden. Sie können nur feststellen, ob eine eingegebene Zeichenkette auf einer bestimmten Webseite vorkommt. Auch die vieldiskutierten Metasuchmaschinen sind nicht intelligenter: Sie liefern nur eine größere Informationsflut; mehr Intelligenz bieten da schon Webagenten, die Webinhalte nach Interessen der NutzerInnen auswählen. Der bekannteste Webagent ist Firefly, der sich anhand von Angaben über Lieblingskünstler, -filme, -webseiten und einer Liste von Interessen ein Bild von den Vorlieben seiner NutzerInnen macht (die taz berichtete). Das Programm basiert auf der Annahme, daß Leute mit ähnlichen Interessen Inhalte ähnlich bewerten. Firefly ist jedoch nicht in der Lage, aus einem Dokument semantische Informationen zu extrahieren. Genau dieses Ziel verfolgen sogenannte Personal Newspapers wie zum Beispiel Wise Wire von Empirical Media (http://www. Empirical.com). Wise Wire lernt anhand von Bewertungen die Interessen seiner BenutzerInnen kennen. Nach Anmeldung bei diesem Dienst kann man ein Thema auswählen und erhält anschließend eine Sammlung von Artikeln, welche im wesentlichen aus Newsgroups und dem WWW stammen. Diese Artikel werden nach einem einfachen Schema mit fünf Kategorien von „sehr schlecht“ bis „sehr gut“ bewertet. Damit liefert das Progarmm im Lauf der Zeit Artikel zurück, die dem Geschmack der BenutzerInnen immer besser angepaßt sind.
Ein weiterführendes Projekt, betreut von Daniel Weld an der University of Washington, widmet sich der Integration von Wissen durch Softbots. Um eine bestimmte Information aus dem Internet zu erhalten, müssen oft verschiedene Informationsquellen zusammengeführt werden. Möchte man etwa die Kritiken der Filme lesen, in denen Marlon Brando mitspielt und die gerade in Seattle laufen, steht einige Handarbeit bevor. Zunächst muß man in einem Filmverzeichnis alle Filme mit Marlon Brando herausfinden. In Seattles Kinoführer kann man dann erfahren, welche davon gerade laufen. Für die verbleibenden Filme erfragt man schließlich die Filmkritiken. Filmverzeichnis, Kinoführer und Kritiken sind im Internet vorhanden, es geht nun darum, den Wissenserwerb zu automatisieren. Zunächst benötigt man Raffer (Wrapper), die aus den reinen Internet-Textseiten die Informationen extrahieren und aufbereiten. Die Wrapper werden dann von einem Vermittlungsdienst (Mediator) kontaktiert, der die Informationen in der richtigen Reihenfolge einholt und nach Nutzerwunsch zusammensetzt.
Die Technologie ist explosiv. Sind zum Beispiel einmal alle Informationen über Produkte im Internet verfügbar, so lassen sich auf Knopfdruck die Preise samt Wechselkurs, Steuer, Versand und ähnlichem mehr anzeigen. Firmen, die als Anbieter auftreten, wehren sich gegen diesen Wettbewerb, treten sie jedoch als Kunden auf, fordern sie diese Technologie.
Der Boom der Agententechnologie ist nicht nur auf das Internet zurückzuführen. Wie Danny Hillis, Vizepräsident der Walt Disney Co., auf der Konferenz in Los Angeles sagte, ist die künstliche Intelligenz bisher hauptsächlich seitens der Militärs gefördert worden. Das Ende des Kalten Krieges räumte das Feld mehr und mehr der interessierten Unterhaltungsindustrie. So will Barbara Hayes-Roth der Extempo Systems Inc. „den Cyberspace mit intelligenten Charakteren bevölkern“, Sony baut niedliche Roboterhunde, die aufs Wort hören, und Millennium Interactive Ltd. produziert Geschöpfe, die lernen, aufwachsen, gehegt und gepflegt werden wollen.
Ob sich mit Agenten Gewinn machen läßt, ist noch fraglich. General Magic Inc., die agentenbasierte Software versprach, machte Pleite. Bleibt zu hoffen, daß die Agententechnologie nicht lediglich als „agent inside“-Etikett an Staubsaugern, Kühlschränken und Microsoft-Programmen endet.
Peter Fröhlich und Michael
Schroeder (briefe@taz.de)
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen