Computer sind Deppen

■ Experten mißtrauen den Elektronenhirnen: Mangelhafte Software könnte zur „neuen gesellschaftlichen Bedrohung der neunziger Jahre“ werden

Computern haftet der Mythos der Unfehlbarkeit an, irren ist bekanntlich menschlich. Aber auch die modernste elektronische Rechenanlage verhält sich zuweilen wie ihre Erfinder von Fleisch und Blut: Sie irrt sich und macht Fehler. Während früher mangelhafte Leistungen oft auf technische Defekte zurückzuführen waren, gilt die heutige Elektronik als extrem zuverlässig. Weitaus häufiger führen inzwischen Programmierfehler zu unerwünschten Folgen. Das US-Nachrichtenmagazin Newsweek bezeichnet die Probleme und Katastrophen, die in mangelhafter Software begründet sind, sogar als „neue gesellschaftliche Bedrohung der neunziger Jahre“.

Punkt statt Komma kostete eine Milliarde

Wenn Computer arbeiten, folgen sie sklavisch und unerbittlich einer Reihe von Befehlen, dem Programm. Die kleinste, bei komplexen Aufgabenstellungen unvermeidliche Ungenauigkeit des Programmierers kann dabei zu ungeahnten Ergebnissen führen. So jagte beispielsweise eine Venussonde unkontrolliert ins Weltall, nur weil im Steuerungsprogramm in einer einzigen Zeile ein Punkt statt ein Komma stand. Umgekehrt entschwanden zwei Mariner- Sonden ins Universum, weil ein Komma an die Stelle eines Punktes geraten war. Etwa eine Milliarde Mark kostete die USA jede dieser falschen Interpunktionen.

Auch das Bankenwesen hängt bekanntlich an der elektronischen Datenverarbeitung. Die Bank of New York konnte vor wenigen Jahren keine Schuldtitel mehr weiterverkaufen, weil bei der Federal Reserve Bank ein Computerfehler aufgetreten war. Da sie ihren Kunden aber bereits die Gegenwerte für die an diesem Tag angenommenen Schuldentitel gutgeschrieben hatte, kam die Bank innerhalb weniger Stunden in beträchtliche Liquiditätsschwierigkeiten. Um eine Zahlungsunfähigkeit zu vermeiden, mußten die Banker bei der US-Zentralbank einen Sonderkredit von 30 Milliarden Mark aufnehmen und dafür schlappe acht Millionen an Zinsen berappen.

Wegen der engen wirtschaftlichen Verflechtungen können sich EDV-Fehlleistungen in Windeseile verbreiten, wie in Simulationen bereits mehrfach gezeigt wurde. Die California Banker Association teilte mit, Untersuchungen hätten ergeben, daß bei einem Ausfall des Rechenzentrums einer Großbank die kalifornische Wirtschaft nach drei Tagen, die Wirtschaft der USA nach fünf Tagen und die Weltwirtschaft nach sieben Tagen Schaden erleiden würde.

Digitaler Flächenbrand kratzte Firmenimage an

Da Computer untereinander häufig vernetzt werden, kann ein Programmierfehler eine Lawine auslösen. Über Datenleitungen schaukeln sich bestimmte Fehlfunktionen dann regelrecht hoch. Als vor einem Jahr gleich 114 der Telekommunikationsfirma AT&T den Dienst versagten, konnten 65 Millionen Ferngespräche nicht mehr vermittelt werden. Neben einem enormen Imageverlust kostete AT&T dieser „digitale Flächenbrand“ mindestens 100 Millionen Mark. Die Schäden der Kunden des US-amerikanischen Konzerns, u.a. Hotels, Autovermietungen, Reisebüros und Firmen, die Versandgeschäfte per Telefon abwickeln, sind gar nicht abzuschätzen.

Angesichts der riesigen Ausmaße von Computerprogrammen halten Fachleute Softwarefehler für unvermeidlich. Ein Kassen-Scanner im Supermarkt benötigt mit rund 90.000 Befehlszeilen ein Programm, das eng gedruckt ein ganzes Taschenbuch füllen würde. Ein Geldautomat braucht schon fast zehnmal soviel Zeilen und für die US-amerikanische Raumfähre Space Shuttle mußten sogar 25 Millionen geschrieben werden. Bereits der kleinste Tippfehler kann jeweils zum Zusammenbruch des Systems führen. 25 Millionen Befehlszeilen oder 250 prall gefüllte Taschenbücher ohne die kleinste Unkorrektheit sind aber ein Ding der Unmöglichkeit. Auch wenn die Software noch so gewissenhaft geprüft wird, können bei weitem nicht alle Fehler eliminiert werden, weil die Testprogramme in der Regel sogar erheblich länger sind als die ursprünglichen. Informatiker gehen daher bei fertigen und getesteten Programmen immer noch von einer Quote von einem Fehler aus. „Die einzigen Programme ohne Fehler sind die trivialen“, urteilt der Mathematikprofessor Clement Lam.

„Verwirrter“ Rechner löste AKW-Alarm aus

Wenn Computerirrtümer schon nicht vermieden werden können, versucht man wenigstens die Wahrscheinlichkeit ihres Auftretens zu verringern. Dazu werden oft mehrere, voneinander unabhängige Computersysteme eingesetzt, die sich gegenseitig kontrollieren. Einen vollständigen Schutz bietet jedoch auch diese Vorsichtsmaßnahme nicht. Ein gesundes Mißtrauen gegenüber Elektronenhirnen halten daher auch Experten für durchaus angebracht: Fehlerhafte Software verursacht nicht nur immensen wirtschaftlichen Schaden, sie kann sogar Menschenleben gefährden. So wurden 1986 in Texas zwei Krebspatienten regelrecht zu Tode bestrahlt; das Therapiegerät war falsch programmiert.

Zu noch weit unabsehbareren, im wahrsten Sinne des Wortes programmierten Katastrophen kann es führen, wenn bei der Überwachung von Großtechnologien dem Computer zu sehr vertraut wird. Vor einigen Jahren verfälschte ein Kurzschluß etliche Meßdaten im Kontrollsystem eines Atomkraftwerkes in Florida. Der Computer „glaubte“, das Kühlmittel werde zu kalt und beschleunigte die Kernreaktion im Reaktor. Der Reaktorkern wurde überhitzt und von der Automatik abgeschaltet. Der dadurch „verwirrte“ Überwachungsrechner gab die Anweisung, das Entlastungsventil zu öffnen, worauf sich 200.000 Liter radioaktives Wasser in den Reaktorkern entleerten. Nach einigen Minuten bemerkte ein Operateur den Fehler und schloß das Ventil per Hand. Zum Glück hatte er sich nicht an die Vorschrift gehalten, nach der er dem Computer hätte vertrauen müssen.

Auch die Frühwarnsysteme, die einen feindlichen atomaren Angriff entdecken sollen, basieren auf der elektronischen Datenverarbeitung. Fehlalarme, die durch falsche Daten oder Programme oder defekte Chips ausgelöst werden, lassen sich schnell erkennen. Aber im Durchschnitt führen sie ein- bis zweimal im Jahr in den USA dazu, daß die nuklearen Streitkräfte in Alarmbereitschaft versetzt werden. Der letzte Vorfall dieser Art, der öffentlich bekannt wurde, ereignete sich 1980, als eine Überwachungsstation einen massiven sowjetischen Angriff anzeigte. In der anhaltenden Verwirrung wurden die nuklearen Streitkräfte alarmiert. Hätten sich die beiden Supermächte zu dieser Zeit in einer gespannten Krisensituation befunden, wäre der gemeldete Angriff vieleicht eher für echt gehalten und mit einem atomaren Gegenschlag beantwortet worden — weil ein Computerchip nicht richtig funktionierte. Wolfgang Blum