Der Mensch - ein notorischer Versager?

■ Von Bhopal bis Ramstein: Unfehlbare Technik und menschliches Versagen / Von Vera Gaserow

Die Katastrophe von Ramstein lag noch keine 24 Stunden zurück, da wußte das Bundesverteidigungsministerium, wer vermutlich an dem Inferno auf der US-Airbase schuld war: das menschliche Versagen in Form eines Pilotenfehlers. Einen Tag später war derselbe Verantwortliche im österreichen Vorarlberg zur Stelle. In rasender Fahrt geriet der Eilzug 641 von Lindau nach Innsbruck aus den Gleisen, tötete fünf Menschen und verletzte 46. Ursache des Unglücks: menschliches Versagen. Der Mensch ist längst zum Sicherheitsrisiko Nr.1 ernannt und beschäftigt Stäbe von Unfallforschern.

Egal, ob ein französischer Airbus bei einer Flugschau beim Tiefstflug in den Wald rast, ob im Ärmelkanal eine vollbesetzte Fähre untergeht, die US-Army im Golf eine iranische Passagiermaschine vom Himmel schießt, oder ob in Gorleben der Bohrschacht des geplanten Endlagers zusammenkracht: Wo immer auf dieser Welt Katastrophen kaum noch faßbaren Schaden anrichten, ist das menschliche Versagen nicht weit.

Als Unglücksursache rangiert es auf Platz eins. Bei Verkehrsunfällen ist es zu 95 Prozent der Schuldige, in der chemischen Industrie wird es für 80 Prozent der Unfälle verantwortlich gemacht und bei Flugzeugunglücken, so beziffern es die Unfallforscher, soll es zu rund 70 Prozent Pate stehen. Nie zuvor, so muß man den täglichen Meldungen entnehmen, war der Mensch so schusselig, so dämlich, so leichtsinnig und unzuverlässig wie heute.

„Ausfallraten“

Daß Menschen Fehler machen, ist so alt wie Irren menschlich ist. Das „menschliche Versagen“ ist jedoch ein neueres Phänomen, und fast immer hat es einen großen Bruder im Gepäck: die unfehlbare Technik. Nicht zufällig ist deshalb menschliches Versagen fast ausschließlich männliches Versagen. „Der Mensch“, so heißt das in der Sprache der Unfallforscher, „ist zwar angesichts seiner Vielseitigkeit weitaus zuverlässiger als technische Bauteile“, aber er hat „Ausfallraten“. Nach genauesten Berechnungen hat jeder Mensch allein an einem Arbeitstag zwischen 20.000 und 100.000 Gelegenheiten, einen Fehler zu machen. Und an die hundert begeht er dann auch prompt.

Eine kleine Fehlleistung oder Unachtsamkeit, die vor zwanzig, fünzig oder hundert Jahren vielleicht ein Menschenleben oder ein gebrochenes Bein gekostet hätte, kann heute zu einer Katastrophe führen. Je manifester der Mensch sich mit Hilfe der Technik zum Herrscher über die Natur aufspielt, desto häufiger erklärt er sich selbst zum Sicherheitsrisiko.

Tatsächlich läßt sich auch bei den spektakulären Unglücken wie Harrisburg, Tschernobyl oder Bhopal immer nachweisen, daß irgendwo ein Mensch einen Fehler begangen hat. Mal wurde eine Meßanzeige nicht beachtet, mal ein Defekt falsch eingeschätzt, ein Leck übersehen. Aber, so hat der amerikanische Soziologe Charles Perrow belegt, Katastrophen in Zusammenhang mit technischen Anlagen haben fast nie eine einzige Ursache, sondern resultieren aus einem komplizierten Zusammenspiel verschiedener Betriebsabläufe. Bevor z.B. in Harrisburg der Mensch „versagte“, waren innerhalb von 13 Sekunden vier geringfügige Störungen aufgetreten, die - weil sie miteinander in keinem Zusammenhang standen - für die Techniker unverständlich waren und sie zu falschen Schlußfolgerungen verleiteten. Hinzu kam eine Verkettung trivialer Zufälle, wie zum Beispiel der kleine Hinweiszettel eines Reparaturtrupps, der ausgerechnet das Instrument verdeckte, das eine weitere Störung hätte anzeigen müssen. In Bhopal, wo bei einem Chemieunglück mehrere Tausend Menschen getötet wurden, waren angeblich ewig teetrinkende fahrlässige indische Techniker für die Giftkatastrophe verantwortlich. Verdächtig nur, daß wenige Wochen später im Mutterbetrieb des Konzerns Union Carbide mit einer gut ausgebildeten US-Bedienungsmannschaft ein ähnlicher Störfall auftrat. Bei genauerer Untersuchung der Bhophal-Katastrophe stellte sich dann heraus, daß die gesamte Produktionsanlage so verrottet war, daß die Meßinstrumente nicht funktionierten und die Techniker den hochgiftigen Dämpfen auf Knien rutschend und schnüffelnd hätten nachgehen müssen.

„Jeder größere Unfall wird zunächst mit Bedienungsfehlern oder menschlichem Versagen erklärt, und diese Erklärung ist in der Regel falsch“, schlußfolgert der Soziologe Perrow in seinem Buch „Normale Katastrophen“. „Menschliches Versagen ist bei allen Unfällen immer die bequemste Erklärung derjenigen, die auf risikoreiche Systeme einfach nicht verzichten wollen. Bedienungsfehler lassen sich korrigieren, während fehlerhafte Systeme völlig neu konzipiert oder aufgegeben werden müssen. Wir haben uns Konstruktionen ausgedacht, die so kompliziert sind, daß wir nicht mehr alle möglichen Interaktionen der unvermeidbaren Defekte vorhersehen können.“

Was Charles Perrow in seinem Buch als „unvermeidbare Risiken der Großtechnik“ beschreibt, ist inzwischen auch für die Erfinder und Betreiber zu einem drängenden Problem geworden. Ganze Stäbe von Ingenieuren, Sicherheitsexperten und Psychologen, sind daher seit Jahren dem „menschlichen Versagen“ auf der Spur. Das „Sicherheitsrisiko Mensch“ ist längst Gegenstand von Symposien, Werkstattgesprächen und Schriftenreihen, in denen sich so schöne Definitionen finden wie: „Ein menschlicher Fehler ist jenes Element einer Menge menschlicher Handlungen, das eine Akzeptanzgrenze überschreitet“. Dieser „wissenschaftliche Aufwand an Risikoforschung dient in der Regel dazu, brisante Gefahren politisch handhabbar zu machen“, urteilt der Physiker Klaus Traube über die Tätigkeit dieser Katastrophen-Manager. Fast immer sind es wieder technische Kontrollsysteme, mit denen die professionellen Versagensforscher das in den Griff zu bekommen versuchen, was andere Wissenschaftler mit einer immer unüberschaubareren Technik dem Menschen zugemutet haben.

Mehr Technik soll die menschlichen Fehler wegautomatisieren und Fehlerquellen verringern. Aber auch dabei haben die Unfallforscher Grenzen entdeckt. Inzwischen steht fest, daß vollautomatisierte Industrieanlagen, Flugzeuge oder Schiffe nicht die Lösung sein können, weil genau diese Automatisierung ihren Überwacher, den unsicheren Kantonisten Mensch, zu Untätigkeit und Unachtsamkeit verleitet. Anstatt jedoch diese Risikotechnik neu zu überdenken, geht man immer häufiger dazu über, den zur Untätigkeit verdammten Operateuren eine Pseudotätigkeit anzubieten: in sogenannten Simulatoren. Dort sollen die Operateure nicht nur üben, eine vollautomatisierte Industrieanlage im Ernstfall doch wieder „von Hand“ zu fahren. Mit dem Simulator soll dem Bedienungspersonal gleichzeitig das Gefühl gegeben werden, es sei tatsächlich noch zu etwas anderem nutze als auf blinkende Lämpchen zu starren. „Menschliche Handlungen“, so heißt das in der Sprache der Risikoforscher „die auf erlernten Automatismen beruhen, haben die Eigenschaft, daß ihre Leistungsfähigkeit mit der Zeit nachläßt.“ Neben einer vollautomatisierten Anlage solle eigentlich immer ein Simulator stehen, in dem die Operateure zur Übung einmal „richtig“ arbeiten dürfen, fordern einige Unfallforscher.

„Gebt auf!“

Daß menschliches Versagen jemals völlig ausgeschaltet werden könnte, glaubt von den Wissenschaftlern niemand. „Katastrophen senden uns Signale“, schreibt Perrow, und diese Signale heißen entschlüsselt: „Gebt es auf, es übersteigt eure Fähigkeiten; ändert das um, auch wenn es kurzfristig sehr teuer ist.“ Von solchen Signalen will zumindest die Betreiberfirma der Wackersdorfer WAA, die DWK, noch nie etwas gehört haben. Als Bilanz des Erörterungstermins in Neunburg schreibt die DWK in ihrem Pressedienst: „Hinsichtlich menschlichen Versagens ist festzuhalen, daß gerade auch Fehlbedienungen als Ursachen von Störfällen mit berücksichtigt wurden und insoweit durch die technischen Sicherheitsvorkehrungen der Anlage eindeutig beherrschbar sind.“