piwik no script img

„Das Wissen über den Menschen muß in die Köpfe der Ingenieure“

Dr.Gerhard Becker, Leiter des Instituts für Unfallforschung beim TÜV Rheinland, will, daß die Schwachstellen des Menschen in der Technikentwicklung ernstgenommen werden  ■ I N T E R V I E W

taz: Herr Becker, menschliche Fehler gab es schon immer. Wann ist es Ihnen zum ersten Mal menschliches Versagen untergekommen?

Dr.Becker: Interessant wird die Sache in dem Spannungsfeld zwischen Mensch und Technik. Menschliches Versagen stellt sich mit zunehmender Entwicklung der Technik als Problem heraus.

Ist der Mensch wirklich der Verursacher oder einfach nur der schwächste Punkt in der Kette?

Die Unfallbetrachtungen sind in der Regel sehr merkwürdig angelegt. Man ist geneigt, den Menschen neben der Technik zu sehen und das technische Versagen darauf einzugrenzen, daß irgendwo ein Rohr versagt hat oder ein Behälter geplatzt ist. Der Rest wird dem Menschen zugeschrieben. In Wirklichkeit ist die Situation viel komplizierter. Da ist einmal die Technik selbst, dann der Mensch mit seinen individuellen Leistungsmöglichkeiten und da ist - der eigentliche Gegenstand unseres Forschungszweigs - die „Mensch-Maschine-Interaktion“. Es muß eine Vielzahl von Faktoren zusammenkommen, bis aus einem Ereignis ein Unfall wird.

Hat man denn inzwischen eine Erklärung für das menschliche Versagen gefunden?

Wir müssen die Technik an die Leistungsmöglichkeiten des Menschen anpassen. Der Mensch ist ein Wesen, das auf verschiedene Situationen verschieden reagieren kann. Eine Störung wird daraus, wenn die Grenzen zu eng gezogen werden.

Wer muß sich ändern: der Mensch oder die Technik?

Wir müssen sehr viel systematischer als früher beim Design einer immer komplexeren Technik das Wissen über den Menschen einbeziehen. Es ist auch bei komplexen Systemen jetzt schon selbstverständlich, daß Teilkomponenten der Technik entwickelt, getestet und wieder verbessert werden. Nicht üblich ist dagegen, daß man das Zusammenwirken dieser Technik mit dem Menschen systematisch untersucht und Schwachstellen z.B. in der Informationsübermittlung an den Menschen feststellt. Es muß wohl erst zu Katastrophen kommen, damit solche Dinge systematisch untersucht und daraus Konsequenzen gezogen werden.

Ist der Mensch nicht einfach durch die Technik überfordert? Gibt es objektive Grenzen der Belastbarkeit?

Das ist eine sehr ernste Frage. Wir bauen heute eine Technik, die von einzelnen Menschen nicht mehr so ohne weiteres übersehen werden kann. Das ist eine sehr ernste Herausforderung für die weitere Entwicklung der Technik. Wir sehen im Moment noch nicht, daß adäquate Anstrengungen unternommen werden, um das Wissen über den Menschen einzubinden.

Welche außer den technischen Möglichkeiten wären für Sie denkbar, um das Problem zu lösen?

Ich glaube, wir müssen damit leben, daß jede technische Entwicklung, die ja auch von Menschen gemacht wird, bei ihrem praktischen Einsatz Schwächen zeigt. Wir müssen z.B, in der Unfallsforschung darauf achten, sogenannte Beinahe -Unfälle oder critical incidents zu erfassen und auszuwerten. Es hat sich bei fast allen Unfällen und Katastrophen gezeigt, daß es verwandte Unfälle bereits gegeben hat, und wir haben offensichtlich nichts daraus gelernt.

Können Sie sich vorstellen, daß der Mensch irgendwann einmal als „Sicherheitsrisiko“ überhaupt keine Rolle mehr spielt?

Das ist ein Wunschtraum. Das würde bedeuten, den Menschen aus dem System herauszuentwickeln. Jeder Versuch einer solchen Automatisierung stößt an natürliche Grenzen, denn was passiert, wenn die Automatik nicht das tut, was sie tun soll? Kommt dann noch eine Automatik, die diese Automatik überwacht?

Wenn man um diese unausschaltbare, sehr menschliche Fehlbarkeit weiß, ist es da nicht unverantwortlich, eine Technik zu entwickeln, bei der ein kleiner Fehler eine Riesenkatastrophe auslösen kann?

Wir können uns von den technischen Entwicklungen nicht so ohne weiteres wieder entfernen. Unser Lebenstil beruht ja darauf, daß wir die Technik so gebändigt haben, wie es unseren Vorfahren nicht möglich war. Ich glaube allerdings, es ist eine Illusion, daß wir ein Risiko Null erzeugen könnten.

Hat denn das menschliche Versagen Ihrer Beobachtung nach zugenommen?

Wenn man die Presse verfolgt, könnte man diesen Eindruck gewinnen. wir haben aber bei den Unfallursachen keine Verschiebung in den Prozentanteilen gefunden, die dem Menschen zugeschoben werden. Ich glaube, daß mit einer weiteren technischen Verbesserung dieser Prozentanteil gesenkt werden kann, wenn wir intensiv an dieser Schnittstelle Mensch-Maschine weiterarbeiten. Das Wissen über den Menschen muß nur auch in die Köpfe der Ingenieure hinein.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen