Warum Fehler gut sind: Aus A folgt, dass A falsch war

Fehler sind kein Grund, übereinander herzufallen, sondern Anlässe, Dinge besser zu machen, sagt Harald Welzer.

Der Niederländer Erik Kessels ist leidenschaftlicher Sammler von Amateurfotos. Er liebt Fehler Bild: Erik Kessels („Failed It!“)

Von HARALD WELZER

Kurt Tucholsky hat gesagt, dass man nicht über seine Fehler fällt, sondern über seine Feinde, die diese Fehler ausnutzen. Klar, denn zum Fehler wird ein Fehler erst, wenn er entdeckt wird und sich nachteilig auf den zurückwirkt, der ihn begangen hat. Oder auf jemand, auf den man den Fehler abwälzen kann. Fehler sind überdies erst dann Fehler, wenn sie Folgen haben, wenn also der Testlauf in Tschernobyl nicht einfach nur schiefläuft, was niemanden interessiert hätte, sondern zur größten Atomkatastrophe der Geschichte führt. Ein Fehler ist ein sozialer Sachverhalt: Hat er Folgen, braucht es jemanden, der ihn gemacht hat, jemand anderen, der ihn erkennt und sich tucholskymäßig zunutze macht, jemanden, den man beschuldigen kann, und wiederum andere, die ihn beseitigen (falls möglich).

Erstaunlicherweise scheint der Fehler wissenschaftlich nicht interessant, obwohl er seit Adams Biss in den Apfel oder meinetwegen auch erst seit dem Hereinziehen eines Holzpferds voller griechischer Soldaten in die Stadt Troja die Menschheitsgeschichte durchaus prägt. Lediglich Sigmund Freud hat ihm mit der Psychopathologie des Alltagslebens Beachtung geschenkt, eine ausgesprochen witzige übrigens. Dabei sind Fehler nicht nur dann Erkenntnismittel, wenn der Brautvater in seiner Ansprache „Schweinesohn“ statt „Schwiegersohn“ sagt, sondern sie können auch systematische Fehlentwicklungen anzeigen – wenn konstruktive Mängel durch Software kaschiert werden sollen, wie bei der Boeing 737 MAX oder beim Dieselskandal oder – wie im Fall Wirecard – auf schon lange laufende kriminelle Vorgänge hinweisen. Aber ist es nicht gerade dann, wenn die Handlungs- und Abhängigkeitsketten immer länger und intransparenter werden, extrem wichtig, Fehler ganz anders zu betrachten als gewöhnlich: nämlich nicht als zu vermeidende und zu kaschierende, höchst unangenehme Sachverhalte, sondern als Hinweise darauf, was systemisch falsch läuft, also desto gravierender wirkt, je länger es unkorrigiert bleibt?

Routine als Problem

Die Organisationspsychologen Karl Weick und Kathleen Sutcliffe haben schon vor längerer Zeit ein Buch mit dem schönen Titel Managing the Unexpected geschrieben. Dafür haben sie sogenannte High-Reliability-Organisationen analysiert – Institutionen, bei denen das Auftreten von Fehlern nicht einfach nur unangenehme, sondern katastrophale Folgen haben kann. Beispiele dafür sind Atomkraftwerke, Flugzeugträger, Feuerwehren, Krisenteams, die bei Geiselnahmen eingesetzt werden, Katastrophenschutz et cetera. Die Arbeit in solchen Organisationen zielt vor allem darauf ab, dass bestimmte Ereignisse nicht eintreten – weshalb vieles, was in anderen Organisationen als wertvoll gilt, hier problematisch ist: Jede Form von Routine etwa ist ein Problem, weil sie die Sensibilität in Bezug auf sich ankündigende Probleme unterminiert. Erfahrung ist kontraproduktiv, weil sie dazu führt, dass man ein Ereignis vorzeitig für etwas hält, was schon einmal vorgekommen ist und was man daher wie üblich betrachtet und behandelt – ein häufig tödlicher Fehler. Erfahrung kann zur Falle werden, wenn etwas so aussieht wie ein Ereignis, das man kennt, in Wahrheit aber etwas ganz anderes ist – das Challenger-Unglück ist auf diese Weise ebenso entstanden wie der Super-GAU von Tschernobyl.

Auch Pläne sind nach Daten und Abläufen entwickelt, die man schon kennt, und deshalb haben sie oft die verhängnisvolle Wirkung, haargenau an den Anforderungen und Aufgaben vorbeizuführen, die man eigentlich anzugehen hätte, um ein neues oder gar unerwartetes Problem zu bewältigen. Nach einem gruseligen Beispiel dafür muss man nicht lange suchen, da muss man sich nur das Desaster der deutschen Schulpolitik ansehen, die starr und dummblöde am Präsenzunterricht festhält, als seien nicht ganz andere, hybride Unterrichtsformen angezeigt. Aber so haben sie es immer schon gemacht, Virus hin, Digitalisierung her. Für den Umgang mit Unerwartetem kommt es vor allem darauf an, Sensorien dafür zu entwickeln, dass sich etwas ankündigt oder abzeichnet, dass die routinemäßige Behandlung sofort überfordern würde – das heißt, es geht gerade darum, misstrauisch gegenüber der Erfahrung zu sein und die Phänomene immer aufs Neue in Augenschein zu nehmen. Sonst macht man: Fehler.

Fehler sind wichtige Informationsquellen

Umgekehrt heißt das: Es braucht gerade in immer verletzlicher werdenden Gesellschaften – verletzlich durch Umweltstress genauso wie durch zu lange Abhängigkeitsketten – eine Neubewertung des Fehlers. Mal aufhören mit der nervtötenden Suche nach irgendwem, der Schuld hat, wenn x oder y passiert ist. Endlich lernen, dass Fehler eine konstruktive Sache sind, aber eben nur, wenn sie nicht vertuscht oder jemand anderem in die Schuhe geschoben werden. Schluss mit dem Vertrauen in glasklare und überzeugungsharte Entscheidungen von sogenannten Entscheidern – die taugen nämlich spätestens dann nix mehr, wenn sich die Lage verändert hat und das macht sie ja leider permanent, die Lage. Und zu den von der Sprachpolizei vehement verfolgten Fehlern: Lernen wir nicht viel mehr über die Mentalität beispielsweise eines Clemens Tönnies, wenn er sich rassistisch äußert, als wenn er gelernt hat, seinen Rassismus nur zu haben, aber nicht zu äußern?

Eine Eigenschaft, die hilft, nicht sofort alles, was einem in die Optik kommt, sofort in die Kategorien des schon Bekannten und Gewussten zu sortieren, nennen Weick und Sutcliffe „mindfulness“, was nichts anderes meint als die permanente Prüfung und Überarbeitung bestehender Erwartungen, dazu eine erhöhte Aufmerksamkeit auf mögliche Fehler und Abweichungen – kurz: ein permanentes Lernen in einer Umgebung, die in ständiger Veränderung begriffen ist. Dabei gelten Fehler nicht als schlecht, sondern als eminent wichtige Quellen von Informationen – Informationen darüber, welchen Lauf die Dinge nehmen können. Während das normale Verhalten Fehler zu vermeiden und, wenn sie geschehen sind, möglichst zu vertuschen sucht, gilt hier der Fehler als etwas sehr Wertvolles: Entsprechend werden Mitarbeiter, die auf Fehler hinweisen, in High-Reliability-Organisationen auch nicht gemobbt, sondern ausgezeichnet.

Lernen aus Fehlern

Mindfulness lenkt, so Weick und Sutcliffe, den Blick vom Erwarteten auf das Relevante um, von der Bestätigung auf die Irritation, vom Angenehmen auf das Unangenehme, vom Expliziten zum Impliziten, vom Übereinstimmenden zum Widersprüchlichen. Anlass für diesen umgelenkten Blick kann eben der Fehler sein, der in unserer Gegenwartskultur so falsch bewertet wird. Wenn sich eine Spur als falsch herausgestellt hat, resümiert Kurt Wallander, Inspektor und Romanheld: „Dann wissen wir das.“

Eine Kultur, in der alle alles richtig zu machen behaupten, kann entweder nur tief zerstritten oder komplett anästhesiert sein, beides ist unproduktiv. Besonders dann, wenn die größte Herausforderung des 21. Jahrhunderts darin besteht, unseren wirtschaftlichen Stoffwechsel auf ein anderes, nicht zerstörerisches Wirtschaftssystem zu bauen, aber niemand weiß, wie das gehen soll. Es ist eine Lebenslüge der Wachstumswirtschaft, dass mit der sogenannten Dekarbonisierung die Probleme schon gelöst seien – wenn der Umfang des Stoffwechsels weiter wächst, wächst auch die Zerstörung weiter. Wie aber eine natural befriedete Wirtschaft und Gesellschaft aussieht, mit der wir durch das 21. Jahrhundert kommen, weiß kein Mensch. Um das wissen zu können, braucht es einen kollektiven Lernprozess, der vor allem durch Lernen aus Fehlern vorangetrieben werden kann. Das autonom fahrende Auto: ein Fehler, weil es den Individualverkehr fortschreibt. Die Digitalisierung von Infrastrukturen: ein Fehler, weil es die Verletzlichkeit der Infrastrukturen erhöht. Die Externalisierung von Kosten: ein Fehler, weil es andere für Zerstörungen aufkommen lässt, von denen man selbst profitiert. Das Streben nach Kosteneffizienz: ein Fehler, weil das Resilienz verhindert. Die Homogenisierung von Kultur: ein Fehler, weil es die größte soziale Produktivkraft, nämlich Differenz, zerstört.

Fehler sind kein Grund, übereinander herzufallen oder Schuldige zu suchen, sondern Anlässe, Dinge besser zu machen. Aus A folgt, mit Bertolt Brecht, nicht notwendigerweise B, sondern vielleicht auch die Erkenntnis, dass A falsch war. Ziehen wir also den Fehler der Lösung vor; der Fehler ist komplex, die Lösung nur binär. Fehlerfreundlichkeit und Fehleroffenheit sind die Kulturtechniken, die es in einem Jahrhundert braucht, in dem die Kulturtechnik der Machbarkeit und Optimierung leider die wichtigste Frage von allen aus dem Blickfeld hat treten lassen: Was soll das?

Harald Welzer ist Herausgeber von taz FUTURZWEI.

Dieser Beitrag ist in taz FUTURZWEI N°15 erschienen.