Ausgabe 08/2007 - Schwerpunkt Fehler

Fehlanzeige

1. Der Blindgänger

Der große griechische Dramendichter Aischylos war ein eher wehmütiger Mensch. Das normale Leben schien ihm voller Plagen, und wenn er etwas mochte, dann den Mythos, den er um seine Helden wob. Die mussten sich erst auf Schlachtfeldern beweisen und sich blutige Nasen holen, bevor sie ein Stück weiterkamen im Leben. Der berühmteste Satz des Dichters kommt deshalb nicht von ungefähr: Aus Leiden - und also durch Schaden - wird man klug. Das hört man oft, doch die Frage ist: Stimmt das auch? Muss man erst dumm sein, um dann klug zu werden? Muss man sein Lebtag lang immer wieder auf heiße Herdplatten fassen, um zu kapieren, dass das nicht angenehm ist? Wer Großes hinterlässt, und wenn es auch nur Sprüche sind, der muss sich daran messen lassen. Nicht alle trifft es dabei so hart wie Aischylos.

Um die Mittagszeit eines schönen Tages im Jahr 456 v. Chr. ging der Poet am Rande der Stadt Gela auf Sizilien spazieren. Wahrscheinlich überlegte er sich einmal mehr, welche Fehler sich seine Dramenhelden leisten müssten, um zum Glück zu kommen. Über dem Dichter schwebte allerdings bereits die Realität. Genauer gesagt umkreiste ihn ein mächtiger, wenngleich hässlicher Vogel, ein Bartgeier. Der Vogel beabsichtigte, sein Mittagessen zuzubereiten. Im Schnabel trug er eine Schildkröte, deren Fleisch bekanntlich äußerst schmackhaft ist, allerdings durch einen dicken Panzer bestens gesichert. Für Bartgeier stellt das weiter kein Problem dar. Sie nutzen zum Knacken gut verpackter Delikatessen große, glatte Steine, die ihnen als Knochenschmieden dienen. Im gezielten Sturzflug lassen sie die Beute auf den Stein knallen, den Rest erledigt die Physik. Hier greift die Lehre von den geworfenen Körpern, fachmännisch Ballistik genannt. Dabei geht immer etwas kaputt. In diesem Fall traf es neben der Schildkröte auch unseren Dichter. Denn der Geier hatte - so was kann schon mal passieren, jeder macht mal einen Fehler - statt eines Steins die kahle Platte des Poeten anvisiert. Damit wurde Aischylos wohl nicht nur zum ersten historisch überlieferten Opfer eines Luftangriffs mit Kollateralschaden, sondern musste auch in seinen letzten Sekunden erleben, wie sein berühmtester Satz sozusagen granatenmäßig widerlegt wurde. Genug gelitten? Aus Schaden wird man klug? Wirklich? Wer war dann eigentlich damals, mittags bei Gela, der Dumme?

Der Satz "Aus Schaden wird man klug" hielt schon dem ersten Realitäts-Check nicht stand. Ist es so, dass man erst durch Katastrophen und Niederlagen schlauer wird? Muss man durch Abgründe marschieren, um Erfolg zu haben? Ist Weisheit nur erhältlich, wenn man vorher möglichst blöd war? Und lässt sich auch durch Verstand und Nachdenken ein Ziel erreichen? Dummheit wird bestraft, und Fehler sind dumm. Doch es ist die Logik des Aischylos, der wir bis heute folgen.

Sonst halten wir es wie die Bartgeier: etwas fallen lassen, bis es kracht.

2. Kanonen

Das klassische Fehlerbild hat viel Schaden angerichtet, aber wirklich klüger wurde daraus keiner. Denn wo die Einsichten aus Fehlern ignoriert werden, nicht darüber geredet wird, wo sich Fehler im System fortpflanzen können, weil sich die, die sie machen, vor Strafe und Ächtung, vor Schaden und Nachteilen fürchten, lernt niemand was. Hier gilt, was Karl Kraus zum Thema auf den Punkt brachte: "Hüten wir uns davor, aus Schaden dumm zu werden."

Jeder macht Fehler - und das ist kein Wunder. Fehler und Irrtümer sind die natürlichen Wegmarken auf der Suche nach neuen Lösungen, sie weisen uns darauf hin, was wir übersehen haben, was wir besser und klüger machen könnten. Fehler sind kein Schicksal. Um das so zu sehen, muss allerdings her, was der herrschenden Fehlerkultur fremd ist: Pragmatik und Vernunft, die Freude am Lösen von Problemen, am Versuch, die Realität, die Wirklichkeit, zu verstehen. Volkstümlich heißt das: nachdenken, über Dinge, die man schon gemacht hat, kritisch zu reflektieren.

Mit der Frage, wie das geht, hat sich der Psychologe und Autor Dietrich Dörner beschäftigt. Für ihn liegt darin der Schlüssel zum Verständnis der neuen Welt, die in ihrer Komplexität mit nichts vergleichbar ist, was Menschen bisher kennen. In seinem Bestseller "Die Logik des Misslingens" schreibt Dörner: "Die Betrachtung der Folgen von Maßnahmen bietet hervorragende Möglichkeiten zur Korrektur eigener falscher Verhaltenstendenzen und zur Korrektur falscher Annahmen der Realität. Denn wenn sich etwas einstellt, was man als Folge einer Maßnahme eigentlich nicht erwartet hat, so muss das ja seine Gründe haben. Und aus der Analyse dieser Gründe kann man lernen, was man in Zukunft besser oder anders machen sollte." Fast jeder unterschriebe diese Sätze, die vor immerhin 18 Jahren geschrieben wurden, leichten Herzens, aber das hätte auch Konsequenzen. Denn diese Regel ernst zu nehmen bedeutet auch, von populären Weisheiten Abschied zu nehmen: "Das haben wir immer schon so gemacht" - "Das macht man so und nicht anders" beziehungsweise "Dafür gibt es klare Vorschriften." Nachdenken und kritische Analyse sind ein Geschäft, das man nicht nach Lust und Laune machen kann. Es ist rund um die Uhr geöffnet - oder gar nicht.

Es ist die Rückkehr einer zentralen Tugend der Aufklärung, des Zweifels am Bestehenden gleichermaßen wie an dem, was man selbst tut. Theoretisch sind damit viele einverstanden, in der Praxis kommt das einer Revolution gleich, die aus Fehlern, die heute ein Makel sind, nützliche Einsichten macht. Dörner weiß, dass wir noch weit davon entfernt sind. Die meisten Menschen, sagt er, würden "ballistisch denken und handeln", also mit dem, was sie tun, so umgehen wie mit einer Kanonenkugel: Wie jeder weiß, kann nach dem Abfeuern der Kugel nichts und niemand ihren weiteren Verlauf beeinflussen. Sie fliegt ihre vorgegebene ballistische Bahn. Alles hängt davon ab, wie die Kanone ausgerichtet wurde. Wenn am Ausgangspunkt ein Fehler gemacht wurde, lässt er sich nicht mehr kontrollieren. So ist auch unser wirtschaftliches und gesellschaftliches System ausgerichtet: Dieses System folgt der Kanonen-Logik. Der Kollateralschaden ist erheblich.

3. Die Forderung

Dörners Vergleich ist in doppelter Weise sinnvoll. Es waren Kanoniere, die das Wort "Fehler" in der frühen Neuzeit zuerst verwendeten. Damit meinten sie, dass ihre Kugel ganz woanders einschlug, als sie es beabsichtigten. In dieser Zeit wurde auch die Vorstellung geprägt, dass man Fehler vermeiden kann, wenn man nur klare Regeln und Standards einführt.

Das Wort "Standard" stammt aus dem Englischen, wo die Fahne des Königs, die Standarte, als Garantie dafür galt, dass die Männer, die sie trugen, das Recht und den Willen des Königs repräsentierten. Wer die königliche Standarte hat, hat immer Recht. Der Standard setzt die Maßstäbe für die Wirklichkeit, den sogenannten Königs-Weg. Das klingt optimal, ist aber das Produkt reiner Willkür. Standards und Normen haben gemein, dass sich Menschen an sie gewöhnen. Alternativen verblassen mit der Zeit. Andererseits kommt man im Zeitalter der Ballistik ohne Standards nicht aus. Alles wird vorausberechnet, kaum einmal wird nachgedacht. Der Aufstieg des Standards und der Norm ist mit dem Industriezeitalter verwoben. Wo massenhaft produziert wird, sind Abweichungen von der Norm fatale Fehler. Eine Maschine produziert Millionen Teile. Ob Kanone oder Maschine - eine falsche Einstellung macht die ganze Produktion zunichte.

Im letzten Drittel des 19. Jahrhunderts hatten sich der Gott des Standards und mit ihm das ballistische Denken in den Köpfen fest etabliert. Fehler konnten "ausgemerzt" werden. Doch so nützlich der Standard für die massenhafte Herstellung von Dingen ist, über die man nicht mehr großartig nachdenken muss, so fatal ist er als wirtschaftliches Gesamtprinzip in einer Welt, die Wohlstand und Fortschritt nicht mehr allein durch die Reproduktion der schieren Masse gewinnt. Die Rede ist von hier und heute.

Denn Neues kann ohne Fehler nicht entstehen. In der Normierung der Massenproduktion nimmt die Angst vor Fehlern geradezu pathologische Züge an. Die Erfüllung des Plans wird zum Naturgesetz, zur unabdingbaren Forderung. Während die Wissensökonomie schnell und vielfältig ist, sind standardisierte Systeme statisch ausgerichtet. Sie können aus Fehlern nicht oder nur schwer lernen.

4. Das Experiment

Die Forderung nach Fehlertoleranz und einer neuen Fehlerkultur wird bis heute von vielen Managern und Bürgern als unnötiger Schnickschnack angesehen. Sie feuern ihre Kanonen lieber nach bewährter Manier ab, auch wenn dort, wo die Kugeln einschlagen, schon längst nichts mehr steht. Im Jahr 1945 veröffentlichte der im britischen Exil lebende österreichische Philosoph Karl Popper sein Werk "Die offene Gesellschaft und ihre Feinde". Zu diesem Zeitpunkt war deutlich mehr Menschen als heute bewusst, wohin ballistisches, nur Standards und Normen geschuldetes Denken führt: zu Tyrannei und Krieg, in Untergang und Elend. Poppers Modell einer offenen Gesellschaft hingegen kann mit Fehlern und Abweichungen umgehen: Sie sind, wie Popper sagt, "Teil des Spiels".

Eine solch offene Gesellschaft lässt sich nach den Prinzipien der Wissenschaft verstehen: In dieser Welt ist es üblich, Fragen an das Wesen, an die Natur einer bis dahin noch nicht verstandenen Sache zu stellen. Diese Fragen müssen offen und klar sein, und der Austausch der Fragen in der wissenschaftlichen Gemeinschaft ist ein wichtiger Teil des Forschungsprozesses. Über Fehler wird geredet, es ist geradezu entscheidend, das zu tun: "Ich erkannte, dass die Suche nach Rechtfertigung aufgegeben werden muss, nach Rechtfertigung des Wahrheitsanspruchs einer Theorie. Alle Theorien sind Hypothesen, alle können umgestoßen werden", schreibt Popper. "Das Spiel der Wissenschaft hat grundsätzlich kein Ende. Wer eines Tages beschließt, die wissenschaftlichen Sätze nicht weiter zu überprüfen, sondern sie etwa als endgültig verifiziert zu betrachten, der tritt aus dem Spiel aus." Es sei nichts anderes als die "schlichte Wahrheit", fügt Popper hinzu, "dass wir fehlbar sind".

Poppers Königsweg war kein unumstößlicher Standard, keine eiserne, scheinbar ewige Regel, sondern ein Begriff, der sich zu jeder Zeit dem Wandel und der Veränderung zur Verfügung stellen konnte: Falsifizierung, auf Deutsch: etwas als falsch erkennen. Für Popper war es viel bedeutender, das Falsche, den Widerspruch, den Fehler und den Irrtum in einer Annahme zu finden als die Bestätigung dessen, was man bereits wusste - oder glaubte zu wissen: "Jedes Mal, wenn es uns gelingt, eine Theorie zu falsifizieren, machen wir eine neue wichtige Entdeckung. Falsifizierungen sind höchst wichtig. Sie lehren uns das Unerwartete."

Dies ist eine Antwort darauf, warum die industrielle Gesellschaft sich mit Fehlern so schwertut: Fehler und die Falsifizierung, das Erkennen, dass etwas falsch ist, bedeuten grundlegend immer auch Veränderung und ein höheres Maß an Anstrengungen. Es ist nicht leicht und nicht bequem, sich Fehlern zu stellen, denn das verlangt zwangsläufig die Aufgabe angenehmer Routinen und Abläufe, lieb gewordener Standards und kuscheliger Gewohnheiten. Nachfragen und nachdenken sind aufwendige Sportarten - das ist nicht jedermanns Sache. Und gleichsam sind Fragen immer Zweifel daran, ob das Bestehende tatsächlich ein so uneingeschränktes Recht hat, sich als Königsweg zu bezeichnen. Aus Fehlern werden Fragen, aus Fragen wird Veränderung. Das ist der Sinn des Nach-Denkens, des Experiments, der ständigen Folge von Versuch und Irrtum.

Wie ein Schmarotzer hängt die reine Massenproduktion mit ihren Standard-Dogmen, ihrer Fehlerparanoia und ihren DIN-genormten "Forderungen" am Tropf der Leute, die sich auf Fehler einlassen und aus ihnen tatsächlich ihre Lehren ziehen. Die Industriegesellschaft ist undenkbar ohne die harte Übung von Versuch und Irrtum, die Wissenschaftler und Entdecker auf sich nahmen. Hätten nicht viele den Königsweg bezweifelt, wäre keine Fabrik entstanden. Fragen und irren, lernen und dann wieder von vorn - das ist die Grundlage des Fortschritts. Das Experiment ist seinem Wesen nach ein offenes Spiel. Es fordert mehr Anstrengung als die übliche Praxis, einmal zu denken und die Sache dann in Serie gehen zu lassen.

5. Null-Toleranz

Die Wissensgesellschaft fordert permanentes Nachdenken. Wer das unterlässt, ist fehler-und belanglos. Wir leben diesbezüglich in einer Zweiklassengesellschaft. Der noch kleinere Teil ist sich zunehmend im Klaren darüber, dass ohne Versuch niemand klug wird. Diese Menschen bringen uns weiter. Der noch bei Weitem größere Teil hingegen verschanzt sich hinter dem Wahn, dass Fehler und Irrtümer erst gar nicht entstehen dürfen und dass sie demnach selbst keine Fehler machen können. Diese Anmaßung ist nur mit dem 1870 unter der Bezeichnung "Pastor Aeternus" - der Ewige Hirte - erlassenen Dogma von der Unfehlbarkeit des Papstes vergleichbar. In den profanen Werkstätten des Managements trägt die Unfehlbarkeit den Namen Null-Toleranz.

Nun sind Menschen, die sich vornehmlich mit Massenproduktion beschäftigen, nicht zwangsläufig Vollidioten. Auch wenn sie die Chance des Fehlers übersehen und ihn zum Antichristen der Produktion erklärt haben, wissen sie natürlich, dass Fehler passieren. Die Vermeidung dieser Fehler steigert die Wirtschaftlichkeit. Sie sichert den Standard. Deshalb muss ein neuer Standard her, der den Standard am Leben erhält. Die Regeln dazu nennt man Zuverlässigkeitstechnik, die Methoden heißen Fehlermöglichkeits- und Einflussanalyse (FMEA). Ihre ersten Ansätze finden sich beim amerikanischen Militär nach dem Zweiten Weltkrieg. Sie tauchen kurz darauf auch in der noch jungen Raumfahrt auf. Richtig populär wird die FMEA aber erst in den siebziger und achtziger Jahren.

Der amerikanische Automobilhersteller Ford hat eben sein Modell Pinto vorgestellt, ein besonderes Meisterwerk amerikanischer Ingenieurskunst. Der Pinto sollte als Abfangjäger gegen die erfolgreichen Importautos von Volkswagen und Toyota vom Band gelassen werden. Tatsächlich stellte sich aber heraus, dass der Pinto seinen Konkurrenten aus Blech keinen ernsthaften Schaden zufügen konnte. Er konzentrierte sich diesbezüglich ganz auf seine Insassen. Schon bei leichten Auffahrunfällen explodierte der Tank. Als bekannt wurde, dass Ford dieses Problem in Kauf genommen hatte, weil eine Konstruktionsänderung zu teuer gewesen wäre, musste der Konzern handeln. Das Management beschloss, die strenge mili-tärisch-industrielle Fehleranalyse-Norm FMEA einzusetzen, um seinen Ruf zu retten. Unter der Bezeichnung "QS-9000" wurde daraus in den achtziger Jahren der richtungsweisende Qualitätsstandard für die weltweite Automobilindustrie.

Autos sind, nicht zuletzt durch die massive Elektronisierung der vergangenen Jahre, komplexe und damit fehleranfällige Systeme. Die FMEA-Methoden leiden aber nach wie vor am ballistischen Effekt: Das Grundprinzip der FMEA lautet Vorsorge statt permanenter Korrektur. Auch hier muss die Kanone vor dem Schuss exakt ausgerichtet sein. Fehler sind nur im Plan, im Design und in der Grundkonstruktion erkennbar und vermeidbar. Das liegt eben in der Natur der Sache. Autos - wie andere Industriegüter auch - werden entworfen, konstruiert, gebaut und rollen vom Band. Danach sind Fehler, die auftreten, ein teurer Spaß belegt durch unzählige Rückholaktionen und aufwendige Umbauten. Entweder es klappt gleich - oder das Modell ist ein Montagsauto. Je komplexer die Systeme werden, desto öfter ist Montag, zuweilen, wie wir wissen, auch mal die ganze Woche lang. All das ist Autoherstellern natürlich bekannt. Doch nur zaghaft wagen sie sich an Methoden, bei denen die komplizierte Elektronik von Autos über Netzwerke aktualisiert werden können, wenn Fehler auftreten. Was bei simplen PCs zum Standard gehört - in der Welt der Autoindustrie wird diese Form dynamischer Fehleranalyse und Beseitigung nach wie vor als "Zukunftsmusik" klein gehalten. An Standards hat man sich gewöhnt. An permanente Korrekturen, an ständigen Wandel offenbar nicht. Im Wissenszeitalter aber ist die durchgängige Analyse von Fehlern elementar: Sie ist die wichtigste Lernchance, die Unternehmen und Projekten Orientierung gibt.

6. Paranoia

Wer sich ans Schießen gewöhnt hat, bleibt dabei. Die einzige Konzession an den Fortschritt ist, größere, kompliziertere Kanonen zu bauen. Kanonen wie die Six-Sigma-Methode.

Die wurde ursprünglich vom amerikanischen Halbleiterhersteller Motorola zur Fehlervermeidung entwickelt. Die Quintessenz der Methode ist es, nicht mehr als 3,4 Fehler bei einer Million Fehlermöglichkeiten in einem Prozessschritt zuzulassen. Das entspricht einer Zuverlässigkeit oder Fehlerfreiheit von 99,99966 Prozent. Daraus ergeben sich theoretisch fehlerfreie Produkte. Bei Halbleitern, also Prozessoren und Chips, sind selbst kleinste Fehler problematisch. Doch gilt das auch für andere Produkte, für Dienstleistungen sogar? Der Kunde empfindet ein Produkt als fehlerfrei, wenn es funktioniert, ein Problem löst. Perfektion ist reine Theorie - die bei beschleunigten Produktzyklen zur schieren Illusion wird.

Wirklich bekannt wurde Six Sigma, als der Sanierer von General Electric, Jack Welch, das Prinzip zur neuen Konzernreligion erhob. Die Mitarbeiter des Mischkonzerns wurden nach ihrer Six-Sigma-Fähigkeit bezahlt. Welch verkündete den Anbruch des fehlerfreien Zeitalters, ein Reich, in dem es keine Abweichungen, keine Rückrufe, keine enttäuschten Kunden mehr geben sollte: "Six Sigma", so Welch ganz im Stil moderner Sekten- und Religionsführer, "wird das größte, persönlich lohnendste und am Ende das rentabelste Unternehmen unserer Geschichte sein. Six Sigma heißt (...) ein Unternehmen, das quasi fehlerfrei Produkte herstellt, Dienstleistungen erbringt und Transaktionen tätigt." Millionen begeisterter Jünger in der - durch Komplexität - unter Druck geratenen Industrie jubelten. Ihr Messias war geboren. Die Zugehörigkeit zum Six-Sigma-Gedanken wird, wie bei japanischen Kampfsportarten, durch Gürtel in verschiedenen Farben dargestellt. Der fehlerfreie Meister trägt Schwarz. Wenn Erwachsene kindisch werden, ist das ein zuverlässiges Zeichen dafür, dass sie an ihre Grenzen geraten sind. Six Sigma ist, unbeschadet seines glänzenden Rufs in der Industrie, ein gutes Beispiel dafür. Geht es hier um bessere Produkte? Geht es um die Veränderung der Konzernkulturen, die diese Verbesserung konsequent verhindern? Das glauben nicht mal die, die hauptberuflich Six-Sigma-Prozesse leiten.

Eine Studie der Fachhochschule Köln aus dem Jahr 2004 wertete die Intentionen von 65 deutschen Six-Sigma-Anwendern aus, mehrheitlich Automobilhersteller, Elektrotechnikfirmen und Maschinen- und Anlagenbauer. Fast 60 Prozent der Befragten waren in ihrem Konzern ausdrücklich für den Six-Sigma-Prozess verantwortlich. Und was sagten diese Leute? Worauf konzentrierten sich die Six-Sigma-Meister? Zu satten 91 Prozent auf Kostenreduktion. Das ist und bleibt der wichtigste Grund für den Prozess. Weniger als die Hälfte der Six-Sigma-Jünger fand es nötig, dafür die Unternehmenskultur zu verändern, und an Problemlösungen aus dem Prozess waren nur 41 Prozent der Kampfsportler interessiert.

Six Sigma ist nur eine weitere Strophe des alten industriellen Marschliedes namens Kostenreduktion. Auch der Hohepriester Jack Welch bediente sich in Wahrheit recht konventioneller Sanierungsmethoden: Er schloss unrentable Betriebe, entließ Mitarbeiter, fuhr brutal die Kosten runter. Ballistische Betriebsführung eben. Weiße Fahnen statt schwarzer Gürtel.

7. Der gute Weg

Es gibt klügere Wege, die versuchen, zuerst die Ursachen von Fehlern zu verstehen: Wie weit sind die Mitarbeiter wirklich in den Produktionsprozess integriert? Dürfen sie Fehler erkennen und beseitigen? Schauen wir ins Land, aus dem die schwarzen Gürtel kommen, nach Japan. Das bekannteste und erfolgreichste Modell zur Fehlerbeseitigung im Industrieprozess ist das vom Ingenieur Taiichi Ohno entwickelte Kaizen-Prinzip. Es wurde vom Automobilhersteller Toyota übernommen - und gilt branchenweit als wichtigster Schlüssel für die Erfolge des Konzerns auf den Weltmärkten, die seit den siebziger Jahren ungebrochen anhalten. Oberflächlich betrachtet ähnelt Kaizen den westlichen Fehlerbeseitigungsmethoden der Industrie: Es geht um die Perfektionierung von Arbeitsabläufen, um Prozessorientierung, um die Einführung eines rigoros überwachten und kontrollierten Qualitätsmanagements. Das klingt für westliche Ohren bekannt. Doch es ist anders, wie der an der Eidgenössischen Technischen Hochschule Zürich (ETH) lehrende Fehlerforscher Theo Wehner weiß: "Kaizen ist eben nicht - wie man im Westen annimmt - der Weg nach oben, sondern der gute Weg, wörtlich übersetzt: die Veränderung zum Besseren. Das heißt, es gibt Umwege, Abwege, mal geht man auch nach unten und seitlich weg - das Wichtigste aber ist, dass man den besten Weg zum Ziel findet."

Der springende Punkt bei Kaizen ist, dass dabei ein Produktionsprozess ganz auf die permanente Veränderung, auf den fließenden Wandel abgestellt wird. Zu jedem Zeitpunkt der Produktion kann jeder mit der Herstellung befasste Mitarbeiter das Fließband in den Automobilfabriken stoppen und einen Verbesserungsvorschlag einbringen. Nicht der große Schritt, der gewaltige Innovationssprung ist das Ziel von Kaizen, sondern eine ruhige, kontinuierliche, in kleinen Schritten stattfindende Verbesserung, über die alle Beteiligten sich austauschen - Kunden, Macher, Manager. "Das ist ein nichtlinearer Prozess, wie er für wissensgetriebene Organisationen typisch ist. Man zwingt sich nicht in ein enges Korsett, sondern nutzt Fehler und Irrtümer als Ausgangspunkt für eine bessere Lösung", sagt Wehner. Wer über Fehler offen redet, hat Erfolg.

Doch offen über Fehler zu reden fällt nicht allen leicht. Im Gegenteil. Unter dem Stichwort "Fehlerkultur" hat sich, im Gefolge der Diskussion über lernende Organisationen und Wissensökonomie, in den vergangenen Jahren das Wissen um die Fehler im Umgang mit ihnen stark erhöht. Wehner, der zahlreiche Unternehmen und Organisationen berät, weiß selbstverständlich, dass auch in Deutschland das sogenannte betriebliche Vorschlagswesen jedes Jahr eine Menge Geld bringt. Diese im 19. Jahrhundert in den Krupp'schen Stahlwerken eingeführte Mitarbeiterbeteiligung bei der Suche nach Fehlern sorgt heute dafür, dass jährlich Schäden durch Fehler im industriellen Prozess von wenigstens zehn Milliarden Euro verhindert werden. Wehner weiß aber auch: Es könnten mehr sein. Im Werk eines führenden deutschen Autoherstellers erlebte er, wie zwei Drittel der Vorschläge der Arbeiter von den Ingenieuren rigoros abgelehnt wurden. "Und zwar nicht, weil man sie sich vielleicht mal angesehen hätte, sondern weil die Experten der Auffassung waren, dass so ein dahergelaufener Trottel von Mechaniker oder Elektriker doch so was gar nicht wissen kann."

Das Eingeständnis, dass jemand auf einer hierarchisch "niedrigeren" Ebene wissen kann, was den "Oberen" bisher entgangen ist, ist nach wie vor für die meisten Führungskräfte inakzeptabel. "In einer fehlerfeindlichen Kultur ist das auch kein Wunder", sagt Wehner. "Wer Fehler macht, muss bestraft werden, ganz gleich, ob er versucht zu vertuschen oder, was sehr wichtig ist, über den Fehler und die Umstände, wie es dazu gekommen ist, zu reden."

Ein ebenso wichtiger Grund für die Fehlerverdrängung ist für Wehner die "deutsche Mentalität, dieses: Alles passt für alle. Aber so etwas gibt es eben nicht." Das Ziel sei nicht die "perfekte Schließung", also die einmalige dauerhafte Optimierung, sondern die permanente Anpassung durch neue Erkenntnisse: "Die Abweichung ist wichtiger. Man muss auch lernen zu improvisieren." Das fällt im Mutterland der Industrie, in Deutschland, nicht allen leicht.

8. Immer die anderen

Ist das nur ein Vorurteil? Professor Michael Frese, Fehlerforscher an der Justus-Liebig-Universität Gießen, schüttelt den Kopf: "Leider nein. Es gibt repräsentative Untersuchungen zur Frage, wie man in verschiedenen Kulturen und Nationen mit Fehlern umgeht. Unter 61 analysierten Staaten hat es Deutschland dabei auf den vorletzten Platz - vor Singapur - geschafft." Fehler sind somit das Letzte, womit man sich hier beschäftigen will: "Verwunderlich ist die Angst vorm Fehler, vorm Versagen und Scheitern nicht. Deshalb wird vertuscht und geschwiegen", sagt Frese, "und wir verlieren enorme Chancen dadurch." Wer Fehler macht und dabei ertappt wird, zumal an prominenter Stelle, für den gilt eine ungeschriebene Norm: Er wird zur Sau gemacht. Ganz gleich, ob in Politik oder Wirtschaft - Fehlleistungen werden von den Medien genüsslich zelebriert. Offenheit gilt als Schwäche. Die Folge davon sind Misstrauen und eine Kultur, in der niemand dazulernt.

Manchen Managern steht die Pose des Unfehlbaren ins Gesicht geschrieben. Sie wissen alles, sie können alles. Der Fehler, der liegt anderswo. "Wenn ein deutscher Manager oder Politiker dann doch über seine Fehler reden muss, heißt es fast immer: , Mein größter Fehler war, dass ich diesen oder jenen Leuten vertraut habe.' Mit anderen Worten: Ich habe gar nichts getan. Die anderen haben den Fehler gemacht", sagt Frese. Der Fehlerexperte erkennt hier deutliche Unterschiede zur pragmatischeren Fehlerkultur des angloamerikanischen Raums: "Dort reden die Manager über sich selbst, und selten behaupten sie, die anderen wären schuld gewesen - das interessiert im Übrigen auch niemanden."

Und doch haben westlich-industrielle Kulturen laut Frese einiges gemeinsam: Bei der Fehleranalyse gibt es gewaltige Unterschiede, die schlicht davon abhängen, ob man selbst am Drücker war, als ein Fehler passierte, oder andere. "Wenn ich selbst einen Fehler mache, dann ist die für uns typische Reaktion, dass wir eigentlich sehr gründlich analysieren, warum und unter welchen Umständen der Fehler passiert ist. Wir sind, wenn es um uns selbst geht, gründlich und logisch. Wir geben uns richtig Mühe, jedes Detail, das zum Fehler geführt hat, herauszuarbeiten." Sobald aber, so Frese, der Fehler bei jemand anderem liege, "geht es ganz vordergründig nicht mehr um solche Sachfragen - es geht um die Person". Die eigenen Fehler sind erklärlich, die der anderen liegen natürlich an ihrem miesen Charakter, an ihrer Faulheit, Dummheit und ihrer unangenehmen Art.

So einfach ist das. Und so dumm.

9. Grillen

Dass der gestörte Umgang mit Fehlern auch ganz wesentlich daran liegt, wie wenig sich Mitarbeiter und Macher mit dem Ziel ihrer Organisation identifizieren, lässt sich kaum bestreiten. Wer Fehler erkennt und benennt, verhindert weitere. Wer sie aus persönlichen Motiven gegen lästige Konkurrenz im eigenen Haus anwendet, entspricht hingegen durchaus der vorherrschenden Fehlerkultur. Das schadet dem Unternehmen, aber es erhöht die Kreatur. Am Ende kommen dabei nicht nur kaputte Menschen heraus, sondern auch kaputte Produkte und miserable Dienstleistungen. Wer glaubt, ohne Fehler zu sein, endet in Wahrheit woanders: ohne Kunden.

Das geht auch anders, wie der Berliner Unternehmer Ingo Thümler weiß. Er ist Geschäftsführer der Feuchteklinik. Die stellt Wissen, Know-how und Technik zur Verfügung, um aus feuchten Löchern wieder trockene Büros und Wohnungen zu machen. Ein solider Betrieb, der seine 16 Mitarbeiter gut beschäftigen kann. Doch Thümler ist da ein bisschen eigen: Er will der Beste in seiner Branche sein, und das geht nur, wenn so wenige Fehler wie möglich gemacht werden, wenn seine Leute auf Baustellen, in Gewerbehöfen und Wohnungen Mief und Feuchtigkeit aus den Wänden holen: "Ich will wissen, was richtig läuft, und noch mehr will ich wissen, was falsch läuft. Das interessiert mich wirklich - und zwar nicht, um dem, der einen Fehler gemacht hat, eine Strafe anzuhängen. Niemand macht einen Fehler absichtlich, das ist Unsinn. Aber wenn er einfach unter den Teppich gekehrt wird, dann wächst das Ding und verbreitet sich wie ein Virus."

Wie bringt man nun gestandene Handwerker in der wenig fehlertoleranten deutschen Alltagskultur dazu, dass sie darüber reden, was falsch gelaufen ist? Bei Thümler gibt es einmal pro Woche die sogenannte "Freitagsrunde". Das ist keine nach dem Vorbild von Selbsthilfe- oder Diätgruppen ablaufende Selbstanklageschau, sondern ein, wie Thümler sagt, "geselliges und lustiges Treffen, wo wir grillen, essen, ein paar Bierchen trinken und reden". Da nimmt sich niemand aus, auch Thümler nicht. Da gibt es auch keine Anwesenheitspflicht. Man redet eben miteinander.

10. Mitmachen

Die Voraussetzungen dafür heißen Vertrauen und Interesse an einer Lösung. Das spricht sich auch in der Industrie herum, zumindest in deren jüngstem Zweig, der Software-Industrie. Software-Ingenieure waren klassische Industrialisten, deren Weltbild sich von Maschinenbauern und Automachern nicht wirklich unterschied. Doch die offene Gemeinschaft des Internets hat das geändert. Wer Programmcodes schreibt, die zuweilen Millionen von Zeilen umfassen, macht zwangsläufig Fehler. Es gibt praktisch keine fehlerfreie Software auf dem Markt. Das muss auch nicht sein. Anwender, die Fehler entdecken, können schnell und effizient die "bugs", die Wanzen, wie Fehler in der Programmierwelt heißen, beim Programmierer melden. Miteinander reden löst Probleme.

Aus Sicht der alten statischen Produktionswelt empfanden das viele Nutzer anfangs als Zumutung, als Frechheit. Sie fühlten sich als Versuchskaninchen missbraucht. Fehler dürfen nicht sein. Doch wer komplexe neue Systeme nutzen will, muss mehr tun als bloß konsumieren. Er muss mitarbeiten. Der Job des Kunden ist auch, auf Perfektion zu verzichten.

Das mit Abstand erfolgreichste Konzept, das aus der Welt der Produktion weist, ist eine Form von permanentem Kaizen - Open Source. Wo es an Lösungen für Probleme im Detail fehlt, greifen kundige Benutzer selbst ein. Damit wird ermöglicht, dass Prototypen schnell genutzt werden können. Nichts ist mehr perfekt, weil das gar nicht nötig ist. Stattdessen zählt der offene Austausch über vorhandene Fehler und Irrwege und die Bereitschaft aller Beteiligten, daraus zu lernen und die Dinge besser zu machen. Die Handelnden vertrauen einander, und niemand hat etwas davon, wenn ein anderer einen Fehler macht. Im Gegenteil. Alle ziehen an einem Strang, weil es ihnen nützt.

"Open Source ist eine emanzipierte Haltung", sagt Fehlerforscher Wehner. "Ich biete als Produzent etwas an, das andere verbessern können. Und das System ist fehlertolerant. Fehlertoleranz heißt ja nicht, immer mehr Fehler machen oder Fehler suchen. Es bedeutet, dass wir sensibel dafür sind, wie Fehler entstehen und was sie sind. Und dass wir das Zutrauen haben, sie zu lösen."

Mit anderen Worten: Nobody is perfect - das muss auch nicht sein, es sind ja auch noch andere da. Und niemand von ihnen muss Schaden nehmen, um klüger zu werden. Das ist eine Chance der neuen Wirtschaft.

Es wäre kein Fehler, sie zu nutzen. -

Mehr aus diesem Heft

Fehler

"Programmierte Paranoia"

Wollen wir Fehlertoleranz? Oder wollen wir nur nicht gehenkt werden, wenn wir einen Fehler machen? Stephan A. Jansen, Gründungs-Präsident der Zeppelin University in Friedrichshafen, über den komplizierten Umgang mit einem scheinbar einfachen Thema.

Lesen

Fehler

Rechtzeitig Kehle zeigen!

Amerikanische Firmen halten nichts von Perfektionismus. Doch wer Fehler macht, muss auf die Sünderbank - oder blechen.

Lesen

Idea
Read