Ausgabe 08/2007 - Schwerpunkt Fehler

"Programmierte Paranoia"

brand eins: Herr Jansen, lehren Sie an der ZU Fehlerkultur?

Jansen: Um Himmels willen, nein! Dieses ganze Gerede über Fehlerkultur halte ich für rhetorisches Geschwätz. Ein Reflex der Managementphilosophie auf die erfolgsverwöhnten neunziger Jahre. An einer guten Universität versucht man, die Beobachtungsfähigkeit für feine Unterschiede zu sensibilisieren. Fehlerkultur ist eine Habitualisierung von etwas, das wir natürlich vermeiden wollen.

Aber Fehler lassen sich nicht vermeiden.

Natürlich nicht. Aber müssen wir sie deshalb heilig sprechen? Es gibt Fehler, die dürfen nicht ein einziges Mal passieren. Es gibt Organisationen, die nicht einen einzigen Fehler machen dürfen. Die nennen wir in der Forschung "High Responsibility Organizations". Rückblickend betrachtet, sind Fehler in jedem Fall eine Abweichung von dem, was wir gewollt haben.

Was ist ein Fehler?

Wenn wir über soziale Fehler in Abgrenzung zu technischen reden, dann sind sie erkenntnistheoretisch zunächst einmal beobachterabhängig. Das heißt, irgendjemand muss irgendeiner Aktivität zuschreiben, dass irgendetwas fehlerhaft verlaufen ist. Und zum anderen sind Fehler immer auch kontextuell gebunden. Was zu einer Zeit als ein Fehler mit massiven Folgen bezeichnet wird, geht zu einer anderen Zeit einfach unter.

Das klingt, als ginge es in erster Linie um Kommunikation.

Das ist auch so. Fehler sind dann Fehler, wenn darüber geredet wird. Nehmen wir das, zugegeben historische, aber auch schön plastische Beispiel des Deutsche-Bank-Chefs Josef Ackermann, der in einer medial unaufgeregten Zeit eine Reduzierung des Personals mit der Verkündung des 3,8 Milliarden Euro Rekordgewinns und der neuen Eigenkapital-Zielrendite von 25 Prozent verknüpft hat. Alle sind über ihn hergefallen, aus unterschiedlichen Gründen. Die Finanzmärkte interessierten sich nur für die 25 Prozent: zu wenig im internationalen Bankgeschäft! Die Deutsche Bank übernahmegefährdet! Journalisten, Mitarbeiter, die Menschen auf der Straße aber fanden sowohl die Rendite wie auch die Entlassungen zu hoch. Und sie hatten derzeit kein anderes ablenkendes Thema. Es sah nach einem richtig kapitalen Fehler aus.

Zu anderer Zeit wäre es nur ein kleiner Fehler gewesen?

Genau. Ackermanns Pendant auf der Telekom-Seite, Kai-Uwe Ricke, hat einen viel größeren Personalabbau bei der Telekom mit weit weniger öffentlicher Reaktion angekündigt - allerdings mitten im Bundestagswahlkampf.

Was lernen wir daraus?

In beiden Fällen ging es um ökonomische Invarianz, also um eine Entscheidung unter Unsicherheit, um irgendwie das Überleben des Unternehmens zu sichern. Die Unsicherheit darf aber von Kunden, Mitarbeitern und Kapitalmärkten nicht wahrgenommen werden. Diese kommunikative Inszenierungsleistung nennen wir Management. Dann gibt es wohl auch eine gesellschaftliche Vereinbarung, dass wir Leute sehen wollen, die Fehler machen, und uns weniger für Ursachen interessieren. Und dass wir Fehler bei anderen auch toll finden. Die Medien leben davon. Ihre Funktion ist das Berichten von der Abweichung vom Normalen, sodass wir über das Normale aus den Medien leider wenig erfahren.

Fehlersuche ist doch eine der zentralen Aufgaben der Medien.

Sicher, aber gerade bei diesem Thema zeigen sich immer wieder die Grenzen der medialen Verarbeitung. Nehmen wir die Korruption. Korruption ist ein Fehler, der allerdings nicht personalisiert werden kann. Darin sind sich alle Korruptionsforscher einig: Bei Korruption geht es um einen systemischen Zusammenhang - es gibt eine Kultur, in der man sich unanständig benehmen darf. Die wird sehr stark durch die Führungskräfte vorgelebt, das ist sicher so. Aber gleichzeitig entwickelt sich ein System aus Erpressbarkeiten, das so fein ausdifferenziert ist, dass jeder, auch wenn er noch nicht drinsteckt, eine Ahnung davon hat, was hier, in diesem Unternehmen, möglich ist.

Das Problem ist, dass die Medien nicht einen allein verantwortlich machen können?

Das Problem ist vor allem, dass dieses System nicht in der Geschwindigkeit zu analysieren oder gar aufzubrechen ist, wie es von den Medien - im vorauseilenden Wissen um die moralisierende Meinung des Publikums - in der hoch skandalisierten Phase der Korruptions-Entdeckung gefordert wird. In dieser Phase gibt es in aller Regel noch gar nicht genug Informationen, um ernsthafte Fehlerkorrektur zu betreiben. Aber genau in dieser Phase der medialen Aufmerksamkeit muss das Unternehmen schnell reagieren, es muss die Schuld personalisieren und Konsequenzen ziehen, um zu zeigen: Wir haben alles im Griff. Normalerweise müssten die Medien sofort Zweifel anmelden, wenn ihnen jemand als Sündenbock angeboten wird.

Jedenfalls ist mit der Benennung eines Sündenbocks der Fehler nicht behoben ...

... im Gegenteil: Sündenböcke schützen dahinterliegende Systeme. Auf der nicht beobachteten Ebene setzt sich der Fehler fort, das ist sicher auch das Problem bei Siemens gewesen. Aber für mich ist immer wieder überraschend, wie wenig am Ende nach solch großen Skandalen herauskommt - und wie wenig sich die Medien dafür interessieren. Immer wieder lässt sich beobachten, dass bei der Entdeckung eines Fehlers, also in der Vermutungs-oder Zuschreibungsphase, eine extrem hohe Aufmerksamkeit geschaffen wird, die hinterher, bei der faktischen Fehlersuche und den faktischen Ergebnissen, immer stärker abnimmt.

Dann wird es in aller Regel auch sehr zäh. Bevor es beispielsweise zu einem Prozess kommt, kann es Jahre dauern.

Stimmt, und es ist für einen Journalisten nicht eben arbeitsökonomisch, sich da reinzudenken. Aber grundsätzlich ist festzuhalten, dass die Medien bei komplexen Interaktionen immer dann ein Problem haben, wenn Ross und Reiter nicht sofort zu benennen sind. Dann hilft nur der Rückgriff auf das mediale Gedächtnis oder, noch schlimmer, auf Wikipedia: Der scheidende EnBW-Chef Utz Claassen? Das ist doch der mit den WM-Tickets! Und wie der in Talkshows aufgetreten ist! Schon ist man bei der Generalverdächtigung und bei der Zuschreibung von Fehlern.

Das soll aber nicht heißen, dass Manager keine Fehler machen, sondern nur zugeschrieben bekommen?

Noch einmal: Natürlich machen Manager Fehler. Der Umgang mit ihnen, die Identifikation und auch die Vertuschung ist ihr eigentlicher Job. Sie sind Unsicherheitsagenten. Aber worum es mir geht, ist der Umgang mit Fehlern im Management. Und da müssen wir auf ein Problem kommen, das als Lösung verkauft wird: Transparenz. Das hat in den neunziger Jahren mit dem Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG) angefangen, dann kamen Basel II, die ganzen Ad-hoc-Meldungen für börsennotierte Unternehmen und zu guter Letzt die aktuelle Faszination von Web 2.0.

Alles zusammen führt dazu, dass Fehler schon zu einem Zeitpunkt als solche benannt und zugeschrieben werden, zu dem im Unternehmen selbst noch geprüft wird, ob es einer war oder nicht. In dieser Phase wäre manches zum Teil sogar noch korrigierbar. Der zugeschriebene Fehler aber bleibt einer und ist nicht mehr zu korrigieren: Sobald ein Unternehmen unter dem Verdacht steht, ein Problem zu haben, hat es eines. Das ist eigentlich der Vorteil von Familienunternehmen, der Kirche oder der Mafia: Die halten noch dicht.

Was lässt sich dagegen tun?

Ich wünschte mir tatsächlich ein wenig mehr Intransparenz. Gebt den Unternehmen die Möglichkeit, ihre eigenen Fehler zu korrigieren. Denn sonst schalten sie um und sagen sich: Wir machen einfach weiter wie bisher. Wird ein Fehler aufgedeckt, erfahren wir es sowieso schneller aus der Presse als aus dem eigenen Haus.

Das wäre ein Fatalismus, für den Manager recht gut bezahlt werden. Darf man nicht auch etwas Risikobereitschaft erwarten?

Sicher, aber das ist ein ganz anderes Thema. Dass nämlich das Risiko nicht mehr auf der Führungsebene von Konzernen zu Hause ist. Die Manager-Haftpflichtversicherung ist dafür nur ein Indiz, dazu kommen die ganzen Berater, Referenten und Assistenten, die Clubs und Verbände, die aktuell wieder zunehmende Aufsichtsratvernetzung. Im Grunde sind das alles Entscheidungs-Verhinderungs-Mechanismen. Und die große Erwartung an die Betriebswirtschaft ist, dass sie in unsicheren Zeiten die Rationalisierung liefert, die eine Entscheidung noch möglich macht.

Das wird nichts werden.

Das kann nichts werden. Denn wer ein Unternehmen führt, muss sich daran gewöhnen, Entscheidungen unter Unsicherheit zu treffen. Ich muss entscheiden, wenn etwas eigentlich unentscheidbar ist, wenn ich die Risiko-Optionen nicht einschätzen kann. Sonst hätte ich keine Entscheidung, sondern eine Wahl, anhand von hierarchisierten Alternativen. Von der Betriebswirtschaft aber wird erwartet, dass sie unentscheidbare Alternativen irgendwie unterscheidbar macht.

Erstaunlich, dass überhaupt noch etwas entschieden wird.

Das hat mit etwas zu tun, das der Nobelpreisträger Herbert Simon "uncertainty absorption" nennt, also die Absorption von Unsicherheit - etwa, wenn jemand aus Karrieregründen ein Risiko nicht weiter kommuniziert. Das passiert automatisch und sorgt dafür, dass überhaupt noch entschieden wird.

Ist die Risikoscheu auf höchster Ebene ein neues Phänomen?

Zumindest verschärft sie sich. Denn Fehler haben zunehmend Folgen, wie die jüngste Statistik über die Verweildauer von Vorstandschefs in börsennotierten, also transparenten Unternehmen zeigt. Danach bleibt ein deutscher Vorstandschef 2,5 Jahre auf seinem Job, wenn ihm ein Fehler nachgewiesen oder zugeschrieben wurde. Wenn er keinen Fehler gemacht und vermutlich auch wenig entschieden hat, bleibt er 6,6 Jahre an der Spitze. Seit 1995 ist die Zahl der vom Aufsichtsrat erzwungenen Abgänge pro Jahr um 300 Prozent gestiegen. Und da wird dann auch alles Gerede von der lernenden Organisation zur Esoterik: Lernkurven haben Eigenzeiten, und diese Eigenzeiten sind in der Verweildauer von Führungskräften nicht mehr vorgesehen.

Und wo führt das hin?

Zunächst einmal können wir beobachten, dass der talentierte Nachwuchs keine große Neigung mehr verspürt, sich in solcher Form vorführen zu lassen. Die jungen Leute wollen gründen und was Soziales machen, am besten beides: Nichtregierungsorganisationen managen, die Welt retten. Nur nichts Böses mehr.

Ist das schlecht?

Nein, nur das Motiv ist bedenklich. Die heute 18- bis 25-jährigen BWL-Studenten beweisen eine hohe Anpassungsfähigkeit, und zwar zur Risikovermeidung in der eigenen Biografie. Und was das Faszinierende daran ist: ohne Grund. Denn die Startbedingungen sind unvergleichlich gut. Wir laufen auf enorme Nachwuchsprobleme zu, die Unternehmen suchen langsam wieder echte Entscheider, Leute, die beherzt ihre eigene Position vertreten. Sie suchen Typen, "characters", wie sie in der gut 100 Jahre nach Max Weber auflebenden Charisma-Forschung genannt werden ...

... die aber gleichzeitig vom System wieder abgestoßen werden.

Genau. Das ist das Paradoxe. Aber die Antwort kann nicht noch mehr Anpassung sein. Ich fordere unsere Studierenden genauso paradox auf, das Studium auch zu nutzen, um das Scheitern zu lernen und zu etwas Normalem zu machen. Aller Anpassung zum Trotz wird jeder irgendwann ordentlich oder unordentlich auf die Fresse fliegen. Sie werden Karrieren auf Zeit haben, auch mal ein halbes Jahr arbeitslos sein, Entscheidungen versemmeln. Das Studium ist die Chance, so viele Fehler wie möglich zu machen und sich die riskantesten Projekte vorzunehmen. Die Souveränität im Umgang mit Fehlern, die muss auch antrainiert werden.

Also doch Fehlerkultur?

Nein! Das ist keine Kultur, sondern eine Haltung. Und es ist eine Kommunikationskompetenz. Es ist eine Sache, Entscheidungen zu lernen und bereit zu sein, die Konsequenzen zu tragen. Und eine andere, Fehlerkonsequenzen abstrakt einschätzen zu lernen. Aber auch das ist eine komplizierte Angelegenheit. Ich war vor Kurzem zu einem Formel-1-Rennen eingeladen, eigentlich eine Sache, die mich schon aufgrund der Regeln langweilt. Um die Zeit totzuschlagen, habe ich angefangen, die Formel 1 organisationstheoretisch zu betrachten: Ich fand ein rauschendes Fest der losen Kopplungen und der Redundanz. Jede Position ist mindestens zweimal besetzt, jedes Werkzeug, jeder Reifen, jedes Ersatzteil, alles ist zweimal da. Alles lauert auf den Fehler, er ist der eigentliche Unterschied im Rennen. Redundanz ist der Zauber-Schlüssel der Siebziger-Jahre-Krisenforschung - mehr nicht.

Mag sein. Trotzdem sind mir doppelte Absicherungen beispielsweise im Flugzeug ganz recht.

Woher wissen Sie, was im Flugzeug tatsächlich redundant ist?

Zugegeben: Ich weiß es nicht, aber ich glaube es.

Das ist es, was der Soziologe Systemvertrauen nennt. Wir vertrauen nicht konkret dem einen Piloten und seinem redundanten Ko-Piloten, der einen Überprüfung oder eben der anderen. Wir vertrauen einem überwachten System der Überwachung von Piloten, Flugzeugtechnik und so weiter. Und das ist hochinteressant: Die Gesellschaft täte gut daran, sich gerade in Zeiten von Terror-Angst, Klimawandel und anderen Bedrohungen dieses Systemvertrauen zu erhalten, denn es spart gigantische Kosten. Aber Wissenschaft, Medien und Web 2.0 leben von der Dekonstruktion des Systemvertrauens.

Beim Fliegen wird das Vertrauen aber durchaus gerechtfertigt - die Maschinen stürzen doch relativ selten ab.

Das ist das Gesetz der großen Zahl. Aber wissen wir es wirklich genau? Reichen Statistiken aus, um uns Sicherheit zu geben? Zum Beispiel gibt es Statistiken, die den zunehmenden Missbrauch von Kreditkarten belegen, der solche Dimensionen angenommen hat, dass sich die Kartenbetreiber ernsthaft fragen, wie viel sie in das Geschäftsmodell der inszenierten Sicherheit weiter investieren sollen. Wissen wir wirklich, was das sicherste Verkehrs- oder Zahlungsmittel ist - oder glauben wir es nur?

Spätestens beim Start der Maschine wollen wir es glauben.

Genau. Das müssen die "High Responsibility Organizations" produzieren, wie Karl E. Weick die zwanghaft fehlerfreien Organisationen wie Atomkraftwerke, Notfallstationen oder Flugzeugträger bezeichnete. Wir erwarten, dass kein einziger Fehler passiert, nur: Wie organisiert man das, dass man auf das Unerwartete, auf das Überraschende vorbereitet ist, also lernt, mit nicht planbaren Störungen umzugehen? Das ist meines Erachtens das zurzeit wichtigste Forschungsfeld, das die Betriebswirtschaft aber noch nicht recht erkannt hat. Die ist immer noch auf die kritische Erfolgsfaktoren-Analyse (KEF) programmiert, obwohl längst erwiesen ist, dass die Analyse selbst nicht erfolgreich war: Erfolge sind nicht reproduzierbar.

Aber aus Schaden wird man klug?

Nein, aus Fehlern kann man nicht lernen, auch wenn das immer wieder behauptet wird. Sonst würden wir die Uni in eine Schadensabteilung umwidmen. Aber man kann lernen, Muster des Misslingens zu beobachten.

Dadurch lassen sich Fehler verhindern?

Es geht im Prinzip um nichts anderes als um Achtsamkeit. Wir verlieren die Achtsamkeit, wenn wir zu viel machen oder wenn wir uns auf redundante Systeme verlassen. Und vor allem geht die Achtsamkeit verloren, wenn wir einer Erfolgswissenschaft wie der Betriebswirtschaft vertrauen, bei der schon der Referenzwert falsch ist. Denn was ist Erfolg? Eine paradoxe Analyse dazu hat Marshall W. Meyer 1989 mit seinem durchaus lesenswerten Buch "Permanently Failing Organizations" vorgelegt. Darin hat er Organisationen untersucht, die permanent Fehler machen und dennoch überleben. Eine seiner Antworten ist: Langlebige Unternehmen werden selten von den großen Stars geleitet. Wenn allerdings eine eher blasse Führungsleistung zu Langlebigkeit führt, dann sind deren Chefs unterm Strich erfolgreicher.

Wer sich nicht übermächtig fühlt, rechnet ständig mit Fehlern - und kann auch darauf reagieren?

Damit sind wir beim letzten Punkt, der bei der Fehlervermeidung eine Rolle spielt: Paranoia. Ich will keine Fehler, also will ich sie vermeiden. Und die Folge ist, dass ich in jedem Vorgang die Möglichkeit des Scheiterns sehe. Dann entsteht die Beobachtung zweiter Ordnung: Wir beobachten unsere Beobachtung von Fehlern, alles wird zum potenziellen Misserfolg, und nichts ist mehr entscheidbar. Da muss man dann hilfsweise so etwas wie "programmierte Paranoia" einziehen: Wir sind weiterhin wach und achtsam - aber daneben gibt es Programme, die helfen, entscheidungsfähig zu bleiben. Dazu gehören Hierarchien, Zustimmungskataloge, ein explizites Verständnis über die systemische Risikokultur des Unternehmens. All das hilft, dass die Organisation nicht heiß läuft, weil nicht alles diskutiert werden muss.

Was ist das Ziel? Fehlerfreiheit doch eher nicht.

Nein, sobald eine Organisation scheinbar fehlerfrei läuft, muss man ernsthaft nachdenken, ob man ein paar Fehler inszeniert. Das ist auch so eine der offenen Fragen der Betriebswirtschaft: Wie hält man eine sich gut bewegende Organisation in Bewegung? Mit Aktionen, mit der eine Organisation nicht rechnen konnte und die dennoch kalkulierbar sind? "Management by Crisis" heißt dann nicht selten die Antwort. Chefs wie Steve Jobs von Apple scheinen das intuitiv zu beherrschen, die nerven ihre Organisation permanent. Aber für einen Wissenschaftler ist das nicht leicht zu formulieren.

Es ergibt aber auch keinen Sinn, alles im Griff haben zu wollen.

Das ist die Paradoxie. Nehmen Sie uns Sozialwissenschaftler, wir haben ein Thema nach acht bis zehn Jahren empirischer Forschung im Griff. Das einzige Problem: Es interessiert dann keinen mehr. Ich habe also Sicherheit für einen Moment produziert, in dem ich sie nicht mehr brauche. So ist das auch im Umgang mit Fehlern. Auf der einen Seite muss ich Prozesse sicher machen, also Fehler vermeiden. Und auf der anderen Seite dafür sorgen, dass die Organisation nicht verlernt, mit Überraschungen umzugehen.-

Mehr aus diesem Heft

Fehler

Fehlanzeige

Irren ist menschlich. Irrsinn auch. Wer nichts versucht, wird auch nicht klug. Nur Doofe glauben, perfekt zu sein.

Lesen

Fehler

Rechtzeitig Kehle zeigen!

Amerikanische Firmen halten nichts von Perfektionismus. Doch wer Fehler macht, muss auf die Sünderbank - oder blechen.

Lesen

Idea
Read