Gefühlte Sicherheit

Die Technik funktioniert, der Mensch nicht. Oder ist es eher umgekehrt? Eine Bestandsaufnahme.




• Juni 2007, in der Leitwarte des Kernkraftwerkes Krümmel: Draußen brennt ein Trafo. Die Notstromsysteme funktionieren nicht, der Reaktor schaltet sich ab. Die Kühlpumpen fallen aus, Rauch dringt durch die Lüftungsschlitze. Computer haben Aussetzer, der Schichtleiter gibt missverständliche Kommandos, der Reaktorfahrer zieht eine Gasmaske über und verliert den Überblick. Er öffnet zwei Ventile und lässt explosionsartig den Druck im Kern entweichen – vorgesehen als letzte Maßnahme, um einen GAU zu verhindern.

Die Kommission, die der Betreiber Vattenfall einsetzt, um den Vorfall zu untersuchen, kommt zu dem Schluss: Die Technik habe „bestimmungsgemäß“ funktioniert, doch sei es zu „fehlerhaften Handlungen“ gekommen. Die Experten – unter anderen ein Kernphysiker, ein Kommunikationsberater, ein Psychologe und ein Mann vom TÜV – empfehlen „Maßnahmen zur weiteren Minimierung menschlicher Fehler“. Man solle auf die „Vermeidung nicht erforderlicher Handgriffe bei Störungen“ achten.

Der Mensch als Fehlerquelle und Störfaktor. Einmal mehr. Titanic und Exxon Valdez, das ICE-Unglück in Eschede und die Transrapid-Katastrophe im Emsland, der zerstörte Reaktorkern in Harrisburg und die Giftgaswolke über Bhopal – nach Unglücken an der Schnittstelle Mensch-Maschine lautet das Urteil meist: menschliches Versagen. In der Hightech-Szene kursieren seit Jahren Statistiken, wonach Menschen für 80 Prozent aller Versagen verantwortlich sind. Gerhard Faber, Physiker und Automatisierungsforscher an der Technischen Universität Darmstadt, legt noch einen drauf: „Menschen tragen eigentlich immer die Schuld.“

Schließlich ist es der Mensch, der das Regelwerk entwickelt, das bestimmt, bei welchen Wetterverhältnissen ein Flugzeug starten darf. Er entscheidet, aus welchem Material Häuser in einem Erdbebengebiet gebaut werden. Er konzipiert die Dicke einer Betonhülle um einen Atommeiler und setzt ihn in Gang. Irgendeinen Schuldigen finde man immer, so Faber, wenn nicht den Operator im Kontrollstand, so einen Entscheider hinter den Kulissen. Doch viel interessanter ist für ihn die Frage: „Wie oft haben hoch qualifizierte Menschen in Notfällen, beim Versagen technischer Systeme mit ihrer Kreativität Unfälle vermieden?“

Die meisten Kognitionswissenschaftler und Hightech-Entwickler betonen die Unberechenbarkeit des Menschen, seine beschränkte Vernunft und seine Emotionalität. Sie fordern „mehr Automatisierung“, nach dem Motto: Die Technik funktioniert, der Mensch nicht. Faber fordert dagegen eine andere Technik, die dem Menschen erlaubt, „die Maschine nicht einfach nur zu bedienen, sondern zu beherrschen“.

Die Forschungen des Sozio-Ökonomen Fritz Böhle vom Institut für Sozialwissenschaftliche Forschung in München bestätigen ihn. „Großtechnische Anlagen werden viel mehr vom menschlichen Gefühl und Gespür gesteuert, als wir wahrhaben wollen.“ Statt weiter auf der „Fehlerquelle Mensch“ herumzuhacken, solle man die „verborgene Intelligenz des Menschen“ ins Rampenlicht rücken – das sogenannte Erfahrungswissen.

Unter Böhles Leitung hat sich ein Kreis von Organisationssoziologen und Arbeitspsychologen auf die Suche nach diesem versteckten Wissen gemacht. Bei Facharbeitern in hochautomatisierten Fabriken wurden sie fündig. Sie begegneten einem assoziativen, unbewussten Denken und Fühlen im Umgang mit der Maschine. Es ist ebenso geheimnisvoll wie erfolgreich.

Eine Maschine ist wie die andere? Von wegen: „Jede Anlage hat ihre eigene Melodie“

Die Anlage laufe eigentlich nie „nach Strich“, erzählen Arbeiter in hellen, sauberen Fertigungshallen, wo wenige Menschen und viele Roboter Automotoren zusammenschrauben, Flugzeugleitwerke verschweißen, Unkrautvernichtungsmittel zusammenrühren oder Computerchips backen. Die Maschinen hätten ein „Eigenleben“, zuweilen „spinnen“ sie. Wenn man gegensteuere, müsse man „ihre Reaktion abwarten“, gegebenenfalls „mit ihnen kämpfen“. Es klingt wie auf einem Abenteuerspielplatz.

Hier sind keine „sachlich-rational handelnden Experten am Werk“, so die Sozio-Ökonomin Nese Sevsay-Tegethoff aus München. Sondern „versteckte Künstler, Artisten und Jongleure, die mit Maschinen sprechen“, die „toten Objekten eine quasisoziale Dimension“ zugestehen. Sie spüren und hören, ob etwas „rund“ und „harmonisch“ läuft. Alltägliche kleine Unregelmäßigkeiten können sie „vorausahnen“ und zeitig korrigieren.

Frank T., seit 20 Jahren Facharbeiter bei einem Autozulieferer, prüft Kühlerhauben. Mit einem Blick, sagt er, könne er sehen, ob alle Schweißnähte millimetergenau korrekt säßen, er fühle mit der Hand, ob sie hielten, höre schon beim Eintauchen der Haube ins Wasserbecken, ob sie fehlerhaft klinge.

„Jede Anlage hat ihre eigene Melodie“ – diesen Satz hörten die Forscher oft. Manche Facharbeiter, sagt Fritz Böhle, „haben für die Geräusche einer Anlage so viele Worte wie Eskimos für Schnee“.

Und doch erfährt man wenig von diesen Künstlern. „Sie liefern hohe Qualität“, sagt Matthias Rötting, Professor für das Fachgebiet Mensch-Maschine-Systeme an der Technischen Universität Berlin. „Aber es fällt ihnen schwer, zu beschreiben, was sie wahrnehmen. Diese Experten können ihre Erfahrung selten explizit machen.“ Allerdings wird ihr „implizites“ Wissen in Betriebshandbüchern und Ausbildungsleitfäden auch totgeschwiegen. Denn Chefs sind wenig begeistert, wenn ihr Fachpersonal von „Intuition“ oder „Gespür“ redet.

„Je mehr Bedeutung ein Unternehmen dem Erfahrungswissen seiner Mitarbeiter einräumt“, sagt Rötting, „desto abhängiger wird es von ihnen.“ Ein Chef, der einen Mitarbeiter für sein unnachahmliches Fingerspitzengefühl lobt, gibt diesem das Gefühl, wichtig zu sein. „Vielleicht“, sagt Rötting diplomatisch, „ist das nicht immer gewollt.“ In einem Betrieb, in dem Erfahrungswissen wenig zählt, sei der Einzelne leichter auswechselbar.

Der Autobauer Frank T. müsste eigentlich eine Checkliste im Sekundentakt abarbeiten. Weil die Zeit zu knapp sei, sagt er, verlasse er sich auf seine „Körpersignale“. T. ist ungehorsam.

Im vertraulichen Gespräch gestehen Abteilungsleiter, Manager und Vorstände, dass auch sie „aus dem Bauch heraus“ handelten. Und eigentlich sind sie stolz auf ihr „Gespür für kritische Situationen“. Offiziell aber gründen sie ihre Entscheidungen nicht darauf. Die Vorgänge in einem Unternehmen sollen dokumentierbar, objektivierbar, kontrollierbar sein.

„Wir glauben stark an Zahlen und Fakten“, sagt der Ingenieur eines Abgassystembauers. „Ich muss nachvollziehbar machen, wie ich schneller oder besser zu der einen oder anderen Lösung komme“, sagt der Projektleiter eines Herstellers von Chipfabriken. „Man muss immer so tun“, so der Ingenieur bei einem Flugzeugteilehersteller, „als sei alles aus erklärbaren Gründen sachlich und logisch gelöst worden.“

Das Misstrauen gegenüber situativem, intuitivem, erfahrungsgeleitetem Handeln wurzelt tief. Schon zu Beginn der Neuzeit, als sich die empirischen Naturwissenschaften entwickeln, wächst bei Philosophen und Forschern die Hochachtung vor dem wissenschaftlich-rationalen Verstand. Mit Skepsis beäugen sie seitdem den Rest des Menschen. Der Mathematiker René Descartes fordert schon im 17. Jahrhundert gar seine Spaltung: Der Geist sei das „eigentlich Menschliche“, der Körper bloß „äußere Natur“. Der Haken dabei: Ganz ohne den Körper mit seinen wahrnehmenden Sinnen lassen sich selbst die durchdachtesten Experimente nicht bewerkstelligen.

„Der Mensch muss umgebaut werden“, folgert Francis Bacon, ein philosophierender Zeitgenosse Descartes'. „Er muss sich ändern, um den Anforderungen eines immensen Dienstes am Wissen überhaupt gerecht werden zu können.“ Also unterzieht der unbestechliche Geist die unzuverlässigen Sinne einer kritischen Prüfung. Das Auge erhält die meisten Punkte. Böhle: „Zum Ideal für Erkenntnis wird der distanzierte, affektneutrale Blick, der auf das Registrieren von Gestalten, Größen und Daten ausgerichtet ist. Im Unterschied zu den fortan als 'nieder' geltenden Sinnen wie Tasten, Schmecken, Riechen.“

Die Intensivmedizin rettet Leben? Am Ende macht das immer noch der Arzt

So hat sich über die Jahrhunderte in allen Sphären des Lebens, die mit Zahlen zu tun haben, eine kühle, analysierende Geisteshaltung durchgesetzt, assistiert vom abschätzigen Blick. Tatsächlich gelingt es, durch technisches Verständnis das Leben angenehmer zu machen, es dem unmittelbaren Einfluss der gefährlichen Natur zu entziehen. Das Dasein wird sicherer durch Planung, der Mensch zum Restrisiko.

„Risiko“, sagt Vera von Dossow, Anästhesistin am Berliner Virchow-Klinikum, „ist für mich etwas Positives. Ohne Risiko keine Veränderung.“ Die 37-Jährige leitet als eine von drei Oberärztinnen die Station für Anästhesiologie und Intensivmedizin. Nirgendwo wird die Abhängigkeit des Menschen von hoch entwickelter Technik deutlicher als hier: Unfallopfer, Krebspatienten, Menschen mit schweren Lungenentzündungen sind verkabelt mit pumpenden, saugenden und gluckernden Maschinen. Wären sie still, wäre ein Leben zu Ende.

Auf Zimmer drei liegt ein junger Mann mit einer Schussverletzung durch Kiefer und Halswirbelsäule. Aus seinem Rachen führt ein Schlauch zu einem Beatmungsgerät neben ihm. Es schnauft regelmäßig, bis es plötzlich quäkt, ein Dreiklang wie von einer Melodika: Alarm. Weder die Schwester noch die Stationsleiterin noch die Oberärztin greifen ein. Von Dossow lächelt: „Die Maschine meint, der Mann ziehe zu viel Luft. Doch er hat große Lungen, er ist ein Bodybuilder.“ Sie wendet sich an die Kolleginnen: „Wir sollten die Alarmschwelle erhöhen.“

„Wir arbeiten am oberen Limit dessen, was intensivmedizinisch möglich ist“, sagt die Ärztin. Und sie seien froh über jede technische Verbesserung. Aber nie verließen sie sich auf die Geräte: Die Automatik der Perfusionsapparate und Dialysegeräte wird permanent überprüft, angeglichen, geändert, feinjustiert. „Routine“, sagt die Stationsleiterin, „ist der größte Feind.“

Zwei bis sechs Menschen sterben hier pro Monat. Ärzte und Pfleger sprächen offen über Fehler, sagen von Dossow und die Stationsleiterin Regine Reck. Mit den Jahren haben sie gelernt, die sechs verschiedenen Kurven auf einem Monitor mit einem Blick zu erfassen, sie spüren an der Haut eines Patienten, ob er kurz vor einem Kreislaufkollaps steht, und lesen den Grad seiner Schmerzen an Mimik und Gestik ab – wegen des Tubus im Mund kann er nicht sprechen.

Was Reck und von Dossow tun, bezeichnen Piloten als „mit dem Hintern fliegen“. Sie brauchen die Maschine, aber sie steuern sie mit Gefühl. Manchmal „brennt es so richtig“, erzählt die Oberärztin: wenn Schwerverletzte eintreffen, Telefone klingeln, Menschen wiederbelebt werden müssen und sie eigentlich mit dem Rettungshubschrauber losmüssten. Das sei „ein aufregendes Gefühl“, das sie zur Hochleistung treibe.

Chesley Sullenberger erlebte dieses Gefühl, als am 15. Januar 2009 Wildgänse die beiden Triebwerke seines Airbus A 320 verstopften. Während er über New York wendete, um zuletzt weich auf dem Wasser des Hudson zu landen, fühlte er sich nicht gerade frei von Angst, wie er später erzählte – das Schicksal von 155 Passagieren lag in seinen Händen, wie auch sein eigenes. Doch er war umfassend ausgebildet und erfahren: Der Flugkapitän gibt Sicherheitskurse, lehrt Katastrophenmanagement, war Kampfpilot und kreist in seiner Freizeit in Segelflugzeugen am Himmel.

Mit seinem Manöver hat der „Held vom Hudson“ Menschenleben gerettet – und einen lange währenden Streit befeuert: Wie weit sollte der Luftverkehr automatisiert werden? So planen ehrgeizige Ingenieure bereits, auf Langstreckenflügen führerlose Maschinen einzusetzen, die wie Drohnen vom Boden aus gesteuert werden. Nachdem in den sechziger Jahren Bordingenieur, Funker und Navigator das Cockpit verlassen mussten, bleibt den beiden übrig gebliebenen Piloten heute kaum mehr zu tun, als vor dem Start einen Computer mit Zieldaten zu füttern und anschließend die Instrumente zu überwachen. Über den Wolken seien nicht mehr souveräne Kapitäne unterwegs, sagt der Arbeitswissenschaftler Heinz Bartsch, Mitglied des Forschungszentrums Hochschulausbildung von Piloten, sondern Knöpfchendrücker. Und die versagten meist im Notfall, wenn sie per Hand fliegen und Entscheidungen unter extremem Zeitdruck fällen müssten.

Den Streit „Kapitän versus Knöpfchendrücker“ führen stellvertretend zwei Firmen, Boeing und Airbus. In den siebziger Jahren trat Airbus an, den Menschen als „größte Gefahrenquelle“ der Luftfahrt nach und nach zu ersetzen. Kinderleicht sollten ihre Flugzeuge zu bedienen sein, warb das europäische Unternehmen, und fegte 1987 alle Traditionen von Bord: Im A 320 fehlt die Steuersäule zwischen den Beinen; die Operatoren bedienen nun – wie bei Computerspielen – Sidesticks an den Außenseiten der Kanzel. Die setzen nicht mehr Seilzüge oder eine Hydraulik in Gang, sondern elektrische Impulse, die über Kabel zu Leitwerk und Steuerklappen führen und dort Motoren aktivieren: das „Fly-by-Wire“-System. Der Pilot ist damit von der Mechanik der Maschine entkoppelt. Zudem hat Airbus einen Flugkontroll-Computer eingebaut: Der Pilot befiehlt nicht mehr, er wünscht. Er tippt etwas in den Laptop auf dem Tischchen vor sich, und wenn die Rechner der Ansicht sind, der Mann im Cockpit wolle zu extrem kippen oder beschleunigen, war er die längste Zeit Chef.

Anders bei Boeing: Hier haben Piloten nach wie vor die Entscheidungshoheit und die Maschine über ein Steuerhorn im Griff. Fly-by-Wire fliegen inzwischen auch sie, aber ein Computer errechnet den Reibungswiderstand des Flugzeugs und überträgt die mechanischen Gegenkräfte auf das Steuer. Bei Boeing fliegen die Männer und Frauen mit der blauen Mütze immer noch, wenn auch künstlich, mit dem Hintern.

Immerhin erlaubt die Airbus-Technik eine Notlandung. Sullenberger durfte seinen Airbus notwassern. Seine Idee, mitten in der Stadt auf einem Fluss zu landen, hätte man allerdings keinem Computer einprogrammieren können. Es war eine typisch menschliche, weil wagemutige Entscheidung. Das sei das „Fantastische am Menschen“, sagt Markus Kirschneck von der Pilotenvereinigung Cockpit: „Er ist in der Lage, für komplexe Situationen ungewöhnliche Lösungen zu finden.“

Katastrophen lassen sich planen? I wo! Im Ernstfall kommt doch alles ganz anders

Wie viel Risikobereitschaft ist nötig, um Sicherheit zu schaffen? Wie viel Vertrauen verdient eine Maschine? Und wer sollte wen kontrollieren?

Automatisierung bedeutet Vorausdenken. Ingenieure und Programmierer zerbrechen sich den Kopf, um Regelfälle und Schreckensszenarien durchzurechnen. Sie planen. Und Pläne, sagen die amerikanischen Organisationsforscher Karl Weick und Kathleen Sutcliffe von der Universität Michigan, scheitern immer.

Planer „wiegen sich in dem Glauben, dass sich die Welt in einer vorher festgelegten Art und Weise entfalten wird“. Das mache sie blind für außerplanmäßige, unerwünschte Kleinigkeiten, die sich zu handfesten Havarien entwickeln können.

Weick und Sutcliffe haben Feuerwehrspezialeinheiten, Mannschaften auf Flugzeugträgern und Belegschaften in Atomkraftwerken untersucht. Die Zauberformel dieser Unternehmen, die permanent am Rand der Katastrophe arbeiten, laute: Achtsamkeit. Genau die empfehlen Weick und Sutcliffe allen Unternehmen: Erfolg stelle sich ein durch Menschen, die mit dem Unerwarteten rechnen, ein Gespür für Veränderungen haben, die improvisieren können und das Können ihrer Kollegen respektieren, egal, welchen Rang diese bekleiden.

„Problem-Erspürer“, so die Forscher, seien selten Chefs, sondern Praktiker vor Ort. Darum delegieren Brandbekämpfer in der Zentrale so viele Entscheidungen wie möglich an ihre Leute an der glühenden Front. In Krankenhäusern gelten jene Stationen als besonders leistungsfähig, deren Mitarbeiter ermutigt werden, untereinander über Fehler zu reden. Eine starre Hierarchie scheint ähnlich tödlich zu sein wie der Glaube an Routine und Automatisierung.

Was Ärzte und Piloten, Facharbeiter und Feuerwehrleute an der Schnittstelle von Mensch und Maschine tun, lässt sich mit dem Verhalten professioneller Extrembergsteiger vergleichen. Sie sind erfahren und trainiert. Ihre Ausrüstung handhaben sie im Schlaf. Zuschauern treibt ihr Tun den Schweiß auf die Stirn, sie selbst fühlen sich sicher. Sie sind auf alle Eventualitäten vorbereitet. Sie wissen: Es kann schiefgehen. Sie glauben: Es haut schon hin.

Sicherheit, sagen Weick und Sutcliffe, sei etwas Flüchtiges, „ein dynamisches Nicht-Ereignis“, lediglich „ein Fehler, der nicht eintritt“. Risiken lassen sich nicht wegrechnen. Ein Kessel kann explodieren, ein Zug entgleisen, ein Reaktorkern schmelzen. Niemand weiß, wann. Die Zukunft bleibt ein Geheimnis. Das Unbekannte kann in ein Unglück münden, muss aber nicht. Genau diese Spannung beflügelt die menschliche Kreativität und bewirkt, dass – meist – alles gut wird. Der Sozio-Ökonom Fritz Böhle fordert deshalb einen „souveränen Umgang mit Ungewissheit“.

Aber ist dieser Anspruch in einer planungsversessenen Welt, in der Welt der Industrie, umsetzbar?

Ist der Mensch Retter oder Fehlerquelle? Um diese Frage tobt ein wahrer Glaubenskrieg

Bei Wacker Chemie entschied das Management vor zehn Jahren, ermutigt durch die Modellversuchsreihe „Erfahrungswissen“ des Bundesinstituts für Berufsbildung, die Ausbildung des Nachwuchses vom Kopf auf die Füße zu stellen. Im Hauptwerk im bayerischen Burghausen winden sich auf einem kleinstadtgroßen Areal Hunderte Rohre, durch die giftige, stinkende, feuergefährliche Substanzen in turmhohe Anlagen gepumpt werden. Bei winterlichen Temperaturen reagiert diese Technik anders als bei sommerlicher Hitze. Und mit dem natürlichen Verschleiß von Ventilen und Dichtungen ändert sich die Durchlaufgeschwindigkeit. Den Arbeitern hier war schon immer klar, dass ein Gespür für die Macken solcher chemischen Großapparaturen hilft.

Früher wurde den Auszubildenden im Klassenraum des Wacker-Berufsbildungswerkes zunächst die Theorie einer Destillationsanlage nahegebracht. Anschließend nahmen sie Aufstellung vor einem zwei Stockwerke hohen Simulator aus Edelstahl und Glas und lauschten den Ausführungen des Ausbilders.

Heute klettern die Neulinge schon am ersten Tag über Leitungen und Rohre, steigen Treppchen empor und kriechen über Gitterböden, um zu zeichnen, was ihnen auffällt: Kessel, Destillationskolonnen, Temperatur- und Druckmessgeräte – „ohne zu wissen, was die im Einzelnen bedeuten“, sagt Ingenieur Peter Woicke, damals Leiter des Ausbildungsprojektes. „Die jungen Leute bekommen ein Bild von der Anlage und ein Gefühl für sie. Das werden sie nie vergessen.“ Am Rechner des Simulators lassen die Azubis Dampf ab oder erhöhen den Druck und machen Fehler, so ist es gedacht. Nebenbei führen sie ein Tagebuch, in dem sie notieren, was sie sehen, hören, fühlen und was ihr Riecher wahrnimmt: Essigsäure, Erdbeeraroma oder Kabelbrand.

Als die Welt den Helden vom Hudson bejubelte, dachte Woicke an seine Schützlinge. So wie Sullenberger trainiert hatte, um in einer Extremsituation die richtige Entscheidung zu treffen, so stellt sich Woicke die Ausbildung vor. Die angehenden Chemikanten sollen „gestalten und spüren, wann eine Anlage nach oben, wann nach unten ausbricht“. Sie sollen etwas „erleben, das sie auf das völlig Unerwartete vorbereitet“.

Wenn dagegen Eberhard Hoffmann an das Manöver über New York denkt, überkommt ihn nur Grauen. „Der Pilot war die einzige Sicherheitsebene, die noch vorhanden war“, sagt er. Für ein Kernkraftwerk sei das untragbar: „Das ist nicht abhängig von Menschen.“ Hoffmann leitet die Kraftwerks-Simulator-Gesellschaft (KSG) in Essen-Kupferdreh, wo Betriebsmannschaften aus 16 deutschen Kernkraftwerken den Störfall üben. Was in diesen Anlagen vorgeht, unterscheidet sich von allen anderen Mensch-Maschine-Systemen. In der KSG wird ein ganz eigener Menschentypus gepflegt.

Von außen wirkt das braune Gebäude wie ein Oberstufenzentrum aus den siebziger Jahren, innen wurden für 300 Millionen Euro die Leitwarten von Neckarwestheim bis Brokdorf detailgetreu bis zur Farbe der Telefone nachgebildet. Wenn man Hoffmann sieht, fallen einem Geometrieübungen aus dem Rechen buch ein. Sein Gesicht ist rund, seine Brillenfassung rechteckig, seinen Schnäuzer hat er akkurat zum Trapez gestutzt. Ein Reaktor, sagt er, sei „unheimlich humorlos“.

Wenig anders sollen die Steuerleute sein. „Ich brauche einen Typus, der nicht rumbastelt, nicht ausprobiert, der auch nicht wissensbasiert, sondern regelbasiert arbeitet.“ Hoffmanns Gesicht färbt sich wutrot, wenn man ihn nach der Kreativität seiner Leute und der idealen Stimmung in der Leitwarte fragt. „In der Warte spürt man nichts“, sagt er. In einem Kernkraftwerk nach Gefühl zu arbeiten sei „unmöglich“. Und auch nicht wünschenswert: „Der Mensch irrt, er handelt falsch.“

In Isar 2 klemmt ein Steuerstab. Der Reaktorfahrer wollte die Leistung herunterfahren, doch als er die Steuerstäbe zwischen die Brennelemente senkte, um das Neutronenbombardement zu bremsen, blieb ein Stab hängen. Dieses Szenario hat der Ausbilder in den Simulator programmiert. Jetzt schlendern der bayerische Schichtleiter und sein Reaktorfahrer, der Turbinenfahrer und zwei weitere Techniker unter Leuchtstoffröhren in dem fensterlosen Raum umher, zwischen Wänden, die mit digitalen Anzeigen und Zeigermessgeräten übersät sind. Sie werfen hier und da einen Blick auf einen Kurvenschreiber oder einen der großen Flachbildschirme, schließlich setzen sie sich an ein knapp zehn Meter langes Pult voller Knöpfe und Lichter. Sie trinken Kaffee und beraten sich, was zu tun sei. Vornehmlich geht es darum, den richtigen Aktenordner zu finden.

In einem Schrank hinter ihnen stehen die 69 Bände des Betriebshandbuchs (BHB). Die Mannschaft blättert das Kapitel „Hängender Steuerstab“ auf. Die schematische Darstellung eines „Störfallentscheidungsbaums“ fragt: Ist der Stab einzeln von Hand zu bedienen? „Nein“, antworten die Männer und folgen einer schwarzen Linie zur nächsten Frage: Ist der Stab mehr als 80 Zentimeter eingefahren? „Ja“. Dann, so verkündet der letzte Zweig des Entscheidungsbaums, blieben 100 Stunden Zeit, die Störung zu beheben.

Seit sich im amerikanischen Meiler von Three Mile Island bei Harrisburg 1979 vier Probleme gegenseitig hochschaukelten und in einer Zerstörung des Reaktorkerns mündeten, gilt in der Atomindustrie als größter Risikofaktor: der Mensch. Die Mannschaft begriff nicht, was in dem Druckbehälter schieflief. Sie traf Entscheidungen, die das Chaos vergrößerten. Der Extremfall überforderte sie umso mehr, als sie trainiert waren, in die Anlage möglichst gar nicht einzugreifen. Diese Deprofessionalisierung von Technikern nennt man das „Harrisburg-Syndrom“.

Es gilt im Prinzip bis heute. Doch um die Fehlerquelle Mensch noch weiter zu eliminieren, sollen die Operatoren im Kontrollraum heute gar nicht mehr nach der Ursache einer Störung forschen, sondern „symptomorientiert“ vorgehen. Was den vier Meter langen Regelstab beim Eintauchen ins hoch erhitzte Wasser aufgehalten haben könnte, soll die Männer nicht interessieren. Sie sollen sich die Anlage gar nicht plastisch vorstellen, nur den Entscheidungsbaum aus dem BHB.

Bei einem blutenden Menschen, sagt Hoffmann ohne Ironie, bedeute symptomorientiertes Vorgehen: „Nicht überlegen, warum er Blut verliert, nicht das Leck suchen, um es zu stopfen. Sondern: neues Blut hinterhergießen.“

Nirgendwo ist das Misstrauen in die menschliche Fähigkeit, Probleme zu lösen, so groß wie in der Atomindustrie. Nirgendwo das Vertrauen in die Automatisierung so ungebrochen. Kernkraftingenieure setzen auf mehrfache, voneinander unabhängige Sicherheitssysteme, die sich im Notfall gegenseitig ergänzen. So versuchen sie, sogar das Unwägbare zu programmieren.

Die immer wieder auftretenden Störfälle sind für einen Großteil der Bevölkerung allerdings der Beleg, dass dieser Versuch immer ein Versuch bleiben wird. Die jüngsten Pannen in Brunsbüttel und Krümmel zeigen, so das Bundesumweltministerium in einem Dossier über die „Mythen der Atomwirtschaft“: „Atomkraft ist so komplex, dass derartige Vorfälle zu den systembedingten Risiken dieser Technik gehören.“ Kernenergie sei „nicht beherrschbar“.

Sie ist nicht zuletzt deshalb unbeherrschbar, weil der Mensch sie konstruiert hat. Und der macht, nach der Logik der Kraftwerksbauer, ständig Fehler.

Versagt der Mensch oder die Beobachtung? Wer die Maschine kennt, hat seine eigene Antwort

Nach dem Brand in Krümmel empfahlen die Experten, menschliches Eingreifen zu minimieren, um Bedienungsfehler auszuschalten. Für den Organisationssoziologen Charles Perrow, Spezialist für Mini- und Megakatastrophen in der Großtechnik, ist das eine typische Analyse. Perrow bemerkte schon Ende der achtziger Jahre, dass ein Unfall „wenn irgend möglich, zunächst mit 'menschlichem Versagen' oder mit ‚Bedienungsfehlern’ erklärt wird“. Denn die „lassen sich korrigieren, während fehlerhafte Systeme völlig neu konzipiert oder aufgegeben werden müssen“. Und das kostet Geld und Macht. „Menschliches Versagen“, so Perrow, „ist bei allen Unfällen immer die bequemste Erklärung derjenigen, die auf risikoreiche Systeme einfach nicht verzichten wollen.“

Kraftwerksbetreiber versuchen Sicherheit zu schaffen, indem sie ein immer weiter ausuferndes Regelwerk entwickeln – und den Leuten in der Leitwarte untersagen, Entscheidungen zu treffen, die auf ihrem Wissen und ihrer Erfahrung beruhen. Die Frage ist, ob das klappt.

Manfred Stocker hat in den vergangenen 20 Jahren im Block C des Kernkraftwerkes Gundremmingen, dem leistungsstärksten Atommeiler Deutschlands, jede Schraube kennengelernt, an Hunderten Ventilen geschraubt. Er ist Schichtleiter, 47, ein großer, freundlicher Mann. Er habe „ein Gespür für die Anlage“ entwickelt, erzählt er. „Ich weiß, wo es zuweilen hängt. Einige Ventile machen immer Probleme.“ Aber das habe er im Griff – mit der Zeit „kennt man eben seine Kameraden“. Stocker hegt echte Gefühle für diese „faszinierende Technik“. Er und seine Mannschaft. „Wir identifizieren uns mit der Anlage“, sagt er. „Wir leben für sie.“

Ein Mann lässt sich die Gefühle für seine Maschine nicht verbieten. ---