Partner von
Partner von

Im Elfenbeinturm

Die Wissenschaft gilt als Reich, in dem allein die Vernunft regiert. Zu Unrecht. Denn Forscher neigen dazu, die Welt zu stark zu vereinfachen. Oder grundlos zu verkomplizieren.





Man soll die Dinge so einfach machen wie möglich – aber nicht einfacher. Der permanente Verstoß gegen Albert Einsteins Faustregel ist ein steter Quell akademischen Unsinns. Denn für Forscher ist es reizvoll, komplexe Phänomene auf einen einfachen Nenner zu bringen – bedauerlicherweise entgeht ihnen dabei häufig Wesentliches. Besonders augenfällig ist das in den Ernährungswissenschaften, denn aus den (Schein-)Erkenntnissen dieses Fachs werden unentwegt Ratschläge abgeleitet und von den Medien verbreitet. Mit der Folge, dass immer mehr Menschen Lebensmittel reflexartig daraufhin bewerten, ob sie wohl gesund sind – und ein schlechtes Gewissen bekommen, wenn sie meinen, mal wieder bei Tisch gesündigt zu haben. Für nicht wenige Zeitgenossen hat das Thema eine religiöse Bedeutung angenommen, sie scheiden Speisen in Gut und Böse. Dafür gibt es allerdings keinen Grund; dem Wohlbefinden zuträglicher wäre es, vermeintliche Ernährungsweisheiten souverän zu ignorieren. So teilte das Europäische Institut für Lebensmittel- und Ernährungswissenschaften e. V. in München einmal lapidar mit: „Die wissenschaftlichen Belege und die meisten Ratschläge sind dünn bis wertlos.“

Dass auf die Befunde so wenig Verlass ist, liegt wesentlich daran, dass sie in aller Regel auf Beobachtungsstudien zurückgehen. Gruppen von Menschen, sogenannte Kohorten, werden nach ihrem Essverhalten, ihren Lebensgewohnheiten und Krank- heitsverläufen befragt und dann zu bestimmten Zeitpunkten „beobachtet“. Dabei stellt man bestimmte statistische Zusammenhänge her, Korrelationen – die gern zu Kausalitäten überinterpretiert werden, nach dem Motto: Mäßiger Rotweingenuss verlängert das Leben.

Doch bei diesem Vorgehen gibt es zwei Probleme: Erstens sind die Forscher auf ehrliche Angaben angewiesen, bekanntlich neigen Menschen aber dazu, sich im besten Licht darzustellen. Zum anderen besteht die Gefahr, Zusammenhänge zu sehen, wo keine sind, weil man eigentlich entscheidende Faktoren ausblendet. So werden Rotweintrinker hierzulande vermutlich nicht wegen der segensreichen Wirkung des Rebensaftes älter als Biertrinker, sondern weil sie häufiger aus gehobenen Schichten kommen und auf abwechslungsreiche Ernährung und Bewegung achten.

Die Gefahr, solchen Scheinkorrelationen aufzusitzen, ist groß. Die Ernährungswissenschaften, so das Urteil von Gerd Antes, langjähriger Co-Direktor des Deutschen Cochrane Zentrums zur Bewertung wissenschaftlicher Untersuchungen, befänden sich wegen ihrer Abhängigkeit von Beobachtungsstudien in einer „bemitleidenswerten Lage“.

Wer heute eine akademische Karriere machen möchte, steht unter dem Druck, Ergebnisse zu produzieren. Publish or perish: Veröffentliche etwas oder gehe unter. Die Logik dieser Mengenlehre wird unter anderem am sogenannten Hirsch-Faktor deutlich, einer wichtigen Messgröße in der akademischen Welt. Sie gibt darüber Auskunft, wie viele Aufsätze jemand in anerkannten Fachzeitschriften veröffentlicht hat und wie oft diese von Kollegen zitiert werden: je höher beide Werte, desto größer der Hirsch-Faktor, das Renommee des Wissenschaftlers und der jeweiligen Hochschule. So zählt in der akademischen Welt – in der es doch zuallererst auf gründliches Nachdenken ankommen sollte – vor allem die Masse; das System schafft Anreize zur Produktion enormer Mengen Unsinn.

Besonders verführerisch für Wissenschaftler, die auf Teufel komm raus Ergebnisse vorweisen wollen, ist der kreative Umgang mit Daten. Man kann bei Studien oder Experimenten beispielsweise unerwünschte Ergebnisse unter den Tisch fallen lassen, Versuche so lange wiederholen, bis sie das gewünschte Ergebnis erbringen oder in Datenhaufen dank geeigneter Software nach Mustern suchen, um sich hinterher eine dazu passende Theorie auszudenken. Sehr häufig wird aus Not oder Bequemlichkeit mit Stichproben gearbeitet, die zu klein oder zu homogen sind, um überhaupt Allgemeingültiges herauszufinden.

Dass Wahlforscher mit ihren Prognosen häufig danebenliegen, hat ebenfalls mit mangelhafter Datenerhebung zu tun. Die demoskopischen Institute wählen zwar eine ausreichend große Bruttostichprobe nach dem Zufallsprinzip aus – müssen dann aber feststellen, dass viele der ins Visier genommenen Leute telefonisch auch nach mehrmaligen Versuchen nicht erreichbar sind oder keine Lust haben, auf Fragen zu ihren politischen Präferenzen zu antworten. Deshalb bleiben von der Bruttostichprobe netto nur wenige Menschen übrig. Diese sogenannte Ausschöpfungsquote ist häufig so niedrig, dass von Repräsentativität nicht mehr ernsthaft die Rede sein kann und daher auch nicht von belastbaren Ergebnissen. Wer die Aussagekraft von Umfragen beurteilen will, muss also die Ausschöpfungsquote kennen. Dass unter anderem die Forschungsgruppe Wahlen bei ihrem regelmäßig im ZDF prominent präsentierten „Politbarometer“ diesen Wert nicht veröffentlicht, kritisiert Andreas Diekmann, Soziologe und Fachmann für empirische Sozialforschung, folgendermaßen: „Auf jedem Joghurtbecher muss stehen, was alles drin ist. Von Meinungsumfragen, die politisch ja zweifellos einflussreicher sind, oft sogar sehr folgenreich, erfährt man gar nichts außer den Ergebnissen. Aber Umfrageergebnisse, von denen man nicht weiß, wie sie zustande gekommen sind, sind eigentlich wertlos.“

Das gilt generell für empirische Studien, weshalb Forscher ihr Vorgehen genau dokumentieren sowie ihre Rohdaten aufbewahren sollen, sodass sich Kollegen ein Bild von ihrem Vorgehen machen und Untersuchungen wiederholen können. Die Deutsche Forschungsgemeinschaft (DFG) empfiehlt eine Aufbewahrungsfrist von zehn Jahren. Die Praxis sieht so aus: Die entsprechende Leitlinie der DFG zur Aufbewahrung von Rohdaten wurde einer Umfrage des Wissenschaftsrats zufolge lediglich „von etwa der Hälfte der antwortenden Hochschulen“ umgesetzt. Wer als Inhaber einer Pommesbude seine Steuerunterlagen nicht zehn Jahre aufbewahrt, bekommt Ärger mit dem Finanzamt. Wer als Wissenschaftler nach der Publikation seiner Erkenntnisse die Daten, auf denen diese (angeblich) beruhen, verschlampt oder löscht, hat keinerlei Sanktionen zu befürchten.

Es gibt also gute Gründe, besonders der stetig anschwellenden Flut empirischer Untersuchungen zu misstrauen. Dies ergaben in jüngster Zeit unter anderem Replikationsstudien. Solche Wiederholungen bereits unternommener Untersuchungen und Experimente durch andere Forscher dienen in den Naturwissenschaften und Fächern, die sich an diesen orientieren, der Qualitätssicherung: Je mehr Wiederholungen einer Studie dasselbe Ergebnis bringen, desto besser die Theorie, die dahintersteht. Was sich durch Replikationen bestätigen lässt, hat Bestand, was nicht, wird verworfen. Auf diese Weise soll die Wissenschaft voranschreiten. So weit die Theorie. In der Praxis werden Studien allerdings selten wiederholt, weil Forscher, die dies tun, damit wenig Ruhm ernten – oder gar als Querulanten gelten.

Wie mühselig es ist, auch nur eine Diskussion über ein fragwürdiges Forschungsergebnis anzustoßen, zeigt exemplarisch der Fall „Pessimisten leben länger“. Mit dieser von den Medien umgehend verbreiteten Nachricht ging das Deutsche Institut für Wirtschaftsforschung (DIW) im Februar 2013 an die Öffentlichkeit. An der Studie, die diese überraschende These belegen sollte, waren neben dem DIW weitere renommierte Institutionen beteiligt: die Humboldt-Universität zu Berlin, die Universität Zürich sowie das Institut für Psychogerontologie der Friedrich-Alexander-Universität Erlangen-Nürnberg. Dessen Leiter Frieder R. Lang, Hauptautor der Studie, begründete den frappierenden Befund so: „Möglicherweise ermuntern pessimistische Zukunftserwartungen die Senioren dazu, noch besser auf die eigene Gesundheit zu achten und sich vor Gefahren zu schützen.“

Lang und seine Kollegen hatten für ihre Untersuchung bereits vorliegende Daten des sogenannten Sozio-oekonomischen Panels (Soep) aus den Jahren 1993 bis 2003 genutzt. Bei dieser jährlichen Umfrage geben immer wieder dieselben Menschen unter anderem darüber Auskunft, wie zufrieden sie mit ihrem Leben sind und wie zufrieden sie in fünf Jahren zu sein glauben. Die Forscher prüften anhand der historischen Ergebnisse dieser Längsschnittstudie bei jedem Befragten, ob der für die Zukunft erwartete Grad der Zufriedenheit fünf Jahre später tatsächlich mit dem dann angegebenen übereinstimmte. Hatten die Befragten ihre künftige Zufriedenheit unterschätzt, galten sie als Pessimisten. Hatten sie diese überschätzt, galten sie als Optimisten. Eine formale Definition. Ob die Leute Gründe für ihre jeweilige Einschätzung hatten und welche das waren, spielte keine Rolle. Neben anderen objektiven Daten wie Alter, Geschlecht, Bildung und Einkommen war den Forschern aber in vielen Fällen das Sterbealter bekannt, da etliche der Probanden inzwischen verschieden waren. So konnte leicht ein Zusammenhang hergestellt werden.

Ist das sinnvoll? Und taugen die Definitionen von Optimismus und Pessimismus überhaupt, um den entsprechenden Nachweis zu führen? Die Brüder Björn und Sören Christensen zweifelten daran. Björn ist Statistiker an der Fachhochschule Kiel, Sören Professor für Stochastik an der Universität Kiel. Die beiden stellten folgende Überlegung an: „Stellen wir uns einmal zwei ansonsten vergleichbare Personen vor, die zum ersten Zeitpunkt beide eine mittlere Zufriedenheit für fünf Jahre später erwarteten. Nun wird im Laufe der Jahre einer von beiden unerwartet schwer krank, was sich negativ auf seine Lebenserwartung auswirken sollte. Dann wird diese Person fünf Jahre später vermutlich eine geringere Zufriedenheit mit ihrem Leben insgesamt angeben, als sie ursprünglich erwartet hatte. Diese Person gilt nach der Studie als Optimist, denn sie hatte ihre Zufriedenheit fünf Jahre zuvor überschätzt. Umgekehrt können wir uns zwei Personen vorstellen, die zum ersten Befragungszeitpunkt durch eine Krankheit gezeichnet sind. Beide werden eher eine geringe Zufriedenheit auch für fünf Jahre später angeben. Bei einem der Befragten entwickelt sich die Gesundheit deutlich besser als erwartet. Er dürfte fünf Jahre später eine höhere Zufriedenheit angeben als ursprünglich erwartet. Er gilt nach der Studie als Pessimist und dürfte eine höhere Lebenserwartung haben als die zweite Person, bei der sich die Gesundheit weiterhin schlecht entwickelt.“

Die Quintessenz der Brüder: „Der Studienaufbau führt dann logischerweise dazu, dass der vermeintliche Pessimist eine höhere Lebenserwartung aufweist und der vermeintliche Optimist eine geringere Lebenserwartung.“ In Wirklichkeit hätte es sich schlicht um Menschen gehandelt, die ihr Leben realistisch einschätzen. Um dies zu prüfen, wiederholte das Duo die Studie, bezog aber die Veränderung des von den Befragten selbst eingeschätzten Gesundheitszustandes mit ein – diese Daten werden beim Soep ebenfalls erhoben. Die um diesen Faktor erweiterte Rechnung ergab keinen signifikanten Zusammenhang zwischen Optimismus, Pessimismus und dem Sterberisiko.

Ein interessanter Einwand gegen ein Forschungsprojekt, das Schlagzeilen gemacht hatte. Darüber wollten die Brüder die Fachwelt informieren. Sie verfassten im Mai 2013 einen Artikel, der nach dem üblichen Peer-Review-Verfahren von unabhängigen Gutachtern beurteilt werden muss, bevor ihn ein namhaftes wissenschaftliches Journal veröffentlicht. Bei der Zeitschrift »Psychology and Aging«, in welcher der Originalartikel erschienen war, bekamen die Statistiker eine Abfuhr. Bei einer anderen Zeitschrift fand sich kein Gutachter. Schließlich – inzwischen waren dreieinhalb Jahre ins Land gegangen – veröffentliche das »Journal of Individual Differences« den Artikel.

Der Fall zeigt, wie leicht es ist, vermeintlich sensationelle Forschungsergebnisse in die Welt zu bringen – und wie mühselig, sie wieder aus ihr zu entfernen.

Auch unter den akademischen Fächern sind nicht alle gleich. Lange galt die Physik als der Superstar. Wissenschaftler anderer Disziplinen bewunderten die Physiker mit ihren mathematisch eleganten Beweisführungen, weil diese universell gültige Naturgesetze entdecken. Das brachte um Anerkennung ringende, jüngere Fächer dazu, sich an diesem Vorbild zu orientieren. Dazu zählten die Wirtschaftswissenschaften. Doch dummerweise eignet sich die Ökonomie nicht für die physikalische Methodik, denn sie hat es nicht mit Naturgesetzen zu tun, sondern mit Menschen und von ihnen geschaffenen Institutionen.

Führende Fachvertreter versuchen dieses Problem zu umgehen, indem sie ihren Gegenstand der physikalischen Methode unterordnen. Neoklassische Ökonomen setzen auf Modelle, die – um ihrer Berechenbarkeit wegen – auf unrealistischen Annahmen beruhen. Hinter ihnen steht die von Geschichte und Kultur gereinigte Idee eines ideellen, von Einzelinteressen gesteuerten Marktes, der alles zum Guten wendet. Der Philosoph Oliver Schlaudt charakterisiert eine solche Herangehensweise von Sozialwissenschaftlern als „schmutzige Physik“. Der amerikanische Ökonom Paul Rohmer prägte den Begriff „Mathiness“ für die allgegenwärtigen Formeln in der Volkswirtschaft.

Im Fach gilt: je mehr Mathematik, desto wissenschaftlicher. An Erkenntnissen anderer Disziplinen wie Soziologie, Politologie oder Kulturwissenschaften ist man wenig interessiert, obwohl das naheliegend wäre. Diese inzestuöse Haltung kritisierten schon früh unterschiedliche Ökonomen wie der radikal-liberale Friedrich Hayek und der Sozialist John Maynard Keynes. Dennoch setzte sich die „schmutzige Physik“ durch. Besonders wirkmächtig wurde die Neoklassik im Schulterschluss mit der Politik ab den Achtzigerjahren. Die tonangebenden Ökonomen beschrieben in ihren Modellen nicht nur den perfekten Markt, sondern leiteten aus ihnen auch ab, wie der zu gestalten sei, nämlich: möglichst frei von Eingriffen wie zum Beispiel Mindestlöhnen. Joseph Stiglitz, Träger des Wirtschaftsnobelpreises, hielt seinem eigenen Fach denn auch vor, als „größter Cheerleader“ des Laissez-faire-Kapitalismus zu fungieren.

Von der Weltfinanzkrise des Jahres 2008 wurden diese Ökonomen dann kalt erwischt – sie war in ihren hochformalen Modellen schlicht nicht vorgesehen.

Im Juni 2000 veröffentlichen Wirtschaftsstudenten an der Pariser Sorbonne eine Petition gegen „autistische Wissenschaft“. Die angehenden Ökonomen kritisieren den mangelnden Pluralismus ihres Fachs, das einseitige Interesse an „imaginierten Welten“ sowie die „unkontrollierte Anwendung von Mathematik“. Ein zartes Pflänzchen der Kritik. Dass es nicht rasch wieder eingeht, liegt maßgeblich an der einige Jahre später durch die Weltwirtschaftskrise beförderten Erkenntnis, dass tonangebende Ökonomen so nackt dastehen wie der sprichwörtliche Kaiser. Nun fordern in etlichen Ländern Wissenschaftler und Studenten eine Erneuerung der Volkswirtschaftslehre, hierzulande unter anderem das Netzwerk Plurale Ökonomik. Ob und inwieweit sich die Reformer durchsetzen, wird sich zeigen. Auch in der Wissenschaft lösen neue Glaubenssätze alte nicht ohne Weiteres ab. Die Platzhirsche sind mächtig, sie verteidigen ihre Dogmen. In aller Regel müssen sie erst ihre Lehrstühle räumen, bevor ein anderer Denkstil Resonanz finden und sich durchsetzen kann.

Wenn dies einmal so weit sein wird, werden die dann führenden Forscher vermutlich mit Erstaunen auf das zurückblicken, was ihre Kollegen früher so trieben. An aufschlussreichem Stoff mangelt es nicht. Der Schweizer Ökonom Mathias Binswanger hat ein eindrückliches Beispiel in seinem Beitrag „Wie die Uni-Ökonomen versagen – die Theorie der Prostitution als Mahnmal“ aufgespießt. Den Anstoß lieferten die Ökonominnen Lena Edlund und Evelyn Korn mit einem Beitrag im »Journal of Political Economy«, in dem sie folgende eigenartige Frage untersuchten: Wieso werden sexuelle Dienstleistungen im Durchschnitt gut bezahlt – obwohl es sich doch um arbeitsintensive Tätigkeiten handelt, für die es keine Ausbildung braucht und die hauptsächlich von Frauen verrichtet werden?

Auch die Antwort der Forscherinnen war, nun, ungewöhnlich: Da Prostituierte nicht auch Ehefrauen sein könnten, müssten sie wegen der geringeren Chancen auf dem Heiratsmarkt mit hohen Honoraren finanziell kompensiert werden. „Die beiden Autorinnen“, so Binswanger, bliesen ihre unsinnige Idee „nun zu einem hochformalen Modell mit 14 mathematischen Gleichungen auf, dessen Darstellung 19 Seiten in Anspruch nimmt und wo unter vollkommen realitätsfremden Annahmen ein Sexmarkt-Gleichgewicht hergeleitet wird (…). Aber Realitätsnähe ist kein entscheidendes Kriterium für eine Publikation in einem ökonomischen Topjournal. Was zählt, ist die Präsentation eines komplizierten formalen Modells.“

Tatsächlich blieb es nicht bei diesem einen Beitrag über die Theorie der Prostitution: Weitere Ökonomen nahmen sich des Themas an, weitere Publikationen folgten. Zwar habe es im Fach auch einige kritische Reaktionen auf den Artikel gegeben, so Binswanger, „aber diese betrafen immer nur einzelne Annahmen und nie den gesamten Artikel und dessen Modell. Was im »Journal of Political Economy« veröffentlicht wird, gilt schließlich als Toppublikation mit einem hohen Impact-Faktor. Und das darf per Definition kein Unsinn sein, auch wenn es (…) offensichtlicher Unsinn ist.“ ---

Dieser Text ist ein bearbeiteter Auszug aus: Triumph der Unvernunft – Was irrationales Denken anrichtet und wozu es gut ist, DVA, 2018; 240 Seiten