piwik no script img

Reproduzierbarkeit von StudienSpektakuläre Ergebnisse sind gefragt

Wissenschaftliche Experimente schlagen oft fehl, wenn sie von anderen Forschern wiederholt werden. Solche Resultate sollten veröffentlicht werden.

Nur wenn die Studien auch publiziert sind, werden sie wahrgenommen. Bild: imago/Stefan Noebel-Heise

Gibt es einen Zusammenhang mit der Größe bestimmter Hirnareale und der Zahl der Facebook-Freunde, die die betreffende Person hat? Eine Studie aus dem Jahr 2012, die an der Universität Sussex in Großbritannien durchgeführt wurde, behauptet das. Doch ein Wissenschaftlerteam um den Mathematiker Eric-Jan Wagenmakers von der Universität Amsterdam zweifelt dieses Ergebnis jetzt an (pdf). Und nicht nur dieses.

Die Forscher haben 17 Hypothesen aus früheren Studien, die alle den Zusammenhang zwischen der Gehirnstruktur und bestimmten psychischen Eigenschaften untersucht haben, wiederholt. Bei keiner einzigen konnten sie die früheren Ergebnisse bestätigen.

Wagenmakers und Kollegen sind vorsichtig in ihrer Schlussfolgerung und behaupten nicht, dass die ursprünglichen Studien alle falsch sind. Doch die Ergebnisse reihen sich ein in eine ganze Reihe von fehlgeschlagenen Versuchen, frühere wissenschaftliche Ergebnisse zu wiederholen.

Die Debatte um die Reproduzierbarkeit wissenschaftlicher Ergebnisse zieht sich durch die unterschiedlichsten Wissenschaftsbereiche. 2011 meldeten Forscher der Pharmafirma Amgen, dass sie von 53 wichtigen Studien aus der Krebsforschung in internen Tests nur sechs mit demselben Ergebnis wiederholen konnten. Ein ähnlicher Bericht aus dem Hause Bayer berichtete davon, dass von 67 Studien nur 14 wiederholt werden konnten.

Das Projekt PsychFileDrawer, das sich um die Wiederholung von Studien aus der Psychologie bemüht, vermeldet auf seiner Webseite 38 fehlgeschlagene versus 20 erfolgreiche Versuche, frühere Studienergebnisse zu bestätigen.

In der Wissenschaft wird über eine Reproduzierbarkeitskrise gesprochen. Dabei steckt die Wissenschaft in einem Dilemma: Die Wiederholung von früheren Ergebnissen ist ein wichtiger Teil wissenschaftlicher Sorgfalt, um festzustellen, ob die Ergebnisse überhaupt stimmen. Doch simple Replikationen sind wenig prestigeträchtig und werden von wissenschaftlichen Fachzeitschriften auch ungern veröffentlicht.

Besonders heftig wurde die Debatte zuletzt unter Psychologen geführt. Die Bemühungen um mehr Replikationsstudien werden längst nicht von allen begrüßt. Der Harward-Professor Daniel Gilbert beklagt auf Twitter sogar, dass sich Forscher von einer Replikationspolizei verfolgt fühlen. Hintergrund von Gilberts Äußerungen war eine fehlgeschlagene Wiederholung einer Studie der Psychologin Simone Schnall.

Moralische Verfehlungen

Sie hatte 2008 in einem vielzitierten Experiment berichtet, dass Studenten, die sich die Hände gewaschen hatten, moralische Verfehlungen deutlich milder beurteilten als die Studenten ohne frisch gewaschene Hände. Schnalls Experiment wurde für eine Sonderausgabe der Fachzeitschrift Social Psychology, die sich nur mit Replikationen befasste, wiederholt – und die Ergebnisse unterschieden sich deutlich von Schnalls ursprünglicher Studie.

Schnall fühlte sich unfair behandelt und meinte, man hätte ihr die Chance geben müssen, auf die fehlgeschlagene Replikation eine Erwiderung in der selben Ausgabe von Social Psychology zu schreiben.

Die Debatte um die Reproduzierbarkeitskrise hat inzwischen die großen Wissenschaftsjournale Nature und Science dazu gebracht, Richtlinien für die bessere Reproduzierbarkeit von Ergebnissen zu formulieren. Eine Checkliste, die gemeinsam mit dem US-amerikanischen National Institutes of Health (NIH) entwickelt wurde, soll dafür sorgen, dass Studien möglichst detaillierte Informationen iefern, die bei einer Wiederholung der Experimente helfen. Neben Nature und Science haben sich mehr als 30 Fachzeitschriften verpflichtet, dieser Checkliste zu folgen.

Doch viele Wissenschaftler sind der Ansicht, dass die großen Fachzeitschriften selbst ein Teil des Problems sind. Sie seien in erster Linie an spektakulären und neuen Resultaten interessiert und weniger an wissenschaftlicher Sorgfalt. Replikationen werden in den großen Fachzeitschriften fast nie veröffentlicht. Und in aller Regel veröffentlichen die großen Wissenschaftsjournale nur positive Ergebnisse. Genau darin liegt aber eins der großen Probleme: Der Druck auf Wissenschaftler, positive Resultate zu veröffentlichen, führt zu einer Verzerrung.

Studien für die Schublade

Die Fachwelt spricht von einem „Publication Bias“. Studien, die Hypothesen untersuchen und anhand der Ergebnisse verwerfen, verschwinden häufig in der Schublade. Sie sind jedoch für die Suche nach korrekten Ergebnissen genauso wichtig wie die positiven Resultate. Der Publication Bias gilt als wichtigster Grund, weshalb so viele Replikationen fehlschlagen.

Ein wichtiges Mittel, um die Zuverlässigkeit wissenschaftlicher Resultate zu verbessern, sehen viele in der generellen öffentlichen Registrierung von Studien vor ihrer Durchführung. Die Idee dabei: Bevor irgendwelche Experimente durchgeführt oder Daten gesammelt werden, wird die Methodik einer Studie detailliert aufgeschrieben und in einem öffentlich einsehbaren Register vorgestellt.

Dadurch soll erreicht werden, dass Negativresultate nicht unveröffentlicht bleiben. Zudem verhindert die vorherige Erläuterung der Methodik, dass das Studienergebnis später an die Resultate angepasst wird.

In der Medikamentenforschung sind solche Studienregister bereits weit verbreitet. Doch eigentlich wären sie in allen Wissenschaften sinnvoll, insbesondere überall dort, wo statistische Daten erfasst werden.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
Kommentarpause ab 30. Dezember 2024

Wir machen Silvesterpause und schließen ab Montag die Kommentarfunktion für ein paar Tage.
  • Manche wissenschaftlichen Bereiche funktionieren nach dem Prinzip der Kaffeesatzleserei.

     

    Als wissenschaftlich erwiesen gilt etwas, wenn der Kaffeesatz eines zweiten Wahrsagers zufällig die gleichen Muster annimmt. Weil dies im Regelfall nicht zutrifft, einigt man sich auf das, was jeder Kaffeesatz mit jedem anderen gemeinsam hat und streitet sich anschließend über die Interpretation.

  • "Reproduzierbarkeitskriese"? Schönes Wort für eine Kultur des Lügens um des Vorteils willen!

     

    Sieht aus, als wäre das fehlende Fehlermanagement nicht nur in Stadtverwaltungen ein mittleres Problem. Die Frage ist, ob die, die sich von einer "Replikationspolizei verfolgt fühlen", zu Recht ein kneifendes Gewissen haben oder ob sie tatsächlich so etwas wie Opfer sind. Womöglich lässt sich das Gefühl des Ausgeliefertseins ein wenig mildern, wenn man so was wie ein "Replikationsgericht" etabliert. Ich meine damit einen Ort, an dem sich solche "Angeklagten" wie die Simone Schnall für ihre Pleiten rechtfertigen können. Jenes Problem, das es mit "großen Fachzeitschriften" gibt, die unbedingt noch größer werden wollen und dafür notfalls selber Fakten unterschlagen, löst so ein Instrument natürlich nicht. Hier kann man nur auf solche "Krähen" hoffen, die anderen ins Auge picken. Wobei die unwahrscheinlich sind, so lange alle Welt den gleichen Pfad zum Sieg verfolgt. (Der FDP hat ihre Ignoranz an dieser Stelle auch nicht besonders gut getan.)

     

    Übrigens: Dass "Studienregister" in der "Medikamentenforschung bereits weit verbreitet sind", spricht nicht zwingend dafür, scheint mir. Es zeigt mir eher, dass das Instrument nichts taugt, so lange alle Schwindler eine Strategie verfolgen. Die Zahl der Leute, die ihre Freizeit dafür nutzen, sich durch diverse Register zu graben, ist offenbar ganz schön begrenzt.

  • jaja der Wissenschaftsbetrieb, vielleicht ist er heutzutage auch einfach ein bisschen zu aufgebläht? So viele Studien, die nie jemand lesen wird und die keinen interessieren...

  • "…Wissenschaftliche Experimente schlagen oft fehl, wenn sie von anderen Forschern wiederholt werden. Solche Resultate sollten veröffentlicht werden.…"

     

    Ja ja - da ist was dran - der

    Pawlowsche Hund warist gar keiner -

    usw usf

     

    &der Widerleger hat nichemal den

    Nobel-Preis bekommen -

    monierte;) schon Heinz von Foerster -

     

    trial&error & c.p. -

    die ach so trivialen Grundprinzipien

    jeglicher wissenschaftlicher Arbeit

    - auch wenn dieselbige institutionale -

    sich gern damit schwer tut*~*

     

    Ps: Danke für Ihren Kommentar. Er wartet auf Freischaltung. Bitte haben Sie Geduld und senden Sie ihn nicht mehrfach ab. - ok -

     

    mit F.K.Waechter - NÖ WIESO!