Springers Einwürfe: Selbstkontrolle mit kleinen Fehlern
Der Peer-Review-Prozess gilt als der Goldstandard fürs Publizieren. Wer innerhalb der Wissenschaftsgemeinde wüsste besser Bescheid als die engsten Kollegen (englisch: peers), um methodische Irrtümer, schlampigen Umgang mit Daten oder gar bewusste Täuschung auszuschließen? Wer könnte einen Artikel zuverlässiger einem Review unterziehen, das heißt fachkundig bewerten?
Erstaunlicherweise ist es noch gar nicht so lange her, dass Facharbeiten ganz ohne interne Vorprüfung das Licht der Öffentlichkeit erblickten. Erst in den 1970er Jahren bürgerte sich die Teilnahme von Experten am Veröffentlichungsprozess ein. Aber wenn es heute heißt »Eine neue Studie hat gezeigt …«, darf man getrost annehmen: Die Arbeit wurde einem Peer-Review unterzogen.
Wie funktioniert das? Typischerweise legen die Redakteure der jeweiligen Fachzeitschrift den Artikelentwurf zwei bis drei Prüfern vor, die ihn binnen einer vorgegebenen Zeit begutachten sollen, oft inklusive mehrfacher Rückkopplung mit den Autoren. Die Gutachter tun das anonym und ehrenamtlich, das heißt unbezahlt. Allerdings gehen manche Zeitschriften allmählich dazu über, den Reviewern, ihre Zustimmung vorausgesetzt, wenigstens namentlich zu danken – denn deren Belastung steigt mit der wachsenden Publikationsflut. Den Redakteuren fällt es immer schwerer, geeignete und willige Experten zu finden (Nature Astronomy 4, S. 633, 2020).
Angenommen, die Gutachter haben den Artikel mit ein paar Änderungen freundlich durchgewinkt, doch bald finden andere Forscher mehr als ein Haar in der veröffentlichten Suppe. Sie entdecken beispielsweise verdächtig »schöne« – statistisch zu wenig streuende – Daten, identische Abbildungen in unterschiedlichen Zusammenhängen oder Plagiate aus anderen Artikeln. Das ist nicht nur höchst peinlich für die ursprünglichen Gutachter. Der Artikel muss dann außerdem in aller Form zurückgezogen werden. Eine solche »Retraction« scheint zu besagen: Bitte vergesst komplett, dass wir das je veröffentlicht haben.
Weniger Vorwürfe müssen sich die Reviewer machen, wenn andere Teams die publizierten Resultate später trotz wiederholter Versuche nicht zu replizieren vermögen. Oft ist ein monate- oder gar jahrelanger Streit die Folge, in dem die einen den anderen vorwerfen, deren Befunde beruhten auf unsachgemäß angewandten Methoden. Wenn die Replikationsversuche hartnäckig scheitern, obsiegen die Zweifler, und letztlich wird der Widerruf unvermeidlich.
Mit der rapide wachsenden Flut an Fachartikeln steigt auch die Häufigkeit von Zurücknahmen – und damit lohnt es sich, die Retractions, statt sie schamhaft dem Vergessen zu überantworten, systematisch auszuwerten, um aus Fehlern zu lernen. Vor allem sollte jeder Fall mit einer Information über die Gründe versehen werden, meint Quan-Hoang Vuong von der Phenikaa University in Hanoi.
Der vietnamesische Wissenschaftssoziologe hat mehr als 2000 Retractions daraufhin untersucht, ob sie Auskunft über ihre Vorgeschichte gaben. In jedem zweiten Fall wurde nicht erwähnt, wer den Artikel zurückgezogen hatte – alle Autoren? Ein Koautor? Die Redaktion? Zehn Prozent lieferten gar keine Begründung (Nature 582, S. 149, 2020).
Vuong schlägt vor, jeder Retraction vier Daten beizugeben: Wer hat sie veranlasst? Was war der Grund (methodischer Fehler, Plagiat, absichtlicher Betrug)? Waren sich Redakteure und Autoren darin einig? Stellte sich erst nachträglich die Nichtreproduzierbarkeit heraus?
Denn, so Vuong mit Recht, Retractions sind an sich nichts Schlechtes. Sie korrigieren menschliches Fehlverhalten und stärken den Wissenschaftsprozess. Auch aus Schaden wird man klug.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.