Wissenschaftliches Publizieren: Das kennen wir doch schon!
"Publish or perish!", frei übersetzt: "Wer schreibt, der bleibt!" - Forscher sehen sich einem gnadenlosen Publikationsdruck ausgesetzt. Nur wer ausreichend "Paper" in renommierten Zeitschriften unterbringt, kann auf eine wissenschaftliche Karriere hoffen. Da ist die Verlockung groß, Veröffentlichungen schlicht abzuschreiben - auch die eigenen.
"Ne, das hatten wir doch schon mal! Da gab's doch erst vor 'nem halben Jahr ein Paper mit genau der gleichen Geschichte!" Derartige Ausrufe kommen in der Redaktionssitzung von spektrumdirekt gar nicht so selten vor. Tatsächlich stoßen wir bei unserer täglichen Recherche immer wieder auf wissenschaftliche Veröffentlichungen, die auffallend älteren Publikationen ähneln – und entscheiden uns, nicht über sie zu berichten.
In den seltensten Fällen dürfte dabei ein echtes Plagiat vorliegen, bei dem also ein Autor schlicht beim anderen abgeschrieben hat. Meist sind es dieselben Wissenschaftler, die ihre Forschungsergebnisse "zweitverwerten". Die Verlockung ist ja auch groß: Hier ein aktueller Messwert in einer Grafik, dort eine kleine ergänzende Tabelle – und schon entsteht ein neues "Paper", das die heiß geliebte Publikationsliste ein wenig verlängert.
Wissenschaft schreitet natürlich voran, Messdaten müssen aktualisiert und im Lichte weiterer Forschungsergebnisse neu interpretiert werden. Und da das Arbeitsfeld der meisten Forscher eng abgesteckt ist, wundert es nicht, wenn die Titel der Publikationen einer Arbeitsgruppe immer wieder ähnlich klingen. Der Übergang zwischen berechtigter Aktualisierung und fragwürdiger Duplizierung von Ergebnissen bewegt sich in einer fließenden Grauzone.
Déjà vu
Doch wie häufig kommen diese Fehltritte, die bislang nur zufällig entdeckt werden, in der Wissenschaftlerzunft wirklich vor? Und was kann man dagegen tun? Als Mittel gegen dieses Übel entwickelte der Mediziner Harold Garner von der Universität von Texas in Dallas zusammen mit seinen Kollegen das Computerprogramm "eTBLAST", mit dem sich Abstracts, also die Kurzzusammenfassungen der Publikationen, nach Textparallelen durchforsten lassen. Unter dem treffenden Namen "Déjà vu" haben es die Forscher im Internet öffentlich zugänglich gemacht.
In einem ersten Testlauf analysierten die Plagiatfahnder 62 000 zufällig ausgewählte biomedizinische Publikationen der letzten zwölf Jahre, die über die Datenbank Medline der National Library of Medicine zugänglich sind. Nur bei einem Bruchteil von 0,04 Prozent fanden sich auffällige Textparallelen bei verschiedenen Autoren – hier hatte wohl ein Wissenschaftler vom anderen abgeschrieben. Deutlich höher mit 1,35 Prozent lag der Anteil fast wortgleicher Texte derselben Autoren, die vermutlich gleiche Ergebnisse mehrfach publiziert hatten.
Die Prozentzahlen mögen zunächst niedrig klingen. Mit 8,7 Millionen Abstracts, die in Medline abgespeichert sind, summieren sich die Zahlen der Duplikate auf etwa 117 500 und die der Plagiate auf 3500.
In einem zweiten Schritt durchforsteten Garner und Co 7 064 721 Medline-Zitate. Nun erzielte ihr Programm insgesamt 70 458 Treffer. Vorsichtig geschätzt dürften demnach unter den sieben Millionen Arbeiten 50 000 vom gleichen Autor doppelt oder von anderen Forschern abgeschrieben sein. Da die Flut wissenschaftlicher Arbeiten immer weiter ansteigt, wird nach Ansicht von Garner auch die Zahl mehrfach publizierter Ergebnisse wachsen.
Doppelt geklaut
Wie dreist dabei manche Forscherkollegen vorgehen, zeigte das Beispiel eines Chirurgen aus Malaysia, der eine Operationsmethode vorstellte. Hier spuckte der Computer eine ältere, nicht zitierte Studie einer anderen Arbeitsgruppe aus, die zu 95 Prozent wortgleich mit identischen Abbildungen und Tabellen war. Auch die Parameter der untersuchten Patienten sahen gleich aus – nur deren Anzahl war verdoppelt.
Skeptisch geworden schauten sich Garner und Co die Publikationsliste des verdächtigen Autors genauer an – und spürten vier weitere Quellen auf, bei dem sich der Mediziner offensichtlich "bedient" hatte. Und nicht nur das: Vier von acht Publikationen – davon drei abgeschriebene – hatte er in anderen, eher unbekannten Zeitschriften noch einmal veröffentlicht!
Duplikate in kleineren, wenig zitierten Blättern unterzubringen – um so einer Entdeckung zu entgehen – scheint Methode zu sein. Ein weiterer beliebter Trick lautet: Wir schreiben ein Review. Eigentlich sollten diese Übersichtsarbeiten die wichtigsten Ergebnisse eines Forschungsgebietes zusammenfassen. Wenn jedoch – wie in einem Fall – 75 Prozent des Textes, zwei von fünf Abbildungen und 90 Prozent der Zitate identisch zu einer älteren Originalarbeit sind, wird der Wert eines solchen Reviews zweifelhaft.
Asiatische Kopiertiger
Am häufigsten getürkt wird, kaum überraschend, in den USA – von hier stammen schließlich auch mit Abstand insgesamt die meisten Studien. Und so folgt die Länderverteilung verdächtiger Arbeiten der Gesamtverteilung biomedizinischer Publikationen – mit Deutschland auf Platz 3. Zwei Staaten fielen jedoch mit einem überproportional hohen Anteil duplizierter Studien auf: China und Japan.
Was ist zu tun? Garner empfiehlt sein Programm Zeitschriftenredakteuren und Gutachtern, um eingereichte Arbeiten zu überprüfen. Der Computer liefert jedoch nur auffällige Textparallelen, kann aber berechtigte Dopplungen, wie bei aktualisierten Langzeitstudien oder Korrekturen, von fragwürdigen Praktiken kaum unterscheiden.
"Weder der Computer noch wir können beurteilen, ob ein Artikel plagiiert oder aus anderen Gründen unethisch ist", betont Garner. "Diese Aufgabe bleibt den menschlichen Gutachtern, wie den Mitgliedern der universitären Ethikkommissionen und den Herausgebern der Zeitschriften – also den Gruppen, die letztlich dafür verantwortlich sind, die Legitimität festzulegen."
Garner selbst versteht übrigens sein Handwerk: Die Zeitschrift Bioinformatics, wo seine Arbeitsgruppe das Plagiatsuchprogramm vorstellt [1], stößt vermutlich nicht auf ein allzu großes Echo. Als wirkungsvoller dürfte sich erweisen, die gleiche Geschichte – diesmal allerdings in Form eines kurzen "Kommentars" – in Nature zu publizieren [2].
In den seltensten Fällen dürfte dabei ein echtes Plagiat vorliegen, bei dem also ein Autor schlicht beim anderen abgeschrieben hat. Meist sind es dieselben Wissenschaftler, die ihre Forschungsergebnisse "zweitverwerten". Die Verlockung ist ja auch groß: Hier ein aktueller Messwert in einer Grafik, dort eine kleine ergänzende Tabelle – und schon entsteht ein neues "Paper", das die heiß geliebte Publikationsliste ein wenig verlängert.
Wissenschaft schreitet natürlich voran, Messdaten müssen aktualisiert und im Lichte weiterer Forschungsergebnisse neu interpretiert werden. Und da das Arbeitsfeld der meisten Forscher eng abgesteckt ist, wundert es nicht, wenn die Titel der Publikationen einer Arbeitsgruppe immer wieder ähnlich klingen. Der Übergang zwischen berechtigter Aktualisierung und fragwürdiger Duplizierung von Ergebnissen bewegt sich in einer fließenden Grauzone.
Déjà vu
Doch wie häufig kommen diese Fehltritte, die bislang nur zufällig entdeckt werden, in der Wissenschaftlerzunft wirklich vor? Und was kann man dagegen tun? Als Mittel gegen dieses Übel entwickelte der Mediziner Harold Garner von der Universität von Texas in Dallas zusammen mit seinen Kollegen das Computerprogramm "eTBLAST", mit dem sich Abstracts, also die Kurzzusammenfassungen der Publikationen, nach Textparallelen durchforsten lassen. Unter dem treffenden Namen "Déjà vu" haben es die Forscher im Internet öffentlich zugänglich gemacht.
In einem ersten Testlauf analysierten die Plagiatfahnder 62 000 zufällig ausgewählte biomedizinische Publikationen der letzten zwölf Jahre, die über die Datenbank Medline der National Library of Medicine zugänglich sind. Nur bei einem Bruchteil von 0,04 Prozent fanden sich auffällige Textparallelen bei verschiedenen Autoren – hier hatte wohl ein Wissenschaftler vom anderen abgeschrieben. Deutlich höher mit 1,35 Prozent lag der Anteil fast wortgleicher Texte derselben Autoren, die vermutlich gleiche Ergebnisse mehrfach publiziert hatten.
Die Prozentzahlen mögen zunächst niedrig klingen. Mit 8,7 Millionen Abstracts, die in Medline abgespeichert sind, summieren sich die Zahlen der Duplikate auf etwa 117 500 und die der Plagiate auf 3500.
"Weder der Computer noch wir können beurteilen, ob ein Artikel unethisch ist"
(Harold Garner)
Noch frappierender erscheint die Masse potenzieller Fälschungen, wenn man auch die Medline-Zitate ohne Abstracts berücksichtigt, die bei vielen, insbesondere älteren Papern fehlen: Von bis heute 17 Millionen Publikationen könnten knapp 7000 "geklaut" sein. (Harold Garner)
In einem zweiten Schritt durchforsteten Garner und Co 7 064 721 Medline-Zitate. Nun erzielte ihr Programm insgesamt 70 458 Treffer. Vorsichtig geschätzt dürften demnach unter den sieben Millionen Arbeiten 50 000 vom gleichen Autor doppelt oder von anderen Forschern abgeschrieben sein. Da die Flut wissenschaftlicher Arbeiten immer weiter ansteigt, wird nach Ansicht von Garner auch die Zahl mehrfach publizierter Ergebnisse wachsen.
Doppelt geklaut
Wie dreist dabei manche Forscherkollegen vorgehen, zeigte das Beispiel eines Chirurgen aus Malaysia, der eine Operationsmethode vorstellte. Hier spuckte der Computer eine ältere, nicht zitierte Studie einer anderen Arbeitsgruppe aus, die zu 95 Prozent wortgleich mit identischen Abbildungen und Tabellen war. Auch die Parameter der untersuchten Patienten sahen gleich aus – nur deren Anzahl war verdoppelt.
Skeptisch geworden schauten sich Garner und Co die Publikationsliste des verdächtigen Autors genauer an – und spürten vier weitere Quellen auf, bei dem sich der Mediziner offensichtlich "bedient" hatte. Und nicht nur das: Vier von acht Publikationen – davon drei abgeschriebene – hatte er in anderen, eher unbekannten Zeitschriften noch einmal veröffentlicht!
Duplikate in kleineren, wenig zitierten Blättern unterzubringen – um so einer Entdeckung zu entgehen – scheint Methode zu sein. Ein weiterer beliebter Trick lautet: Wir schreiben ein Review. Eigentlich sollten diese Übersichtsarbeiten die wichtigsten Ergebnisse eines Forschungsgebietes zusammenfassen. Wenn jedoch – wie in einem Fall – 75 Prozent des Textes, zwei von fünf Abbildungen und 90 Prozent der Zitate identisch zu einer älteren Originalarbeit sind, wird der Wert eines solchen Reviews zweifelhaft.
Asiatische Kopiertiger
Am häufigsten getürkt wird, kaum überraschend, in den USA – von hier stammen schließlich auch mit Abstand insgesamt die meisten Studien. Und so folgt die Länderverteilung verdächtiger Arbeiten der Gesamtverteilung biomedizinischer Publikationen – mit Deutschland auf Platz 3. Zwei Staaten fielen jedoch mit einem überproportional hohen Anteil duplizierter Studien auf: China und Japan.
Was ist zu tun? Garner empfiehlt sein Programm Zeitschriftenredakteuren und Gutachtern, um eingereichte Arbeiten zu überprüfen. Der Computer liefert jedoch nur auffällige Textparallelen, kann aber berechtigte Dopplungen, wie bei aktualisierten Langzeitstudien oder Korrekturen, von fragwürdigen Praktiken kaum unterscheiden.
"Weder der Computer noch wir können beurteilen, ob ein Artikel plagiiert oder aus anderen Gründen unethisch ist", betont Garner. "Diese Aufgabe bleibt den menschlichen Gutachtern, wie den Mitgliedern der universitären Ethikkommissionen und den Herausgebern der Zeitschriften – also den Gruppen, die letztlich dafür verantwortlich sind, die Legitimität festzulegen."
Garner selbst versteht übrigens sein Handwerk: Die Zeitschrift Bioinformatics, wo seine Arbeitsgruppe das Plagiatsuchprogramm vorstellt [1], stößt vermutlich nicht auf ein allzu großes Echo. Als wirkungsvoller dürfte sich erweisen, die gleiche Geschichte – diesmal allerdings in Form eines kurzen "Kommentars" – in Nature zu publizieren [2].
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.