Direkt zum Inhalt

Kommentar: Forscher fördern, nicht Projekte

Allein das Schreiben von Projektanträgen beschäftigt Wissenschaftler mehr, als ihnen lieb ist. John P.A. Ioannidis liefert Vorschläge, die Abhilfe schaffen sollen.
Geldübergabe
Das System der Forschungsförderung ist zerrüttet: Es sorgt dafür, dass Wissenschaftler schlicht keine Zeit mehr haben, sich um Wissenschaft zu kümmern. Man misst sie ja an den eingeworbenen Fördertöpfen, also richten sie ihre Anstrengungen vor allem auf das Beantragen, Überwachen und Managen der Gelder [1]. Zudem sind sie dem Steuerzahler gegenüber auch verpflichtet, ihre Forschung zu legitimieren und Resultate zu liefern – was dazu verführt, Ergebnisse übertrieben herauszustellen. Alternativ langweilen sie mit Projekten, die allzu Vorhersehbares produzieren. Dagegen wurden etwa 30 Prozent aller grundlegenden Studien von Medizin- und Chemie-Nobelpreisträger gar nicht erst gefördert [2].

Wohl jeder Wissenschaftler kennt das Problem und wartet ungeduldig auf eine Lösung. In manchen Fällen mag es zwar unverzichtbar bleiben, detaillierte Anträge einzureichen – etwa bei streng organisierten klinischen Studien oder großen Forschungskollaborationen –, insgesamt aber wächst überall der Wunsch nach schlankeren Methoden, mit denen grundlegende Forschung zu finanzieren ist.

Ein paar Organisationen versuchen sich auch schon an der Umsetzung verschiedenster Ansätze. Alle könnten parallel verfolgt werden, und die Einzelposten eines Gesamtbudgets sind wohl gut auch durch jeweils verschiedene dieser Ansätze zu bedienen.

Im Folgenden sollen ein paar aussichtsreiche Vorschläge skizziert werden, mit denen Wissenschaftler Zeit bei der Beantragung von Fördergeldern sparen könnten – Vor- und Nachteile jeweils inklusive. Endgültig ausgeräumt werden kann das Problem wohl nur mit tief greifenden Änderungen des Systems, was einige Forscher – mit Recht – ziemlich nervös machen dürfte. Aber auch heute schon kann man aus kleineren Pilotprojekten lernen, welche Ansätze womöglich besonders nützlich sind.

Jedermann fördern (oder nur ein paar Glückspilze?)

Ein Teil des Forschungsetats (alternativ auch der ganze Topf) könnte zu gleichen Teilen auf in Frage kommende Wissenschaftler verteilt werden – oder, nach dem Zufallsprinzip, an ein paar wenige Glückliche. Würde derart gleichberechtigt aufgeteilt, so erhielte jeder Forscher nur einen kleinen Betrag, der, wenn die Forschungskosten hoch sind, rasch ergebnislos verpulvert sein dürfte. Mancher Forschungszweig – nehmen wir die Mathematik – kann aber auch mit wenig Geld viel erreichen; und je nach Ausgangslage sind die ausgestreuten Summen durchaus substanziell. So würden zum Beispiel rund 300 000 Forscher etwa 50 000 US-Dollar erhalten, wenn die Hälfte des jährlichen Förderbudgets der US-Gesundheitsbehörde (31,2 Milliarden US-Dollar) gleichmäßig verteilt würde.

Ein Losverfahren widerspricht dem meritokratischen Prinzip der Wissenschaftsförderung, dennoch wird es versuchsweise schon eingesetzt: Das Foundational Questions Institute in New York interessiert sich für ungelöste Fragen aus Physik und Kosmologie und hat das Los implementiert, um kleine Fördertöpfe von 1000 bis 15 000 US-Dollar zu verteilen. Das ist nicht ganz so ungewöhnlich, wie es zunächst klingt: Auch die mit etablierten Peer-Review-Verfahren einhergehenden Ungerechtigkeiten sorgen dafür, dass rund ein Drittel der derzeit vergebenen Fördermittel ganz per Zufall ausgeschüttet werden [3]. Derartiges wird eher noch zunehmen, denn eine wachsende Quote abgelehnter Anträge bringt Forscher dazu, die Geldgeber mit weiteren Anträgen zu bombardieren, weshalb immer weniger qualifizierte Reviewer Zeit finden, sich um einen einzelnen Antrag zu kümmern. Als Nachteil der aleatorischen Mittelverteilung bleibt hingegen, dass nicht alle Wissenschaftler, die es verdient hätten, auch gefördert werden.

Förderung von Verdiensten

Ein gemeinschaftliches "Peer"-Verfahren könnte die Forschungsbeiträge und die Reputation von Wissenschaftlern bewerten und so einen Kreis führender Köpfe und Experimentatoren eingrenzen, die einer unbeschränkten Förderung würdig sind. Schon jetzt beeinflussen die Meriten eines Forschers das Absegnen projektbasierter Anträge, im Normalfall wird dem aber weniger Gewicht beigemessen als Projektinhalten.

Diese Peer-Bewertung funktioniert bei Juniorwissenschaftlern mit einer noch kurzen Publikationsliste schlecht. Bei länger etablierten Wissenschaftlern spricht die Berufslaufbahn allerdings Bände: Im Vergleich dazu böte der Blick auf den Einzelantrag immer nur einen arg begrenzten Ausschnitt.

Das Mac Arthur Fellow Program selektiert, zum Beispiel, mit einem lupenreinen Peer-Auswahlverfahren jedes Jahr 20 bis 30 Kandidaten auf der Basis herausragender Kreativität und ihrem Potenzial für außergewöhnliche Leistungen in der Zukunft. Die Auserwählten können mit den über fünf Jahre ausgezahlten 500 000 US-Dollar dann – ohne jede weitere Rechtfertigung – tun und lassen, was sie wollen.

Auf der anderen Seite könnte ein System, in dem tausende Anträge bearbeiten werden müssen, mehr als ausgelastet sein, wenn der Lebensweg aller Antragstellers im Detail beleuchtet werden muss – womöglich spart das den Fördergeldempfänger Zeit, die administrativen Anforderungen an die Reviewer werden aber auf jeden Fall steigen. Die Herangehensweise ist außerdem anfällig für eine Art der Günstlingswirtschaft: Hier werden dann womöglich nur herausragende Einzelne mitsamt ihrer Forschungsidee ausgewählt, während Tausende jener Wissenschaftler ausgespart bleiben, die kleinere Studien auf hohem Niveau durchführen.

Um diese Subjektivität und den Aufwand der Analyse tausender Lebensläufe zu minimieren, muss ein automatisierter Prozess ausgearbeitet werden, der die einzelnen Verdienste relativ zueinander bewertet. Ein solches System dürfte wohl auf objektiven Indizies beruhen. Der Anteil am jährlich verteilten Forschungsbudget würde dann anhand des wissenschaftlichen Forscherwerts ermittelt, der sich aus zuvor spezifizierten Formeln errechnet.

Ein solches indexbasiertes Antragsprozedere kennen viele Forscher längst, vor allem in Europa. Zum Beispiel funktioniert das UK Research Assessment Exercise nach diesem Prinzip – ein viel gehasstes und heiß diskutiertes System zur Bewertung einzelner Forschungsabteilungen. Allerdings wird sein Nachfolger, das Research Excellence Framework, sogar noch mehr auf Indizes setzen, wenn es im Jahr 2014 an den Start geht. Ein Maßsystem ist auch Grundlage für Einstellungsverfahren an deutschen Max-Planck-Instituten oder in Italien – einem Staat, der mit dem Ruch eines weit verbreiteten Nepotismus zu kämpfen hat. Jedoch sind die Verfahren hier entweder simplifiziert, wenn sie schlicht auf der Anzahl von Veröffentlichungen in Peer-Review-Wissenschaftsmagazinen beruhen; oder inadäquat, wenn sie den Impact-Faktor des Journals statt den einzelnen Artikel bewerten. Um den Forschungswert eines Wissenschaftlers tatsächlich zu ermitteln, sind ausgefeiltere Methoden notwendig.

Darüber hinaus sind Indizes aber auch durch intrinsische Einflussnahme manipulierbar, wenn auch einige mehr als andere. Um dem entgegenzutreten, sollte das System Indizes implemetieren, die etwa das Zitieren eigener Arbeiten nicht einberechnet und Qualität statt Quantität bewertet – also auf die Anzahl von Zitationen einer Veröffentlichung mehr Gewicht legt als auf die Zahl der insgesamt veröffentlichten Studien. Zudem muss verhindert werden, dass Gastautoren profitieren, indem der Index Koautorenschaften gesondert wertet und einberechnet, wenn zwar viele, dabei aber qualitativ dünne Studien veröffentlicht wurden. Mehrere Indizes könnten kombiniert werden.

Denkbar wäre zudem, dass Finanzierungssysteme Praktiken belohnen, die der wissenschaftlichen Gemeinschaft zugutekommen – etwa auf einen unbehinderten Datenaustausch [4], hohe Qualitätsstandards bei der Methodenwahl, eine sorgfältige Studienplanung oder die lückenlose Dokumentation der wissenschaftlichen Arbeit [5]. Die Offenheit zur Kollaboration und der Verzicht auf eine bevorzugte Veröffentlichung "positiver" gegenüber "negativer" Resultate könnte ebenfalls belohnt werden, des Weiteren die ausgewogene Darstellung der Beschränkungen einer Veröffentlichung oder auch ein qualifizierter Beitrag als Peer-Reviewer zur Ausbildung, das Führen eines Blogs oder das Pflegen von Datenbanken. Forscher könnten zudem Punkte sammeln, wenn sie reproduzierbare Daten, Protokolle und Algorithmen veröffentlichen. Manche solcher nützlichen Beiträge zum Allgemeinwohl sind mit automatisierten Verfahren allerdings schwer zu fassen – einer der Nachteile des Peer-Verfahrens.

Grobe Zieldefinition

Zeit könnte auch schon eingespart werden, indem das Antragsprozedere generell vereinfacht wird. Man könnte die Wissenschaftler zum Beispiel um die Eingabe kurzer Zusammenfassungen des Forschungsvorhabens bitten, in denen nur das Endziel grob umrissen ist. Solche Anträge sind einfacher verfasst, begutachtet und entschieden; zudem wären die Projektschritte anschließend flexibler zu gestalten. Nach diesem Vorbild werden heute bereits die NIH Director's Pioneer-Awards und die Bewilligungen am Howard Hughes Medical Institute (HHMI) vergeben. Das HHMI lässt dabei 300 verdiente Wissenschaftler und 50 Nachwuchsforscher ambitionierte Risikoprojekte mit schwer absehbarer Perspektive auf zukünftige Anwendbarkeit vorstellen und wählt aus diesen nach einem Peer-Verfahren. Die Fördermittel werden nach fünf Jahren auch dann schon verlängert, wenn das bloße Bemühen dokumentiert werden kann, das Projektziel zu erreichen. Erst nach zehn Jahren müssen für eine weitere Förderung dann auch Ergebnisse präsentiert werden. Bei solchen Systemen zur Förderung von Projekten mit hochgesteckten Innovationszielen sollte beachtet werden, dass sie Antragsteller dazu bringen können, ihre Ideen übertrieben optimistisch zu präsentieren.

Beförderungen nicht nur für die Geldeintreiber

Die Summe eingeworbener Fördergelder wird oft zur Bewertungsgrundlage für Beförderungen und den Karrierefortschritt eines Wissenschaftlers. Mancher Forscher gerät dadurch in Versuchung, möglichst viele Anträge für vergleichsweise unspannende Projekte mit hohem Finanzierungsaufwand einzureichen und dafür die originellen Ideen ad acta zu legen, die mit geringem Aufwand testweise anzugehen wären. Diese Praxis ist für Förderinstitutionen kostspielig: Forscher wie Verwalter der Fördertöpfe beschäftigen sich über Gebühr mit dem Bewerten von Anträgen und ihren Details, ihrer Anhänge, der Zeitplanung und der Rechtfertigung des gewählten Themas, der Dokumentation aller Fortschritte und den Abschlussberichten. Und dabei resultiert aus vielen großen Projekten am Ende nicht einmal wissenschaftlicher Fortschritt – selbst wenn sie kurzfristig Geld einspielt, lohnt sich diese Strategie auf lange Sicht womöglich kaum.

Ein individuelles Fördermittelportfolio sollte also nicht Kriterium für Beförderungen sein. Stattdessen wäre es für Entscheiderkomitees sinnvoll, sich auf die tatsächlichen erbrachten Resultate zu konzentrieren. Anders gesagt: Sich auf eingeworbene Summen zu stützen, ist wie das Bewerten eines Gemäldes anhand der Summe, die Pinsel und Leinwand gekostet haben – und nicht anhand seiner künstlerischen Qualität.

Was schon jetzt getan werden kann

Alle genannten Optionen können umgesetzt werden – entweder langsam und schrittweise oder durch eine umfassende Veränderung des Systems. Diese Umwälzung würde vermutlich Jahren dauern; Jahre, in denen sie wahrscheinlich leidenschaftlich debattiert und bekämpft würde. Kleinere Schritte – etwa eine Anpassung des üblichen Beförderungsprozederes – wären leichter zu erreichen. In die etablierten Förderverfahren könnten Pilotprogramme integriert werden, über die Gelder ohne besonderen Antrag oder mit allgemeiner gefasstem Projektziel ausgeschüttet werden.

An einigen Kanten muss allerdings noch gefeilt werden. Unabhängig von der Förderoption: Ein Konflikt über die Anzahl zu förderndender Wissenschaftler ist immer vorprogrammiert. Ungeklärt bleibt auch, ob es sinnvoller ist, wenige Forscher mit einem großen Batzen oder viele Forscher mit kleinen Beträgen auszustatten. Einige der Systeme sind besser geeignet, eine Vielzahl von Forschern zu bedenken – andere arbeiten besser bei einer Selektion der Besten.

Es muss untersucht werden, welches System wann am besten funktioniert. Skandalöserweise werden heute Milliarden ausgeschüttet, ohne dass je untersucht wurde, ob sie wirklich bestmöglich verteilt werden. Eine retrospektive Beurteilung ist dabei zwar einfach, sie wird aber schnell undurchsichtig, sobald man zwei Projekte vergleicht, die auf unterschiedliche Art gefördert worden sind. Ein Beispiel: In einer Studie konnte nachgewiesen werden, dass die vom HHMI geförderten Wissenschaftler mehr Publikationen in Fachzeitschriften mit hoher Reputation veröffentlich und mehr Aufmerksamkeit erreicht haben als ihre vom NIH unterstützen Kollegen [6]. Ein wirklicher Vergleich ist allerdings unmöglich: Schon die hohe Reputation der HHMI könnte dafür sorgen, dass Veröffentlichungen mehr Anerkennung erfahren.

Im Vorfeld einer Vergabe durchgeführte Beurteilungen sind dagegen verlässlicher, dies verlangt aber eine sorgfältige Analyse. Man könnte zum Beispiel eine Versuchsreihe mit freiwillig teilnehmenden Forschern andenken, die jeweils nach unterschiedlichen Optionen gefördert werden – um im Anschluss zu analysieren, welche auf lange Sicht messbar erfolgreichere Resultate ermöglicht hat.

Am Ende muss aber eine monetäre Förderung immer vor allem die langfristigen Ziele der Wissenschaft voranbringen. Schließlich führen ja nur ganz wenige wissenschaftliche Studien zu einem direkten, durchschlagenden und nachhaltigen Durchbruch. Rar ist auch der unmittelbar erfolgreiche Transfer aus der Grundlagenforschung in die angewandte Praxis, meist gehen vorher rund drei Jahrzehnte ins Land [7]. Ziel der Wissenschaft ist die Erweiterung unseres Horizonts; das wird am Ende dann Früchte in Form sinnvoller Anwendungen tragen. Aus diesem Grund haben viele die Forschung zu ihrer Berufung gemacht – sie mit dem Schreiben von Anträgen auszulasten, kann nicht in unserem Sinn sein. Höchste Zeit, die Sache anders anzugehen.
  • Quellen
[1] Sci. Am. 304, S. 10, 2011
[2] FASEB J. 24, S. 1335–1339, 2010
[3] Nature 469, S. 299, 2011
[4] Nature 467, S. 401, 2010
[5] J. Clin. Invest. 40, S. 35–53, 2010
[6] Incentives and Creativity: Evidence from the Academic Life Sciences (NBER Working Paper No. 15466, 2009
[7] Science 321, S. 1298–1299, 2008

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.