Hochschulranking: Fragwürdige Form der Beurteilung
Als die Deutsche Gesellschaft für Soziologie (DGS) im April dieses Jahres dazu aufrief, die Beteiligung am CHE-Ranking zu beenden, war dies der Schlusspunkt einer ergebnislosen Diskussion, die mit dem Centrum für Hochschulentwicklung über mehrere Monate geführt worden war. Da sich das CHE weigerte, trotz der vielstimmigen Kritik an seinem Ranking methodische Veränderungen anzubringen, blieb der DGS nur der Ausstieg.
Ihm haben sich mittlerweile soziologische Institute an über 30 deutschen Universitäten angeschlossen – darunter viele Institute, die in diversen Rankings zur Spitzengruppe der Soziologie in Deutschland gezählt werden wie die TU Berlin, in Bielefeld, die TU Darmstadt, in Frankfurt, Freiburg, Jena, Mainz, Bremen oder an der LMU München. Der Ausstieg aus dem CHE-Ranking bedeutet nicht, dass die Soziologie Evaluationen an sich ablehnen würde. Im Gegenteil, das Fach hat zum Beispiel beim Rating des Wissenschaftsrats eine Vorreiterrolle übernommen. Aber das CHE-Ranking ist eine mangelhafte Form der Beurteilung wissenschaftlicher Leistungen in Forschung und Lehre – aus mehreren Gründen.
So beruht das CHE-Ranking auf falschen Vergleichen: Um eine "Rangliste" erstellen zu können, misst das CHE Sachverhalte, die sich quantitativ nicht vergleichen lassen. Soziologische Institute haben unterschiedliche Ausrichtungen und Schwerpunkte. Nehmen wir als Beispiel drei verschiedene Soziologie-Institute: Eines ist geisteswissenschaftlich orientiert und verfügt über eine hervorragende Bibliothek, der PC-Pool ist eher klein. Ein anderes Institut ist bekannt für statistische Analysen der Sozialpolitik. Der PC-Pool ist sehr gut, die Theorieausbildung anderswo breiter. Das dritte Institut schließlich ist in der ethnografischen Feldforschung aktiv und hat dafür viele Tutorinnen und Tutoren, aber nicht so viele Computer. Welches Institut ist das beste? Fraglich ist überdies, ob Institute überhaupt eine geeignete Untersuchungseinheit sind. Zumal in den Geistes- und Sozialwissenschaften Professoren die Träger wissenschaftlicher Leistungen sind. Die Bewertung ganzer "Standorte" erzeugt lauter Fehlschlüsse, da sie eher die Homogenität einer Einrichtung misst als die Leistungsfähigkeit der Professoren, bei denen die Studierenden ihr Studium absolvieren.
Das CHE-Ranking hat darüber hinaus methodische Mängel. Bei der Konstruktion von Leistungsindikatoren und der Erhebung der zu Grunde liegenden Daten geht das CHE fehlerhaft vor. Die Studierendenbefragung ist auf Grund geringer Rücklaufquoten, niedriger Fallzahlen und fehlender Repräsentativität Ausdruck unkontrollierter Willkürlichkeit. Untaugliche Indikatoren werden verwendet, wenn etwa die Forschungsleistung einer wissenschaftlichen Einheit durch die Anzahl des Lehrpersonals dividiert wird und somit Hochdeputatstellen mitgezählt werden. Als Kriterium der Studienqualität dient allein die Methodenausbildung – warum nicht auch Sozialstrukturanalyse oder Soziologische Theorie? Zugleich tauchen wichtige Indikatoren der Lehrqualität gar nicht in den Erhebungen des CHE auf wie etwa die Betreuungsrelationen. Auf der Grundlage einer solch irreführenden Datenlage ist die Bildung von "Ranglisten" nicht zu rechtfertigen.
Und schließlich desinformiert das CHE-Ranking. Bei der medialen Darstellung des CHE-Rankings im "ZEIT-Studienführer" werden ohne Begründung nur ein Drittel der zirka 18 erhobenen Indikatoren dargestellt und in eine "Ampelsymbolik" überführt, die viel stärker der Erzeugung medialer Aufmerksamkeit dient als der sinnvollen Information von Studieninteressierten.
Das CHE hat sich den Forderungen aus der Wissenschaft nach substanziellen Veränderungen seines Rankings bisher widersetzt. Unser Ausstieg aus dem Ranking soll bewirken, das Antwortverhalten eines Akteurs in der Wissenschaftspolitik zu verbessern, der als Ableger der Bertelsmann Stiftung dem Wissenschaftssystem selbst nicht angehört. Manchmal müssen Botschaften etwas lauter sein, damit sie von außen gehört werden.
Schreiben Sie uns!
3 Beiträge anzeigen