Vermessene Hochschulen: Kontrolle gut – Vertrauen besser
Im internationalen Wettbewerb unter den Hochschulen wird wissenschaftliche Leistung immer detaillierter vermessen. Verbessert das auch die Forschung?
Harte Töne schlug der Medienwissenschaftler Bernhard Pörksen diesen August in der deutschen «Zeit» an: Es finde an den Hochschulen ein «Feldversuch im Anreizbusiness» statt, der zur «Selbstkastration einer kritischen Intelligenz» führe: «Auf einmal wird überall gezählt, gerechnet, gewogen.» Vor diesem Hintergrund trete «aussengeleitete Gefallsucht» an die Stelle des «inneren Erkenntnishungers».
Seit den neunziger Jahren werden Indikatoren wissenschaftlicher Leistung zunehmend vermessen. Im Zuge neuer Managementtheorien hat man die Universitäten auch in der Schweiz aus der staatlichen Verwaltung ausgelagert – im Gegenzug sollten sie über ihr Tun Rechenschaft ablegen. Die Fortschritte der Informationstechnik ermöglichten das Erfassen neuer Kennzahlen – beispielsweise wie oft eine wissenschaftliche Arbeit in wie wichtigen Zeitschriften zitiert wird. Mittlerweile lassen sich für Einzelpersonen wie für Institutionen Ranglisten, «impact factors» (Einflussfaktoren) und andere Kennzahlen per Handy-App berechnen.
Die Kritik folgte schon bald: Die Zahlen bildeten die Realität verzerrt ab. Sie würden Anreize schaffen, sich kennzahlenkonform zu verhalten, und bestraften so namentlich Originalität und Risikofreude. Und schliesslich koste die Erbsenzählerei Zeit, die zum Forschen und Lehren fehle. In der Schweiz hat der Ökonom Mathias Binswanger schon von «Kindergartenniveau» an den Hochschulen gesprochen und Libero Zuppiroli, Professor der ETH Lausanne, von «Bling-Bling-Wissenschaft».
Sogar die WissenschaftsvermesserInnen selber zeigen sich beunruhigt. Im April publizierten AutorInnen aus dem Umfeld des Zentrums für Wissenschafts- und Technikstudien der Universität Leiden – eines Zentrums, das wissenschaftliche Leistungen misst – in der Fachzeitschrift «Nature» das «Leiden-Manifest», in dem sie mahnten: «Wir riskieren, das System mit den Werkzeugen zu beschädigen, die geschaffen wurden, es zu verbessern.»
Evaluationen: Weniger ist mehr
Was ist dran an so viel Kritik? «Zur Fundamentalkritik mag ich mich gar nicht mehr äussern, die steht auf sehr schwachen empirischen Füssen», sagt Hans-Dieter Daniel, Professor für Hochschulforschung an der ETH Zürich und Leiter der unabhängigen Evaluationsstelle der Uni Zürich. «Natürlich bringen Rankings, die einfach Nobelpreise zählen, nichts. Aber da kräht heute doch kein Hahn mehr danach. Es gibt längst Instrumente, die die Daten sehr differenziert analysieren. Damit können Sie die häufig genannten Nachteile kompensieren, etwa, dass nicht englischsprachige Publikationen unterbewertet würden. Man muss die Instrumente nur richtig einsetzen.» Dass eine Universität, die von öffentlichen Geldern lebte, über ihre Leistungen Rechenschaft ablege, sei doch richtig – und: «Jungen Akademikern bringt es nichts, wenn man einfach sagt, das sei alles Unsinn. Sie brauchen Orientierungshilfen, damit sie wissen, was in ihrer Karriere zählt.»
Dass es darauf ankomme, wie man die Instrumente einsetzte, sei richtig, sagt Daniels Professorenkollege Gerd Folkers. «Aber das ist ja gerade die Krux: Wer weiss denn, was richtig ist?»
Folkers leitet das Collegium Helveticum der Uni und der ETH Zürich. Und er ist Mitglied des Schweizerischen Wissenschafts- und Innovationsrats, der sich intensiv mit Wissenschaftsbewertung befasst hatte und Ende 2013 ein – empirisch basiertes – Diskussionspapier publizierte. Dessen Fazit ist kritisch: «Bisherige Studien über die Wirkungen quantitativer Anreizsysteme haben nachteilige Einflüsse auf die Qualität der Forschung aufgezeigt.» Sozialpsychologische Studien hätten nachgewiesen, dass Evaluationen Kreativität und Motivation der Evaluierten schwächten; ihre Häufigkeit sollte deshalb «dringend reduziert werden». Schliesslich: «Die zentrale Zielvorstellung des New Public Management, in der Wissenschaft Effizienz über Leistungsanreize und -kontrollen zu steigern, verkennt das Wesen wissenschaftlicher Prozesse.» Oder wie Folkers sich ausdrückt: «Gerade exzellente Hochschulen sollten ihren Mitarbeitern einen Vertrauensvorschuss gewähren – woher sollte sonst die Motivation für Aussergewöhnliches kommen?»
Mehr unakademische Tugenden
Durch Messen und Vergleichen lässt sich Exzellenz nicht erzwingen – aber lässt sie sich dadurch tatsächlich schrecken? Sandra Richter, Germanistikprofessorin und Mitglied des deutschen Wissenschaftsrats, zweifelt daran. In der «Zeit» hat sie auf Bernhard Pörksen erwidert: Dass sich so wenig Intellektuelle öffentlich äusserten, liege nicht an falschen Anreizen, sondern daran, dass Intellektuelle vor allem eine Eigenschaft brauchten: Chuzpe. Und die sei eine «unakademische Tugend». Man kann ihr schwerlich widersprechen.
«Es geht um die richtige Balance»
WOZ: Frau Klöti, wie wichtig sind Rankings an Schweizer Unis?
Anita Klöti: Es gibt eine Aufmerksamkeit für solche Ranglisten. Vor allem teure Studiengänge wie etwa MBA-Studien verwenden gute Rankingplätze als Verkaufsargument. Aber keine Hochschule hierzulande richtet sich danach aus.
Aber als Student muss ich doch wissen, welche Uni wie gut ist, um mich entscheiden zu können!
Eine Studie der Uni St. Gallen hat gezeigt, dass die Studierenden in der Schweiz auf Bachelorstufe wenig mobil sind: Sie studieren möglichst nah am Wohnort. Für die Masterstufe gibt es keine Zahlen, aber vermutlich richten sich die meisten nach den Fächern, die ihnen am besten entsprechen. Und für das Doktorat folgt man einer Professorin oder einem Professor, die oder den man gut findet. Da braucht man keine Rankings.
Taugen Bewertungen, die auf Kennzahlen beruhen, überhaupt etwas?
Wenn man eine spezifische Fragestellung hat und zum Beispiel wissen will, wie ein Fachgebiet unserer Uni wahrgenommen wird oder wo man unsere Forschung verfolgt und so weiter, dann kann man mit solchen quantitativen Instrumenten arbeiten. Rankings geben da allenfalls einen ersten Eindruck – allerdings nur für gewisse Fächer. Die Uni Zürich lässt sich von ihrer eigenen, unabhängigen Evaluationsstelle sehr differenziert begutachten.
Was ist ein gutes Ranking, was ein schlechtes?
Grob gesagt: Je spezifischer ein Ranking ist – je mehr es sich auf ein bestimmtes Fachgebiet oder einen bestimmten kulturellen Kontext beschränkt –, desto aussagekräftiger ist es.
Viele Wissenschaftlerinnen und Wissenschaftler beklagen sich über den bürokratischen Aufwand, den Evaluationen mit sich bringen.
Gewiss. Doch es gibt ein legitimes Bedürfnis der Öffentlichkeit, die uns finanziert, nach Rechenschaft. Da geht es um die richtige Balance zwischen Aufwand und Nutzen. Es scheint mir auch eine Generationenfrage zu sein: Für viele Jüngere ist es selbstverständlich, dass man ihre Arbeit evaluiert.
Interview: Marcel Hänggi