Das CHE-Hochschulranking 2009/10 ist alles andere als ein Studienführer

Ein Artikel von:

„Die Zeit“ als Medienplattform für dieses Ranking begibt sich mit der Veröffentlichung in den Graubereich der Vermischung von Journalismus und PR. Der „ZEIT-Studienführer“ dient eher der Imagepflege des CHE und der Bertelsmann-Stiftung als neutralen und gemeinnützigen Einrichtungen. Das Ranking selbst dient dem CHE, um seine Ideologie vom Wettbewerb als Steuerungsinstrument für die Hochschulen zu propagieren. Die dem Ranking zugrundeliegenden Kriterien werfen mehr Fragen als Antworten auf, aus kaum einem Kriterium lässt sich wirklich auf die Qualität des Studienangebotes schließen. Darüber hinaus ist höchst fraglich, ob die Bewertungen repräsentativ sind. Der „Zeit Studienführer“ ist für die weit überwiegende Zahl der Studierwilligen irrelevant, ja sogar eine Frust auslösende Irreführung, denn angesichts der um sich greifenden Zulassungsbeschränkungen kann sich ohnehin kaum noch ein Studienanfänger seinen Studienort auswählen. Wolfgang Lieb

Wieder einmal dient „Die Zeit“ als Medienplattform für das Hochschulranking des Centrums für Hochschulentwicklung (CHE) der Bertelsmann Stiftung.
Für diese Kooperation der nicht zum Bertelsmann Konzern gehörenden „Zeit“ mit dem privaten Think-Tank CHE gibt die Wochenzeitung folgende Gründe an:

  • das CHE-Ranking sei der größte Hochschulvergleich; die Urteile von 15.000 Professoren und rund 200.000 Studierenden an 2.000 Fachbereichen in mehr als 250 Hochschulen seien „getestet“ worden,
  • es sei der „seriöseste Hochschulvergleich, weil er in enger Zusammenarbeit mit Professoren aus den jeweiligen Fachgebieten entstehe und von Jahr zu Jahr weiterentwickelt werde“,
  • es sei der differenzierteste Hochschulvergleich, denn bis zu 34 Kriterien flössen in die Bewertung ein,
  • zudem bürgten „die Träger des CHE, die Hochschulrektorenkonferenz und die Bertelsmann Stiftung, für Qualität“ (so schreibt Thomas Kerstan).

Wer den „ZEIT-Studienführer“ ausschließlich als hilfreiches Angebot und objektive Information für Studierende und Studierwillige betrachtet, sollte Folgendes mit bedenken:

  1. Die sich einen ach so seriösen Anstrich gebende Wochenzeitung „Die Zeit“ begibt sich mit ihrer Berichterstattung, mit der Herausgabe der Broschüre eines „ZEIT- Studienführers“ und mit ihrem Internetportal www.zeit.de/hochschulranking in den Graubereich der Vermischung von Journalismus und Public Relation.
  2. „Die Zeit“ fördert das gezielt gepflegte Image von CHE und Bertelsmann-Stiftung als gesellschaftspolitisch neutrale, gemeinnützige Think Tanks, die sich angeblich für das Gemeinwohl engagieren und mit dem Hochschulranking der großen Gruppe der Studierenden eine großmütige Hilfestellung bei der Auswahl ihres Studienortes anbieten.

Bis auf den einschränkenden Hinweis, dass das Ranking „natürlich nicht andere Informationsquellen“ ersetze, gibt es keinen relativierenden oder kritischen Hinweis auf Sinn und Unsinn von Rankings generell oder auf den Stellenwert von Rankings für die Mission der Bertelsmann-Stiftung.

Für die Übernahme der Rolle einer Medienplattform für das CHE ist es für die ZEIT offenbar eine ausreichende Legitimation, dass der „ZEIT-Studienführer“ eine „große Nachfrage“ erfährt.

Ein eher kommerzielles Interesse also – und warum verkauft eigentlich das CHE dieses Ranking nicht unter seinem Namen?

Außerdem stützt sich die ZEIT auf das Urteil „internationaler Experten“ und zitiert eine Studie der Vereinigung Europäischer Hochschulen. Dieser „Association of European Universities“ (EUA) gehört auch die deutsche Hochschulrektorenkonferenz (HRK) an, und diese hat wiederum als ihren „wissenschaftlichen“ Schreibtisch das CHE. HRK und CHE veröffentlichen etwa ihre Reformvorschläge unter einem Kopfbogen. So schließt sich der Kreis.

Dass von der EUA mit Zustimmung der HRK das CHE und seine Aktivitäten kritisiert würden, darf man getrost ausschließen. Im Übrigen: So politisch neutral ist das Expertentum der EUA gewiss nicht. Sie hat ihren Sitz in Brüssel und ist eine der treibenden Lobbyorganisationen für den sog. Bologna-Prozess, d.h. der historisch tiefgreifendsten Umgestaltung der Studienorganisation und der Studieninhalte auf europäischer Ebene.

Aussagen kritischer Experten gegenüber dem CHE-Ranking wie etwa Alexander Kohler, dem Geschäftsführer der Austrian Agency for Quality Assurance (AQA), führt „Die Zeit“ selbstredend nicht an. Kohler hat wesentlich dazu beigetragen, dass die österreichischen Hochschulen sich nicht mehr an dem CHE-Hochschulranking beteiligten. Er führte methodische Kritikpunkte als Grund für den Ausstieg an. Über Uni-Rankings sagte er: “Sie bieten keine umfassende Information über die Qualität einer Universität. Sie stellen nur einen Ausschnitt des Leistungsspektrums dar.”

Die Schweizer Rektorenkonferenz hat sich schon längst wieder aus dem grenzüberschreitenden CHE-Ranking verabschiedet. Dass auch unter Deutschlands Studierenden das CHE-Ranking keineswegs unumstritten ist und vielerorts – wie etwa in Berlin – zum Boykott aufgerufen wird, ist der „Zeit“ auch keinen einschränkenden Hinweis wert.
In den USA haben sich mehrere Elitehochschulen, wie etwa Harvard und Wharton, den dort üblichen Hochschulrankings entzogen. Über die kritische Debatte bei uns (Vgl. etwa Konrad Liessmann, Theorie der Unbildung) über die Manie der Rankings findet sich in der Zeit gleichfalls kein Wort.

Vermischung von Journalismus und Public Relation
Wir müssen in Deutschland einen zunehmenden Einfluss von PR auf journalistische Medien beobachten. Dieser Einfluss reicht von vorgefertigten Werbetexten, die unkritisch und ohne Kennzeichnung als journalistische Beiträge übernommen werden, es gibt aber auch Grauzonen, und dazu zählt meines Erachtens das Zeit-Hochschulranking.

Um die Grenzüberschreitung deutlich zu machen, braucht man sich nur zu fragen, ob die ZEIT z.B. auch das „Internationale Standort-Ranking“ der Bertelsmann Stiftung als Medienplattform vertreiben würde. Das würde sich die ZEIT gewiss nicht erlauben, es wäre zu offensichtlich, das die Vergleichsmaßstäbe, die dort angelegt sind, an einem einseitigen und eindimensionalen wirtschaftspolitischen Paradigma ausgerichtet sind. Die ZEIT würde ja genauso wenig den Verteilungsbericht des Deutschen Gewerkschaftsbundes unter ihrem Namen anbieten.

Beim CHE-Hochschulranking bestehen diese Berührungsängste offenbar nicht. Man rechtfertigt sich mit dem Hinweis: „die Träger des CHE, die Hochschulrektorenkonferenz und die Bertelsmann-Stiftung, (bürgen) für Qualität“. Man tut also so, als wären CHE und Bertelsmann Stiftung neutrale, womöglich sogar wissenschaftlich unabhängige Instanzen, und man verschweigt darüber hinaus, dass die Hochschulrektorenkonferenz und das CHE ihre Studien unter „einem Kopfbogen“ publizieren.

Die ZEIT poliert das Image des CHE auf
Das CHE hatte früher einmal den „stern“ als Medienplattform für seine Hochschulrankings. Der „stern“ gehört zum Gruner+Jahr-Verlag, und dieser gehört wiederum zu 74,9% der Bertelsmann AG. Damit die Nähe zum Mutterkonzern der Bertelsmann Stiftung nicht ganz so offensichtlich ist, griff man gerne auf die ZEIT als kommunikative Plattform zurück. Und diese Wochenzeitung, die gerade die akademische Leserschaft erreicht, ist für das CHE der ideale Partner, um seine Klientel besser zu erreichen. Zumal wenn man nicht befürchten muss, dass auch nur der kleinste Hinweis darüber erfolgt, welche Rolle das CHE in der Hochschulpolitik spielt und welche Ziele Bertelsmann mit dem CHE verfolgt. „Die Zeit“ hilft somit, das Image des CHE als einer am Gemeinwohl oder am Beispiel des Hochschulrankings als einer am allgemeinen Informationsinteresse der Studierwilligen ausgerichteten Institution zu pflegen.

Es besteht eine – wie man das neudeutsch nennt – wunderbare „Win-win-Situation“, und deshalb braucht wohl die Verlagsgruppe Georg von Holtzbrinck, die die ZEIT verlegt, vermutlich nur einen geringen Betrag für das ziemlich aufwändige CHE-Ranking zu bezahlen.

Wozu CHE-Hochschulrankings?
Das CHE hat die aus den USA stammenden Hochschulrankings in Deutschland hoffähig gemacht. Zusätzlich zu den Hochschulrankings gibt es noch ein CHE-ForschungsRanking, ein CHE-LänderRanking und sogar noch ein CHE-AlumniRanking.

Überall, wo sich Bertelsmann und das CHE einmischen, geht es um Wettbewerb als Steuerungsinstrument für mehr Effizienz und für die Ausrichtung der Angebote der jeweils „gerankten“ Institutionen auf den Markt.
Da Wettbewerb und Konkurrenz nach der Grundphilosophie der Bertelsmann-Stiftung das beste und effizienteste Steuerungsinstrument ist, muss mit Ranglisten auch dort ein Wettbewerb fingiert und inszeniert werden, wo – wie etwa bei den Hochschulen – gar kein Markt existiert.

Die Hochschulrankings kommen aus den USA und haben dort einen gewissen Einfluss auf den Marktpreis für ein Studium, d.h. für die Höhe der Studiengebühren. Das liegt auch ganz auf der Logik des CHE – sozusagen des „Sturmtrupps“ für die Einführung von Studiengebühren -, und konsequent zu Ende gedacht, müssten die deutschen Hochschulen gleichfalls die Höhe ihrer Studiengebühren an ihrem Rangplatz ausrichten können. Dem schiebt die gesetzlich festgeschriebene Höchstgrenze auch in den Ländern mit Studiengebühren – noch – einen Riegel vor.

Deshalb verfolgt das CHE zunächst noch ein mittelbares Ziel: Durch die Vergleiche soll nicht etwa nur eine Selbsteinschätzung der einzelnen Hochschule ermöglicht werden, sondern vor allem ein Konformitäts- und Anpassungsdruck auf alle Hochschulen ausgehen.
Aus den Rankings sollen sich Qualitätsvergleiche ergeben, und wer am besten abschneidet, soll nach den Vorstellungen der Veranstalter solcher Rankings die Qualitätsmaßstäbe vorgeben. Das Ziel ist, dass sich die schlechter Platzierten im Wettbewerb an den besser Platzierten messen und dadurch eine Qualitätskonkurrenz zur vom CHE propagierten „Entfesselung“ der Hochschulen angestoßen wird.

Man kann nun lange über die Sinnhaftigkeit von Benchmarks oder Rankings streiten. Über eine Tatsache führt nichts hinweg: Wie bei allen Vergleichsmessungen geht es bei Rankings darum, dass Qualität quantifiziert werden muss. Oder anders: Man muss Qualität in Quantitäten ausdrücken, denn nur so lässt sich vergleichen und messen.

Ich will gar nicht bestreiten, dass manche dieser erhobenen Daten eine gewisse Aussagekraft besitzen. Wer jedoch den verobjektivierenden Eindruck erwecken will, mit solchen Umfragen und Zahlenangaben sei etwas über die Qualität von Forschung oder über die Qualität des Studiums oder gar etwas über die hoffentlich damit verbundene Bildung ausgesagt, der täuscht Qualität vor und täuscht damit diejenigen, die daran glauben.

Rankings sollen Objektivität vorspiegeln, und deshalb heben sich solche Messungen ganz bewusst von der Urteilsfähigkeit der Scientific Community, also dem Urteil der Fachkollegen übereinander oder der Einschätzung Gemeinschaft der Lehrenden und Lernenden ab.
Die Fetischisierung der Rangliste sei Ausdruck und Symptom einer „spezifischen Erscheinungsform von Unbildung“, nämlich mangelnder Urteilskraft, schreibt der Wiener Philosoph Konrad Paul Liessmann in seinem Buch „Theorie der Unbildung“.
„Tatsächlich ersetzt jede Reihung ein qualifiziertes Urteil, da sie besessen ist von der falschen Vorstellung, Urteilen hieße Quantifizieren“, meint Liessmann.
Nun muss man den neuhumanistischen Bildungsbegriff des Philosophen nicht teilen, aber recht hat Liessman, wenn er schreibt, dass der Gedanke des Vergleichens und der Reihung in Verbindung mit dem Paradigma betriebswirtschaftlichen Denkens steht, das den Betriebsablauf von Hochschulen eher mit dem von Unternehmen vergleicht.

34 Kriterien als Maßstab von Qualität?
Das CHE-Ranking wird als besonders hochwertig eingestuft, weil bei ihm 34 Kriterien – also mehr als in anderen Rankings – als Messgrößen eingehen. Motto: Je mehr Kriterien, desto eher schlägt Quantität in Qualität um.

Schauen wir uns einige „Qualitätsmerkmale“ genauer an:

  • Arbeitsmarkt und Berufsbezug. „Ermittelt wurden die Angebote für berufsbezogene Veranstaltungen und die Studierendenurteile zu diesem Angebot.“
    Was sind eigentlich berufsbezogene Veranstaltungen? Für welchen „Beruf“ wird ein Biologe, eine Chemikerin, eine Physikerin oder ein Informatiker ausgebildet? Soll ein Studium Berufsbefähigung oder Berufsfertigkeit vermitteln? Wie sollen nun gerade Studierende, die in der Regel nun gewiss keine breite Berufserfahrung haben, beurteilen (können), ob solche Angebote berufsbezogen sind? Wer bietet solche Veranstaltungen an, die Hochschule oder Berufsverbände oder Unternehmen? Wie wird die Qualität solcher Angebote beurteilt? Zählt allein die Zahl der Angebote?
  • Ausstattung. „Die Bibliothek ist wichtig für die Recherche bei Klausuren und Referaten. Auch die Zahl und die Ausstattung der Computer- und Laborplätze entscheiden darüber, wie zügig man studieren kann.“
    So begrüßenswert solche Ausstattungen sein mögen, sind Lehrveranstaltungen besser oder schlechter, wenn die Zahl der Computer größer ist? Haben die heutigen Studierenden nicht inzwischen alle ihren Laptop? Ist eine Lehrveranstaltung besser oder schlechter, weil dort E-Learning oder AV-Medien eingesetzt werden?
    Wird der Lehrstoff didaktisch besser aufbereitet, weil die IT-Infrastruktur besser ist?
  • Forschung. „Es gibt Studieninteressierte, die eine besonders forschungsaktive Hochschule suchen, weil sie später promovieren wollen oder hier gute Aussichten bestehen, als studentische Hilfskraft zu arbeiten. Es wurde u.a. ermittelt, wie viele Drittmittel zur Verfügung stehen, wo am meisten promoviert und publiziert wird und wie viele Erfindungen gemeldet wurden.“
    Ist die Drittmitteleinwerbung ein Ausweis von Forschungsqualität? Hier wird z.B. die Wettbewerbsideologie des CHE ganz deutlich erkennbar. Forschung soll nämlich danach gesteuert werden, was sich auf dem Drittmittelmarkt am besten durchsetzt.

    Was haben Erfindungen (Patente) etwa mit Grundlagenforschung zu tun? Dazu nur ein Beispiel: Die Ukraine hat mehr als doppelt so viele einheimische Patentanmeldungen wie Frankreich, Schweden und fast doppelt so viele wie Großbritannien. Indien weit abgeschlagen. Will sagen: Patente sagen ziemlich wenig aus über die Bedeutung des geschützten Eigentums.

    Auch die Zahl der Publikationen oder womöglich gar die Seitenzahl der Publikationen sind ein höchst zweifelhafter Qualitätsmaßstab. Kleinste Forschungsergebnisse lassen sich mit dem richtigen Marketing leichter publizieren als fundierte neue Ergebnisse, die den herrschenden Lehren widersprechen. Ein Wolfgang Franz von der Uni Mannheim etwa wird als Vorsitzender des Sachverständigenrats aufgrund der Mitarbeiter, die ihm zuarbeiten, und aufgrund seines Netzwerks auch in wissenschaftlichen Verlage natürlich mehr unter seinem Namen publizieren können als ein Wissenschaftler, der Franzens herrschende Arbeitsmarkttheorien mit empirischen Untersuchungen widerlegt.

  • Internationale Ausrichtung. „Wo werden fremdsprachige Studiengänge angeboten?“
    So wichtig Fremdsprachenkenntnisse sind, welcher Gewinn an Qualität ist darin zu erkennen, dass an einer hiesigen Hochschule ein deutscher Professor sich seine Vorlesung in englisch radebricht, oder – noch schlimmer – dass man irgendeinen native Speaker anwirbt, über dessen Lehrbefähigung man vor seiner Berufung nur weiß, dass er englisch und kein deutsch kann.
  • Studienergebnis. „Wer sich für eine Hochschule entscheidet, möchte wissen, wie gut die Chancen auf einen erfolgreichen und schnellen Abschluss sind. Deshalb wurden u.a. die mittlere Studiendauer und die Durchschnittsnote beim Examen untersucht.“
    Wäre die Studienabbrecherquote nicht viel aufschlussreicher für die Studienqualität als die mittlere Studiendauer? Was besagt die Durchschnittnote? Gab es nicht schon immer Hochschulen, die besser bewerteten und solche, die strengere Bewertungsmaßstäbe anlegten?
  • Neubesetzungen. „Anzahl der im Jahr der Veröffentlichung der Daten geplanten Neubesetzungen von Professorenstellen. Gibt zum einen einen Einblick in die Fluktuation des Personals am Fachbereich und über die ggf. damit erfolgende “Verjüngung”.“
    Ist es aber nicht gerade so, dass Hochschullehrer an Hochschulen mit nicht so gutem Ruf oder mit geringer Standortqualität sich gerne weiter bewerben und gerade an solchen nicht so gut beleumundeten Hochschulen öfters Stellen frei werden und neu besetzt werden müssen? Bedeuten Neuberufungen in aller Regel wegen der lang andauernden Berufungsverfahren nicht eher eine Reduzierung des Lehrangebots?

Vom vielen Wiegen wird die Sau nicht fetter
Man könnte ein Kriterium nach dem anderen durchgehen, fast überall werfen die Kriterien mehr Fragen als Antworten auf. Aus kaum einem Kriterium lässt sich aber wirklich auf die Qualität des Studienangebotes schließen. Und man könnte die Zahl der Indikatoren noch so sehr erhöhen, sie würden vielleicht von Laien als Ausweis für die Qualität eines Rankings angesehen werden, sie dürften aber über die Qualität des zu Beurteilenden nicht viel mehr aussagen.

Würden sich solche Rankings auf ihre begrenzte Aussagekraft beschränken, könnte man ihnen ja noch einen begrenzten Sinn zuerkennen. Doch auch die Bewertungen etwa durch die Studierenden sind insoweit höchst zweifelhaft, weil sie in aller Regel keine Vergleichsmaßstäbe haben. Wer hat schon an mehreren Universitäten studiert und kann wirklich ein Urteil abgeben, ob etwa die Betreuungssituation besser oder schlechter ist. So hängen die Bewertungen von vielen Faktoren ab, die weniger mit den Tatsachen als z.B. mit dem allgemeinen Klima an einer Hochschule oder mit dem vermittelten Image des jeweiligen Hochschulstandorts zusammen hängen.

Ich habe während der Umfrage viele Universitäten zu Vorträgen besucht. Wenn wir in den nachfolgenden Diskussionen auf die CHE-Rankings zu sprechen gekommen sind, so haben sich viele Studierende geäußert, die sich aufgrund ihrer Kritik am CHE niemals an einem solchen Ranking beteiligen würden. Die Frage ist also, sind die Bewertungen überhaupt repräsentativ?

Ich habe lange danach gesucht, wie viel Prozent der eingeschriebenen Studierenden in den jeweiligen „gerankten“ Fächern sich an den Bewertungen beteiligt haben. Leider bin ich nicht fündig geworden. Wäre die Rücklaufquote sehr hoch gewesen, so nehme ich an, dass dies auch dick unterstrichen worden wäre.
Meine Vermutung ist daher eher, dass die Ranking-Veranstalter selbst nicht behaupten, dass die eingegangenen Bewertungen repräsentativ seien.

Die ZEIT schreibt, es seien 15.000 Urteile von Professoren eingegangen. Haben die teilnehmenden Professoren eine Kontrolle darüber, ob Vergleichbares verglichen worden ist?

Fazit: Entgegen dem Anschein, den die ZEIT und das CHE zu erwecken versuchen, haben die Rankings eine äußerst begrenzte Aussagekraft.

Sind Rankings wirklich Studienführer
Nach einer zwar schon etwas älteren Studie (2005) über das Informationsverhalten und die Entscheidungsfindung bei der Studienauswahl durch das Hochschul Information System (HIS) [PDF – 430 KB] haben sich immerhin 57% der Studierwilligen durch Rankings einen Überblick über die Rangfolge verschiedener Hochschulen verschafft. Aber nur etwa ein Drittel (35%) gab an, dass diese Rankings ihm bei der Planung des Studiums weitergeholfen hat.

Der doch relativ geringe Einfluss auf die Entscheidungsfindung für eine Wahl des Studienstandorts lässt erkennen, dass die Studierwilligen nach ganz anderen Kriterien entscheiden.

Wenn sie denn etwa bei einem Medizinstudium überhaupt eine Entscheidung haben. Wer dort unterhalb eines Abiturnotendurchschnitts von 1,3 liegt, hat ohnehin keine Wahlmöglichkeit, sondern muss – nach fünfjähriger Wartezeit, wenn er oder sie überhaupt noch durchhält – den Studienplatz nehmen, den er oder sie nach zahllosen Bewerbungsrunden angeboten bekommt.

Inzwischen besteht in zwei Dritteln aller Bachelor-Studiengänge ein Numerus Clausus. Die Zulassung zu einem Studiengang an einem bestimmten Studienort geschieht eher zufällig oder nach Auswahl durch die Hochschule denn aus eigener Entscheidung.

Allein diese Studienwirklichkeit führt den Rummel um das CHE-Ranking jedenfalls für die ganz überwiegend Zahl der Studienanfänger ad absurdum.

Die NachDenkSeiten sind für eine kritische Meinungsbildung wichtig, das sagen uns sehr, sehr viele - aber sie kosten auch Geld und deshalb bitten wir Sie, liebe Leser, um Ihre Unterstützung.
Herzlichen Dank!