Fünfzehn Jahre Bologna-Erklärung - eine Polemik

Seite 3: Es muss nicht sinnvoll sein, sondern nur messbar

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Was für Studierende und Dozierende gilt, ist auch für ganze Universitäten nicht anders. Die inzwischen zahlreich verwendeten Ranglisten zur Qualität in Forschung und Lehre suggerieren Objektivität und Vergleichbarkeit. Dabei sieht man den meisten von ihnen, etwa dem Shanghai Ranking, die Willkür der Qualitätskriterien schon auf dem ersten Blick an: Als Qualitätsmaßstab gilt, was sich am leichtesten zählen lässt, nämlich unter anderem Nobelpreisträger, Publikationen in den Zeitschriften Science und Nature und die Gesamtanzahl publizierter Artikel, wie sie die Datenbank des ISI Web of Science ausspuckt.

Überraschenderweise profitiert dabei eine Universität, an der ein Nobelpreisträger zum Zeitpunkt der Ehrung arbeitet, doppelt so stark wie die Universität, an der er studiert hat. Hat der oder die Glückliche den gewürdigten wissenschaftlichen Durchbruch an einer ganz anderen Institution erzielt, was angesichts der Dynamik wissenschaftlicher Laufbahnen wahrscheinlich ist, geht der eigentlich Hort der Innovation völlig leer aus. Diese viel sinnvollere Größe lässt sich eben nicht einfach messen.

Methodologie und Gewichtung des Times Higher Education Ranking 2013 (Auszug): Die Rangliste ergibt sich aus den Kennzahlen für die fünf Bereiche Lehre, Forschung, Zitationen, Mittel aus der Industrie und internationale Perspektiven. Beim Vergleich der Kriterien von Kunst und Geisteswissenschaften mit Lebens- und Naturwissenschaften fällt etwa Folgendes auf: Die Indikatoren für Lehre und Forschung sind für die erstgenannten jeweils ein Drittel höher gewichtet; dafür zählen bei den letztgenannten die Zitationen mehr als doppelt so stark. Solche Gewichtungen sind rein pragmatisch gerechtfertigt - die von den Ranglisten Betroffenen wurden nie nach ihrer Meinung gefragt.

Das ebenfalls sehr beliebte Times Higher Education Ranking ist zwar methodisch ausgefeilter. Die Messgrößen und vor allem ihre Gewichtung zueinander werfen aber viele Fragen auf. So wird etwa als wichtigster Faktor für die Qualität der Lernumgebung die unter Wissenschaftlern vorhandene Reputation angesehen. Während Forscher wohl besser als alle anderen dazu geeignet sind, die Qualität der Wissenschaft in ihrem Gebiet zu bewerten, darf man das bei der Lehre nicht vermuten. Schließlich haben sie Lehrveranstaltungen an anderen Universitäten in der Regel nie besucht.

Uns hat niemand gefragt

So lassen sich alle Ranglisten hinterfragen und man kann aufzeigen, wie sie auf - oft willkürlich gesetzten - Normen beruhen und am Ende eine trügerische Objektivität vorspiegeln. Hätten die damit durchgeführten Vergleiche nicht teils dramatische Folgen für Ansehen und Finanzierung, man könnte das Thema als reine Denkübung für die akademische Bildung von Masterstudenten ansehen. Diese durchschauen die Fehler der Bewertungssysteme in der Regel auch viel besser als unsere politischen Entscheidungsträger.

Auf meine Frage, warum solchen Qualitätsmaßstäben und Rankings trotz aller Einschränkungen von höchster Stelle noch immer so viel Bedeutung beigemessen wird, antwortete ein mit vielen Millionen an Preisgeld ausgezeichneter Institutsdirektor kürzlich mit freier Spekulation: Wenn man alle Maßstäbe gemeinsam betrachte, würden diese am Ende die echte Qualität gut widerspiegeln. Dass die Addition von immer mehr Fehlern zuverlässig zum richtigen Ergebnis führt, das bedarf schon eines hohen Maßes an Optimismus.

Diesen zahlreichen Maßnahmen zur Standardisierung und Vergleichbarkeit aller akademischen Akteure, seien es die Studierenden, Dozierenden, Forschenden oder ganze Institutionen, ist eines gemein: Diejenigen, die standardisiert und verglichen werden, können in der Regel bei der Definition der Qualitätskriterien nicht mitbestimmen; Autonomie geht anders. Dennoch haben die Ergebnisse gravierende Auswirkungen auf alle Beteiligten. Studien werden angefangen und abgebrochen, Stellen vergeben oder gekündigt; auf alle üben die vermeintlich objektiven Leistungsdaten einen Anpassungsdruck aus und motivieren damit strategisches Verhalten.

Planwirtschaft von oben

Beispielsweise wird dann nicht mehr publiziert, um innovative Ideen mit der interessierten Fachwelt zu teilen, sondern um einen möglichst hohen Impact Factor zu erzielen. Wird die Arbeit nach vielen frustrierenden Jahren in einer anderen Zeitschrift publiziert, dann ist die Enttäuschung groß. Wohlgemerkt: Qualität als Impact wird gerade so verstanden, dass die meisten ihn nicht haben können - und zwar per Definition!

Das System erinnert viel mehr an eine Planwirtschaft von oben, als an die von allen politischen, wirtschaftlichen und ideologischen Mächten freie Universität, die die Unterzeichner der Magna Charta von 1988 im Sinn hatten. Stattdessen spiegelt es den Geist des "Europas des Wissens" voller Wettbewerb, Mess- und Vergleichbarkeit der Bologna-Erklärung von 1999 wider.

Was als unverbindliche Absichtserklärung von europäischen Bildungsministern begann, hat in den letzten fünfzehn Jahren über die Mittel der Akkreditierungsbürokratie die Leben tausender Studierender und Dozierender verändert. Joachim Lege, Professor für Öffentliches Recht an der Universität Greifswald, warf sogar die Frage auf, ob diese Prozesse überhaupt mit dem Grundgesetz vereinbar sind. Wer hat diese neuen Systemzwänge eigentlich legitimiert? In ähnlicher Weise könnte man auch für die Wissenschaft hinterfragen, ob die von oben vorgegebenen Leistungszahlen, an denen aufgrund des zunehmenden Wettbewerbsdrucks und der Mittelknappheit immer weniger Wege vorbeiführen, mit der grundgesetzlich garantierten Forschungsfreiheit vereinbar sind.

Automatisierung der Lehre

Matthias Becker und Raúl Rojas beschrieben kürzlich, wie neue Online-Kurse und -Vorlesungen zur Rationalisierung der universitären Lehre herangezogen werden (Massives E-Learning und die Sinnkrise der Universität; Die Automatisierung des Seminars). Dabei geben die Möglichkeiten des Mediums natürlich die Möglichkeiten des Lehrens und Lernens vor. Der riesigen Studierendenschaft, die man auf diese Weise potenziell erreichen kann, begegnet man mit Standardisierung und computerisierter Automatisierung von Korrekturen. In seiner Serie über "Lifelogging" hat Stefan Selke anschaulich gemacht, wie die Quantifizierung und Vermessung in immer mehr Lebensbereiche einzieht und das Verhalten und Erleben der Menschen beeinflusst.

So gehe es etwa beim Segelfliegen zunehmend um die Optimierung mit Blick auf vorgegebene Leistungsstandards, anstatt um die Freude am Fliegen (Die Vermessung des Himmels). Es wäre nur konsequent, in einem letzten Schritt das menschlich gesteuerte Segelflugzeug durch eine computergesteuerte Segelflugzeugdrohne zu ersetzen. Wenn der durch Technik und Algorithmen immer weiter optimierte Automat die gewünschten Leistungszahlen produziert, dann kann der Pilot aus Fleisch und Blut wieder das Fliegen genießen.

Ersetzt also Studierende durch Computer!

In ähnlicher Weise wäre es konsequent, demnächst nicht nur die Dozierenden, sondern gleich auch die Studierenden durch Computer zu ersetzen. Als programmierte Studierenden-Apps ließe sich deren Performanz auf Hochleistungsrechnern beliebig skalieren und in Echtzeit an die Planziele der Standardisierer, Akkreditierer und Quantifizierer anpassen.

Wenn damit die Forderungen der Bologna-Erklärung nach Transparenz, Vergleichbarkeit und Qualitätskontrolle perfekt erfüllt wären, dann könnten sich die Lernenden und Lehrenden außerhalb dieser neuen Universitäten beziehungsweise Serverfarmen treffen und endlich wieder darüber verständigen, gemäß welchen Regeln sie eigentlich leben möchten.

Stephan Schleim ist Assistenzprofessor für Theorie und Geschichte der Psychologie an der Universität Groningen in den Niederlanden, wo er seit 2009 überwiegend lebt, lehrt und forscht.