Ein Intermezzo zur Produktion von Wissen in den Wissenschaften
Seite 3: Problem "Impact Factor"
"Ein seit Jahren steigender 'Journal Impact Factor' - ein Maß dafür, wie oft Artikel der Zeitschrift in anderen Arbeiten zitiert werden - gibt der Strategie Recht."
Hier muss ich Markus Heinemann einmal deutlich widersprechen: Ein seit Jahren steigender Impact Factor (IF) heißt überhaupt nichts anderes, als dass eine bestimmte Art von Artikeln im Laufe der ersten zwei Jahre nach Veröffentlichung häufiger zitiert wird. Die Formel dafür war, nach meiner Erinnerung, z.B. für das Jahr 2019: Anzahl der zählenden Zitationen von 2017+2018 (also Zähler) dividiert durch Anzahl der zählenden Artikel von 2017+2018 (also Nenner).
Das Wunderbare an so einer einfachen und bekannten Formel ist, dass man einfacher auf das gewünschte Ergebnis hinarbeiten kann, als das beispielsweise bei den Google-Rankings ist, die eine Wissenschaft für sich sind. Es ist längst bekannt, dass Zeitschriften durch die Aufnahme von mehr Überblicksarbeiten (engl. Reviews) ihren IF erhöhen können, weil diese Artikel häufiger zitiert werden. Dabei fassen sie bereits Bekanntes zusammen. Das kann zwar auch wichtig sein - die Wissenschaft lebt aber wesentlich von neuen Entdeckungen.
Andere Tricks sind Selbstzitationen, die auch den Wert im Zähler erhöhen, oder gleich noch besser die Aufnahme von bestimmten Redaktionsinhalten, deren Zitationen zwar den Zähler erhöhen, jedoch nicht als relevante Publikation für den Nenner gelten. So schlägt man zwei Fliegen mit einer Klappe.
Ein steigender IF kann auch schlicht bedeuten, dass in einem Teilgebiet immer mehr zitiert wird, und da gibt es zwischen den Disziplinen teils beachtliche Unterschiede, dass in der ganzen Wissenschaft immer mehr zitiert wird - oder bloß immer mehr neuere Arbeiten -, dass ein Forschungsgebiet schlicht bekannter geworden ist und darum mehr Aufmerksamkeit bekommt oder sogar, dass eine Zeitschrift so viele schlechte Arbeiten publiziert, die von anderen stark kritisiert werden, was eben auch zu Zitationen führt und den Zähler erhöht.
Ein Tool bestimmt Forscherkarrieren
Der IF wurde ursprünglich als Tool für Bibliothekare erfunden. Sein Erfinder, Eugene Garfield, hat sich daran eine goldene Nase verdient, als eben durch den neuen Wind der Vergleichbarkeit, Standardisierung und Outputkontrolle irgendein Maß gefunden werden musste, mit dem man angeblich die Qualität wissenschaftlicher Forschung zusammenfassen könnte, frei nach dem Motto: Lieber messen wir Bullshit als nichts. Hauptsache, wir messen!
Garfield räumte selbst zahlreiche Probleme seines Verfahrens ein, kommt dann aber zu der ernüchternden Schlussfolgerung: Es gebe eben kein besseres, bereits etabliertes Maß als seine Kennzahl. Gerade wenn einem aber doch wissenschaftliche Standards am Herz liegen, erinnern wir uns noch einmal an das geflügelte Wort von der Evidenzbasiertheit, dann sollte einem die Güte der Evidenzen besonders wichtig sein.
Aberwitzig würde es aber, wenn jemand nicht nur eine bestimmte Zeitschrift oder allenfalls noch ein Wissenschaftsgebiet am IF messen wollte, sondern ein Individuum. Das war bis noch vor wenigen Jahren leider keine Seltenheit. Manche Fördereinrichtungen verbieten aber inzwischen bei Bewerbungen oder Anträgen unter anderem aus den hier genannten Gründen das Nennen solcher Zahlen.
Es würde mich aber nicht wundern, wenn in der deutschen Medizin noch der eine oder andere Lehrstuhl mithilfe des Impact Factors vergeben wird. Faktisch heißt das nur, dass es jemandem gelang, in den populärsten Zeitschriften zu publizieren, er oder sie sich also im Wettbewerb gegen andere durchgesetzt hat. Sozialdarwinismus pur. Aber sind das wirklich die besten Wissenschaftler? Solche Gedanken sind aber natürlich "bloß soziologische Erwägungen", die keinen interessieren [].
In dem offenen Brief des Mediziners folgen noch ein paar Hinweise, die sehr spezifisch für Heinemanns Fach, der Thorax-, Herz- und Gefäßchirurgie, sind. Daher nur noch dieser Abschnitt:
Mehr als bloß gute alte Wissenschaft!
"Leider muss man aber feststellen, dass auch hierzulande die vereinbarten ethischen Codes des Publizierens vermehrt unterlaufen werden. Die DGTHG [Deutsche Gesellschaft für Thorax-, Herz- und Gefäßchirurgie e.V.] wird auch künftig dafür Sorge tragen, dass wissenschaftliche Arbeiten, die in ihrer Fachzeitschrift veröffentlicht werden, den höchsten Qualitätsansprüchen genügen. Bedingungslose Ehrlichkeit gegenüber den Lesern, besonders aber auch gegenüber den von den Erkenntnissen betroffenen Patienten, ist das oberste Prinzip. Eine vorschnelle Publikation noch nicht solide untermauerter Ergebnisse gilt es in der klinischen Medizin zu vermeiden, damit keine 'alternativen Wahrheiten' geschaffen werden."
Das ist sicher ein hehres Ziel. In unserer deutschen Kulturgeschichte mangelt es ja glücklicherweise nicht an Verweisen auf das Wahre, Schöne und Gute. Ich habe hier aber systematische Gründe dafür angeführt, warum das bestehende System diesen Standard nicht garantieren kann. Natürlich wünsche ich aber dem Chirurgen sowie allen seinen Kolleginnen und Kollegen, dass es in ihrem Fach möglichst fair und ehrlich zugeht.
Wenn ich jedoch den offenen Brief in einem Satz zusammenfassen müsste, dann käme ich wohl zu diesem Schluss: "Sorgen wir für gute alte Wissenschaft, dann ist alles gut!" Das scheint mir aber zu simpel; warum, dafür habe ich hier einige Gründe genannt.
Ich glaube nicht, dass es einer Revolution bedürfte. Reformen zur Verbesserung des Gutachtersystems wären ein wichtiger Schritt. Vorschläge gibt es zuhauf.
Das Grundproblem, über das Markus Heinemann wenig schreibt, scheint mir aber doch der Leistungs- und Wettbewerbsdruck zu sein. Wenn wir Forscher in einen Hyperwettbewerb schicken, dann werden viele eben "kreative" Lösungen ersinnen, die nicht im Sinne einer idealen Wissenschaft sind. Dass sich jetzt aber auch schon Mediziner öffentlich dazu äußern, ist ein gutes Zeichen.