Publish first - filter later
Ist man im Druck gezwungen, einen Filterprozess vorzuschalten, der die Spreu vom Weizen trennt, ist das im Digitalen nicht notwendig und auch nicht empfehlenswert
Vor einigen Monaten kam die Deutsche Forschungsgemeinschaft mit einer Neuregelung des Projekt-Antragverfahrens heraus, das sie mit sehr allgemeinen Einschätzungen des wissenschaftlichen Publikationswesens verband. Antragsteller sollen in Zukunft nur noch 5 Titel aus ihrer eigenen Produktion anführen, um die persönliche Eignung für die Bearbeitung des vorgeschlagenen Unternehmens zu belegen.
Was für den Außenstehenden wie eine Marginalie klingt (und es vielleicht sogar auch ist), wird dort spannend, wo die DFG zu einer sehr generellen Abrechnung mit dem gängigen Publikationsverfahren ansetzt. Es werde zuviel veröffentlicht, zu schnell und in zu kleine Häppchen zerteilt. Dass das eine (die Sache mit den 5 Titeln) nicht unbedingt identisch ist mit dem anderen und eventuell überhaupt damit nichts zu tun hat, soll hier nicht weiter interessieren. Aber die Abrechnung sollte man sich mal etwas genauer ansehen.
Dass die Kritik der DFG bei vielen Fachkollegen auf offene Ohren stieß, ist leicht nachzuvollziehen. Einmal abgesehen davon, dass die Zustimmung vor allem bei denjenigen groß war, die sich des Veröffentlichens insgesamt weitgehend enthalten: Wer hätte sich nicht schon einmal über die im Vergleich zu früher oftmals wenig abgehangenen, dabei aber mit um so mehr Jargon daherkommenden Ergüsse beklagt, die man heutzutage vor allem in der tsunamiartig ansteigenden Zahl von Sammelbänden vorfindet? Übrigens sind diese Sammelbände meistens das Produkt von Forschergruppen und Sonderforschungsbereichen, die von der DFG selbst eingerichtet wurden, so dass man sich fragen muss, ob der Kläger nicht auch zum Beklagten wird.
Wird zu schnell, zu häufig und zu kurzatmig publiziert?
Aber auch die insgesamt nicht unproblematische Strategie der DFG, die klassischen universitären Strukturen durch Gründung von wissenschaftlichen Paralleluniversen auszuhebeln, deren thematische Festlegungen meistens so diffus sind, dass sie im Grunde genommen ins Beliebige tendieren, soll hier nicht weiter besprochen werden. Vielmehr soll es um die Berechtigung der Aussage gehen, die wissenschaftliche Publizistik agiere zu schnell, zu häufig und zu kurzatmig.
Mir scheint, was hier kritisiert wird, ist weniger Ausdruck einer individuell zu verantwortenden Publikationshygiene, als vielmehr Konsequenz eines strukturellen Wandels, der die zweifellos vielfach kaum mehr zu überblickende Publikationsfülle geradezu unvermeidbar erscheinen lässt. Abgesehen von den erwähnten Forschergruppen, in denen meistens Leute arbeiten, die neben der Forschung nicht viel anderes zu betreiben haben und daher natürlich auch entsprechend veröffentlichungsfreudig sind: Die Zahl der Wissenschaftler/innen ist nun einmal in den letzten Jahrzehnten massiv angestiegen, und zwar nicht nur in den Anwendungs-, sondern gerade auch in Geisteswissenschaften.
Das von der DFG durchaus mit Recht angesprochene Problem wird daher nicht durch einen Appell an persönliches Verantwortungsgefühl zu lösen sein, sondern durch einen verschärft betriebenen Medienwechsel, der theoretisch durchaus auch von der DFG favorisiert wird, und zwar insofern, als sie mit allen anderen deutschen Wissenschaftsorganisationen die Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen unterschrieben hat. Meine These: Unter elektronischen Online-Bedingungen stellt sich das Problem der übergroßen Mengen gar nicht. Im Gegenteil, hier müsste man sie eher fordern.
Vorgängige Selektion unter digitalen Bedingungen nicht mehr notwendig
Zuerst einmal gilt das für den Speicherplatz. Während Bibliotheken die steigenden Papierlasten kaum mehr unterbringen können und ihnen auch die Kosten davonlaufen, ist die elektronische Speicherung so platz- und kostensparend, dass beide Aspekte zu vernachlässigen sind. Die Miniaturisierung schreitet weiter voran, das Gleiche gilt für die Preise. Über den Daumen gepeilt dürfte der für die gesamte historische Publizistik notwendige elektronische Speicherplatz kaum mehr als ein Mittelklassewagen kosten.
Wichtiger aber ist der Unterschied im Gebrauch. Das gedruckte Wort hat in seiner Endgültigkeit etwas Hieratisches, das virtuelle ist dagegen fluide und vielfach weiterverwendbar. Das hat vor allem Konsequenzen für die Rezeption. Im Druck ist das Wort schwerfällig und nicht universell adressierbar, im Digitalen dagegen extrem schnell verteilt und vielfältig rekonfigurierbar. Ist man im Druck gezwungen, einen Filterprozess vorzuschalten, also zum Beispiel in der Wissenschaft einen Peer-Reviewing-Prozess zu organisieren, der die Spreu vom Weizen trennt, ist das im Digitalen nicht notwendig, ja nicht einmal empfehlenswert. Der review in Form etwa von wertenden Kommentaren passiert post festum und kann als Filterungsprozess verstanden werden, der dem Nutzer die Auswahl aus der unübersehbaren Menge an Informationen ermöglicht.
Nimmt man die punktgenaue Adressierbarkeit hinzu und auch noch eine Statistik der Häufigkeit, mit der Dokumente abgerufen werden, so ist das Selektionsproblem, unter dem heute, unter analogen Bedingungen und im wesentlichen mit diesen analogen Bedingungen in ursächlichem Zusammenhang stehend die Wissenschaft leidet, schon fast gelöst. Hinzu kommen die vielfältigen Möglichkeiten, die Qualifikation des Verfassers über Profilseiten oder einen automatisierten Internet-Abgleich näher zu bestimmen.
Auch die kleinen Häppchen, die nach Auffassung der DFG immer mehr um sich greifen, um auf diese Art die eigene Veröffentlichungsstatistik aufzublähen, erscheinen dann in anderem Licht: Im elektronischen Medium lassen sie sich leicht, und zwar ebenfalls post festum, zu übergreifenden Komplexen zusammenfügen. So skandalös es in manchen Ohren auch klingen wird: Unter elektronischen Bedingungen ist Clay Shirky mit seiner zum Motto geronnenen Forderung zuzustimmen: "publish first, filter later."1
Dabei ist "Forderung" eigentlich das falsche Wort. Ist das Online-Medium für die wissenschaftliche Publizistik erst einmal durchgesetzt, dürfte es sich dabei eher um eine Beschreibung dessen handeln, was zukünftig zwangsläufig, weil der medialen Logik gehorchend, passieren wird.
Chancen für eine Entdeckung des Ungewöhnlichen
Die Bedeutung des beschriebenen Vorganges kann gar nicht hoch genug eingeschätzt werden, da sie auch tiefgreifende kulturelle Folgen zeitigen wird. Zur Verdeutlichung verweise ich auf Chris Andersons einflussreiches Buch über den Long Tail, eine populäre Umschreibung des Pareto-Prinzips.2 Schlagwortartig formuliert: Wenige Akteure konzentrieren eine große Menge auf sich selbst. Das bedeutet für den Buchmarkt, dass es eine kleine Anzahl von Büchern mit hohen Verkaufszahlen gibt und eine sehr große mit niedrigen.
In der analogen Ökonomie gilt die Forderung nach einer Konzentration auf die Blockbuster, da der höchst umfangreiche Long Tail logistisch nicht zu bewältigen ist. Damit ist aber gleichzeitig die Mainstream-Kultur abgesichert, da sich das Ungewöhnliche im Long Tail verbirgt und dort auf die Entdeckung wartet.
Auf die Wissenschaften bezogen: Das, was im vorgelagerten Peer-Reviewing-Verfahren notwendig unveröffentlicht bleibt, hat jetzt eine Chance. Und dass im Peer Review auch manches durch den Rost fällt, was durchaus innovativ ist, wird von vielen Kritikern des Verfahrens nicht grundlos behauptet Zumal hier häufig eben eher das Gängige reüssiert als das Originelle.
Auch das Problem der nicht mehr überschaubaren Masse wäre damit gelöst. Das wirklich Unbedeutende verschwindet in den nicht aufgerufenen Tiefen der Datenspeicher. Aber es ist wenigstens vorhanden und kann, wenn seine Zeit dann doch einmal gekommen sein sollte, von dort auftauchen und den Long Tail hinter sich lassen.