Die Vertreibung aus dem Paradies
Unsichtbare Weichenstellungen im Cyberspace: Sind wissenschaftliche Veröffentlichungen 'Public Domain' oder 'Private Property'?
Der Kulturkampf im Internet geht weiter. Jetzt erfasst er das Terrain, dem das Netz der Netze seinen Ursprung verdankt. Die Alternative heißt Kommerzialisierung auch der wissenschaftlichen Information oder freier Zugang für alle.
Das Internet gehört schon lange nicht mehr der Wissenschaft allein. Ursprünglich entwickelt, um über die Heterogenität proprietärer Rechnersysteme hinweg den Austausch von Dateien und Programmen zu ermöglichen, ist seit der Öffnung für Konsumenten und Content Provider die digitale Allmende vom Electronic Commerce, von Werbebannern und Push-Diensten, usurpiert worden. Die wissenschaftliche Kommunikation über das Internet bildet, kaum beachtet, nurmehr eine Randerscheinung. Nun gerät auch die Nische in Gefahr. Mit dem Abschied von Gutenberg und der Migration des wissenschaftlichen Publikationswesens ins Internet wird sie der Cyber Economy unterworfen. Dabei tritt ein bislang verdeckter Strukturkonflikt zutage, der sich um die Frage rankt, wer in dem System was genau wofür bezahlt.
Zwei Konzepte stehen sich unversöhnlich gegenüber: Pay-per-View oder free-for-all? Sind wissenschaftliche oder technische Informationen, die mit den Mitteln des Steuerzahlers in öffentlichen Institutionen oder aufgrund staatlicher Projektförderung erlangt wurden, ein freies Gut? Oder wird der Zugang künftig entgeltpflichtig sein, weil Dritte sie im Internet vermarkten?
Wissenschaftliche Information als Ware
Noch wird diese Alternative so nicht öffentlich diskutiert. Die Kontroversen entzünden sich vielmehr an dem Aufbau von Strukturen, in denen Wissenschaftler künftig mit ihren Fachkollegen kommunizieren. Doch zugleich sind damit Weichenstellungen verbunden, die das Prinzip der Öffentlichkeit von Wissenschaft berühren. "Soll die freie Distribution von geistigem Eigentum die Entwicklung der Wissensgesellschaft beflügeln", so wies unlängst der Präsident der Gesellschaft für Informatik (GI), Gerhard Barth, bei der Eröffnung der diesjährigen GI-Jahrestagung auf die anstehenden politischen Grundsatzentscheidungen hin, "oder soll es, durch kryptografische Verfahren gesichert, nur noch einer zahlenden Wissenselite verfügbar sein?".
Für die alte Bundesregierung war die Antwort klar. "Wissenschaftliche und technische Information", so hatte der ehemalige Zukunftsminister Jürgen Rüttgers im Programm der Bundesregierung 1996-2000 'Information als Rohstoff der Innovation' die Marschrichtung vorgegeben, ist "ein wirtschaftliches Gut, eine Ware, die als Informationsprodukt oder -dienstleistung hergestellt, gehandelt und verkauft wird, also einen Markt besitzt". Ob dies nun auch für mathematische Aufsätze oder Patentschriften, Forschungsergebnisse des DESY oder Projektberichte öffentlich geförderter Industrievorhaben handelt - die derzeitige Bundesregierung hat sich noch nicht dazu geäußert, wo für sie die Grenzen zwischen öffentlichen und proprietären Informationen liegen. Deshalb schlugen Wissenschaftler kürzlich Alarm. "Es kann nicht sein, dass die Wissenschaft ihre eigenen Produkte von der Wirtschaft zurückkaufen muss", heißt es in einem an Bundesforschungsministerin Edelgard Bulmahn gerichteten Memorandum, das bislang allerdings unbeantwortet blieb.
Die Zeitschriftenkrise
Nicht nur in Deutschland ist der Handlungsbedarf unabweisbar. Weltweit stehen die wissenschaftlichen Bibliotheken mit dem Rücken an der Wand; aus ihren Regalen verschwindet ein Zeitschriftentitel nach dem anderen. Jährlich zweistellige Preissteigerungen seit Anfang der neunziger Jahre und stagnierende Etats zwingen zu Abbestellungen, die nicht nur die Öffentlichkeit von Wissenschaft in Frage stellen, sondern inzwischen auch konkret die Arbeitsmöglichkeiten der Forscher bedrohen.
Wie die amerikanische Association of Research Libraries (ARL) feststellte, stieg der Durchschnittspreis pro Zeitschrift zwischen 1987 und 1997 um 169% - dreimal so stark wie die Inflationsrate. Die ihr angeschlossenen 122 Bibliotheken mussten 1997 für einen um sieben Prozent geschrumpften Bestand an Titeln 124% mehr an Abonnementkosten aufbringen.
Hierzulande ermittelte eine Studie im Auftrag des Bibliotheksausschusses der Deutschen Forschungsgemeinschaft für eine repräsentative Auswahl von Titeln aus dem Bereich 'Science, Technology and Medicine' (STM) zwischen 1992 und 1998 durchschnittliche Preissteigerungen von mehr als 100%; in mehr als der Hälfte der Titel lagen sie über 150%, und in einem Viertel der Stichprobe sogar über 200%. Für die zehn wichtigsten Zeitschriften des Marktführers Elsevier, die 1992 noch etwa 70 000 Mark kosteten, musste eine Bibliothek 1998 rund 145 000 Mark aufwenden. "Es ist unverändert festzustellen", so das Fazit der Studie, "dass aus der gesicherten Position des Angebotsmonopols heraus nach wie vor die Möglichkeiten zur Gewinnmaximierung voll ausgeschöpft werden".
Nachdem die Zeitschriftenabonnements bei MCB University Press 1999 erneut um durchschnittlich 27,3% teurer wurden, bei Wiley/VCN um 20% und bei Elsevier Science um 19%, wandte sich die Kommission des Deutschen Bibliotheksinstituts für Erwerbung und Bestandsentwicklung Anfang des Jahres mit einem Hilfeschrei an die sieben führenden Wissenschaftsverlage. "Ihre Kunden sind objektiv nicht mehr in der Lage, die von Ihnen angekündigten erhöhten Preise zu Zahlen", heißt es in dem offenen Brief. "Wie stellen Sie sich die Zukunft der wissenschaftlichen Informationsversorgung vor?"
Die Konferenz der Deutschschweizer Hochschulbibliotheken beschloss im Oktober, Zeitschriften von Verlagen mit besonders markanten Preissteigerungen nicht mehr anzuschaffen. "Jährliche Teuerungsraten zwischen 10 und 20 Prozent zwingen zu Gegenmassnahmen", begründeten die Schweizer den ungewöhnlichen Boykott, "auch wenn dabei Lücken im Bestand entstehen".
Die Politik der STM-Verlage
Das von den wissenschaftlichen Zeitschriftenverlagen im Rahmen von Abonnements angebotene Online-Retrieval trägt nicht zur Kostenentlastung bei. Das Standard-Vertriebsmodell ist die Campus-Lizenz für die Papier- und Netzversion in einem Paket. Das räumt den Mitarbeitern der Universität oder Forschungseinrichtung zwar den bequemen Zugriff auf den Verlagsserver vom Desktop aus ein, belastet den Bibliotheksetat jedoch zusätzlich, denn für die elektronische Nutzung wird meist ein kräftiger Aufpreis von 20 bis 30% verlangt.
Verlagsvertreter wiederum ziehen sich darauf zurück, dass es die Bibliotheken sind, die auf dem Bezug der Papierversionen zum Zwecke der Archivierung beharren. "Wenn alle Bibliotheken der Welt zu uns sagen würden, wir verzichten auf die gedruckten Exemplare", so Arnoud deKemp vom Heidelberger Springer-Verlag im Interview, "dann könnten wir auch eine einmalige Reduzierung der Preise durchführen".
Doch selbst im reinen Online-Publishing, ist das Modell der Campus-Lizenzen für die Nutzer alles andere als optimal: Der Online-Zugriff ist nur den Mitarbeitern und Studenten der angeschlossenen Institute möglich; Außenstehende ziehen keinen Vorteil aus den Segnungen des Electronic Publishing, obwohl sie es mit ihren Steuergeldern finanzieren. Sie bleiben vom Desktop-Zugriff ausgeschlossen, müssen sich nach wie vor an die Öffnungszeiten halten und können die Zeitschriften nur an einer Workstation im Lesesaal einsehen - sofern die Bibliothek den gesuchten Titel überhaupt abonniert hat.
Die unterschiedlichen Online-Angebote der Wissenschaftsverlage zwingen Wissenschaftler bei Recherchen, sukzessive die Server von Elsevier, Springer, Academic Press usw. anzusteuern und dort jeweils die Suchmaschine für das Retrieval relevanter Arbeiten zu starten - ein Verfahren, das beim gegenwärtigen Stand der Technik nicht sehr effizient ist.
Das Mausklick-Monopol
Dieses Defizit haben auch die STM-Publisher erkannt. Mitte November gingen die 12 Branchenführer - darunter Elsevier, Springer, Academic Press, Wiley, sowie die Herausgeber der beiden größten Wissenschaftszeitschriften, Science (AAAS) und Nature (McMillan) - eine strategische Allianz zur Vernetzung ihrer Inhalte durch sogenannte Digital Object Identifier (DOI) ein.
Ähnlich wie eine ISBN-Nummer erlauben DOIs die eindeutige Kennzeichnung jeder einzelnen wissenschaftlichen Veröffentlichung. Sie werden in einer Datenbank der DOI-Foundation registriert und dienen auf einer Metaebene oberhalb der URLs zur Lokalisierung der Arbeiten im WWW: Anhand des DOI in der Quellenangabe eines zitierten Aufsatzes können sich Wissenschaftler dann unmittelbar zu dem elektronischen Dokument durchklicken.
Darin unterscheidet sich der DOI nicht von einer URL. Doch während die URL des Dokuments auch die IP-Adresse des Servers enthält, auf dem sich der gewünschte Artikel befindet, und der Link bei einer Adressenänderung dann ins Leere führt, bleibt der DOI als persistent identifier fest mit dem Dokument verknüpft: Der Mausklick führt zuerst in die Datenbank der DOI-Foundation und von dort zu der aktuell gültigen Web-Adresse.
Ändert sich die Webadresse des Verlages oder wird das Archiv mit den vorgehaltenen Dokumenten auf einen anderen Server gelegt, so brauchen nur die Einträge in der Datenbank aktualisiert werden. Dieser Vorgang läßt sich leicht automatisieren, während heute bei den in die Veröffentlichungen eingebetteten URLs jedes Quelldokument geändert werden müßte - ein aussichtsloses Unterfangen.
Rund drei Millionen Artikel aus mehr als tausend Zeitschriften sind zu diesem Zweck bereits indiziert worden; rund 500 000 werden jährlich neu in die Datenbank aufgenommen. Jeder Verlag legt dabei die Konditionen des Zugangs individuell fest. Ob er nur den Abstract liefert und den Volltext nur im Abonnement oder im Pay-per-View anzeigt, bleibt seiner Geschäftspolitik überlassen. Durch die virtuelle Verbindung in einer gemeinsamen Datenbank behalten sie den Content unter Kontrolle, während dem Nutzer diese Datenbank wie eine riesige Bibliothek erscheint. Da die DOIs sich leicht mit Metadaten verknüpfen lassen, können die Forscher im gesamten Angebot der angeschlossenen Verlage nach bestimmten Autoren, Fachgebieten oder Schlüsselworten suchen.
Kritiker sehen in der DOI-Vernetzung ein Trojanisches Pferd, mit dem die STM-Verleger aus kommerziellen Interessen die Einschränkungen der Papierwelt auf das Internet übertragen. Bisher war der Zugriff allein durch das Medium Papier beschränkt; jetzt bestimmen private Anbieter durch den Preis und die Konditionen des Zugriffs über die Verteilung eines öffentlichen Gutes - wissenschaftliche Information -, obwohl die Autoren ein Interesse an größtmöglicher Verbreitung ihrer Arbeiten und die Leser an dem uneingeschränkten und kostenlosen Zugang zur Forschungsliteratur haben. "Es ist ein Mausklick-Monopol", urteilt Stevan Harnad, der in England einen öffentlichen Preprint-Server für die Kognitive Psychologie betreibt, "das durch Firewalls in Gestalt von Campus-Lizenzen und/oder Mikropayments geschützt wird".
Gegenwelten
In den angelsächsischen Ländern wird längst eine ausgiebige Debatte über die Grenzen der Kommerzialisierung des wissenschaftlichen Publikationswesens geführt. Enormen Auftrieb erhielt sie Mitte des Jahres durch den Vorstoß des Präsidenten des amerikanischen Bundesgesundheitsamtes, Harold Varmus, am National Institute of Health (NIH) ein umfassendes Online-Archiv für die mit staatlicher Förderung entstandenen biomedizinischen Veröffentlichungen und Daten aufzubauen. Erklärtes Ziel des erst 'E-biomed' und jetzt in 'PubMed Central' umgetauften Vorhabens: Jedermann und jederfrau mit Computer und Internet-Anschluss "den freien, schnellen und vollständigen Zugang zur gesamten biomedizinischen Forschungsliteratur" zu verschaffen.
Als zweitgrößter Finanzier von Forschung und Entwicklung in den USA - nach dem Energieministerium und vor der Weltraumbehörde NASA - verfügt das NIH im Prinzip über ein starkes Druckmittel, den Anspruch Wirklichkeit werden zu lassen. Die Behörde kann die Vergabe von Mitteln an die Bedingung knüpfen, dass das Copyright der aus den Förderprojekten resultierenden Veröffentlichungen bei den Autoren - im Extremfall sogar beim NIH selbst - verbleibt und die Aufsätze in elektronischer Form über 'PubMed Central' öffentlich zugänglich gemacht werden.
So war es anfangs auch gedacht. Doch dann läuteten bei den STM-Verlegern die Sturmglocken. Sie fürchteten einen Strudel, der die Geschäftsgrundlage des etablierten Publikationswesens unterspült. In der berechtigten Befürchtung, die Abonnements der Bibliotheken zu verlieren und mit ansehen zu müssen, wie sich die Fachdiskussion in das öffentliche und elektronische Medium hinein verlagert, kam es zu massiven Protesten. "Kann ein monopolistisches, einer Fördereinrichtung der Regierung unterstelltes Archiv", steuerte der Chefredakteur von 'Science', Floyd E. Bloom, das unvermeidliche Totschlagsargument zu der Debatte bei, "den wissenschaftlichen Fortschritt besser fördern als die vorhandene Hierarchie der Wissenschaftszeitschriften, die Autoren wie Lesern eine Fülle von Alternativen bietet?"
Angesichts des geballten Widerstands mußte der NIH-Präsident die Keule der Drohung mit dem Copyright wieder einstecken. Varmus war als Löwe gesprungen und als Bettvorleger gelandet. Nach den revidierten Plänen soll PubMed Central nun als zentrale Anlaufstelle, als Kombination von Volltext-Server und Portalsite, im Januar 2000 den Betrieb aufnehmen. Die National Academy of Science beispielsweise steuert mit einer gewissen Verzögerung von einigen Wochen nach dem Erscheinen bei den Abonnenten die Volltexte ihrer 'Proceedings' bei, andere nur die Abstracts und Links zu ihren eigenen Servern, wo sie das Retrieval der Volltexte wie gehabt nach eigenem Gusto mit einem Passwort für zahlende Abonnenten, im pay-per-view oder 'free-for-all' gestatten. Was anfangs als Konkurrenzveranstaltung angelegt war, stellt sich nunmehr lediglich als ein weiterer Vertriebskanal dar, der den kommerziellen Verlegern zusätzliche Kunden in den Laden bringt, ohne daß ihnen der freie Zugang abverlangt wird.
PubMed Central wird sich somit nicht von dem weit weniger spektakulär durchgeführten Parallelvorhaben im benachbarten Energieministerium, PubScience, unterscheiden. Das Office for Scientific and Technical Information des Department of Energy hatte Anfang Dezember ihre Datenbank mit den Titeln und Abstracts der Artikel von einigen hundert Zeitschriften der Natur- und Ingenieurwissenschaften ins Internet gestellt. Für Internet-Literaturrecherchen erfüllt PubScience eine ähnliche Dienstleistungsfunktion wie in Deutschland das Fachinformationszentrum (FIZ) Karlsruhe - mit dem Unterschied, dass die Nutzung von PubScience kostenlos ist, während in Deutschland für die Recherchen im FIZ Karlsruhe Entgelte verlangt werden.
Das virtuelle Preprint-Archiv
Indessen ist der Grundsatzkonflikt von 'Public Domain' und 'Private Property' noch keineswegs ausgestanden; er hat sich nur auf einen anderen Schauplatz verlagert. Im Oktober trafen sich in Santa Fe, New Mexico, 20 führende Protagonisten von Preprint-Archiven - darunter Paul Ginsparg, der am Los Alamos National Laboratory (LANL) den legendären Server xxxlanl.gov betreibt, auf dem Physiker aus aller Welt die Vorabdrucke ihrer Arbeiten ablegen - und wälzten Pläne für eine neue Plattform des wissenschaftlichen Informationsaustauschs und Publizierens. Beteiligt waren Vertreter von Harvard und dem MIT, der NASA und der Library of Congress. In der bewährten Tradition des Internet wollen sie über die Vereinbarung von Protokollen die vorhandenen Preprint-Server so gestalten, dass sie für Suchmaschinen leicht erschlossen werden können und dem Endnutzer als eine einheitliche, virtuelle Bibliothek - als Universal Preprint Server (UPS) - erscheinen (Prototyp des UPS.
Das UPS-Projekt ähnelt dezentralen Ansätzen der Physiker und Mathematiker, die den Aufbau verteilter Informationssysteme jedoch noch weiter treiben, indem sie auf eine Architektur lokaler Server in den Fachbereichen und Instituten selbst setzen - in der Mathematik sind das weltweit etwa 1500 Einrichtungen, in der Physik rund 5000. Der Grundgedanke von Projekten wie MathNet und PhysNet liegt darin, den effizienten Zugriff mit einer standardisierten Beschreibung der Dokumente durch bibliografische Metadaten zu sichern, welche die Autoren beim Web-Publishing ihrer Arbeiten selbst erstellen. Anhand dieser Katalogdaten ist das Informationsmanagement weitgehend automatisierbar; Software-Agents können das Material absuchen und Alert-Services jeden Wissenschaftler periodisch über die neuesten Arbeiten seines Fachgebietes informieren.
Gesammelt und indexiert werden diese Informationen auf lokaler, regionaler und überregionaler Ebene vom Harvest-System, einer Unix-basierten Public-Domain Software. Seine Kernbestandteile sind die Gatherer und Broker. Der Gatherer sammelt die Indexdaten von den einzelnen Fachbereichsservern seines Einzugsbereiches und übergibt sie an den Broker, der sie in einer Indexdatenbank verwaltet. Der Broker dient, als Query-Manager, dann als Anlaufstelle für Suchanfragen. Durch die hierarchische Indexierung ist das System weltweit beliebig skalierbar und läßt sich über die Fachdisziplinen hinweg vernetzen.
Der Grundkonflikt
Der Übergang des wissenschaftlichen Publikationswesens von der Gutenberg-Galaxie in den Cyberspace vollzieht sich in einem Kampf aller gegen alle. Den Bibliotheken geht es um Besitzstandswahrung, den STM-Verlegern um den Erhalt attraktiver Erlöse, den Endnutzern um die Sicherung des freien Zugangs zu den Ergebnissen der Forschung. Welche Modelle sich dabei durchsetzen, wird die Zukunft zeigen. Der Erfolg von Graswurzel-Initiativen wie UPS, MathNet oder PhysNet hängt jedenfalls von zwei Faktoren ab:
- Von der Disziplin der academic community, sich gewissen Regularien der Veröffentlichung zu unterwerfen und die Arbeiten strukturiert bereitzustellen, beispielsweise im XML- oder RDF-Format und mit Metadaten versehen. Solche Regeln erfordern Vereinbarungen und Akzeptanz. Das ist sicherlich eine Hürde, aber keine unüberwindbare. Auch das Internet ist 'without kings or votes, just rough consensus and running code' entstanden.
- Von der öffentlichen Unterstützung: Selbst wenn der größte Teil des Aufwands zur Bereitstellung der Information freiwillig von den 'produzierenden' Instituten erbracht wird, so ist dennoch ein gewisser Anteil an Dienstleistung zur Pflege der Systeme und Fortschreibung der Standards vonnöten, den Wissenschaftler oder ihre Fachgesellschaften nur bedingt erbringen können.
Ohne eine politische Grundsatzentscheidung zugunsten des öffentlichen Raumes und der elektronischen Allmende in der wissenschaftlichen Informationsversorgung - und das bedeutet in Bundesrepublik beispielsweise eine Kehrtwendung zur bisher verfolgten Fachinformationspolitik - wird die Selbstorganisation der Content Provider in der Wissenschaft wohl kaum von nachhaltiger Dauer sein.