Der Kampf um Befreiung oder Verknappung von Informationen und Immaterialgütern
Seite 2: Der Gegenentwurf: Offener Zugang zu Informationen
- Der Kampf um Befreiung oder Verknappung von Informationen und Immaterialgütern
- Der Gegenentwurf: Offener Zugang zu Informationen
- Auf einer Seite lesen
Dem Grundsatz der Informationsverknappung diametral entgegengesetzt ist das Modell des offenen Wissens, wie es sich z.B. in der Open Definition manifestiert. Diese bezeichnet Wissen als offen, das (entgelt- und restriktions-) frei
- benutzt (z.B. gelesen, analysiert)
- weiterverwendet (z.B. neu ausgewertet, modifiziert und mit anderen Daten kombiniert)
- weiterverteilt und kopiert, also zur Nutzung durch andere angeboten
werden kann. Weitere Bedingungen sind die Zugänglichmachung in einer technisch leicht zu handhabenden und veränderbaren Form sowie die Verwendung offener Dateiformate.
Ideologisch verwoben mit der Forderung nach offenem Wissen ist das von Yochai Benkler formulierte Prinzip der Commons-based Peer Production, das die Produktion von Wissen und Informationen durch gleichberechtigte Personen ohne wirtschaftliche Interessen und die freie Verfügbarmachung dieses Wissens/ dieser Information bezeichnet.
Gerade von den erwähnten Intermediären wird regelmäßig die Qualität dieser in der Allmende entstandenen Informationen angezweifelt, schließlich begründen sie die Erhebung von Entgelten für die Informationsnutzung durch eigene, Kosten generierende Leistungen wie Qualitätssicherung oder Selektion. Dennoch belegen tatsächlich zahlreiche Beispiele, dass offen verfügbare und kollaborativ erstellte Informationen qualitativ hochwertig, nützlich und mitunter kommerziellen Produkten vorzuziehen sind. Dazu zählen:
- die Open Source Software Linux.
- die kollaborativ gesammelten und offen bereitgestellten Geodaten des Projekts OpenStreetMap, die in ihrer Qualität teils kommerzielle Dienste übertreffen und daher von kommerziellen Anbietern in eigene Anwendungen übernommen.
- die Online-Enzyklopädie Wikipedia, der die wissenschaftliche Zeitschrift Nature bereits 2005, die Wikipedia existierte gerade vier Jahre, eine Qualität vergleichbar der Encyclopedia Britannica attestierte.
- Online-Plattformen zur Aufdeckung von Plagiaten wie GuttenPlag oder VroniPlag.
Der diesen Angeboten und Phänomenen zugrunde liegende Mechanismus der Qualitätssicherung lässt sich mit Linus Law, benannt nach dem Namensgeber und Initiator der Open Source Software Linux, Linus Torvalds, zusammenfassen: "Given enough eyeballs, all bugs are shallow."
Damit die Augen der Vielen aber fehlerhafte Informationen entdecken und ausbesseren können, müssen diese offen zugänglich sein sowie ihre Bearbeitung erlaubt sein. Geronnene, starre Informationen unterliegen schleppenden und ineffizienteren Verbesserungsmechanismen als offene Informationen.
Offener Zugang zu Verwaltungsinformationen
Im wissenschaftlichen und nicht-wissenschaftlichen Kontext hat sich ein ganzes Portfolio an Initiativen für offene Informationen herausgebildet, von denen einige im Folgenden kurz dargestellt werden. Bei den nicht-wissenschaftlichen Initiativen sind, neben der erwähnten Open Source Community und OpenStreetMap vor allem Open Data und Open Government zu nennen.
Open Government Data etwa fordert offenen Zugang zu Verwaltungsdaten und meint damit "jene Datenbestände des öffentlichen Sektors, die von Staat und Verwaltung im Interesse der Allgemeinheit ohne jedwede Einschränkung zur freien Nutzung, zur Weiterverbreitung und zur freien Weiterverwendung frei zugänglich gemacht werden".
Die Anwendungsszenarien von Open Data und Open Government lassen sich sowohl mit Forderungen nach Partizipation und Transparenz als auch mit reiner Nützlichkeit verbinden: Ein nahezu klassischer Ansatz von Open Government Data Projekten ist es, Regierungsausgaben und Subventionierungen transparent zu machen. Open Spending visualisiert die öffentlichen Ausgaben zahlreicher Länder und schlüsselt diese teils sehr detailliert in einzelne Posten kleinerer Ressorts auf. Das deutsche Pendant zu Open Spending ist der Offene Haushalt, der über Umfang und Verteilung des Bundeshaushalts informiert.
Wheelmap.org hingegen bietet frei editierbare, offene Informationen zur behindertengerechten Gestaltungen öffentlicher Räume. Eine Vielzahl anderer höchst interessanter Projekte kann im Open Data Showroom bewundert werden.
Allerdings sprechen auch wirtschaftliche Überlegungen für Open Data: Die EU-Kommission schätzt das wirtschaftliche Potenzial von Verwaltungsdaten in der Europäischen Union auf 40 Milliarden Euro jährlich und nicht nur Ludwig Siegele, Journalist des Wirtschaftsmagazins Economist, hält Daten nach Land, Arbeit und Kapital für den vierten Produktionsfaktor moderner Gesellschaften.
Open Access
Im Bereich der Wissenschaft ist allen voran Open Access, der offene Zugang zu wissenschaftlichen Publikationen zu nennen. Open Access hat sowohl auf Ebene der Wissenschaftskommunikation als auch der Effizienz Vorteile gegenüber Closed Access zu bieten: Open-Access-Dokumente werden nicht nur in aller Regel häufiger zitiert als Closed-Access-Dokumente, sie sind auch unter volkswirtschaftlichen Aspekten effizienter.
Der Wirtschaftswissenschaftler John Houghton ermittelte 2009 vermutliche jährliche Ersparnisse durch die Verfolgung des Green Road Open Access (der Zugänglichmachung wissenschaftlicher Dokumente, die verlagsgebunden erschienen sind, in einer Zweitverwertung auf Open Access Repositories) von 30 Millionen € für Dänemark, von 50 Millionen € in den Niederlanden und von 125 Millionen € in Großbritannien. Bei Umsetzung des Golden Road Open Access (der originären Open-Access-Publikation in entsprechenden Verlagen und Journalen) beziffert er die vermutlichen jährlichen Ersparnisse auf 70 Million € in Dänemark, 133 Millionen € in den Niederlanden und 480 Millionen € in Großbritannien. Für Großbritannien bezifferte eine Studie der Förderorganisation Joint Information Systems Committee (JISC) die Ersparnisse durch Open Access im öffentlichen Bereich mit 28,6 Millionen £ jährlich.
Allerdings wird längst auch der Open Access zu Forschungsdaten gefordert und durch eine Vielzahl an Argumenten gestützt: Die Veröffentlichung von Forschungsdaten ermöglicht deren Prüfung (im Sinne einer Qualitätssicherung) und die Nachnutzung durch andere Wissenschaftler. Zudem begünstigt sie die Transparenz der Forschung, erschwert wissenschaftlichen Betrug und die Manipulation von Ergebnissen und fördert die Effektivität, indem sie die Überprüfung, Bestätigung bzw. Revision von Ergebnissen in Replikationsstudien erleichtert. Zu guter Letzt werden Publikationen, zu denen Forschungsdaten offen zugänglich gemacht werden, häufiger zitiert als Studien, zu denen die Daten nicht öffentlich gemacht werden.
Open Review
Auch die als Open Review bezeichnete offene Begutachtung wissenschaftlicher Publikationen bietet gegenüber der klassischerweise verdeckten Begutachtung zur Veröffentlichung eingereichter Texte Vorteile.
Ulrich Pöschl, Herausgeber des Open Access erscheinenden und Open Review praktizierenden Journals Atmospheric Chemistry and Physics (ACP) schildert zahlreiche Vorzüge offener Review-Verfahren: Die offene Zugänglichkeit schon der eingereichten Texte ermöglicht wesentliches schnelleres Feedback aus der Fachcommunity als es die, zeitlich versetzte, offene Publikation akzeptierter Einreichungen als formale Publikation erlaubt. Zudem ermöglicht diese frühe Verfügbarkeit eine umgehende Verbreitung aktueller und innovativer Studien, sie beschleunigt also die Wissenschaftskommunikation.
Da auch die Kommentare der Gutachter öffentlich gemacht werden, werden auch diese Teil der wissenschaftlichen Erörterung und darin reflektiert. Die offene Zugänglichkeit der Kommentare bewirkt zudem Effizienz der Begutachtung und vermeidet Mehrfacharbeit und schließlich verhindert die Transparenz der Veröffentlichung die Einreichung minderwertiger Papers.
Open Metrics
Allerdings werden nicht nur in Fragen der Qualitätssicherung, sondern auch der Qualitäts- oder Resonanz-Messung wissenschaftlicher Werke neue, offene Verfahren, kurz: Open Metrics, gefordert. Ausschlaggebend ist dabei auch die Kritik am geschlossenen Charakter der proprietären Datenbanken (Web of Knowledge & Journal Citation Reports, Scopus, GoogleScholar) mittels derer zitationsbasierte Impact-Metriken, wie z.B. der Journal Impact Factor (JIF), ermittelt werden. Ihre Datenbasis liegt nicht offen, eine Überprüfung der Scores ist somit nicht möglich.
Herausgeber der Rockefeller University Press stießen bei der Berechnung der Zitationsdaten und JIF-Werte mehrerer Journals wiederholt auf Fehler und empfahlen: "Just as scientists would not accept the findings in a scientific paper without seeing the primary data, so should they not rely on Thomson Scientific's impact factor, which is based on hidden data."
Aufkommende Alternativen zur den Zitationsdatenbanken sammeln sich unter dem Label der Altmetrics. Sie verwerten meist eine Vielzahl an Nutzungsereignissen wissenschaftlicher Informationen, zum Beispiel aus Online-Literaturverwaltungen wie Citeulike oder Mendeley, aus Social-Media-Quellen, Bookmarking-Diensten und Plattformen wie Slideshare oder Github. Dienste wie Science Card, Impact Story oder der Altmetric Explorer bauen auf diesen Informationen auf und geben Impact-Metriken für einzelne Texte oder Objekte aus an.
Die Stärken der Altmetrics beruhen zu einem Gutteil auf Offenheit. Sie nutzen in der Regel offene Schnittstellen und sind inhaltlich offen: Sie beschreiben nicht nur den Einfluss kanonisierter wissenschaftlicher Publikationen wie Zeitschriftenartikel oder Monographien, sondern auch die Wirkung dynamischer, interaktiver Informationen - etwa in Wissenschaftsblogs und sogar gänzlich anderen Objekttypen als Texten. Dazu zählen Forschungsdaten und -software und eine Vielzahl an Mikroinformationen mit wissenschaftlicher Relevanz. Daran scheitern geschlossene Datenbanken und taugen daher auch nicht als Open Metrics in einer offenen Wissenschaft.
Offener Informationszugang: Gut oder nur besser als geschlossene Informationsbestände?
Trotz der geschilderten Vorzüge offenen Informationszugangs unterliegt auch dieser Limitierungen und Kritik. Wie Jutta Haider herausarbeitet, hat sich ein dominanter Offenheitsdiskurs etabliert, der teils kaum hinterfragbar erscheint und in dem sich Herrschaftsansprüche, Ethnozentrismen und Hegemonialität manifestieren.
Offenheit garantiert weder eine Reduktion von Disparitäten in der Wissenschaft noch genereller in sozialer oder wirtschaftlicher Hinsicht. Vielmehr scheint es möglich, dass die Nutznießer von Open Data die alten Eliten sind, die über instrumentelle Kenntnisse, soziales und wirtschaftliches Kapital zur finanziellen Verwertung der Daten verfügen.
Die Auswirkungen der öffentlichen digitalen Zugänglichmachung der Katasterinformationen Bangalores zumindest scheinen diese Befürchtung zu bestätigen: "Gewinner war lediglich eine gut gebildete und besitzende Klasse, die nun bessere Schlüsse über den Immobilienmarkt ziehen und das in wirtschaftlichen Erfolg ummünzen konnte", schfreibt Lorenz Matzat. Gerade bezüglich der Forderungen nach offenem Zugang zu Verwaltungsdaten stehen den Vorzügen einer transparenten und überprüfbaren Verwaltungsarbeit auch Szenarien gegenüber, in denen Open Goverment Data als Instrument der New Public Management Agenda genutzt werden kann.
Die deutsche Open Data Szene scheint sich der Ambivalenz ihrer Ziele durchaus bewusst: So entschloss sich die deutsche Sektion der eher idealistischen Open Knowledge Foundation gegen eine Teilnahme an der von Bertelsmann initiierten Open Government Partnership Deutschland. Grund war unter anderem das Engagement des Bertelmann-Ablegers Arvato beim Outsourcing der Verwaltung.
Auch wenn offener Informationszugang keinesfalls per se Benachteiligungen aufheben kann und nicht mit Heilserwartungen überfrachtet werden darf, lassen sich die Vorteile des offenen Informationszugangs verglichen mit restringierter Informationsnutzung in den Worten der Wirtschaftswissenschaftler Al-Ubaydli & Pollock zusammenfassen:
With the volume of information production ever growing - and attention ever more scarce - (…) digital technology offers the possibility of radical innovation in this area. (…) This would promises to deliver dramatic increases in transparency and efficiency as well as greatly increased innovation in related product, processes and services.
Konvergenz der Produktionsbedingungen immaterieller und materieller Güter?
Im Bereich der immateriellen Güter rätseln Intermediäre und Vermittler wissenschaftlicher und nicht-wissenschaftlicher Informationen aktuell darüber, wie sie die nahezu kostenfreie Möglichkeit, Daten zu vervielfältigen und zu verbreiten, durch technische und rechtliche Kunstgriffe behindern können, um die erzwungener Maßen verknappten Informationen weiterhin kostenpflichtig verteilen zu können.
Allerdings ist es durchaus möglich, dass auch die Produktionsbedingungen materieller Güter mittelfristig genauso hinterfragt werden, wie es derzeit bei den immateriellen Gütern geschieht. Sollte sich die Technik hochwertigen 3D-Drucks zu günstigen Preisen realisieren lassen, hätte man es urplötzlich auch mit Prosumern im Bereich der materiellen Güter zu tun. Diese Güter wären überdies, genau wie heute nur immaterielle Güter, zu geringen Kosten zu vervielfältigen, ebenso entfielen nennenswerte Transportkosten. Gefragt wären in einem solchen Szenario weniger (kosten)aufwändige Produktionsstätten, sondern vielmehr findige Designer, die ihre Druckvorlagen online - gegebenenfalls ohne Verlage und andere Intermediäre oder aber in einem Shop à la iTunes -selbst vertreiben könnten.