Akademische OpenCulture oder globales WissensBusiness

Während die Scientific Community derzeit um den elektronischen Vollzugang zu ihren Publikationen kämpft, zeichnen sich neue Konzepte zur Dynamisierung des Wissensmanagements ab

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Dass das Internet zur Umstrukturierung der Lehr- und Lerngewohnheiten beitragen, gilt als ausgemacht. In der akademischen Lehre wird eine gesteigerte Technik- und Medienkompetenz eingeklagt, um die Bildungsziele angesichts der Informationstechnologien auf dem neuesten Stand zu halten. Das MIT hat jetzt die Flucht nach vorn angetreten: in den nächsten Jahren sollen 100 Millionen Dollar investiert werden, um unter dem Markenzeichen Open CourseWare sämtliche Lehrinhalte der elitären amerikanischen Technologieschmiede gratis ins Internet zu stellen.

Auf dem Weg zur Weltuniversität?

Logo der "Open-Archives"-Initiative

Ist das nun ein Zeichen dafür, dass der Zugang zum Wissen radikal demokratisiert wird? Verteidiger der Idee, dass allein schon ein effizientes Wissens-Management für eine weltweite Erhöhung des Wohlstandes ausreichend wäre, werden diesen Schritt enthusiastisch begrüßen - sie sehen im Web die Basistechnologie für eine Kollektivierung des Wissens in einer "Weltuniversität". Kommt jetzt der kostenlose Wissenszugang für alle?

Der Prozess der Wissenszunahme für alle ist die eigentliche soziale Basisinnovation, die hinter allen anderen Basisinnovationen steckt und sie erklärt. (...) Die Weltuniversität soll eine Heimatstadt des Wissens aller Erdenbürger sein, um die sich heute vollziehende Trennung zwischen Wissenden und Unwissenden durch kostenfreie Zugänge zu Wissen aufzuheben.

Artur P. Schmidt: wohlstand_fuer_alle.com

Dem frommen Wunsch nach einer Wissensdemokratisierung entsprechend sind auch die weltweiten Reaktionen auf OpenCourseWare: Studenten aus Nigeria, Südafrika oder Sri Lanka freuen sich über die Tatsache, von der Lehre des avanciertesten technischen Wissens nicht mehr länger ausgeschlossen zu sein. Nun werden die Kursunterlagen zwar gratis einzusehen sein, doch Prüfungen ablegen und einen prestigeträchtigen akademischen MIT-Abschluss erhalten kann man nach wie vor nur als zahlender Student in Cambridge, Massachusetts. Dass es schon aus Gründen des Copyrights für Lehrbücher zwei Versionen für die MIT-Lehrinhalte geben könnte, steht zu vermuten: eine passwortgeschützte interne Version und eine für die Öffentlichkeit bestimmte.

Keine nach privatwirtschaftlichen Kriterien geführte Universität wird ihr geistiges Kapital einfach allgemein freigeben. Und so wird auch dieser innovative Schritt einem spezifischen Distinktionsmechanismus geschuldet sein: das MIT kann es sich leisten, unter Bedingungen einer ständig sinkenden Halbwertszeit von Wissen so frei zu agieren. Der Rest ist ein geschicktes PR-Spiel, das aus der Open Source -Idee symbolisches Kapital schlägt und sich einen neue High-Level-Markt erschließt: multimedial aufbereitete und webbasierte Bildungsinhalte, die weltweit verkauft werden können.

Denn wenn die Form des Datenträgers vom Papier zur Elektronik wechselt, dann begünstigt das nicht, wie vordergründig vermutet werden kann, eine automatische Kollektivierung des Wissens. Online-Wissensangebote, die nicht nur Grundlagenwissen und damit relativ statische Inhalte abdecken wollen, werden relativ teuer durch ihren Erhalt, weil sie ständig aktualisiert gehören. Unabhängig von jeder Technologie ist es diese fachkundige Aktualisierung, die in einer guten akademischen Ausbildung geboten wird - sie unterscheidet die Experten von den Autodidakten, denen das vorhandene Wissen prinzipiell ja immer schon zugänglich ist. Aber das Internet hat einen Vernetzungsmythos geschaffen und dazu verführt, das Modell der Präsenzbibliothek bzw. der für alle offenen, umfassenden Enzyklopädie, durch die man nur mittels eines optimierten Navigators zu surfen braucht, mit dem Modell des künftigen Wissensmanagements zu verwechseln.

Sonderfall medienbasierte Universität

Medien können Träger für neue Impulse sein, was die Lehrinhalte betrifft, zu deren Aktualisierung und Internationalisierung beitragen. Eine durch Medienanwendungen gestiegene Unabhängigkeit von räumlicher und zeitlicher Präsentation der Lehre kann die Position von Studierenden flexibilisieren und die individuelle Planung des Studiums erleichtern. Das Konzept der in der berufsbegleitenden Aus- und Weiterbildung seit drei Jahrzehnten erfolgreichen britischen Open University war und ist auf neuen Medientechnologien aufgebaut: weltweit wird mit Unterstützung von Radio, Fernsehen, Video, Kassetten, Telefon und Internet unterrichtet. Auch im deutschen Sprachraum sind die Fernstudienzentren zu "virtuellen Universitäten" mutiert, die das Internet im wirtschaftlichen Sinn für ihr Angebot nutzen - eine Möglichkeit, an die mit der MIT Open CourseWare angeblich nicht direkt gedacht wird.

Die Medien-Realität an den meisten europäischen Universitäten sieht eher traurig aus. Die wenigsten Professoren nutzen die Möglichkeit, per Email mit ihren Studierenden zu kommunizieren, oder ihre Lehrinhalte im Internet zu publizieren. Die am Professoren-Modell ausgerichtete akademische Lehre, die dem Ideal eines über Vorlesungen angebotenen, individualisierten Wissens folgt, erscheint angesichts internationaler Entwicklungen im Medienbereich immer antiquierter. Manch Angehöriger der Gelehrtenrepublik würde es nicht ungern sehen, wenn dieser ganze Medien-Spuk an ihm vorbeiziehen würde, ohne das traditionelle Modell des universitären Wissensmonopols anzurühren.

Zum gegenteiligen Konzept raten Experten für Hochschulentwicklung, und empfehlen den Professoren, beim Stichwort Computer künftig weniger an ihre PowerPoint-Präsentationen zu denken als an Web-basierte Curricula, die auf kollaborativer Basis zu entwickeln sein werden. In den Proceedings der einschlägigen Konferenz "The Changing Universities - The Role of Technology" steht nachzulesen, welches Gewicht den medialen Technologien beim Strukturwandel der Universitäten beigemessen wird. So plädiert der Sozialforscher Detlef Müller-Böling, Leiter des Centrums für Hochschulentwicklung der Bertelsmann-Stiftung, in seinem Konferenzbeitrag für einen offensiven Einsatz der Medientechnologien in der Lehre:

"Es kann keinen Zweifel geben: Studierende werden erwarten, dass neue Medien ein integraler Bestandteil ihrer universitären Ausbildung sind. Die 'Netzgeneration' ist an interaktive Kommunikation gewöhnt. Für junge Leute ist es heutzutage normal, sich Informationen im Web zu suchen, Gedanken über Email auszutauschen oder sich in virtuellen Chatrooms zu treffen. Das unterscheidet sich ziemlich von unserer Generation, deren Haltung gegenüber den Medien entscheidend vom Fernsehen beeinflusst worden ist und die, wenn sie sich auf Mediengebrauch bezieht, eher an die Einweg-Kommunikation denkt, in der wir 'Konsumenten' vorgefertigter Medieninhalte sind."

Der damit ausgedrückte Generationenkonflikt ist ein entscheidendes Merkmal für den Diskurs um die neue akademische Wissenskultur. Im Lichte der aktuellen technischen Möglichkeiten erscheint ihre professorale Prägung in Form der Vorlesung mit Anwesenheitspflicht reichlich antiquiert. Die Vorlesung hat ihren Ursprung im mittelalterlichen Universitätssystem, sie stellt ein Modell der Wissensvermittlung unter Bedingungen eines privilegierten Zugangs zum Wissen dar. Wenn die Vorlesung sich als eine zentrale Form der akademischen Lehre etablieren konnte, dann hat dies nur bedingt damit zu tun, dass Gelehrte aus Büchern als einer Wissensressource vortrugen, die der Allgemeinheit nicht zur Verfügung stand.

Sobald genügend Bücher zur individuellen Lektüre bereitstehen, muss eigentlich niemand mehr aus einem der raren Exemplare vorlesen. Warum wurde die Vorlesung als Lehrform nicht aufgegeben, nachdem mit der billigen Papierproduktion im neunzehnten Jahrhundert Bücher allgemein erschwinglich wurden? Weil es im Vermitteln einer Lehrmeinung um anderes geht als um einen Zugang zu Wissensressourcen: die Generalisierung von Spezialwissen, die Orientierungsleistung durch subjektive Selektion, und nicht zu vergessen die Bildung personenbezogener Netzwerke sowie jenes Tacit knowledge, also strategisches Wissen, das in keinem Lehrbuch steht.

Technologiebasierte Wissenskultur

Schema zu Semantic Web

Akademisches Wissen, das gelehrt werden kann, muss produziert und immer wieder reproduziert werden. Publikation und Lehre sind die klassischen Mittel dazu. Die Produktion und Distribution wissenschaftlichen Wissens könnte völlig unabhängig von hochschulstrategischen Weichenstellungen einen technologisch bedingten Innovationssprung machen, wenn es nach der Meinung von Web-Pionier Tim Berners Lee und seinem Ko-Autor James Hendler vom DARPA Agent Markup Language Projekt geht. Die als Gedankenexperiment schon länger kursierende Vision von einem Semantic Web, die Thema des Keynote Speech von Berners-Lee bei der 10. Internationalen WWW-Entwickler-Konferenz am vergangenen Wochenende in Hongkong war, zieht gewissermaßen die Konsequenz aus dem Dilemma, dass wissenschaftliches Forschen, Publizieren und Kommunizieren nicht deckungsgleich sind - um sie auf einer technischen Meta-Ebene zusammenzuführen.

Wissenschaftliche Publikationen leiden unter einem spezifischen Verzerrungs-Effekt: ähnlich dem autoritativen Konzept einer Repräsentation von Wissen in Gestalt des Professors, der dieses vorträgt, tendieren Fachpublikationen zur Verstärkung gängiger Lehrmeinungen und zur Privilegierung aussagekräftiger Forschungsergebnisse. Publikationen, welche die eigene Forschungshypothese widerlegen, sind unüblich und werden unterdrückt. Aus dem gängigen Peer-Review-Verfahren (Fachkollegen beurteilen, ob ein Beitrag sich zur Publikation eignet) resultieren Publikationsformate, deren überaus subjektive Kriterien pseudo-objektiviert worden sind. Ein guter Grund dafür, dieses Verfahren der fachlichen Vorselektion beizubehalten, ist die Tatsache der inhaltlichen Überfrachtung von Fachgebieten bei uneingeschränkter und unredigierter Publikation. Fazit: ungeachtet der konkreten Ausformungen sind es die Meta-Strukturen des Wissens, die sich ändern müssen.

Jenseits der Monografien

Die aus den vierziger Jahren stammende Hypertext-Idee eines grenzüberschreitenden Publizierens jenseits der wissenschaftlichen Monografie hat auch mit dem Web nur eine defizitäre Realisationsform gefunden - das Wissen für alle und überall ist bislang ein Desideratum. Das ist vor allem so, weil relevante Inhalte nur mehr oder weniger zufällig gefunden werden können:

Das Web wurde als ein Informationsraum mit dem Ziel entworfen, nicht nur für die Kommunikation von Mensch zu Mensch nützlich zu sein, sondern auch dazu, dass Maschinen partizipieren und den Nutzern beim Kommunizieren helfen können. Ein Haupthindernis zur Erreichung dieses Ziels ist die Tatsache, dass die meiste Information am Web ausschließlich für die menschliche Rezeption entworfen wurde.

Berners-Lee und Hendler

Die These von Berners-Lee und Hendler ist griffig: HTML bedient die Darstellungsebene des Wissens für menschliche Anwender, bedarf aber künftig spezifischer Erweiterungen, wenn die automatisierte Verfügung desselben Wissens auf Maschinenebene gewährleistet werden soll. Der zu beschreitende Weg wäre also der von einer visuellen Darstellung des verfügbaren Wissens zu einer tatsächlichen Repräsentation dieses Wissens in automatisierten Prozessen. Und so soll das Semantic Web der Evolution menschlichen Wissens auf die Sprünge helfen: Maschinen werden die Bedeutung von Inhalten erkennen können, unabhängig vom zufälligen Ausdruck, und so Inhalte in neuer Unabhängigkeit vom Kontext und über rein formal definierte Beziehungen auf der Metadaten-Ebene einer neuen Web-Ontologie verfügbar machen.

Es ist das alte philosophische Problem des Auseinanderfallens von Ausdruck und Bedeutung, das hier im Zusammenhang mit informationsverarbeitenden Systemen wiederkehrt. Nun wird eine neue Idealsprache dafür sorgen, dass die Web-Ökonomie einen entscheidenden Rationalisierungsschritt durchläuft. Nachdem das Web in nicht viel mehr als einem Jahrzehnt die 200-jährige Tradition akademischen Publizierens revolutioniert hat, soll die Implikation des Semantic Web ähnlich profund ausfallen: es macht ernst mit der Interdisziplinarität. Der Kontext, bislang mühsam mit selektiver Publikation in Fachjournalen aufrechterhalten, wird von Berners-Lee und Hendler als Wissensbarriere verstanden. Über den gemeinsamen Nenner der Technik sollen die Schranken zwischen den akademischen Disziplinen endgültig fallen, ohne dass diese sich auf eine gemeinsame Terminologie einigen müssen. Die Angleichung erfolgt auf der Ebene des Codes. Ob diese magische Verständigung konkret funktionieren wird, bleibt unklar - aber wer hätte sich schon vor wenigen Jahren überhaupt ein computervermitteltes Text-Web vorstellen können.

Open-Source Publikationskonzept

Steven Harnad, Southampton University

Steven Harnad von der britischen Southampton University hält mit einem subversiven Vorschlag gegen die derzeit gängige wissenschaftliche Publikationspraxis über die "Zugangsblockade" Papier, wie er es nennt. Mit den neuen technischen Möglichkeiten kann jeder Autor sein eigenes wissenschaftliches Literaturarchiv aufbauen und mit anderen vernetzen. Dazu müssen Autoren alle ihre publizierten Texte nur zusätzlich in einem Eprint-Archiv ablegen, dessen Zugang institutionell abgesichert wird. Die Texte werden nach den Vorstellungen der Open Archives Initiative auf der Metadaten-Ebene harmonisiert, um Suchfunktionen zu optimieren. Diese Methode der Selbstarchivierung umgeht die wissenschaftlichen Großverlage, welche die Texte in für Einzelpersonen und kleine Institute nahezu unerschwinglich teuren Journalen anbieten.

Der Vorschlag stellt im wesentlichen eine Radikalisierung der Preprint-Idee dar, einer in vielen naturwissenschaftlichen Disziplinen üblichen Form des Vorab-Publizierens und Kursierens von Artikeln in Fachkreisen. Er wird den Forschungs-Impact erhöhen, die Prinzipien wissenschaftlichen Publizierens und damit der Produktion und Distribution von Wissen werden dabei aber nicht in Frage gestellt - es soll nur bedingungslos Online erhältlich sein, "für alle, immer und überall", so Harnad. Subversiv daran ist die negative Antwort auf die Frage, ob akademisch generiertes Wissen als kommerzieller Besitz gehandelt werden darf. Gefordert wird, dass eine freie Kopie jedes wissenschaftlichen Beitrags jeweils in einer öffentlichen Institution zugänglich gemacht wird. Ein Vorbild dafür ist die im vergangenen Jahr eingerichtete Web-basierte Publikationsdatenbank Pubmed Central, einem digitalen Archiv für Life-Sciences. Eine seit letztem Monat bei Nature laufende Debatte über den freien elektronischen Zugang zu Publikationen könnte sich bis zum September zuspitzen: schon weit über 20.000 Autoren haben jenen offenen Brief unterzeichnet, in dem die Absicht erklärt wurde, alle Verleger von Journalen (wie z.B. Science) zu boykottieren, die ihre Texte nicht spätestens sechs Monate nach ihrer Erstpublikation kostenlos Online zugänglich machen.

Oder sind das alles Scheingefechte? Möglicherweise zieht der Mythos einer absoluten Verfügbarkeit von Wissen einfach nur eine Flut hochspezialisierter Fachliteratur nach sich, die ohne Spezialisierung einer breiteren Allgemeinheit völlig unverständlich bleibt: der Schaltplan allein macht noch keinen Ingenieur.