HyperKult um den Computer

Zu einem Buch über Geschichte, Theorie und Kontext digitaler Medien

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Wege, die Bücher zurücklegen, bis sie das Licht der Öffentlichkeit erblicken, sind lang, manchmal zu lang. Ist ihr Thema rückwärtsgewandt, aber zugleich von dauerhafter Aktualität, tut der lange Übertragungsvorgang dem Gedruckten keinen Abbruch. Das Warten hat sich dann sozusagen gelohnt.

Schwieriger haben es da schon Bücher, die sich auf Neue Medien und ihre Techniken einlassen und mit den Entwicklungszeiten der Chips und Programme konkurrieren bzw. mit den Veränderungen der Netze Schritt halten müssen. Jede Zeitverzögerung minimiert die Aussicht, den state of the art zu reflektieren und mit ihrem Anliegen beim Konsumenten und Leser Aufmerksamkeit zu finden. Autoren vermerken das zuweilen mit Sorge. Sie datieren ihre Texte oder billigen ihnen, wie beispielsweise Hartmut Winkler, eine Halbwertszeit von knapp zwei bis drei Jahren zu. Dies ernstzunehmen, hieße im Klartext, Bücher wie das vorliegende ungelesen im Regal abzustellen. Denn seit Abfassung und Erscheinen der Texte sind mehr als fünf Jahre verstrichen. Schnelldenker wie Norbert Bolz haben daraus Konsequenzen gezogen. Seinen Beitrag über das "Wissensdesign" in Hypermedien zum Beispiel hat er längst in seinem Buch Am Ende der Gutenberg-Galaxis veröffentlicht.

Gott sei Dank müssen Autorenworte nicht immer auf die Goldwaage gelegt werden. Dennoch, die lange Entstehungsdauer von Büchern ist inzwischen zum Problem geworden. Der Reader, der einen Zwischenbericht über eine Workshopreihe abliefert, die gegenwärtig in loser Folge unter dem gleichnamigen Titel HyperKult an der Universität Lüneburg stattfindet und Kulturwissenschaftler, Informatiker und Künstler in ein interdisziplinäres Gespräch zwingt, kann das nicht immer ganz verdecken.

Mancher der Beiträger kommt mit seinem Wissen einfach zu spät. Die (Medien)Karawane ist, wie Kanzler Kohl gern zu sagen beliebt, weitergezogen und hat sich neuen Themen zugewandt. So bieten beispielsweise die beiden Beiträge zur Agentenforschung (J. Pflüger, P. Schefe) für denjenigen, der die Forschungen Patti Maes' vom MIT kennt, wenig Neues. Knowbotik mit soziologischer Handlungstheorie zu koppeln fällt leicht unter den Verdacht, im Dunstkreis von Alteuropa zu operieren. Und auch jene Hoffnungen und Visionen, die sich an die unendliche Verlinkbarkeit von Texten, Bildern und Tönen, an die Nichtigkeit von Autor und Copyright oder die Vergemeinschaftung der Textproduktion geknüpft haben, sind in der Zwischenzeit zerstoben. Weder hat dieses Weben am unendlichen Text ein allgemeines Interesse erreicht noch sind diese künstlerischen Praxen gesellschaftlich relevant geworden. Den Status des Exotismus haben sie jedenfalls nie überwunden.

Deshalb verwundert es ein bißchen, daß die Herausgeber dem Diskurs über subversive (Schreib)Praxen, über die Möglichkeiten der Einbindung und aktiven Beteiligung der Benutzer und des Publikums noch einmal so große Aufmerksamkeit geschenkt haben. Spätestens seit jenem denkwürdigen "Manifest für den Cyberspace" sollte doch jedem - auch in unseren Breitengraden - klar geworden sein, daß die "Technik des operativen Verweisens" (K. Böhle) nichts mit "fröhlicher Wissenschaft" (H. Idensen) zu tun hat. Vielmehr geht es jetzt um die Verschlüsselung von Daten, um die Hierarchisierung des Zugangs und um Kommunikationsentzug. Einzig J. Pflüger geht in seinem Beitrag kurz auf dieses "information hiding" ein, um allerdings dann, anstatt dieser Vorstufe des "InfoWars" nachzuspüren, in die beliebte Rede von der "vernetzten Subjektivität" und der Fragmentierung in "synthetisierten Rollen" zu verfallen.

Immerhin hat sich ein gewisser Mediendiskurs hierzulande kaum an den Spekulationen über "globale Gehirne", "kollektive Intelligenz" oder das "Leben im Netz" beteiligt. Anders als die amerikanische Wired-Kundschaft oder die Flusser-Fraktion in Zentraleuropa hat sich die Kasseler-Gruppe, ein lockerer Zusammenschluß von Medien- und Kulturwissenschaftlern unter der Regie von Georg Christoph Tholen, nicht vom grassierenden MedienHype der späten 80er und frühen 90er Jahre anstecken lassen, sondern sich stets um eine distanzierte und nüchterne Betrachtung der Effekte der Technischen Medien bemüht. Von Anfang an konzentrierte sie sich auf den Schied der Technik von (imaginären) Metaphern, Zuschreibungen und Phantasmatiken. Die Negative Anthropologie Ulrich Sonnemanns (Was der Mensch letztlich ist, bleibt un-bestimmt) spielten dabei - was mitunter häufig vergessen wird - eine ebenso gewichtige Rolle wie die Metapsychologie Jacques Lacans, die dekonstruktiven Lektüren Jacques Derridas oder die Diskursanalyse Michel Foucaults. Dadurch konnte die Medienanalyse von vornherein genügend antihumanistisches Potential tanken, um nicht auf die Versprechungen und Sehnsüchte einer anthropologisch motivierten Medienwissenschaft hereinzufallen.

Mit der Entwicklung des Computers vom Rechenautomaten zum universell-vielgestaltigen Medium hat sich das heterogene und anfangs mitunter diffuse Interesse der Kasselianer an Geschlechterdifferenz und Medien, dekonstruktiven Lektüren und Pathogenesen der Moderne gewandelt und auf den "zentralen Begriff des Mediums" für Gegenwartsdiagnosen focussiert. Vor allem die genialen Medienanalysen Friedrich Kittlers Mitte der 80er Jahre haben dort eine erhöhte Aufmerksamkeit und ein historisches Interesse für die Analyse des Übergangs von analogen zu digitalen Medien geweckt, aber auch für die synergetischen Effekte der Beziehung von Mensch und Maschine.

Ging es in manchen Workshops der Kasselianer (aufgezeichnet und archiviert in der inzwischen eingestellten Schriftenreihe Fragmente) vormals mitunter nur um die Ermittlung des Anteils der Technik für Genese und Bestand einer gegebenen Kultur, so legen manche ihrer Protagonisten heute das Augenmerk eher auf die kulturtheoretische Ausdeutung dieser von Technik erzwungenen Transformation. Den digitalen Medien wird dabei nicht nur eine formende oder prägende, sondern auch, seitdem sich durch sie Wahrnehmung, Denkmuster und Urteile radikal verändern und aus der rasanten Vernetzung der Medien Möglichkeiten für ein Überspringen alteuropäischer Zeit-, Raum- und Identitätsgrenzen ergeben, eine kulturstiftende Kraft zugesprochen. Deshalb auch die Rede von HyperKult(ur).

Umstritten ist bisher, inwieweit dem Einbruch des Digitalen eine "zäsurierende" Wirkung zukommt. Sprechen die einen vom evolutionären Übergang, beobachten die anderen einen "Epochenbruch". Strittig ist aber auch, ob der Computer künftig alle noch getrennt voneinander operierenden Einzelmedien (Schrift, Bild, Ton) in einem einzigen, universellen Medium wird repräsentieren können oder ob es beim Nebeneinander verschiedener Medien bleiben wird. Einig ist man sich hingegen, daß Digitalisierung und Vernetzung die Kommunikationen gesellschaftlicher Funktionssysteme (Wirtschaft, Wissenschaft, Politik, Recht, Kunst usw.) grundlegend verändert und Wissensordnungen und Machtbeziehungen neu strukturiert. Globalisierung ist hiervon die eine Seitenform, Regionalisierung und/oder Balkanisierung die andere. Das schleichende Verschwinden des Nationalstaates und seiner Regulierungsmacht, der Abbau von Sozialleistungen und die Betonung von Selbststeuerung und Eigenverantwortung des einzelnen Bürgers weisen auf diese Entwicklung bereits hin.

Trotz sich häufender Studien, die den "kulturellen Überbau" des Computers auszuleuchten beginnen, haben die Medien- und Kulturwissenschaften es bisher versäumt, den Status technischer Medien und Medialität zu klären. Dieses Versprechen haben sie nicht eingelöst. Immer noch überlagern Technikfolgenabschätzung und Kulturkritik die meisten Debatten in Wissenschaft und Massenmedien. Unter Hinweis auf die Möglichkeiten der Organerweiterung wird entweder die Evolution der neuen Medientechnologien stürmisch begrüßt, oder ihre Ankunft mit Verweis auf die promethische Scham des Menschen von Verlustklagen und Menetekelsprüchen begleitet und überzogen.

Nur der Systemsoziologie ist es bisher gelungen, eine konsistente, nüchterne und in sich schlüssige Medientheorie vorzulegen. Sie beschreibt Medien (egal ob analog oder digital) als lose Kopplung von Elementen, in die sich stets die rigideren Formen einprägen. Die Medium/Form-Unterscheidung ersetzt dabei die alteuropäische von Ding und Eigenschaft. Durch sie ist es möglich, von Materie, Substanzen und Inhalten - den traditionellen Gegenbegriffen des Formenbegriffs - Abstand zu nehmen. Die Verschiebung bzw. das Re-entry dieser Unterscheidung auf die Seite der Form verdankt sich einer Temporalisierung, die weder Räumlichkeiten (Materialitäten) noch Halteprobleme kennt und gemäß der konstruktivistischen Weltdeutung in ein indeterminiert-konstruktivistisches Spiel von Unterscheidungen zerfällt. Vor der digitalen Maschine und seinen vielgestaltigen Anwendungsformen in Hypertext, Agenten-Technologie, Künstliches Leben etc. verstummt und versteinert sie - noch. Kein Wunder, dass sie zumeist, wie der Beitrag von Norman Paech stellvertretend für diese Position zeigt, bei der Analyse alter (Massen)Medien wie Fotografie, Film und Fernsehen verbleibt.

Geben sich Systemsoziologen im allgemeinen mit dem (menschlichen) Beobachter zufrieden, der anhand eigen-motivierter Unterscheidungen das, was sich ihm zeigt, beobachtet und beschreibt, setzen Medienwissenschaftler viel früher ein. Gegen den angeblich "intentionalistischen Horizont selbstreferentieller und selbsterhaltender Systeme" konzipiert Georg Christoph Tholen unter Rückgriff auf Bemerkungen von Jacques Lacan eine eigen-willige Struktur von Medialität, die sie jedem anthropologischen wie instrumentellen Zugriff entzieht.

Medientechnik ist seiner Lesart zufolge nichts, was die Wahrnehmung erweitert oder fälscht. Sie ist weder Mittel noch Werkzeug oder Apparat. Medialität geht mithin der Wahrnehmung und Beobachtung voraus, affiziert, formt und in-formiert sie. Wer ihr auf die Spur kommen will, stößt auf eine Paradoxie. Denn der Ort von Medien bzw. Medialität präsentiert sich als Leerstelle und Nicht-Ort. Sie ist (analog der Negativen Anthropologie Adornos und Sonnemanns) un-bestimmt, bloßer Ein-Schnitt, Unterbrechung und (mitunter auch verletzende) Zäsur. Sie ist die "List der Vernunft" (Hegel), die erst erwirkt, daß sich überhaupt etwas so und nicht anders zeigt. "Mediale Fremd-gebungen" ergeben sich für Tholen aus jenem platzverschiebenden Verweisspiel immaterieller Signifikanten, wie sie Lacan und Derrida am Beispiel der differentiellen Struktur der Sprache beschrieben haben.

Diese Anwesenheit-Abwesenheit Struktur findet sich wunderbarerweise in der "dreistelligen Topologie der digitalen Maschine" wieder. In der binären Schaltungslogik findet man nämlich nicht nur On und Off, die Null oder die Eins, sondern auch den Schalter, der die Schaltzustände "über-trägt". Das Medium wäre gleichsam ein Dämon, der, gleichgültig gegenüber aller Bedeutung der zu verarbeitenden Zahlen und Buchstaben, Bildern und Tönen, ihre Verteilung und Übertragung besorgt. Eine Pointe dieser "Dazwischenkunft des Medialen" ist, dass diese Dreiwertigkeit, die im übrigen auch Gotthard Günthers operative Dialektik strukturiert, auch systemsoziologische Beobachter fasziniert. Die Unterscheidung, die ein Beobachter trifft, schafft nicht nur ein Offen oder Geschlossen, ein Fort oder ein Da, sondern auch die Unterscheidung selber. In den Worten Spencer-Browns: "Was das Ding ist, was es nicht ist, und die Grenze dazwischen." Maxwells Dämon ist demnach der Beobachter selbst, Unterscheidung und Beobachter, der Klöppel einer Hausklingel und der Beobachter fallen zusammen.

Wer will, kann hier einen noch unausgetragenen Strauß zwischen Systemsoziologie und Medienanalyse entdecken, der vielleicht einmal zu einer künftigen, aber erst noch zu entwickelnden Medientheorie führen könnte, die nicht bloß technisches Wissen und ihre Daten kulturtheoretisch hochrechnet und in den kulturellen Überbau verlängert, sondern auch wieder gesellschaftsrelevante Aussagen treffen könnte. Aber daran sind die Beiträger (noch) nicht interessiert. Ihnen geht es um die "konstitutive Funktion" des Mediums Computer für die Kultur und die Folgen seiner multimedialen Anwendung in Wissenschaft, Kunst und Kultur.

Stattdessen überkreuzen sich hier zwei andere Spannungsfelder. Die eine Spannung entsteht, wie schon erwähnt, zwischen den Autoren, die den Gebrauchswert, den Einfluß und die aktive Rolle des Users (H. Idensen, K. Böhle) betonen und aus den Einschreibungen von Nutzerbewegungen und ihrer Semantiken in das Netz Rückschlüsse auf dadurch entstehende Hierarchisierungen ziehen (H. Winkler), und denen, die den antihumanistischen Regulativa der Schaltalgebra auch in ihren vielfältigsten multimedialen Anwendungen in Literatur (P. Gendolla), Museum (U. Pirr), Musik (R. Großmann, R. Wille), Fotografie (H. v. Ameluxen) und Film (N. Paech) nachspüren. Die andere Spannung ergibt sich aus dem Zwist derer, die streng Hardware-orientiert argumentieren (F. Kittler, W. Hagen) und Wirklichkeit als abhängige Variable der Verschränkung von Betriebssystem und Programmierstil lesen, und denen, die auf die Artikulation der Folgen der Umgestaltung von Wissensordnungen, Lebenswelt und Subjektivität durch die Turing-Galaxis (W. Coy, Ch. G. Tholen) drängen.

Auffallend an diesem Streit ist, daß sich mancher Kasselianer scheinbar gegenwärtig nicht so recht entscheiden kann, ob er denn nun (als Kulturwissenschaftler) auf dem Weg des unabgeschlossenen offenen Horizonts des Menschen (negativer Anthropologie) voranschreiten oder ob er (als Medienwissenschaftler) dem maschinellen Rückkopplungsprozeß unter Aussschluß des menschlichen Bewußtseins (Kybernetik) den Vorzug geben soll. Interessanterweise findet hier unter den Vertretern der "zwei Kulturen" ein Platztausch statt. Informatiker richten, offensichtlich frustriert von den Ergebnissen der KI-Forschung und der Endlichkeit des Rechenautomaten, ihren Blick auf die Kontingenzen psychischer Systeme, die sich in die mediale Struktur des Computers einschreiben, um dann im Input desselben zugleich das Mehr und die Grenzen der Leistungsfähigkeit der Maschine zu entdecken (M. Warnke).

Dies überrascht, weil nicht-lineare komplexe Theorien gerade deswegen nach Modellen zur Ausschaltung des Zufalls und des Unvorhersehbaren schielen, das heißt sozusagen erst recht auf die Kontrolle des Unkalkulierbaren dringen. Literaturwissenschaftler reagieren meist harsch auf dieses Re-Entry des Menschen und kontern darauf mit der Frage, welche Relevanz diese Unterscheidung (Intuition, Verstehen, Kreativität) denn für die Lösung bzw. Entscheidbarkeit eines bestimmten Problems, um das es schließlich gehe, haben soll (F. Kittler).

Vielleicht ist dieser Streit auch bald Schnee von gestern. Ein möglicher dritter Weg, jenseits der Differenz von Innen und Außen, von Kontingenz (des Bewußtseins) und Rechenhaftigkeit (der Turingmaschine), bahnt sich in der bottom-up Methode der Theorie emergenter Systeme an. Im aufregendsten und zugleich interessantesten Beitrag des Readers setzt sich Hans-Joachim Metzger mit der Genesis in Silico auseinander, dem "hybridesten Projekt, welches sich das Leben hat vorsetzen können".

Evolution und intelligentes Leben nicht nur zu simulieren, sondern auch qualitativ anders mittels sich selbstreplizierender Computerprogramme zu erzeugen, wird durch den historischen Zusammenprall von Biologie und Technik, Genetik und Schaltalgebra möglich. Seitdem sich Leben wie Maschine als algorithmischer Prozeß gezeigt und als programmierbar erwiesen hat, zeigt man sich vor allem in der Neuen Welt vom "Laufenlassen der Evolution" fasziniert. Das "Out of control"-Mem infiziert den amerikanischen Diskurs (Kelly, Dennett, Bloom, Brodie etc.) und schlägt in alle gesellschaftlichen Systeme (Ökonomie, Politik, Wissenschaft) durch. Fitness, Adaptabilität, Selektion, Konkurrenz - all diese Begriffe, die den Mediendiskurs derzeit dominieren, finden bisher in Kassel keinen diskursiven Ort. Diese (technische) Spielart des Neo-Darwinismus ist an den Kasselianern bislang vorbeigerauscht, ebenso die sich daraus ergebenden gesellschaftlichen und kulturellen Implikationen, eine Spätfolge des hermetischen Sich-Abscheidens und Sich-Einmauerns in poststrukturalistische Kanonika.

Trotz der Fülle an Themen und unterschiedlichen Herangehensweisen zeigt auch dieser Band: Der Medienanalyse ist es immer noch nicht gelungen, eine adäquate und allgemeine Methode zu entwickeln, wie künftig mit numerischen und technischen Daten (Geräuschen, Farben, Schaltplänen) zu verfahren ist. Es bleibt vorerst beim Hineinlesen dekonstruktiver Verfahren in die technischen Prozesse. Andererseits ist aber auch zu beobachten, welche Probleme sich eine als Kulturwissenschaft gerierende (postmoderne) Medienwissenschaft einfängt, wenn sie sich zunehmend, wie ihr poststrukturalistischer Bruder, von "offener Programmierbarkeit" und "Referenzlosigkeit" antörnen läßt, auf bloße Permutationen und Kombinationen der Signifikanten abzielt und gelegentlich wie seinerzeit Flusser vom "Entwurf alternativer Welten" (Ameluxen) schwadroniert, auf die Analyse von Hardware (Materialitäten, Architektoniken, Topologien) und ihren Arkanpraxen (W. Hagen) aber allmählich gänzlich zu verzichten beginnt. Die Sokal-Affäre in Amerika und kürzlich in Frankreich haben mit aller Deutlichkeit gezeigt, wohin das führen kann.

MARTIN WARNKE/WOLFGANG COY/GEORG CHRISTOPH THOLEN (Hg.), HyperKult. Geschichte, Theorie und Kontext digitaler Medien, Basel/Frankfurt am Main: Stroemfeld 1997, 520 S., Abb., 78 Mark ??