zurück zum Artikel

Die Anomalienjäger

9/11 als historischer Testfall für die digitale Öffentlichkeit

Die Attacken vom 11. September 2001 haben das noch junge Jahrhundert entscheidend geprägt. Von den Afghanistan- und Irak-Feldzügen bis zur von Snowden offengelegten digitalen Vollüberwachung mussten und müssen sie als Legitimationsgrundlage für weitreichende und kontroverse politische Entscheidungen herhalten. Eine kritische und exakte Analyse der Ereignisse ist somit mehr als angebracht. Für demokratische Gesellschaften scheint es da ein Glücksfall zu sein, dass sich mehr oder weniger zeitgleich das Internet etablierte. Denn es ermöglichte nicht nur die Bereitstellung detaillierter Informationen zu den Attacken. Auch ihre Auswertung und Interpretation konnte nun von zahlreichen Akteuren vorgenommen worden - nicht nur in den üblichen Expertenzyklen. Wie hat die neue Technologie die Debatte zum Großereignis 11. September geformt und was lässt sich aus über einem Jahrzehnt internet-basierten Diskurs lernen?

Beschäftigt man sich mit dem Thema 9/11 im Internet, stößt man sehr schnell auf eine Art analog-digitale Kluft: Während in den traditionellen Medien größtenteils Konsens über die Urheberschaft der Anschläge und gewisse Grundfakten zu den Ereignissen besteht (etwa, dass die gekaperten Flugzeuge für den Einsturz der Gebäude in New York verantwortlich waren und keine Sprengung), wird diese "offizielle Version" in unzähligen Online-Kanälen fundamental infrage gestellt.

Online organisierter Zweifel

Erste Zweifel zum Tathergang wurden bereits unmittelbar nach den Anschlägen geäußert (u.a. in einer Link auf /tp/special/wtc/default.html von Mathias Bröckers) und verdichteten sich schließlich zur sogenannten "9/11-Wahrheitsbewegung" (Englisch: "9/11 Truth Movement"). Diese arbeitet vor allem online und wie andere Internetbewegungen ist sie hinsichtlich ihrer Weltanschauung und Zielsetzung nicht eindeutig zu verorten.

Eine übergeordnete Gemeinsamkeit ist jedoch der organisierte Zweifel, d.h. die mehr oder weniger systematische und detaillierte Dekonstruktion der "offiziellen Version" des 11. Septembers. Anhänger der Bewegung werden von den etablierten Medien größtenteils pauschal als "Verschwörungstheoretiker" diffamiert, pathologisiert und ausgegrenzt, was diese wohl nicht gerade von der Richtigkeit der "offiziellen Version" überzeugen dürfte, wie Andreas Anton (Verschwörungstheorien zum 11. September [1]) richtig argumentierte.

Eine Pauschalablehnung alternativer Deutungen scheint auch schon aufgrund faktischer Verschwörungen in der Vergangenheit und tatsächlichen Fehlern in der Berichterstattung und Aufklärung zu 9/11 unangebracht. Zudem verkennt die Stigmatisierung als "Verschwörungstheorien", dass die 9/11-Zweifler eher selten tatsächlich Theorien generieren. Ein vielzitiertes Motto kommt stattdessen aufklärerisch daher: "Ask questions, demand answers" ("Stelle Fragen, fordere Antworten").

Selbstformulierte Antworten in Form von konkret und detailliert ausbuchstabierten Alternativversionen findet man dagegen selten. Das Zusammenfügen von den zahlreichen mehr oder weniger dekontextualisierten Informationen, Desinformationen, Fakten und Fiktionen bleibt somit dem Individuum überlassen, das sich online seine Wirklichkeit "ergoogelt" [2], wie Michael Schetsche es ausdrückte.

Doch während das Internet prinzipiell viele Wirklichkeiten nebeneinander zulässt, gibt es auch hier wissenssoziologische Hierarchien und Institutionen, die die Sichtbarkeit von Informationen strukturieren. Wie entscheiden die neuen Online-Gatekeeper, was inkludiert und was exkludiert wird?

Der Streitfall 9/11 in Wikipedia

Paul Schreyer hatte zu dieser Frage kürzlich bei Telepolis einen "Selbstversuch" [3] unternommen, in dem er sich darum bemühte, alternative Deutungen in den deutschsprachigen Wikipedia-Artikel zum 11. September einzubringen. Die harsche Ablehnung, mit der die Community auf seine relativ zurückhaltenden Editierversuche reagierte, überraschte Schreyer. Er kritisierte, Wikipedias "Gralshüter der Wahrheit" würden Quellen voreilig und ohne rechte Diskussion als "verschwörungstheoretisch" ablehnen.

Tatsächlich konnte man diese restriktive Vorgehensweise auch bereits vor Jahren beobachten. Einer von uns hatte den Diskussionsverlauf des Artikels Schritt für Schritt analysiert [4]. Diese historische Perspektive gibt Aufschluss darüber, wie es zu der rigorosen Exklusionspolitik kam und zeigt gleichzeitig Kernprobleme der Wikipedia - und letztlich auch des digitalen Diskurses insgesamt - auf.

Es offenbarte sich schon zu Beginn der Diskussion, dass es an Fachwissen mangelte, um die verschiedenen Detailfragen hinreichend zu bewerten. Immerhin ging es etwa um die Einsturzursache der Gebäude, ein Vorgang also, der gewöhnlich Experten wie Bauingenieure, Statiker und Architekten beschäftigt. Auch wenn die Enzyklopädie mittlerweile zunehmend professionalisiert wird (die von Paul Schreyer zitierten PR-Aktivitäten sind da ein eher unrühmliches Beispiel), bleibt sie doch ein Freiwilligenprojekt.

Das galt natürlich umso mehr in den frühen 2000er Jahren, als der Artikel entstand. Als solches fehlte es an personellen und vor allem fachlichen Kapazitäten, um die fortlaufende Hinterfragung scheinbar offensichtlicher Grundannahmen diskursiv zu bearbeiten. Also reagierte man mit Defensivmechanismen, die durchaus typisch für derart gelagerte Fälle in der Wikipedia sind: Mit dem Verweis auf die Wikipedia-Richtlinie gegen "Theoriefindung" [5] (Englisch: "No Original Research" [6]) wurde erläutert, dass nur bereits etablierte Quellen berücksichtigt werden sollen.

So mag der Artikel von Laien verfasst worden sein, repräsentiert wird jedoch "orthodoxes Wissen", wie Andreas Anton es nennt (Verschwörungstheorien zum 11. September [7]), d.h. solches Wissen, das über gesellschaftliche und "fachlich beglaubigte" Anerkennung verfügt. Auf diese Weise wird bei Wikipedia die fehlende Expertise sozusagen externalisiert - ohne dass unbedingt inhaltliche Diskussionen zu Einzelaspekten geführt würden.

Gleichzeitig immunisierte man sich vor weiterem Protest und Widerspruch, indem man entsprechende Beiträge löschte, oder in Diskussionsarchive oder den quasi als "Entlastungsbecken" fungierenden Artikel zu 9/11-Verschwörungstheorien [8] verschob. Ähnliches widerfuhr auch Paul Schreyer in seinem "Selbstversuch" (Verschwörungstheorie! [9]). Doch wie ist dies zu bewerten? Handelt es sich hier um eine skandalöse Form der Zensur oder um eine legitime Form der Ausgrenzung irrelevanter Inhalte?

Im Partizipationsdilemma

Zunächst mag das restriktive Vorgehen der Community als Widerspruch zu Wikipedias Grundsatz der Förderung freien Wissens wahrgenommen werden. Doch der Kampf zwischen toleranten "Inklusionisten" und "Exklusionisten" begleitet das Projekt bereits seit Beginn. Er erklärt sich dadurch, dass Wikipedia neben seiner zweifellos wichtigen "Befreiungsideologie" auch eine "Produktideologie" verfolgt, wie der Soziologe Christian Stegbauer in seiner Forschung resümierte (Stegbauer, C., 2009, Wikipedia: Das Rätsel der Kooperation, Wiesbaden: VS Verlag für Sozialwissenschaften [10]).

Gerade in den Anfangsjahren war man darum bemüht, Wikipedia als ernstzunehmende Enzyklopädie zu etablieren, eben weil dies dem Projekt ohne formale Partizipations- und Publikationsschranken anfangs kaum jemand zutraute. Aus dieser Perspektive erscheint der vehemente Ausschluss alternativer Wirklichkeitsdeutungen nur konsequent - unabhängig davon, wie man diesen nun bewertet. Wikipedias Exklusionspolitik stellt somit auch keinen Widerspruch zu ihrer strukturellen Offenheit dar, sondern vielmehr ihr Resultat.

Im Gegensatz zur handverlesenen bildungsbürgerlichen Autorenschaft traditioneller Enzyklopädien wirken bei Wikipedia prinzipiell alle, die sich dazu berufen fühlen - mit entsprechend grundsätzlich divergierenden Sichtweisen. Würde man diese demokratisch und gleichwertig nebeneinander abbilden, wäre der Artikel ein chaotisches Essay, aber sicher kein enzyklopädischer Artikel zum schnellen Nachschlagen.

Exklusion ist also unausweichlich und die Kriterien hierzu werden im Zweifelsfall zu Ungunsten abweichender Auslegungen und zu Gunsten konservativer Interpretationen angelegt. Eben darin liegt die Tragik dieses Partizipationsdilemmas, das letztlich auch nicht auf Wikipedia beschränkt ist, sondern dem die Netzöffentlichkeit insgesamt gegenüber steht: Die technisch-soziale Offenheit ist gleichzeitig Grundlage und Hemmnis für das aufklärerische Potenzial des Internets.

Um der Beliebigkeit zu entgehen, muss bei zunehmend vielseitigem Dissens umso stärker hierarchisiert und ausgegrenzt werden. Stimmt man dem zu, drängt sich die Frage auf, welche Kriterien hierzu verwendet werden sollten. Oder konstruktiver formuliert: Welche Bedingungen sind nötig, um das aufklärerische Potenzial des Internets zu realisieren? Bevor wir diese Frage beantworten, werfen wir einen Blick auf einen weiteren Fall, der interessante Parallelen zu Wikipedia aufweist.

Algorithmische Selektion: 9/11@Google

Der Streit der Selektionskriterien

Es gibt einen prominenten Internet-Player, für den Informationsselektion eine Kernkompetenz darstellt: Google. Während frühe Suchmaschinen durch einer Fülle irrelevanter Resultate eher zu Frustration als zum effektiven Finden geeignet waren, verstand es der revolutionäre PageRank-Algorithmus, die Spreu vom Weizen zu trennen.

Seine Funktionsweise ist ebenso einfach wie genial: Die eingehenden Links zu einer Webseite bestimmen ihre Relevanz und somit auch ihre Positionierung in den Ergebnissen. Zwar ist dies nur ein Faktor unter inzwischen 200 (wie Google es angibt [11]), zweifellos gehört(e) er jedoch zu den wichtigsten.

Von Wikipedia und anderen Gatekeepern unterscheidet sich dieser Selektionsmechanismus vor allem dadurch, dass er maschinell arbeitet, also unabhängig von menschlichen Vorurteilen. Allerdings beinhalten auch Algorithmen menschliche Selektionsmechanismen, die bei ihrer Programmierung zum Tragen kamen. Astrid Mager von der Österreichischen Akademie der Wissenschaften spricht in diesem Zusammenhang gar von einer "algorithmischen Ideologie" [12].

Der Hyperlink als wesentlicher Relevanzindikator weist mit Blick auf unsere Diskussion eine interessante Eigenschaft auf: Er ist blind gegenüber Expertenurteilen und kann prinzipiell von allen Internetnutzerinnen gesetzt werden. Insofern könnte man dem Hyperlink eine gewisse demokratische Qualität zuschreiben. Können alternative Deutungen des 11. Septembers davon profitieren und sind sie unter diesen Umständen weniger von rigidem Ausschluss betroffen?

Tatsächlich dominierten alternative 9/11-Deutungen lange Zeit Googles Ergebnisseiten sogar, wie eine Analyse [13] von Erik Borra [14] (University of Amsterdam) und René König [15] (Karlsruher Institut für Technologie) zeigte. In dem Projekt wurde über fünf Jahre der Begriff "9/11" gegoogelt und die jeweils ersten 10 Ergebnisse von jährlich vier Stichtagen inhaltsanalytisch ausgewertet.

Dabei kam allerdings auch heraus, dass sich das Bild mit Einführung des sogenannten "Panda"-Updates, einer umfassenden Änderung des Google-Algorithmus, radikal umkehrte: Plötzlich dominierte die "offizielle Version" die Ergebnisse, während Seiten mit alternativen Deutungen fast vollständig verschwanden.

Wie üblich gibt der Konzern keine genauen Informationen zur Wirkweise des Algorithmus. Allerdings verkündete man, dass besonders Webseiten von "hoher Qualität" von dem Update profitieren sollten. Eine Liste von Fragen [16] an Webseitenbetreiber soll diesen helfen zu bestimmen, inwiefern ihr Internetauftritt in diese Kategorie fällt. Darunter:

  1. Ist diese Seite eine anerkannte Autorität auf ihrem Gebiet? ("Is the site a recognized authority on its topic?")
  2. Würden Sie die Seite als verlässliche Quelle wiedererkennen, wenn sie mit Namen genannt wird ("Would you recognize this site as an authoritative source when mentioned by name?")
  3. Würden Sie erwarten diesen Artikel in einem gedruckten Magazin, einer Enzyklopädie oder einem Buch zu sehen? ("Would you expect to see this article in a printed magazine, encyclopedia or book?")

Natürlich können wir nicht mit letzter Sicherheit sagen, ob es tatsächlich diese Faktoren waren, die die Webseiten mit alternativen Deutungen mehr oder weniger aus Googles Top 10 verbannten. Naheliegend wäre dieser Schluss aber freilich schon. In jedem Fall deuten die Fragen auf einen Dogmenwechsel bei der Relevanzbestimmung von Webseiten hin: Anstelle "demokratischer" Links, setzte man nun auf gesellschaftliche Reputation und Autorität als maßgebliche Indikatoren.

Trotz der unterschiedlichen Zielsetzung und Funktionsweise gegenüber Wikipedia zeigt sich also, dass ähnliche Selektionskriterien angelegt werden, um die Relevanz von Inhalten zu bestimmen. Auch hier wird Expertise externalisiert: Man bewertet Inhalte nicht selbst, sondern anhand ihrer gesellschaftlichen Reputation und Autorität.

Wissenssoziologisch findet hier also quasi eine "Normalisierung" des Internets statt, indem sich die online und offline angelegten Selektionskriterien angleichen. Anhänger der Wahrheitsbewegung dürften auch dies als eine skandalöse Form von Zensur einordnen. Doch wie steht es eigentlich mit den Selektionskriterien alternativer Deutungen und der Arbeitsweise der "9/11-Wahrheitsbewegung"? Trägt diese selbst zum aufklärerischen Potenzial des Internets bei, oder ist sie womöglich letztlich selbst ein Hindernis?

"Investigate 9/11" - Anomalienjagd und Neuuntersuchung als Ziel

Zunächst muss betont werden, dass es "die" 9/11-Wahrheitsbewegung gar nicht gibt. Wie oben angedeutet, ist sie in ihren Inhalten nicht uniform und verschiedene Themen werden selbst in der Mitte der Bewegung kontrovers diskutiert. Ihr Konsens ist dagegen vage und allgemein:

Erstens, die "offizielle Version" sei definitiv falsch. Zweitens, es gäbe Hinweise auf einen "inside job", d.h. die Täter wären auf Seite der US-Regierung zu suchen. Drittens, 9/11 müsse deshalb neu untersucht werden. Diese unspezifische Ausgangsposition hat eine großflächige Homogenisierung ansonsten sehr unterschiedlicher Gruppen ermöglicht: Von der politischen Mitte bis nach Links- und Rechtsaußen, von der Esoterik bis zur Anti-Kriegsbewegung, reicht das Lager der Sympathisanten der Wahrheitsbewegung.

Zuletzt ließ sich bei den kontrovers diskutierten "Montagsdemos" beobachten, zu welch zweifelhaften und unerwarteten Schulterschlüssen derart diffuse Zielsetzungen führen. Doch der unspezifische Gehalt geht auch aus methodologischer Hinsicht mit Fallstricken einher. Die Ziele der Dekonstruktion der "offiziellen Version" und die Forderung der Neuuntersuchung setzen wenig mehr voraus als losen Zweifel.

Denn es geht nicht etwa darum, ein Alternativszenario zur "offiziellen Version" zu belegen, nicht einmal, eine eindeutige Falschaussage in der "offiziellen Version" zu identifizieren. Es reicht der "Widerspruch", der "unglaubliche Zufall", die "Merkwürdigkeit": Ein unerklärtes Detail, eine unbeachtet gebliebene Zeugenaussage, ein nicht aufgegriffener Zeitungsartikel, eine diffuse Herleitung. Aus alledem lässt sich der Appell der Untersuchung ableiten und aus der Häufung dieser "Ungereimtheiten" irgendwann - so Vertreter der Bewegung - der Appell der Neuuntersuchung von 9/11.

Ein entscheidendes Selektionskriterium bei dieser Form der Informationsverarbeitung ist also die Anomalie in der offiziellen Version. Zur Aufklärung des Ereignisses kann diese Arbeitsweise jedoch nur sehr bedingt beitragen.

"Ungereimtheiten" en masse - bloß keine Antworten

Halten die Wahrheitsjäger dem skeptischen Blick stand?

Wenn der Zweifel sich durch das Akkumulat von "Ungereimtheiten" legitimiert, dann ist sein Mittel ihre Akkumulation. Die genannten Autoren Mathias Bröckers und Paul Schreyer sind in Deutschland diesbezüglich derzeit federführend. "Wir [Bröckers und sein Co-Autor Christian Walther] haben in 38 Kapiteln [des Buches "11.9. - Zehn Jahre danach"] die Zeugen benannt, die gehört werden müssten, und die Akten, die freigegeben werden sollten," so Bröckers im Interview mit der taz [17]:

Jedes dieser Kapitel würde in einem normalen Gerichtsverfahren zur Wiederaufnahme reichen.

Eine stichprobenartige Überprüfung der 38 Kapitel durch einen von uns zeigt indes nicht nur den zweifelhaften Wert dieser Selbsteinschätzung, sondern auch einen zugrundeliegenden Methodenfehler: Die Autoren hierarchisieren ihre Quellen nur sporadisch nach dem Grad ihrer Verlässlichkeit.

So mutmaßen sie beispielsweise ein komplettes Kapitel auf Basis vager Zeugenaussagen und Grafiken über einen möglichen Flugzeugabschuss, anstatt die eindeutigen Radardaten zu konsultieren [18] und ziehen auch in weiteren [19] Beispielen [20] weniger verlässliche Quellen verlässlicheren vor.

Dieser Fehler ist kein Zufall, sondern ergibt sich aus der auf Anomalien beschränkten Perspektive und dem Ziel, eine Neuuntersuchung von 9/11 anzuregen. Denn eine Quellhierarchie nützt lediglich dem, der Erkenntnis generieren und sichern möchte. Doch Bröckers und Walther - ebenso wie Vertreter des "9/11 Truth Movement" generell - agieren nicht als Historiker, sondern als Appellgeber. Sie erklären uns, was nicht passiert ist, ohne jedoch eine ernsthafte alternative Version der Ereignisse darzulegen. Ihrem Motto folgend stellen sie Fragen, ohne selbst Antworten zu liefern.

Damit machen sie es sich zu einfach. Denn alle Untersuchungen, vom Bericht der 9/11-Kommission bis zu den Analysen zum Einsturz der Gebäude am Ground Zero, müssen eben genau dies leisten - Antworten liefern. Auch die neuen digitalen Gatekeeper wie Wikipedia und Google haben letztlich diesen Anspruch. Es ist somit kaum verwunderlich und durchaus legitim, wenn die ewigen Zweifler ignoriert und exkludiert werden.

Sicherlich gehen Wikipedia und Co. dabei manchmal einen Schritt zu weit. Angesichts der von der Wahrheitsbewegung generierten grenzenlosen Informationsflut ist das aber durchaus verständlich. Möchte man diesem Partizipationsdilemma entgehen, hilft nur eine rigidere Arbeitsweise. Für die "Wahrheitsbewegung" würde dies bedeuten, einen Schritt weiter zu gehen als die bloße Anomalienjagd.

"Ungereimtheiten" versus gar nichts - Faktencheck 9/11

Der Journalist Paul Schreyer gibt vor, genau dies zu tun. Sein jüngstes Buch "Faktencheck 9/11" ist nach einem ebenfalls Anomalien-orientierten Vorgänger der Versuch, "eine vollständige und in sich schlüssige alternative Erklärung für die Anschläge vorzustellen" - so der Autor im Interview [21]. Mit diesem Vorgehen bildet Schreyer eine seltene Ausnahme im Feld der Anomalienjäger. Doch wie überzeugend ist die von ihm entwickelte Alternativversion?

Schreyer zufolge sei 9/11 als traditionelle Flugzeugentführung von Al Qaida geplant gewesen, durch Fernsteuerung von einem US-Geheimdienst jedoch zum unfreiwilligen Selbstmordanschlag geworden. "Der Unterschied zum offiziellen Szenario der 9/11 Commission," so Schreyer, "besteht darin, dass alle bekannten Indizien sich widerspruchslos einfügen lassen."

Der Unterschied zum offiziellen Szenario der 9/11 Kommission besteht jedoch primär darin, dass Schreyer wenig aufbietet, was tatsächlich als Konkurrenzszenario zählen könnte, weil die konkurrierenden Erklärungen auf völlig unterschiedlichem Niveau angesiedelt sind.

Der Kommissionsreport mit 585 dicht beschriebenen Seiten Bericht zuzüglich tausenden zusätzlich veröffentlichten Seiten aus dem Untersuchungsprozess enthält bereits aus rein mathematischen Gründen deutlich mehr Details als die schmale etwa 30-seitige Skizze einer Alternativerklärung, die Schreyer in einigen Kapiteln seiner ohnehin bereits kurzen und kleinformatigen Broschüre anbietet. Entsprechend bietet der Report dem detailfixierten Blick eines Anomalienjägers schon rein quantitativ mehr Angriffsfläche.

Doch trotz - oder gerade wegen - seiner Detailarmut hält Schreyers Werk einem ernsthaft skeptischen Blick nicht Stand. Denn freilich ist auch seine schmale Skizze nicht frei von Widersprüchen und Ungereimtheiten: Weshalb etwa drehen traditionelle Flugzeugentführer "Märtyrer"-Videos, in denen Sie über das ihnen bevorstehende Paradies sprechen und eine "Nachricht in Blut" ankündigen? Wie passt die Verwendung ziviler Flugzeuge aus dem Alltagsbetrieb einer Airline mit der Fernsteuerung durch einen Geheimdienst zusammen? Weshalb wies niemand bei Al Qaida auf die Manipulation der eigenen Operation hin?

Die Liste ließe sich fortsetzen, es zeigt sich jedoch schon an dieser Stelle, dass Paul Schreyer - und damit steht er stellvertretend für die Wahrheitsbewegung insgesamt - keine schlüssige Alternativerklärung der Ereignisse bieten kann.

Aufklärung statt Nebelkerzen und Konservatismus

Die Wahrheitsbewegung hat der Demokratie einen Bärendienst erwiesen

Wir wünschen uns einen konstruktiveren Diskurs und eine effektive Nutzung des aufklärerischen Potentials des Internets. Denn wir sind der Meinung, dass die Wahrheitsbewegung (und ähnlich arbeitende Anomalienjäger) der Demokratie einen Bärendienst erwiesen hat. "Das Gegenteil von gut ist gut gemeint", sangen einst Kettcar sehr treffend.

Anstatt die zweifellos existierenden Lücken und Skandale im Zusammenhang mit 9/11 aufzudecken, bekamen wir endlose Listen dekontextualisierter "Ungereimtheiten". Mit diesen Nebelkerzen wurde nicht nur ein wirklich aufklärerischer Diskurs behindert, man hat letztlich sogar den jetzt im Netz zu beobachtenden Konservatismus mit produziert.

Wikipedia und Google sind dafür nur zwei Beispiele, das Grundproblem ist aber omnipräsent. Fehlende oder zu vage Selektionskriterien führen zu einer unproduktiven Informationsflut, die letztlich niemanden dient, außer vielleicht jenen, die das aufklärerische Potenzial des Internets fürchten (an dieser Stelle lassen sich übrigens ganz hervorragende Verschwörungstheorien spinnen!).

Solche Bereiche des Netzes fungieren vielleicht noch als neuartige Form der skurrilen Trash-Unterhaltung, wie der Soziologe Sascha Dickel kürzlich mit Blick auf das Format der Kommentarspalten folgerte [22]. Alternativ bliebe nur abschalten oder das Experimentieren mit neuartigen Formaten, so Dickel weiter. Formate, die nicht nur zu einem tendenziell expertokratischen Konservatismus im Stile Google und Wikipedias führen, möchten wir hinzufügen.

Es gilt, sich einerseits von dem basisdemokratischen Mythos grenzenloser Partizipation zu verabschieden, andererseits jedoch Dissens zur Massenmeinung in konstruktiver Weise zu ermöglichen. Neuartige Formate mögen hier hilfreich sein, letztlich ist dies jedoch eine gesellschaftliche Aufgabe, die auch auf individueller Ebene zu bearbeiten ist.

Die 9/11-Skeptiker sollten sich vor diesem Hintergrund die Frage gefallen lassen, inwiefern ihre auf Anomalienjagd beschränkten Selektionsbedingungen tatsächlich ausreichen, um das Versprechen eine Bewegung für die Wahrheit zu sein, einzulösen. Das etablierte Bildungsbürgertum sollte sich hingegen der online befeuerten Brüchigkeit ihrer Deutungshoheit bewusst werden und sich fragen, ob es ausreicht, ihre Opponenten pauschal zu pathologisieren und zu ignorieren.


URL dieses Artikels:
https://www.heise.de/-3367310

Links in diesem Artikel:
[1] https://www.heise.de/tp/features/Verschwoerungstheorien-zum-11-September-3362344.html
[2] https://www.heise.de/tp/features/Die-ergoogelte-Wirklichkeit-3439523.html
[3] https://www.heise.de/tp/features/Verschwoerungstheorie-3363979.html
[4] http://pub.uni-bielefeld.de/publication/2304807
[5] http://de.wikipedia.org/wiki/Wikipedia:Keine_Theoriefindung
[6] http://en.wikipedia.org/wiki/Wikipedia:No_original_research
[7] https://www.heise.de/tp/features/Verschwoerungstheorien-zum-11-September-3362344.html
[8] http://de.wikipedia.org/wiki/Verschw%C3%B6rungstheorien_zum_11._September_2001
[9] https://www.heise.de/tp/features/Verschwoerungstheorie-3363979.html
[10] http://www.springer.com/springer+vs/soziologie/wissen+%7C+diskurs/book/978-3-531-16589-9
[11] http://www.google.de/intl/de/insidesearch/howsearchworks/algorithms.html
[12] http://www.tandfonline.com/doi/abs/10.1080/1369118X.2012.676056
[13] http://networkcultures.org/query/2013/11/11/erik-borra-and-rene-konig-google-search-perspectives-on-911
[14] http://erikborra.net
[15] http://renekoenig.eu
[16] http://googlewebmastercentral.blogspot.de/2011/05/more-guidance-on-building-high-quality.html
[17] http://www.taz.de/!77817/
[18] http://www.proggoom.de/deutungen/verschworungen/usaf/abschuss-united-93
[19] http://www.proggoom.de/deutungen/erfindungen/ua-93-alarmierung
[20] http://www.proggoom.de/deutungen/verschworungen/fernsteuerung/koordination-der-flugmanover
[21] http://www.911-archiv.net/interview/interview-mit-paul-schreyer-faktencheck-9-11.html?print=1&tmpl=component
[22] http://www.remembertomorrow.net/2014/07/uber-kommentarspalten-eigentlich-auch.html