Leben mit Entscheidungsmaschinen
Seite 4: Wer trifft in Zukunft die Entscheidungen?
- Leben mit Entscheidungsmaschinen
- Spektrum der Lifelogging-Anwendungen
- Entgrenzungen der kulturellen Matrix
- Wer trifft in Zukunft die Entscheidungen?
- Auf einer Seite lesen
Kommen wir damit abschließend zurück zu der eingangs erwähnten These des "doppelten Kontrollregimes" bei gleichzeitig "halbierter Debatte".
Egal, ob uns Geheimdienste mit Antennen, Pflegedienstleister mit assistiven Technologien im eigenen Wohnumfeld, Krankenkassen beim Sport oder Dienstherren am Arbeitsplatz überwachen - die zentrale Frage wird in Zukunft lauten: Wie weit kann man von der "Norm" abweichen und trotzdem noch "normal" sein? Es geht also nicht um technische, sondern um gesellschaftliche Fragen: Wer definiert in Zukunft, was "normal" ist? Wie groß ist der Korridor des Menschlichen überhaupt noch?
"Halbiert" an der Debatte ist vor allem die Tatsache, dass wir selbst es sind, die daran beteiligt sind, die Normen zu setzen. Normen, die dann andere für uns hüten oder denen wir uns selbst (spielerisch) unterwerfen. Es grenzt geradezu an Schizophrenie, wenn wir uns über die "Kontrolleure von oben" empören und gleichzeitig für ein paar Bonuspunkte oder schlimmstenfalls einen virtuellen Pokal, der uns per E-Mail zugesandt wird, das eigene Leben transparent machen.
Aber selbst das ist in meinen Augen nicht das Schlimmste. Gehen wir jetzt zum Abschluss noch einen Schritt weiter. "Halbiert" an der Debatte ist ja auch, dass es nicht alleine um das Vermessen geht. Zwar erzeugen wir immer öfter "Daten durch Taten". Aber darüber hinaus gilt es zu fragen, wer denn in Zukunft auf Basis dieser Daten Entscheidungen (über uns) trifft.
Denn (Selbst)Überwachung ist letztlich nur die Vorstufe dazu, dass Entscheidungen über Menschen - seien es Feinde oder Schmarotzer, Faule oder Leistungsverweigerer, Konsumunwillige, Dumme oder Arbeitsunfähige - getroffen werden. Auch das ist ein Element der "halbierten Debatte". Es wird viel zu viel über die vermeintlichen "Belohnungen" gesprochen, die für "normales" Verhalten ausgelobt werden: Punkte und Rabatte für vorsichtiges Autofahren, präventives Gesundheitsverhalten und fleißiges Arbeiten und Lernen. Wer aber benennt endlich die "Bestrafungen"? Der Soziologe Loic Waquant zeigt, dass wir längst mitten in einer Phase sind, in dem kollektive Unsicherheiten auf allen Ebenen mit individuellen Strafen belegt werden. Lifelogging kann vor diesem Hintergrund auch als eine Art shame punishment verstanden werden.
Wer entscheidet also darüber, wer sich schämen muss, weil er oder sie einen zu hohen Body-Mass-Index hat? Es sind die Maschinen, von denen Garry Wolf meint, dass wir sie unbedingt benötigen. Ich möchte zwei historische Etappen nachzeichnen, die die schleichende Evolution von Entscheidungsmaschinen versinnbildlichen und zeigen, welches dystopische Potenzial sich vor unseren Augen entfaltet.
Blicken wir zunächst ein wenig zurück: 1948 veröffentlichte der Dominikanermönch Pater Dubarle eine enthusiastische Skizze einer Entscheidungsmaschine. Sein Ziel bestand in der "rationalen Regelung menschlicher Angelegenheiten, insbesondere diejenigen, die die Gemeinschaft angehen und eine gewisse statistische Gesetzmäßigkeit (...) zeigen (...)". Dubarle wünschte sich einen Staatsapparat, eine machine à gouverner, die auf der Basis umfangreicher Datensammlungen bessere Entscheidungen treffen sollte. Er war dabei nicht so naiv, zu glauben, dass sich menschliches Handeln vollständig in Daten abbilden ließe. Daher forderte er eine Maschine, die nicht rein deterministisch handelt, sondern "den Stil des Wahrscheinlichkeitsdenkens" anstrebt.
Wesentlich für die folgende Argumentation ist jedoch, dass er die Macht der Entscheidungsmaschine auf den Staat übertrug. Der Staat sollte zum "bestinformierten Spieler" und zum "höchsten Koordinator aller Teilentscheidungen" werden. Die Aufgabe der Entscheidungsmaschine sah Dubarle in der fundamentalen Entscheidung über Leben und Tod: "Unmittelbare Vernichtung oder organisierte Zusammenarbeit." Und er fügt in seiner Fortschrittseuphorie hinzu: "Wahrlich eine frohe Botschaft für die, die von der besten aller Welten träumen!"
Bedrohlich wird diese "frohe Botschaft" in ihrer neo-positivistischen Aktualisierung. So fordern uns Eric Schmidt und Jared Cohen von Google auf den letzten Seiten ihres Manifests "The New Digital Age" zu nichts anderem auf, als zu einer freiwilligen Unterwerfung unter die wohl bekannteste Entscheidungsmaschine der Welt: "In einer Art Gesellschaftsvertrag werden die Nutzer freiwillig auf einen Teil ihrer Privatsphäre und andere Dinge verzichten, die sie in der physischen Welt schätzen, um die Vorteile der Vernetzung nutzen zu können." Und ihre Begründung hört sich fast genau so an, wie der fortschrittsgläubige Überschwang von Dubarle. Mit zwei entscheidenden Unterschieden.
Erstens: Die Entscheidungsmaschinen funktionieren inzwischen tatsächlich. Und zweitens: Unternehmen und nicht der Staat sind heute die "bestinformierten Spieler" und "höchsten Koordinatoren aller Teilentscheidungen".
Wenn Google behauptet: "Vernetzung und Technologien sind der beste Weg, um das Leben in aller Welt zu verbessern", sollten wir uns reflexartig an die zwei entscheidenden Fragen erinnern:
- Wer definiert in Zukunft, was "normal" ist?
- Wie weit kann man von der "Norm" abweichen und trotzdem noch "normal" sein?
Nicht Staaten also, sondern Unternehmen werden in Zukunft die "bestinformierten Spieler" sein. Für ein paar billige Vorteile lassen wir uns als Verbraucher, Konsumenten und Bürger entgrenzen und entmündigen. In einer zukünftigen Gesellschaft, in der das Datensammeln in neuralgischen Bereichen (Arbeit, Gesundheit, Konsum) die Norm sein wird, sind aber diejenigen digitale Versager, die sich dieser Praxis verweigern oder normabweichende Werte liefern - auch, weil sie es nicht anders können. Aber darauf wird in einer auf Perfektion getrimmten Welt keine Rücksicht mehr genommen werden.
Aus dem Wunsch nach der rationalen Beherrschung der Welt durch gut informierte Entscheidungsmaschinen wird dann die rationale Diskriminierung. Daten, die mit sozialen Erwartungen an ein "richtiges" oder "falsches" Leben aufgeladen sind, führen dann zu einer Moralisierung aller Lebensbereiche.
Entscheidungsmaschinen basieren auf Daten, in die Erwartungen "eingebaut" sind. Sie revolutionieren das Soziale über den Umweg des Technischen. Wir vertrauen einer prinzipiellen Erklärbarkeit der Welt durch Daten. Aber wir selbst sind es, die es stattdessen in der Hand hätten, die Unberechenbarkeit zu loben und den Versprechungen der digitalen Schamanen zu misstrauen.
Und damit schließe ich nochmals an den prämierten Film an, um zu verdeutlichen, dass es bei Kontrolle von oben und Kontrolle von unten gleichermaßen um "shifting baselines" geht, also um unscheinbare Veränderungen, die sich zu unheilvollen Folgen verstetigen, weil wir nicht sehen, was wir nicht sehen wollen.
Einer der Interviewpartner im Film kommentiert die "Auswüchse der Überwachungsmaschinerie" wie folgt: "Die Reaktion ist eigentlich Null. Davor habe ich am meisten Angst, dass wir selbst schuld sind, wenn wir in eine bestimmte Richtung absacken." Dem ist nichts hinzuzufügen.
Stefan Selke, 1967, landete nach einigen Semestern Luft- und Raumfahrttechnik bei der Soziologie und ist inzwischen Professor für "Gesellschaftlicher Wandel" an der Hochschule Furtwangen im Schwarzwald. Er vernetzt sich unter www.facebook.com/selkestefan und sammelt seine Forschung auf www.stefan-selke.de. Aktuell erschienen: "Lifelogging. Wie die digitale Selbstvermessung unsere Gesellschaft verändert", ECON: Berlin, 2014. Selke ist auch Mitherausgeber der Telepolis-Bücher Postmediale Wirklichkeiten und Postmediale Wirklichkeiten aus interdisziplinärer Perspektive.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.