Die Entscheidungsmaschinen kommen
Seite 2: Von den Entscheidungsmaschinen zu einem neuen Gesellschaftsvertrag
- Die Entscheidungsmaschinen kommen
- Von den Entscheidungsmaschinen zu einem neuen Gesellschaftsvertrag
- Auf einer Seite lesen
Entscheidungsmaschinen basieren auf Daten, in die Erwartungen eingebaut sind. Und diese Erwartungen sind die erkennbare Oberfläche dessen, was wir etwas abstrakt und meist hilflos als Märkte bezeichnen. Alles ist inzwischen ein Markt geworden oder wird zumindest marktförmig organisiert. Es gibt Beziehungsmärkte, Bildungsmärkte, Konsummärkte und Gesundheitsmärkte. Letzterer hat die größten Zuwachsraten und damit eine Vorreiterfunktion, wenn es um neoliberale Innovationen und effiziente Verteilungsprinzipien von Leistungen geht.
Um in Märkten zu navigieren, werden Kennzahlen benötigt, keine Intuition. Die Folge davon ist, dass wir in einer Hitparaden-Gesellschaft leben, ständig und überall umgeben von Smilies, Listen, Evaluationen und Rankings, die uns angeblich helfen, den eigenen gesellschaftlichen Ort zu bestimmen. Letztlich ziehen wir aber nur eine Nummer im Wartesaal eines sich ankündigenden digitalen Totalitarismus, der neue soziale (Aus-)Sortierungen mit sich bringen wird.
Das allein wäre vielleicht nur nervig oder unangenehm, nicht aber bedrohlich. Bedrohlich wird es dadurch, dass anders als in der positivistischen Vision von Pater Dubarle inzwischen Unternehmen und nicht mehr Staaten über die Entscheidungsmaschinen verfügen. So fordern uns Eric Schmidt und Jared Cohen von Google auf den letzten Seiten ihres (wahrscheinlich meist ungenau gelesenen) Manifests "The New Digital Age" zu nichts anderem auf, als zu einer freiwilligen Unterwerfung unter die wohl bekannteste Entscheidungsmaschine der Welt:
In einer Art Gesellschaftsvertrag werden die Nutzer freiwillig auf einen Teil ihrer Privatsphäre und andere Dinge verzichten, die sie in der physischen Welt schätzen, um die Vorteile der Vernetzung nutzen zu können.
Eric Schmidt und Jared Cohen
Und ihre Begründung hört sich fast genauso an wie der fortschrittsgläubige Überschwang des Mönchs in der Nachkriegszeit, mit dem einzigen Unterschied nur, dass die Entscheidungsmaschinen mittlerweile technisch funktionieren:
Wenn wir Grund zum Optimismus sehen, dann nicht wegen der technischen Spielereien, sondern weil uns die Technologie vor Missbrauch, Leid und Zerstörung beschützen wird. Transparenz und neue Chancen eröffnen unbegrenzte Möglichkeiten. Vernetzung und Technologien sind der beste Weg, um das Leben in aller Welt zu verbessern.
Eric Schmidt und Jared Cohen
Die Kybernetik einer beängstigend perfekten Welt
Der kybernetische Grundgedanke ist also inzwischen Alltagspraxis geworden. Somit markiert das Geschäftsmodell von Generali, dass Thesen, die vor kurzem noch utopisch klangen, von der unternehmerischen Praxis überholt wurden. Selbststeuerung hat Fremdkontrolle abgelöst und Maschinen entscheiden über die Güte unserer individuellen Bemühungen nach Selbstoptimierung. Nicht Staaten also, sondern Unternehmen werden nun die "bestinformiertesten Spieler" sein. Für ein paar billige Vorteile und ein wenig rhetorischen Kuschelrock, lassen wir uns digital als Verbraucher, Konsumenten und Bürger entmündigen.
In einer zukünftigen Gesellschaft, in der das Datensammeln in neuralgischen Bereichen (Arbeit, Gesundheit, Konsum) die Norm sein wird, sind aber diejenigen digitale Versager, die sich dieser Praxis verweigern oder normabweichende Werte liefern. Menschen, die sich den kybernetischen Rückkopplungsschleifen entziehen oder dafür nicht geeignet sind. Aus dem Wunsch nach der rationalen Beherrschung der Welt durch gut informierte Entscheidungsmaschinen wird dann die rationale Diskriminierung auf der Basis von Daten, die mit sozialen Erwartungen an ein "richtiges" oder "falsches" Leben aufgeladen und letztlich moralisiert sind.
Dave Eggers entwirft in seinem Roman "The Circle" das Zerrbild einer Firma, die als universale Entscheidungsmaschine alle Bereiche des privaten und öffentlichen Lebens auf der Basis totaler Datentransparenz durchdringt. "Alles, was wir sein wollen, ist perfekt zu sein. Jede Information, die nicht zugänglich ist, hält uns davon ab", so das Mantra des Firmenbosses. Damit ist der notwendige Datenhunger der Entscheidungsmaschine scheinbar legitimiert.
Können wir also die Entscheidungsmaschinen aufhalten oder zumindest deren Entscheidungsmacht delegitimieren? Ja, denn diese Entwicklung ist selbst nicht vorprogrammiert, sondern nur Ausdruck der grauen Vorstellungswelt eindimensionaler Technokraten, wie Herbert Marcuse diesen Menschentyp bereits vor Jahrzehnten nannte. Es gibt auch Gegenmodelle. So spukte der Performancekünstler Friedrich Liechtenstein anlässlich der öffentlichen Vorstellung seines Albums "Bad Gastein" in Berlin einen göttlich subversiven Satz aus: "Wir sind nicht auf dieser Welt, um perfekt zu sein."
Wie lange dauert es noch, bis sich eine Bewegung formiert, die diesen Satz zu ihrem Leitspruch erhebt, um sich die letzten Reservate der Menschlichkeit zu sichern? Wie lange dauert es noch, bis wir realisieren, dass wir mit den Daten, die wir freiwillig sammeln, unsere Alltagserfahrung in Stücke zerreißen und trotzdem niemals perfekt sein werden. Wie lange brauchen wir noch, um zu realisieren, dass wir damit den Regenbogen des Lebens zerschneiden und uns durch die Konzentration auf messbare Aspekte mit viel Aufwand letztlich nur der Schmalspurigkeit hingeben?
Leben hat auch eine qualitative, sinnliche und spirituelle Dimension. Wenn wir uns freiwillig den Entscheidungsmaschinen unterwerfen, wird Leben entsinnlicht und vergleichbar mit der Gebrauchsanweisung für einen Kühlschrank. Ich will aber nicht funktionieren wie ein Kühlschrank, sondern sein wie ein Gedicht, offen für Interpretationen.
Mehr von Stefan Selke in seiner Telepolis-Serie über Lifelogging.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.