"Unternehmen wie Google und Facebook wissen extrem viel über ihre Nutzer"
Was ist Realität und wie wird sie von Big-Data-Firmen beeinflusst? Ein Gespräch mit Prof. Dr. Christof Paar über die Macht der Algorithmen, das Bestreben nach Gefühlserkennung und die Gefahr von Echokammern.
Prof. Dr. Christof Paar ist Leiter des 2019 gegründeten Max-Planck-Instituts für Sicherheit und Privatsphäre in Bochum.
Herr Paar, immer wieder kommen verstörende Fakten aus der Datensicherheitsforschung vereinzelt in die Medien. Mal ist es die Überwachung und Auswertung unserer Akustik und Gefühlslage durch Smartspeaker und Sprachassistenten wie Alexa und Siri, wie Ihre Untersuchungen gezeigt haben, mal die umfassende Überwachung und Analyse meines Online-Verhaltens durch Big-Data-Player wie Google, Facebook, Amazon und Co. Wieso rüttelt uns das als Nutzer:innen und Gesellschaft nicht so auf, dass wir handeln und die Medien voll davon sind?
Christof Paar: Wir unterscheiden in der Wissenschaft und Technik zwischen Cybersicherheit, also dem Schutz vor Hacker-Angriffen, und dem Schutz der Privatsphäre von Individuen. Ihre Frage zielt auf die Privatsphäre jedes Einzelnen ab. Wieso uns das relativ egal ist, hat mit zwei grundlegenden Mechanismen zu tun. Das eine ist, dass in den Medien die sogenannten Sicherheitsvorfälle sehr groß gemacht und ins Bewusstsein gerückt werden, oft verbunden mit einem Feindbild. Also zum Beispiel: Hacker aus Russland oder die NSA. Das ist einfach medienträchtiger als die Berichterstattung über die Bedrohung der Privatsphäre jedes Einzelnen.
Hier haben wir es zudem mit einem zweischneidigen Schwert zu tun: Wir nutzen vermeintlich kostenlose Dienste wie Google, Facebook und Co., die uns tolle Dienstleistungen anbieten und das in der ersten Wahrnehmung für lau. Wir können alle Google nutzen und zahlen dafür ja nicht 4,99 Euro im Monat.
Noch dazu sind diese Angebote technisch sehr gut und damit ist es sehr verführerisch, die vermeintlich kostenfreien Angebote von Social-Media-Diensten und Anbietern wie Google zu nutzen. Das Verletzen der Privatsphäre, das schleichend passiert, ist erst mal gar nicht so präsent. Da muss man sich schon mit dem Thema beschäftigen, denn vielen Nutzern ist das gar nicht klar. Ohne Berichterstattung hierüber wäre das wohl den wenigsten bewusst.
Das Problem ist also, dass uns als Nutzer:innen dieser vermeintlich kostenlosen und zudem sehr guten Dienste gar nicht bewusst ist, womit wir eigentlich zahlen und was die individualisierte Datenauswertung für uns bedeutet?
Christof Paar: Genau. Wenn Sie als Individuum aber natürlich Opfer eines Ransomware-Angriffs werden und der Hacker verschlüsselt ihre Daten und verlangt Bitcoin, um sie freizukaufen, dann wäre Ihnen die Dringlichkeit des Schutzes ihrer Daten sehr bewusst. Dass Google und Co. dies schleichend und unspektakulärer machen, heißt aber nicht, dass es weniger gefährlich ist.
Nun geht es immer um Daten, Daten, Daten. Nichts ist angeblich wertvoller und wird höher gehandelt als die Information, was wir jeden Tag suchen und klicken. Doch wen interessiert das? Wieso bin ich persönlich so spannend?
Christof Paar: Ein großer, ganz wichtiger Faktor ist die Nutzung der Daten und der Analyse des daraus individualisierten Profils für Werbung. Unternehmen wie Google und Facebook wissen extrem viel über ihre Nutzer und das ist unfassbar viel wert. Wir leben in einem kapitalistischen System und in diesem ist dieses Wissen von ungemein hohem Wert. Je zielgerichteter die Auftraggeber und Werbetreibenden an ihre Zielgruppe kommen, desto besser für sie. Das kennt jeder von uns: Sie suchen etwas bestimmtes, das sie benötigen und plötzlich bekommen sie auf Webseiten und in ihren Sozialen Medien nur noch Angebote zu diesem Thema angezeigt.
Shoshana Zuboff, emeritierte Professorin der Harvard Business School, schließt in ihrem Buch "The Age of Surveillance Capitalism" aus der Analyse interner und öffentlicher Dokumente von Big-Data-Firmen, dass es nicht nur um die Bespielung mit Werbeanzeigen, sondern auch um eine individualisierte Verhaltensvoraussage sowie Verhaltensveränderung geht. Können Algorithmen wirklich mein Verhalten ändern? Und wenn ja, wie machen sie das?
Christof Paar: Es gibt viele sehr einfache Beispiele zu diesem Thema. Auch die Forschung hat inzwischen den Blick auf das Thema Verhaltenspsychologie und Soziale Netzwerk gelegt. Es sind oft kleine, banale Sachen. Wenn man Facebook-Nutzer darüber informiert, dass ihre Freunde schon gewählt haben, kann man verfolgen, dass auch die Wahrscheinlichkeit steigt zu wählen. Das ist alles legal und hat nichts mit illegaler Beeinflussung zu tun im strikten Sinne, aber es ist eine Lenkung des menschlichen Verhaltens nach Gutdünken von Firmen wie Facebook.
Da Facebook natürlich auch die politische Gesinnung der User bestens bewusst ist, wird das natürlich zu einem brisanten Thema. Dabei ist politische Einflussnahme nur ein Beispiel. Durch den Einsatz Künstlicher Intelligenz und damit intelligenten, selbstständig agierenden Algorithmen die auf Machine Learning beruhen, werden die Beeinflussungsmöglichkeiten, seien sie wirtschaftlich oder politisch motiviert, ganz enorm verstärkt sowie auch subtiler.
Oft liest man auch Studien, die zeigen, wie das Gefühlsleben der Nutzer:innen beeinflusst werden kann. Das klingt im ersten Moment unfassbar. Kann ein Algorithmus wirklich beeinflussen, ob ich mich beschwingt oder niedergeschlagen fühle?
Christof Paar: Es gibt auf jeden Fall Anstrengungen in diese beide Richtungen. Zum einen die aktive Beeinflussung der Gefühle: Ergibt die individuelle Analyse des Onlineverhaltens eines Nutzers, dass er gewisse Produkte eher kauft, wenn er traurig ist, dann kann man das natürlich steuern und herbeiführen mit Anzeigen von Posts, die erwiesener Weise eher zu einer trüben Stimmung beim Nutzer führen.
"Sehr interessant für den Überwachungskapitalismus"
Dieses Prinzip gibt es ja aber schon seit Langem, im Spendenbereich beispielsweise über dramatische Bilder, beispielsweise von hungernden Kindern, die zum Spenden animieren sollen. Es geht aber noch weiter und zwar in die Richtung der Gefühlserkennung. Es wird gerade immer mehr versucht, auch über Sprachanalyse und den Gesichtsausdruck zu erkennen, wie sich ein Nutzer fühlt. So kann man zielgerichteter Werbung schalten - das ist alles sehr interessant für den Überwachungskapitalismus.
Ist diese Art der Beeinflussung demnach die größte Gefahr für Nutzer:innen und unsere Gesellschaft?
Christof Paar: Was mich persönlich genauso verstört, ist die Tatsache, dass wenn wir beide bei Amazon, Google oder Facebook etwas suchen, unterschiedliche Ergebnisse angezeigt bekommen. Die Tendenz geht dahin, dass man auch von Medienseiten unterschiedliche Artikel angezeigt erhält, die Algorithmen als spannend und passend für den Nutzer bestimmt haben. Das heißt, die digitale Realität, die man vorgesetzt bekommt, ist nicht absolut.
Das wiederum bedeutet ein totales Umdenken von der physikalischen Welt. Wenn Sie und ich aus demselben Fenster schauen, sehen wir denselben Parkplatz und das gleiche Wohngebiet, aber in der digitalen Welt ist das etwas ganz anderes. Dort herrscht die Anpassung der digitalen Realität an die Nutzer. Das wirft die Frage auf: Was ist Realität?
Ist das der Grund für die steigende Polarisierung der Gesellschaft und die Verhärtung der Fronten?
Christof Paar: Die Polarisierung der Medienlandschaft in den USA hat sich als Prozess über die letzten Jahrzehnte entwickelt, das ist noch viel extremer, als es hier in Europa der Fall ist. Man muss allerdings festhalten, dass Soziale Medien und Datenkraken wir Google diesen Prozess der einseitigen Meinungsbildung natürlich extrem beschleunigt haben. Es geht immer um das sogenannte self-enforcement, also man liest immer nur die Medienberichte, die der eigenen Meinung entsprechen. Ich bin davon leider auch betroffen und sehe verstärkt Artikel, die meiner politischen Gesinnung entsprechen. Das ist eine ganz gefährliche Sache, die da passiert in den sogenannten Echokammern und Filterblasen.
Wie kann ich als Nutzer:in aus meiner Echoblase ausbrechen und die Hoheit über meine Daten zurückerlangen?
Christof Paar: Echokammern und Filterblasen sind ja selbstgewählt. Das ist Angebot und Nachfrage, klassische Marktmechanismen. Man muss hier gar nicht heimtückisch irgendwohin gelockt werden, man wird nur immer weiter bestätigt in dem, was man tendenziell eh glaubte. Man könnte hier natürlich aktiv Dinge anschauen und lesen oder verfolgen, die nicht dem eigenen Weltbild entsprechen, um die Sicht der anderen Seite besser kennenzulernen und zu verstehen.
Beim Schutz der Privatsphäre gibt es konkrete Entscheidungen, die man treffen kann. Man muss sich aber anstrengen und eine bewusste Entscheidung treffen. Man kann erst mal unterschiedliche Hardware und Softwareprodukte benutzen und auf Firmen setzen, die ihr Geld nicht mit dem Verkauf meiner Daten bestreiten. Ich persönlich benutze aus diesem Grund Apple-Produkte. Von Google versuche ich soweit wie möglich fern zu bleiben und nutze verstärkt alternative Suchmaschinen. Soziale Netzwerke nutze ich überhaupt nicht und versuche mich auf Messenger zu beschränken, die meine Privatsphäre garantieren.
Was viele Nutzer:innen davon abhält, Soziale Netzwerke zu verlassen, ist die Angst, soziale wie auch berufliche Kontakte und Verbindungen zu verlieren. Gerade jetzt zu einer Zeit, in der sich das ganze Leben online abspielt. Wie geht man damit um?
Christof Paar: Das kenne ich auch sehr gut. Ich habe inzwischen vier Messenger auf dem Handy installiert, darunter auch immer noch WhatsApp, da eine bestimmte Kontaktgruppe einfach nur hier zu erreichen ist. Das ist sicherlich eine Hürde, aber keine unüberwindbare. Ich war zudem überrascht, wie immer mehr meiner Bekannten und Freunde von selbst sagten, sie würden nicht mehr über WhatsApp kommunizieren wollen. Was die Abkehr von Facebook, Instagram und Co. betrifft: Man ist ja trotzdem noch erreichbar als Mensch, auch telefonisch.
Was ich allerdings bisher noch als größtes Hindernis von digital ethischeren Alternativangeboten sehe, ist die Attraktivität von Gegenangeboten, die mit Open Source arbeiten. Das liegt an der Leistung des Angebots, das nicht mithalten kann mit den milliardenschwer finanzierten Big-Tech-Diensten aus den USA die zumeist eine wirklich gute Nutzererfahrung bieten. Gute Alternativen gibt es natürlich trotzdem schon, man muss sie nur suchen.
Ist es also wie beim Klimawandel? Jeder Einzelne kann etwas bewirken, wenn er umsteigt?
Christof Paar: Natürlich! Es ist hier sogar noch viel eindringlicher, denn es herrschen marktwirtschaftliche Mechanismen und deshalb wird, sobald die Nachfrage nach Alternativen, die User nicht ausspionieren, stärker wird, hierfür auch ein größerer Markt entstehen. Dabei muss der Verbraucher allerdings auch bereit sein, Geld zu investieren und nicht seine Daten. Die Angebote an sich werden auch besser, da bin ich sehr zuversichtlich. Es muss einfach eine bewusste Entscheidung jedes Einzelnen sein.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.