zurück zum Artikel

"Viele halten die Demokratie für eine veraltete Technologie"

Kai Schlieter über Künstliche Intelligenz, Big Data und eine neue Herrschaftsformel

Die Beherrschung von Menschen mit Hilfe Künstlicher Intelligenz (KI) wird zu einer echten Gefahr. Das sagt Kai Schlieter [1] in seinem so Buch Die Herrschaftsformel - Wie Künstliche intelligenz uns berechnet, steuert und unser Leben verändert [2] Im Interview mit Telepolis erklärt der Soziologe und taz-Redakteur unter anderem, welche Gefahren eine immer tiefer in unser Leben verflochtene KI mit sich bringt.

Schlieter konstatiert, dass die KI die Autonomie der Menschen immer weiter unterhöhlt und verweist darauf, dass sie ein enormes Potenzial für denjenigen bietet, der in der Lage ist, mit ihr die Zukunft der Menschen zu antizipieren. Dann, so Schlieter, kann er "vorab Einfluss nehmen und diese Zukunft in seinem Sinne verändern".

In Ihrem Buch haben Sie sich eines Themas angenommen, von dem wohl viele schon mal etwas gehört haben, aber das wohl gar nicht so leicht zu verstehen ist. Künstliche Intelligenz oder kurz: KI. Können Sie uns erklären: Was genau bedeutet KI?
Kai Schlieter: Künstliche Intelligenz beschreibt den Versuch, Systemen - Robotern oder Software - eigenständiges Handeln beizubringen. Diese Systeme lernen, sich in einer für sie unbekannten Umgebung zurecht zu finden und Probleme zu lösen. Das gilt für reale Umgebungen, in denen sich beispielsweise selbstfahrende Autos bewegen. Das gilt aber auch für virtuelle Umgebungen - also Datenuniversen.
Das Ideal ist ein System, das jedes Problem, das sich in der spezifischen Umgebung stellt, lösen kann. Der universelle Problemlöser ist seit jeher ein Ziel der KI-Forschung.
IBM Watson ist ein so genanntes Expertensystem, das auf medizinischen Sachverstand trainiert wurde. Das System kann Tausende von medizinischen Studien auswerten, daraus bereits Schlussfolgerungen ziehen und Therapievorschläge entwickeln. Es beherrscht formal viel mehr Wissen als jeder Mediziner auf der Welt. Es "versteht" in gewisser Weise sogar semantische Zusammenhänge. Und es wird mit mehr Rechenleistung und mehr Daten immer besser. Prinzipiell könnte dieses System mit den entsprechenden Daten sämtliche Wissensgebiete erschließen und tatsächlich ein universeller Problemlöser werden.
KI wird also dann interessant, wenn die zu lösenden Aufgaben so komplex sind, dass sie nicht mehr von Programmierern modelliert werden können?
Kai Schlieter: Richtig. Das Modellieren übernehmen dann selbstlernende Systeme, die eine Art Erfahrung aufbauen und auf dieser Basis immer kompliziertere Probleme lösen können. Als Revolution beschreiben Forscher derzeit die Entwicklung künstlicher neuronaler Netze, die bestimmte Gehirnfunktionen simulieren. Diese Netze verwandelt Daten in Mathematik. Sie übersetzten die Welt in eine Sprache, mit der sie operieren können.

Das Rückgrat der Weltwirtschaft besteht aus KI-Systemen, die sich selbst steuern

Aber KI macht sich doch auch in unserem direkten Alltag bemerkbar.
Kai Schlieter: Auf jeden Fall. Unser Alltag ist durchdrungen von - je nach benötigter Anwendung mehr oder weniger - autonom agierenden Systemen. Computer handeln mit Computern an der Börse auf Basis von Wirtschaftsinformationen, die ihrerseits von Computern generiert wurden - das Rückgrat der Weltwirtschaft besteht aus KI-Systemen, die sich selbst steuern.
Und dann wäre da noch Google.
Kai Schlieter: Google ist der größte KI-Konzern der Welt. Jede menschliche Suchanfrage trainiert das System, um spätere Suchanfrage zu verbessern. Es entstehen dabei mathematische Modelle unserer Vorlieben und Sehnsüchte.
Menschliches Verhalten wird durch "soziale" Medien in Daten verwandelt, die für künstliche neuronale Netze lesbar werden. Auch das verbirgt sich hinter Big Data: Die Lesbarmachung des Menschen durch künstlich intelligente Systeme. "Big Data" bedeutet stets KI. Das ist die Schlüsseltechnologie. Mit den Massendaten könnten Geheimdienste nichts anfangen, wenn nicht lernende Software die Datenuniversen handhabbar machen würde.
Google kennt deswegen buchstäblich Milliarden Menschen - ihre intimsten Geheimnisse und Wünsche, ihre Fehler und was sie angreifbar macht. Mit psychologischen Modellen weiß dieser und ähnliche Daten-Konzerne mehr über uns als unsere besten Freunde.
Ist das nicht etwas übertrieben?
Kai Schlieter: Nein, das ist buchstäblich so und keine dramaturgische Überhöhung. Bis ins tiefste Innere - vermutlich auch mehr, als wir selbst über uns wissen, weil wir diese Datenmengen über uns nicht prozessieren können. Das macht uns berechenbar und manipulierbar, denn mit diesen Daten lässt sich unsere Zukunft sehr genau prognostizieren. Denn wir sind Gefangene bestimmter Gewohnheiten, die als Muster lesbar werden. Immer mehr Strafverfolgungsbehörden dieser Welt - auch in Deutschland - setzen solche Verfahren ein, um zu berechnen, wo in Zukunft Verbrechen geschehen werden.
Es geht bei KI also nicht darum, ob Maschinen irgendwann exakt die Intelligenz des Menschen kopieren und schließlich ein Bewusstsein erlangen. Es geht um die totale Umwandlung sämtlicher Prozesse in Daten, die vermessen und in eine Maschinensprache transkribiert werden können. Es geht um Optimierung von Informationsverarbeitung und damit zusammenhängend um Prozesse der Automatisierung.
Bedeutet das nicht auch, dass sehr viele Jobs irgendwann einmal verloren gehen werden - durch den Einsatz von KI?
Kai Schlieter: Verschiedene Studien warnen davor, dass in den nächsten 10 Jahren rund 50 Prozent der Jobs verloren gehen könnten. Das gilt nicht nur für mechanische Arbeit. Unser Intellekt beruht auf permanent lernender Informationsverarbeitung. Das menschliche Verstehen von Sprache ist Informationsverarbeitung. Das lernen diese Systeme. Sie lernen Sprechen, Sehen und Verstehen auf Basis von mathematisch-statistischen Korrelationen. In gewisser Weise auch Fühlen, denn sie entwickeln statistische Modelle, die bestimmte Gefühlsmuster repräsentieren. Vermutlich werden intelligente Maschinen in all diesen Dingen besser werden als Menschen.
Bald wird es selbstverständlich sein, sich mit Künstlichen Intelligenzen zu unterhalten. Es gibt ja bereits Spielzeug, das an eine KI-Cloud gekoppelt ist. Kinder unterhalten sich mit diesen Stofftieren und bekommen sinnvolle Antworten. Dabei fallen permanent Daten an, denn diese Interaktionen werden rückgekoppelt. Darum geht es.
Daten sind Rohstoff und die unsichtbare Währung der Gegenwart. Denn sie repräsentieren unser Verhalten, die Kaufgewohnheiten oder die Risiken, die von uns ausgehen. Sie sind universell. Der Besitz von Daten definiert deswegen ein Machtverhältnis. Daten sind nicht nur Geld, sondern Macht. Menschliches Verhalten wurde durch seine Datafizierung zu einer Ware. Auch deswegen sind jene Konzerne die mächtigsten Playern der Gegenwart, deren Geschäftsmodell auf Daten fußt. Manche sagen, Daten sind das Öl der Gegenwart - treffender wäre: das Uran der Gegenwart.

Daten, Prognose, Rückkopplung, neue Daten, neue Prognose

Worauf basiert denn KI oder anders gefragt: Woher stammt sie?
Die Geschichte der KI führt zurück in die Militärlabors des Zweiten Weltkriegs. Für die komplexen Berechnungen, die zum Bau der Atombombe nötig waren, wurde der Computer entwickelt. Um die Nazis zu bekämpfen, arbeiteten in den USA tausende Wissenschaftler verschiedener Disziplinen zusammen.
Diese Idee der Fächer übergreifenden Zusammenarbeit wurde zum Ursprung der Kybernetik, die genau diese Interdisziplinarität zum prinzipiellen Arbeitsmodus erhob. Einer ihrer Väter war der Mathematiker Norbert Wiener, der statistische Verfahren zur Prognose von Flugabwehrgeschützen entwickelt hatte. Zur Berechnung der Flugbahn deutscher Jagdflugzeuge musste er den Zeitpunkt berechnen, wo sich der Pilot zu einem späteren Zeitpunkt befinden würde. Das Zielobjekt konnte also nicht einfach angepeilt werden - dafür waren sie zu schnell -, sondern seine zukünftige Position musste berechnet werden. Dazu war ein permanenter Prozess der Rückkopplung der gewonnenen Daten zur stetigen Prognose der künftigen Flugbahn nötig. Und damit war ein sehr grundlegendes Prinzip der Kybernetik definiert: Daten, Prognose, Rückkopplung, neue Daten, neue Prognose.
Kurz: Können Sie Kybernetik genauer erklären?
Kai Schlieter: Nehmen wir ein Thermostat. Ein Thermostat versinnbildlicht die eben erwähnte Prinzip von Daten, Prognose, Rückkopplung usw. Das Gerät misst permanent die Raumtemperatur, um die Heizungsventile zu steuern, die wiederum die Raumtemperatur beeinflussen. Es beginnt ein sich selbst steuernder Prozess. Das steckt auch in der Automatisierung, die logischerweise durch KI erreicht wird. Die Kybernetiker gehen davon aus, dass diese Prozesse nicht nur für Maschinen gelten - auch Nervenzellen und biologische Prozesse basieren auf diesem Prinzipien der Selbststeuerung durch Feedback-Schleifen. Das war das Primat der Kybernetik: Maschinen und Lebewesen unterscheiden sich nicht prinzipiell in der Art, wie Informationen prozessiert werden.
Diese Gedankenwelt der Militärs des Zweiten Weltkrieg und des Kalten Krieges bildet die Grundlage für die Entstehung der KI als Forschungsfeld, das ab der Mitte der 1950er Jahren offiziell entstand. Maßgebliche Vertreter gehören zu den Begründern der Kybernetik. Nicht nur die Gedankenwelt entstammte dem Militär - sämtliche Forschung der USA wurde auch vom Militär finanziert, auch die Entwicklung der ersten Institute für Informatik, die von Leuten begründet wurden, die zugleich zu den Vätern - zumeist waren es Männer - der KI zählen.
Vor allem die DARPA war ab den 1950er maßgeblich. Sie finanzierte und koordinierte nicht nur die Entwicklung des Internets, sondern auch der KI. In den 1980er Jahren setzt diese wichtigste Forschungsbehörde des Pentagon ein gigantisches Programm zum Bau einer militärischen Super-KI auf. Daraus entwickelte sich später wichtige Programme zum Bau von Superrechnern und hier entstand auch die Fähigkeit zum Umgang mit Big Data.
Und nun durchdringt also etwas, das im militärischen Bereich erzeugt wurde, die Zivilgesellschaft. Ist das ein Problem?
Kai Schlieter: Zum Prinzip der DARPA zählte, dass die Forschung zugleich auch kommerzialisiert werden sollte. Die Forschungsprogramme sind so ausgeschrieben, dass auch Firmen kooperieren. Die Kooperationen mit der Industrie und der Wirtschaft sollte die ökonomische Vormachtstellung der USA sichern. Der militärisch-industrielle-Komplex ist eben nicht nur ein Schlagwort.
Mit der zunehmenden Verbreitung des Computers und des Internets wuchs die Rechenleistung und die Menge an Daten. Forschung, die einmal entwickelt worden war, um Flugabwehr oder die Steuerung von Raketen zu ermöglichen - mit künstlicher Intelligenz als Steuerungstechnologie -, wurde mit Google und später mit Facebook zu einem Instrument, dem sich Konzerne bedienten. Es ist daher eine logische Folge, dass wir es nicht nur mit einer globalen Überwachung durch Regierungen zu tun haben, sondern gleichzeitig auch mit einer Ausspähung durch Konzerne.
Das klingt sehr düster. Bietet KI für die Zivilgesellschaft nicht auch Chancen? Künstlich Intelligente Systeme können extrem komplexe Zusammenhänge sichtbar machen. Ohne Mikroskope existierte die mikroskopische Welt nicht. Mit KI werden auch bislang unbekannte Dimensionen berechenbar. Durch die Auswertung von diesen Massendaten entstehen Einblicke in neue Galaxien ebenso wie in das soziale Zusammenleben.
Je mehr Daten wir emittieren, umso genauer lassen sich Individuen und Gesellschaften beobachten und verstehen. Krankheiten können verstanden werden, wenn immer mehr Menschen ihre Gesundheitsdaten erheben, wenn ein permanenter Datenfluss entsteht. Immer mehr Sensoren messen immer mehr Phänomene. Der Klimawandel, die Veränderungen des Regenwaldes lassen sich so präziser analysieren und vielleicht einmal effektiv bekämpfen. Die Chancen sind riesig, die Gefahren ebenso.

Wir werden zunehmend von Systemen abhängig sein, die wir nicht mehr verstehen

Wo liegen die Gefahren?
Kai Schlieter: Das Problem besteht in der Monopolisierung von Wissen. Google vermittelt uns das Wissen der Welt und erhebt damit zugleich ein Wissen über die menschliche Welt. Zu wissen, wann Menschen bestimmte Dinge tun, was sie mögen, wo sie sich zu einem Zeitpunkt in der Zukunft befinden oder wann sie welche Bedürfnisse oder auch Krankheiten entwickeln, bedeutet sehr viel Macht.
Wer die Zukunft von so vielen Menschen mithilfe von KI antizipieren kann, kann vorab darauf Einfluss nehmen und diese Zukunft in seinem Sinne verändern. Und diese Einflussnahme bliebe unbemerkt, weil sie ja auf die Zukunft abhebt. Der französische Philosoph Michel Foucault definiert so einmal das Wesen von Macht an sich. Und kaum jemand kennt sich mit diesem sozialen Phänomen besser aus als er.
Gibt es weitere Gefahren?
Kai Schlieter: Eine weitere Gefahr besteht darin, dass wir zunehmend von Systemen abhängig werden, die wir nicht mehr verstehen. Die KI, die Google, Amazon oder Facebook an ihre Server-Farmen koppelt, lernt stetig mehr und trifft Entscheidungen, die von Menschen nicht mehr nachvollziehbar sind. Die Steuerung systemrelevanter Infrastruktur, von Fabriken oder Elektrizitätswerken, von der Börse oder von Autos, hängt zunehmend von KI ab, die wir nicht mehr verstehen. Stephen Hawking und tausende von Experten und Wissenschaftlern warnen vor KI als die womöglich größte Bedrohung. Denn sie verstehen sehr genau, wie weit diese Forschung und ihre Anwendung unsere Realität bedingt.
Ihr Buch trägt den Titel "Die Herrschaftsformel - Wie künstliche Intelligenz uns berechnet, steuert und unser Leben verändert." Was hat KI mit Herrschaft zu tun?
Kai Schlieter: Hawking warnte unter anderem davor, dass KI-Systeme politische Entscheider manipulieren und Waffen entwickeln könnten, die wir nicht mehr verstehen. Das ist weniger abwegig, als diese einem Laien erscheinen mag. Denn tatsächlich entwickelte das US-Militär bereits in den 1980er Jahren Expertensysteme, die Militärs bei den komplexen strategischen Entscheidungen auf dem Schlachtfeld berieten. Modelle der Spieltheorie verknüpft mit Massendaten prognostizieren gegnerisches Handeln.
Mir sagte ein Experte, dass die NSA Daten erheben würde, um vor allem die Entwicklung von Konzernen zu prognostizieren, in die sich dann eingekauft wird. Wirtschaftsspionage ist dann nicht mehr nötig, wenn man Anteilseigner von Konzernen ist, bei denen man weiß, dass ihr Wert steigt.
Politiker wie Obama nutzen seit Jahren KI, um mit gezielter Manipulation Wechselwähler zu identifizieren und maßgeschneiderte Werbung per Feedbacks zu testen und so die Ansprache immer mehr zu verfeinern. 90 Prozent der Menschen sehen sich bei Google nur die erste Trefferliste an, weitere 50 nur die ersten beiden Ergebnisse.
Der renommierte Psychologe Robert Epstein hat nachgewiesen, dass Google längst den Ausgang von Wahlen mit seinem Algorithmus bestimmt. Er belegte dies anhand von Wahlen in den USA und Indien. Wer die intelligentesten Systeme beherrscht und besitzt, hat viel mehr Wissen und Macht als andere. KI ist auch eine Herrschaftstechnologie. Das gilt für Regierungen und auch Konzerne. Das Silicon Valley veranschaulicht dies schon auf fast boulevardeske Art.

Datenkraken überwachen uns nicht nur, sie manipulieren uns auch permanent

Aber was genau bedeutet Herrschaft durch oder mit KI?
Kai Schlieter: Zu wissen was kommt, ermöglicht es darauf Einfluss zu nehmen. KI ist ein kybernetisches Prognosesystem, das Macht repräsentiert. Wer die Zukunft kennt, wird im simpelsten Fall dieses Wissen nutzen, um sich strategische Vorteile zu verschaffen. Allerdings geht es darüber hinaus. Facebook wurde 2014 dafür kritisiert, weil es mit 689.000 Usern experimentierte, um die Ausbreitung von Effekten der Manipulation über Facebook-Nachrichten zu messen. Ein Menschenversuch, der auch nicht der erste war.
Es ist also davon auszugehen, dass all die verschwiegenen Datensammler wie die NSA, Google oder das chinesische Pendant Baidu, das gemeinsam mit dem chinesischen Militär eine sehr leistungsfähige KI baut, all diese Datenkraken überwachen uns nicht nur, sie manipulieren uns permanent, um ihr erwünschtes Kontrollziel zu erreichen. Wie schon erwähnt: Das Prinzip der Kybernetik lautet: Information - also Daten -, Feedback , Prognose. Das Ganze beschreibt einen Prozess der Steuerung und Kontrolle. Das beutet in diesem Zusammenhang, dass die Überwachung nur ein Moment dieses Gesamtprozesses ist, der auf Steuerung und Kontrolle abhebt.
In Ihrem Buch gehen Sie auch auf den Begriff Neoliberalismus ein. Was hat Neoliberlismus mit KI zu tun?
Kai Schlieter: Tim O’Reilly ist einer der Vordenker im Silicon Valley. Er erfand unter anderem den Begriff Web 2.0. Er wie auch der sehr mächtige deutschstämmige Investor Peter Thiel und wohl auch sehr viele der Unternehmer dort halten die Demokratie für eine "veraltete Technologie". Die Prozeduren sind ihnen zu langsam, Gesetze haben Vorlauf und reagieren nicht in Echtzeit auf Veränderungen. Genau das aber stört sie, weil die technologische Revolution in einer unfassbaren Geschwindigkeit voran schreitet.
Die Rahmenbedingungen sollen sich wie ein Thermostat den Innovationen anpassen. Selbstfahrende Autos sollen nicht geprüft werden, sondern endlich losfahren. Für O’Reilly besteht die Zukunft der Politik in "algorithmischer Regulation" gesellschaftlicher Prozesse. Intelligente Systeme evaluieren permanent den Ist-Zustand und gleichen das mit prognostizierten Zielvorstellungen ab. Mangementkybernetik, die als Politik verkauft wird. Tatsächlich aber bedeutet dies das Ende der Politik.
Es entsteht ein sich selbst steuernder Prozess. In gewisser Weise bedeutet eine "algorithmische Regulation" der "veralteten Technologie" Demokratie die Automatisierung von Politik und Gesellschaft. Doch dabei wird unterschlagen, dass eine Zieldefinition nötig ist, auf die hin diese kybernetische Selbststeuerung beruht - wie die Zimmertemperatur, die voreingestellt wird.
Geht es in der Politik im Idealfall um das Gemeinwohl, bedeutet die Automatisierung von Politik ihre Abschaffung. Das ist die Parallele zum Neoliberalismus. Der Staat wird als Hemmnis definiert. Der Markt gilt als der perfekte und objektive "Informationsprozessor", wie der Wirtschaftshistoriker Philip Mirowski das nennt. Der Markt ist bei den Neoliberalen also als Idealmaschine konzipiert, die nicht durch ein Regulativ gestört werden darf. Ebenso argumentieren diese mächtigen Vertreter des Silicon Valley. Und ihr Datenkapitalismus entspricht zudem der Potenzierung des Marktmodells. Denn mit den Daten ist der Mensch und jede seiner Lebensäußerungen zur quantifizierbaren Ware geworden.
Es gibt also eine ideologische und gesellschaftliche Grundlage, die mit dazu führt, dass KI in der Form, wie es nun der Fall ist, sich überhaupt so verbreiten kann?
Kai Schlieter: Ja.
Können Sie einen Ausblick wagen? Wie wird es weitergehen mit KI? Wie wird sich unsere Gesellschaft verändern?
Kai Schlieter: Zunehmend haben wir es mit Angriffen zu tun, die auf der immer stärkeren Vernetzung beruhen. Die Bundeswehr kommt Jahre nach den Amerikanern nun auf die Idee eine Cybereinheit aufzubauen, der BND investiert 300 Millionen Euro in digitale Aufrüstung wie netzpolitik.org enthüllte. Das Börsengeschehen ist gekennzeichnet von permanenten Kurschwankungen, die auf nicht druchschaubaren Entscheidungen künstlich intelligenter Systeme beruhen. Es wird dazu kommen, dass uns erklärt wird, dass wir diese Systeme immer mehr einsetzen müssen, um in der komplexen Welt vertretbaren Entscheidungen zu treffen.
Virginia Rometty, die CEO von IBM, sagte kürzlich, dass bald keine Entscheidung des Menschen mehr getroffen wird, ohne zuvor solche Systeme zu konsultieren. Worüber wir uns Sorgen machen sollten und auf was wir sehr genau achten müssen, ist dann unsere Autonomie.
Die Autonomie des Menschen wird derzeit von verschiedenen Stellen unterhöhlt. Beispielsweise von der sich ausbreitenden Verhaltensökonomie - der "behavioral economics." Obama, Cameron und Merkel haben bereits entsprechende Berater. Diese vermeintliche Wissenschaft versucht mit fragwürdigen Belegen darzustellen, dass wir Menschen in sehr vielen Dingen viel zu irrational handeln und deswegen so genannte "Entscheidungsarchitekten" brauchen, die uns helfen. Die technologische Seite davon könnten KI-Systeme sein.
Gibt es überhaupt noch Möglichkeiten, wie man dieser Entwicklung entgegentreten kann? Was kann der Einzelen tun?
Kai Schlieter: Der Umgang mit Daten und mit den vermeintlich harmlosen Angeboten der "sozialen" Medien gehört als Pflichtfach in den Unterricht. Die Sensibilität für demokratische Grundprinzipien muss gestärkt werden. In den Geschichtsunterricht gehört auch neben der Ideologie des Kommunismus auch jene des Neoliberalismus, die gegenwärtig wohl mächtigste Weltanschauung.
Es sind interdisziplinäre und internationale Expertenkommissionen nötig, die sich ernsthaft mit den Gefahren von Künstlicher Intelligenz beschäftigen. Obwohl Hawkings offenen Brief zuletzt rund 16.000 Wissenschaftler unterschrieben, hält die Mehrheit das Thema noch für Science Fiction. Doch dieser Film ist die Realität.

URL dieses Artikels:
https://www.heise.de/-3375763

Links in diesem Artikel:
[1] http://www.taz.de/!5227616/
[2] http://www.westendverlag.de/buecher-themen/programm/herrschaftsformel-schlieter.html#.VgERW31sVhg
[3] http://www.westendverlag.de/buecher-themen/programm/herrschaftsformel-schlieter.html#.VhvUbZfpX6s