Predictive Staatsschutz

Datenkrake Polizei? Teil 2

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Der Clou bei polizeilichen Analyse-Tools wie Palantir (Palantir als die Spitze des Eisberges. Datenkrake Polizei? Teil 1) besteht darin, Open Source Intelligence mit anderen Informationsquellen zu verbinden. Das Angebot ist reichhaltig und wird immer größer. Großtrends der Digitalisierung wie "Smart City", "Internet der Dinge" oder Sprachassistenz schaffen ganz neue Überwachungsmöglichkeiten. Der smarte Kühlschrank bestellt eine Woche lang keine Lebensmittel (= "niemand anwesend?"). Die Waschmaschine arbeitet doppelt so häufig (= "neue Mitbewohner?"). Bewegungsprofile, Gewohnheiten und Einstellungen werden potentiell transparent.

Hinzu kommt die Digitalisierung der Kommunikation. Durch die Kanäle die Sozialen Medien fließen Botschaften aller Art: Katzenbilder, Einkaufslisten, Dienstpläne, Liebesbriefe, weltanschauliche Bekenntnisse ... Zusammengenommen ermöglichen sie tiefe Einblicke in soziale Beziehungen, auch in die politische Kommunikation. Wer wann welche Internetseiten besucht, wer welchen Beitrag auf einer Internetseite wie kommentiert - all diese Fragen können Polizeibehörden mittlerweile beantworten, sofern sie sich die entsprechenden Informationen beschaffen können und beschaffen dürfen.

Die Digitalisierung erzeugt ein genaues und aktuelles Abbild des Alltagslebens, wie es nie zuvor existierte. Ein Paradies für die Strafverfolgungsbehörden? Polizisten vergleichen die Internetauswertung gerne mit der sprichwörtlichen Suche nach der Nadel im Heuhaufen. Das ist nicht ganz ehrlich: Mit ausreichend Rechenpower und leistungsfähigen Algorithmen lassen sich in beliebig großen Datenmengen einzelne Personen oder bestimmte Verhaltensweisen ausfindig machen. Eben das meinte wohl Keith Alexander, der ehemalige Chef der National Security Agency, als er darauf hinwies, dass man erst einmal einen Heuhaufen braucht, um eine Nadel zu finden.

Digitalisierung bedeutet nun einmal "Maschinenlesbarkeit". Aufgelaufenen Daten können aggregiert und automatisch durchsucht werden. Mit Künstlicher Intelligenz lassen sich Personen in Bildaufnahmen identifizieren, Verhalten und Gefühle anhand von gesprochener oder geschriebener Sprache klassifizieren oder in Videoaufnahmen verdächtige Verhaltensweisen detektieren. Diese technische Kapazitäten wandern allmählich von den Entwicklungsabteilungen in die Polizeibehörden. Maschinenlernen und Mustererkennung sorgen dafür, dass die Ermittler nicht in der Datenflut ertrinken.

Künstliche Intelligenz für die Strafverfolgung

Die Entwicklung der entsprechenden Systeme wird auch mit Steuergeldern vorangetrieben. Die Europäische Union und einzelne Länder wie Österreich, Großbritannien oder die Schweiz fördern die sogenannte "Sicherheitsforschung". Auch in Deutschland finanziert das Bundesforschungsministerium seit 2007 die "Forschung für die Zivile Sicherheit". Die Projekte vernetzen Sozial- und Verhaltenswissenschaftler, IT-Firmen und Polizeibehörden.

Eine zentrale Position haben die halbstaatlichen Forschungsinstitute der Fraunhofer-Gesellschaft, das Deutsche Forschungszentrum für Künstliche Intelligenz und der Verein Deutscher Ingenieure. Zur typischen Zusammensetzung gehören weiterhin Projektpartner aus dem Datenschutz und der Rechtswissenschaft, um Möglichkeiten des legalen Einsatzes der entstehenden Überwachungstechnik auszuloten. Manche der beteiligten privaten IT-Firmen haben sich auf Dienstleistungen für die Strafverfolgung spezialisiert. Andere sind sozusagen fachfremd und bringen lediglich besondere technische Kapazitäten mit, etwa die Netzwerkanalyse oder Visualisierung.

Die neuen Polizeigesetze in Baden-Württemberg, Bayern und im Bund haben die sogenannte Intelligente Videoüberwachung legalisiert. Auch in der Sicherheitsforschung ist die Personenidentifizierung ein wichtiges Forschungsthema. Das Projekt GES-3D (Multi-Biometrische Gesichtserkennung) beispielsweise entwickelte ein System, um Personen in Bild- oder Videoaufnahmen zu erkennen, ebenso das MisPel-Projekt (Multi-Biometrisierte Forensische Personensuche in Lichtbild- und Videomassendaten). Der Forschungsverbund PERFORMANCE (Kooperative Systemplattform für Videoupload, Bewertung, teilautomatisierte Analyse und Archivierung) wiederum sucht nach Methoden, um automatisch Bildaufnahmen mit Datenbanken abzugleichen.

Ein weiteres Kernthema der Sicherheitsforschung ist, wie die Datenströme in den Sozialen Medien (Facebook, Twitter, Messenger etc.) für die Polizei erschlossen werden können. Für diese Auswertung kommen Webcrawler zum Einsatz, die von einem bestimmten Startpunkt aus die Inhalte von Internetseiten speichern und ordnen. Die Algorithmen beruhen auf Katalogen mit bestimmten Stichwörtern, die für bestimmte politische Bewegungen stehen. Erfasst werden dabei wohlgemerkt nicht nur Kommentare, sondern zum Beispiel auch Likes, Empfehlungen oder Weiterleitungen. Die Nachrichtendienste nutzen solche Crawler bereits für ihre Lagebeurteilungen; für die Polizei sind sie eher Neuland.

Einige Projekte im Rahmen der Sicherheitsforschung arbeiten nun an Systemen für den polizeilichen Staatsschutz, die über weitere Analyse-Möglichkeiten verfügen sollen. Mit Social Media Intelligence und Open Source Intelligence sollen die Staatsschützer Gefahren einschätzen, die von "extremistischen" oder "radikalisierten" Personen und Gruppen ausgehen, und zwar schneller und objektiver als bisher. Dieser Ansatz erinnert an das Predictive Policing, und tatsächlich handelt es sich um digitaltechnische Prädiktion mit Mustererkennung und Statistik. Allerdings soll so nicht Wohneinbruchsdiebstahl verhindert werden, sondern staatsgefährdende Straftaten.

Bislang werden in Deutschland computergestützte Kriminalitätsprognosen nur auf Zeiträume und nicht auf Personen bezogen. Predictive Policing kommt zudem nur im Bereich Eigentumsdelikte und gegen bestimmte Tätergruppen zum Einsatz; gegenwärtig experimentieren die Behörden mit der Vorhersage von Autodiebstahl und Trickbetrug. Die Sicherheitsforschung zur Radikalität in den Sozialen Netzwerken will viel mehr: Es geht um nicht weniger als eine Risikobewertung von Extremisten anhand ihres Verhaltens im Netz.

Vergleichsweise altmodisch ist da noch das Projekt INTEGER (Visuelle Entscheidungsunterstützung bei der Auswertung von Daten aus sozialen Netzwerken), das, ähnlich wie Palantir Gotham, unter anderem mit Bilderkennung Hinweise erzeugt, wenn sich in der Nutzer-Historie in einem Sozialen Netzwerk beispielsweise eine bestimmte Person oder bestimmte Gegenstände zeigen (etwa Schusswaffen).

Andere Projekte verbinden kriminologische und psychologische Ansätze, um "Muster der Radikalisierung" zu finden. Zu dieser "Radikalisierungsforschung" gehören PANDORA (Propaganda, Mobilisierung und Radikalisierung zur Gewalt in der virtuellen und realen Welt), X-SONAR (Extremistische Bestrebungen in Social Media Netzwerken), RADIG-Z (http://radigz.de/) (Radikalisierung im digitalen Zeitalter) und RISKANT (Risikoanalyse bei islamistisch motivierten Tatgeneigten). Bei RADIG-Z will man ein Prognoseinstrument entwickeln, das die Wahrscheinlichkeit einer späteren terroristischen Aktion misst. RISKANT, PANDORA und X-SONAR zielen auf Software für den praktischen Einsatz und wurden zum Teil von den Kriminalämtern selbst angestoßen.

Im Gefolge der Digitalisierung verbreiten sich auch bei der Polizei computergestützte Risikokalküle. Das BKA nutzt bereits seit 2016 ein Prognosesystem namens RADAR-iTE, um das Risikopotenziale von islamistischen "Gefährdern" einzuschätzen. Die Grundlage bilden biographische Angaben und andere polizeibekannte Informationen. Um auf einer Gefährder-Liste zu landen, müssen die Verdächtigen keine Straftat begangen haben, sondern lediglich den Nachrichtendiensten auf die eine oder andere Art aufgefallen sein. Möglicherweise haben sie ein Ausbildungslager des IS besucht oder verkehren in einschlägigen Milieus.

Die Radikalisierungsforschung setzt noch deutlich früher an - bei der Radikalisierung im Internet, konkret: beim Betrachten von Propaganda-Videos, Sympathiebekundungen oder auch nur beim Kontakt zu einer observierten Person. Das ist bemerkenswert, aber irgendwie konsequent. Das Ziel ist schließlich die Früherkennung politisch motivierter Kriminalität. Es geht darum, die Attentäter von morgen schon heute zu finden - Predictive Staatsschutz sozusagen.

Verdächtige Wortwahl

Brisant ist, dass "Radikalität" anhand von sprachlichen Äußerungen gemessen werden soll. Unterschiedliche Signale kämen dafür in Frage, heißt es: die einschlägigen Begriffe aus bestimmten politischen Milieus (zum Beispiel "Volksschädling" oder "sozialistische Revolution"), aber auch Formulierungen, die gewaltsam klingen (etwa "militanter Widerstand") oder eine Ausdrucksweise, die den Unterschied zu anderen sozialen Gruppen betont ("wir als Muslime / Deutsche / Arbeiter" versus "die Ungläubigen / Einwanderer / Kapitalisten"). Kurz, die Wortwahl entscheidet (mit) über den entstehende Risiko-Score. Die Software soll aus der digitalen Kommunikation über die Sozialen Netzwerke verdächtige Verhaltensmuster aussieben.

Die Klassifizierung als potentielle Gefahr spiegelt individuelle Werthaltungen, politische Überzeugungen und sogar Persönlichkeitsmerkmale wie Aggressivität oder Ängstlichkeit wider - aber Radikalität ist bekanntlich nicht verboten. Wenn Personen aufgrund solcher Merkmale in den Fokus der Sicherheitsbehörden gerieten, wäre dies ein tiefer Eingriff in ihre Persönlichkeits- und die Bürgerrechte (Stichwort "informationelle Selbstbestimmung"). Eine Rasterfahndung im Internet nach "Radikalisierungsmustern" jedenfalls wäre rechtlich zumindest fragwürdig. Je nach der technischen Ausgestaltung solcher Systeme entstünden gleichsam Big Data-Stimmungsbilder aus der Bevölkerung, die bis hinunter auf ein Individuum aufgelöst werden könnten.

Selbst beteiligte Wissenschaftler sind allerdings skeptisch, ob eine automatische "Radikalisierungs-Einstufung" wirklich funktionieren wird. Ob KI in der Lage ist, "Radikalität" sinnvoll zu klassifizieren, ist bereits fraglich. Noch schwerer wiegt, dass "Radikalität" höchstens ein Risikofaktor unter vielen anderen für eine Straftat darstellt: Wer sich besonders kriegerisch äußert, muss nicht in Wirklichkeit zur Tat schreiten; umgekehrt können zukünftige Attentäter verbal völlig unauffällig bleiben.

Ob die Modelle und Software-Systeme aus der Sicherheitsforschung in den Behörden ankommen werden und für welche Zwecke sie dann eingesetzt werden, lässt sich also noch nicht absehen. Ideen gibt es allerdings reichlich. Beispielsweise könnten die Staatsschutzabteilungen ihre Lagebeurteilungen objektivieren. Die Idee: Von einem bestimmten Startpunkt aus - ein Demo-Aufruf bei Twitter, ein Video bei Youtube oder der Blog einer Organisation - werden Kommentare und Links gespeichert und auf dieser Grundlage ein Risiko-Score erzeugt. Dieser Wert kann dann für die Einsatzplanung genutzt werden, beispielsweise bei einer politischen Demonstration. "Die automatisierte Auswertung und visuelle Aufbereitung von Daten könnte in Zukunft den Aufwand bei der Gefährdungseinschätzung und Lagebewertung deutlich verringern", heißt es entsprechend in der Vorstellung des Projekts INTEGER.

Wozu der Predictive Staatsschutz taugt oder nicht taugt, muss sich erst noch herausstellen, und auch, ob sich der Einsatz mit den geltenden Datenschutz-Bestimmungen verträgt. Im Kontext des individuellen "Bedrohungsmanagements" wäre der vorausschauende Staatsschutz ein weiteres Instrument im polizeilichen Werkzeugkasten, um potentielle Attentäter zu kontrollieren. Im Kontext der nachrichtendienstlichen Gesellschaftsanalyse ließen sich schneller und genauer politische Mobilisierungen aus den Internet-Massendaten ableiten.

Das Material für die Radikalisierungsforscher stammt in erster Linie von Rechtsextremisten und Islamisten. Lediglich im Rahmen von RADIG-Z untersuchte das Kriminologische Forschungsinstitut Niedersachsen auch die "Radikalisierungsverläufe" und Eigenheiten von Linken. Bürgerrechtler sollten sich aber davon nicht allzu sehr beruhigen lassen: Gegenwärtig werden technische System entwickelt, die sich gegen politische Bewegungen aller Art einsetzen lassen. Möglicherweise regiert in zwei Legislaturperioden die AfD - und legt dann fest, was extremistisch ist und was nicht.