"Data Mining": Karlsruhe setzt Polizei Grenzen beim Einsatz Künstlicher Intelligenz

Symbolbild: Gerd Altmann auf Pixabay (Public Domain)

Das Bundesverfassungsgericht hat Regelungen in Hessen und Hamburg beanstandet. Für NRW steht eine ähnliche Entscheidung aus. Bürgerrechtsgruppen und Linke sind erleichtert.

Die zur "vorbeugenden Verbrechensbekämpfung" erstellte Software des US-Unternehmens Palantir darf von der Polizei in Hessen und Hamburg nicht wie bisher geregelt eingesetzt werden. Die Regelungen beider Bundesländer zur automatisierten Datenanalyse seien verfassungswidrig, stellte das höchste deutsche Gericht in Karlsruhe an diesem Donnerstag klar.

Das Urteil hat Auswirkungen auf weitere Bundesländer: Eine weitere Verfassungsbeschwerde, die von der Gesellschaft für Freiheitsrechte (GFF) gegen das "Data Mining" der Polizei in Nordrhein-Westfalen eingereicht wurde, dürfte damit auch bald erfolgreich sein. "Wir rechnen natürlich mit einer ähnlichen Entscheidung", sagte Dr. Maria Scharlau von der GGF gegenüber Telepolis. Auch die bayerische Staatsregierung wird entsprechende Pläne überdenken müssen.

"Data Mining" bedeutet, dass die Polizei per Mausklick Informationen aus verschiedensten Quellen über beliebige Personen einsehen, zusammenführen und analysieren kann – Meldedaten, Daten von Gesundheits- und Sozialämtern, KfZ-Registerdaten sowie Informationen aus "Sozialen Netzwerken". Die Analyse oder Auswertung soll Rückschlüsse darauf ziehen lassen, welches noch nicht begangenen Verbrechen die Betroffenen möglicherweise planen oder ins Auge fassen.

Welche dramatischen Fehlschlüsse dabei theoretisch möglich wären, hat Sebastian Fitzek 2015 in dem fiktiven Roman "Das Joshua-Profil" thematisiert. Ein Unschuldiger wird in dieser Geschichte als gefährlicher Pädokrimineller stigmatisiert und gejagt, ohne je auf kinderpornographische Seiten zugegriffen oder anzügliche Chats mit Minderjährigen geführt zu haben. Dieses Beispiel ist zwar fiktiv.

Dem Bundesverfassungsgericht gehen aber mögliche Eingriffe in die informationelle Selbstbestimmung ohne im Einzelfall konkretisierte Gefahren auch in der gesetzgeberischen Realität zu weit.

Überarbeitungsfrist bis zum 30. September

"Ermöglicht die automatisierte Anwendung einen schwerwiegenden Eingriff in die informationelle Selbstbestimmung der Betroffenen, ist dies nur unter den engen Voraussetzungen zu rechtfertigen, wie sie allgemein für eingriffsintensive heimliche Überwachungsmaßnahmen gelten", argumentiert das Bundesverfassungsgericht.

Der Gesetzgeber müsse sicherstellen, "dass in jedem Einzelfall eine konkrete oder konkretisierte Gefahr für die durch den Straftatbestand geschützten Rechtsgüter vorliegt". Daran fehle es hier. Es kämen zudem nur besonders gewichtige Rechtsgüter wie Leib, Leben oder Freiheit der Person in Frage.

In Hessen begrüßte die Linksfraktion im Landtags das Gerichtsurteil mit Erleichterung: "Durch den Einsatz einer US-amerikanischen Software wird das Grundrecht auf informationelle Selbstbestimmung unverhältnismäßig eingeschränkt, es droht die Schaffung eines gläsernen Bürgers", erklärte der innenpolitische Sprecher der Fraktion Torsten Felstehausen. "Das Bundesverfassungsgericht setzt mit dem Urteil dem Einsatz von Künstlicher Intelligenz bei der Polizei enge Grenzen."

Hessens Innenminister Peter Beuth (CDU) müsse die Feststellungen des Bundesverfassungerichts ernst nehmen, so Felstehausen. Bis zum 30. September muss das Hessische Gesetz über die Sicherheit und Ordnung (HSOG) diesbezüglich überarbeitet werden – diese Frist hat das Gericht gesetzt.