Bündnis von digitalen Bürgerrechtsorganisationen fordert Verbot automatisierter Gesichtserkennung
Bundesinnenministerium will Gesichtserkennung an zahlreichen Bahnhöfen und Flughäfen installieren
In den USA haben einige Städte wie San Francisco Gesichtserkennung verboten. US-Abgeordnete wollen deren Einsatz zumindest begrenzen, um Entwicklungen wie in China zu verhindern (In den USA gibt es relativ zur Bevölkerung mehr Überwachungskameras als in China). China ist "Vorbild" auch für den Westen, was den Einsatz von anlassloser Überwachung und Verfolgung durch Gesichtserkennung betrifft (Chinesische Roboter mit Gesichtserkennung). Das hat, wie Hongkong zeigt, unmittelbar Auswirkungen auf die Wahrnehmung von fundamentalen Bürgerrechten und dem Aufenthalt im öffentlichen Raum (Demonstranten versuchen Überwachung auszuschalten).
Bevor Gesichtserkennung punktuell und dann flächendeckend auch bei uns eingeführt wird und dann kaum mehr rückgängig gemacht werden kann, ist jetzt höchste Zeit, vor einer massiven Einführung die Folgen zu diskutieren und danach überlegt und in Ruhe eine Entscheidung zu treffen, ob ein Verzicht nicht einen gesellschaftlichen Fortschritt bedeuten könnte.
Weil Telepolis die Einführung der Gesichtserkennung für einen weiteren entscheidenden und gefährlichen Schritt in Richtung einer Überwachungs- und Kontrollgesellschaft erachtet, veröffentlichen wir den Aufruf für ein Verbot automatisierter Gesichtserkennung von Bürgerrechtsorganisationen. Sie wenden sich konkret gegen die Absicht des Bundesinnenministeriums, an 135 Bahnhöfen und 14 Flughäfen Gesichtserkennung zu installieren. An einem entsprechenden Entwurf zur Novellierung des Bundespolizeigesetzes wird gearbeitet.
Bündnis fordert Verbot automatisierter Gesichtserkennung
Ein Bündnis aus zivilgesellschaftlichen Organisationen wendet sich gegen den Vorstoß des Innenministeriums, an 135 Bahnhöfen und 14 Flughäfen automatisierte Gesichtserkennung einsetzen zu wollen. Stattdessen fordert das Bündnis "Gesichtserkennung stoppen" ein Verbot dieser hochproblematischen Technologie in Deutschland. Auch wenn eine Verbesserung der Sicherheit etwa an Bahnhöfen grundsätzlich sinnvoll erscheint, ist automatisierte Gesichtserkennung als Mittel dafür nicht nur ungeeignet, sondern hat immense negative Folgen für Millionen Passanten und Reisende.
Automatisierte Gesichtserkennung bedeutet eine permanente heimliche Personenüberwachung in öffentlichen Räumen wie Bahnhöfen oder Flughäfen. Die Körperdaten aller Vorbeilaufenden werden dabei erfasst und automatisiert mit Datenbanken abgeglichen, ohne dass die Betroffenen dies bemerken müssen. Damit greift die automatisierte Gesichtserkennung tief in die Rechte und Freiheiten von Menschen ein, wenn biometrische Körperdaten quasi im Vorbeigehen und anlasslos analysiert werden.
"Automatische Gesichtserkennung ist eine Hochrisikotechnologie", erklärt Viktor Schlüter von der Organisation Digitale Freiheit: "Hohe Falscherkennungsraten, die Diskriminierung von Frauen und People of Color und das enorme Missbrauchspotential stellen eine Gefahr für die Demokratie dar."
"Dieses unnötige und invasive Biometriesystem ist nur ein weiterer Baustein, den maschinenlesbaren Menschen zu schaffen. Allein durch das zufällige Vorbeilaufen legen wir mit unseren Körperdaten eine digitale Spur, die uns alle auch wegen der Unzuverlässigkeit der eingesetzten Algorithmen in unseren Rechten und Freiheiten einschränkt", sagte Dirk Engling, Sprecher des Chaos Computer Clubs.
"Die optische Vermessung von Gesichtern droht eine weitere Form der anlasslosen Überwachung zu werden, nur diesmal mit detaillierten Körperdaten", fügt Rainer Rehak vom Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung hinzu. "Wir müssen uns jetzt diesen gefährlichen Plänen in den Weg stellen, bevor immer mehr öffentliche Räume mit biometrischen Erkennungssystemen bestückt werden, die zudem nicht einmal mehr Sicherheit bringen."
"Der Einsatz dieser Technologie zur Überwachung des öffentlichen Raumes schränkt auch politische Teilhabe ein: Wer fürchten muss, automatisch erfasst zu werden, wird im Zweifel eher nicht an einer Demonstration teilnehmen", gibt Elisabeth Niekrenz von der Digitalen Gesellschaft zu bedenken.
Im Lichte stetig sinkender Kriminalitätsraten in Deutschland besteht nicht nur keinerlei Notwendigkeit für neue, teure und ineffiziente Überwachungsmaßnahmen zur anlasslosen Erfassung von Körperdaten von Reisenden, sondern ist es Zeit, ein Verbot dieser gesellschaftlich schädlichen Technologie in die Wege zu leiten. Ein Verbot automatisierter Gesichtserkennung in Deutschland hat bereits Vorbilder: Mehrere US-amerikanische Großstädte haben den Einsatz der Technologie durch staatliche Stellen im öffentlichen Raum aufgrund der damit verbundenen Gefahren verboten. Der Stadtrat von San Francisco etwa bezeichnete automatisierte Gesichtserkennung als "gefährliche Waffe" sowie als inkompatibel mit einer gesunden Demokratie und verbot ihren Einsatz.
Dass die teure Technik überhaupt einsatzreif ist und den erhofften Zweck erfüllt, ist zudem zweifelhaft: In einem Gesichtserkennungstest von Innenministerium und Bundespolizei im Jahr 2018 in Berlin war die Falscherkennungsrate so hoch, dass mehr als jede 200. Person fälschlicherweise erkannt wurde. Dies würde allein am getesteten Berliner Bahnhof Südkreuz zu täglich 600 Fehlalarmen führen. Der Chaos Computer Club und das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung kritisierten die unwissenschaftliche Vorgehensweise und Auswertung der Tests sowie die deutlich geschönten Testergebnisse.
Das Bündnis "Gesichtserkennung stoppen" besteht aus den zivilgesellschaftlichen Organisationen Digitale Freiheit, Chaos Computer Club, Digitale Gesellschaft, Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung sowie Digitalcourage.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.