Einwanderung: Wissenschaftler warnen vor Einsatz von KI-Lügendetektoren an EU-Außengrenzen
KI soll die Rolle des Türstehers an den EU-Außengrenzen übernehmen. Manche sehen das als Fortschritt, aber Wissenschaftler warnen.
Die KI wird in immer mehr Bereichen des täglichen Lebens genutzt. In Redaktionsbüros von Medien wird nach anfänglichem Zögern und Skepsis die KI in Arbeitsabläufe eingebunden, manchmal sogar in den Faktencheck, mit dem redaktionelle Beiträge auf den Wahrheitsgehalt ihrer Aussagen überprüft werden.
Was für Redaktionen recht ist, sollte für Strafverfolger und Fahnder doch billig sein, oder nicht? Eher nicht, meint die Wissenschaft, die vor KI gesteuerten Lügendetektoren, wie sie auch an EU-Außengrenzen eingesetzt werden, warnt.
Juristische Einwände
Angenommen Sie möchten in einen Staat einreisen, ein KI-System stellt Fragen und behauptet dann, trotz wahrheitsgemäßer Antworten, Sie würden lügen. Konsequenz? Die Einreise wird verweigert.
Das ist nicht unbedingt mit der Verfassung demokratischer Staaten vereinbar. Zumindest dann nicht, wenn die Beurteilung durch den KI-Lügendetektor wie "Stempelurteile" wirkt.
Neu ist die Idee mittels vorher definierter Merkmale Reisende zu überprüfen und hinsichtlich ihrer Gefährlichkeit oder ihrer Absichten zu kategorisieren nicht. So wurden Menschen bereits für exzessives Gähnen bei einer Kontrolle in den USA in den Verdacht gebracht, Terroristen zu sein.
Was seinerzeit im Nachhall der Terroranschläge vom 11. September 2001 durch menschliche Kontrolleure überprüft wurde, soll nach dem Willen der EU an den Außengrenzen der Gemeinschaft durch KI-Systeme geschehen.
Mit einer Finanzierung über das Horizon 2020 Forschungs- und Innovationsprogramm wurde der Einsatz von des KI-Systems iBorderCtrl für die Überprüfung von Einreisenden aus Drittstaaten an den EU-Außengrenzen getestet. Die koordinierende Oberaufsicht über das Experiment hatte die Polizei Ungarns.
Neun Monate lang hatten Reisende, welche die Grenzen zwischen Ungarn und Serbien, Lettland und Russland sowie Griechenland und Nordmazedonien überquerten, die Möglichkeit, vor dem Grenzübertritt einen Videoanruf mit einem virtuellen Grenzschutzbeamten durchzuführen.
In einem zweiten Schritt kam iBorderCtrl gemeinsam mit Grenzbeamten zum Einsatz. Die KI führte hierbei eine Gesichtsüberprüfung anhand der im Pass gespeicherten biometrischen Daten durch. Zumindest in der anfänglichen Testphase soll sich das System als fehleranfällig erwiesen haben.
Die EU hielt die Ergebnisse des Feldversuchs unter Verschluss und musste sich deshalb einer Transparenzklage des Europaabgeordneten und Bürgerrechtlers Dr. Patrick Breyer von der Piratenpartei stellen. Für Breyer ist das Programm "nichts anders als mit Steuern finanziertes Lobbying für Gesetzesänderungen. Aus meiner Sicht ein schwerer Verstoß gegen die Rahmenbedingungen für solche Forschungsaktivitäten".
Psychologen schlagen Alarm
Anfang Mai meldeten sich nach den Vertretern aus der Rechtswissenschaft auch die Psychologen zu Wort. Ein Forschungsteam der Universitäten Marburg und Würzburg, Prof. Dr. Kristina Suchotzki vom Fachbereich Psychologie der Universität Marburg und Prof. Dr. Matthias Gamer vom Institut für Psychologie der Universität Würzburg warnen vor einem verfrühten Einsatz der KI als Lügendetektor.
In ihrem auch für Laien verständlichen Fachartikel in der Zeitschrift Trends in Cognitive Sciences vergleichen sie die Suche nach der Wahrheit mittels KI mit der Suche nach Pinocchios Nase.
Sie identifizieren drei Hauptprobleme in der aktuellen Forschung zu KI-basierten Lügendetektoren:
1. Mangelnde Erklärbarkeit und Transparenz. Gemäß Suchotzki und Gamer ist es oft unklar und nicht nachvollziehbar, wie der Algorithmus der KI zu seinem Ergebnis kommt. Dies sei in einigen Fällen sogar für die Entwickler der Modelle nicht möglich. Somit sei es unmöglich, in diesen Fällen die Entscheidungen zu beurteilen und/oder die Gründe für Fehlentscheidungen zu finden.
2. Verzerrungen in der Entscheidungsfindung. Mit dem Einsatz von KI verbunden gewesen sei, so die Forscher, dass die Maschinen menschliche Voreingenommenheit überwinden könnten. Tatsächlich aber seien zum Teil bereits die Daten, die für das Training der KI verwendet wurden, mit verzerrenden Stereotypen oder Vorurteilen versehen. Weiter zu Verzerrungen beitragen würde eine fehlerhafte Auswahl von Variablen, die von den Entwicklern ins System eingespeist werden, sowie unzureichende Datensätze.
3. Eindeutige Indizien für Täuschungen oder Lügen sind nicht bekannt. Schließlich, so die Forscher, habe die Wissenschaft noch keine eindeutigen Indizien oder Kombinationen von Indizien identifiziert, die zweifelsfrei eine Lüge als solche aufdecken. Insofern sehen die Wissenschaftler ein grundsätzliches Problem, welches den Einsatz von Algorithmen erschwert.
Vollkommen ausschließen wollen Suchotzki und Gamer die KI-basierten Täuschungserkennungsalgorithmen nicht. Sie empfehlen aber dringend die Einhaltung von Qualitätsstandards.
Von der Arbeit an einer KI-basierten Täuschungserkennung abraten wollen Suchotzki und Gamer jedoch nicht. Schließlich sei es letzten Endes nur eine empirische Frage, ob diese Technik das Potenzial hat, hinreichend valide Ergebnisse zu liefern.
Vor dem Einsatz im Alltag müssten allerdings ihrer Meinung nach eine Reihe von Bedingungen gegeben sein. "Bei Massenscreening-Anwendungen werden häufig sehr unstrukturierte und unkontrollierte Bewertungen vorgenommen.
Das erhöht die Anzahl der falsch positiven Ergebnisse drastisch", erklärt Matthias Gamer. Damit sind Einsätze an Grenzen oder Flughäfen aus wissenschaftlicher Sicht fehleranfälliger als die Verwendung der KI zum Beispiel bei der Vernehmung in einem Kriminalfall.
Kristina Suchotzki und Matthias Gamer werden im Pressetext der Universität Würzburg mit einer Warnung an die Politik zitiert:
Die Geschichte lehrt uns, was passiert, wenn wir uns nicht an strenge Forschungsstandards halten, bevor Methoden zur Täuschungserkennung im wirklichen Leben eingeführt werden.
Das Beispiel des Polygraphen zeige sehr deutlich, wie schwierig es ist, solche Methoden wieder loszuwerden, selbst wenn sich später die Beweise für eine niedrige Erkennungsrate und die systematische Benachteiligung von unschuldigen Verdächtigen häufen.