Algorithmus mit Scheuklappen: KI-Systeme versagen bei Kriminalitätserkennung
KI soll Kriminalität erkennen, doch eine MIT-Studie deckt Schwächen auf. Die Systeme urteilen teils rassistisch. Sind wir vor voreingenommener KI-Überwachung sicher?
In Deutschland werden KI-gestützte Videoüberwachungssysteme zunehmend im Sicherheitssektor eingesetzt, um die Straßenkriminalität effektiver zu bekämpfen. Wie ein Pilotprojekt in Mannheim zeigt, soll die intelligente Videoanalyse die Arbeit der Polizisten erleichtern und gleichzeitig den Datenschutz verbessern.
KI erkennt verdächtige Verhaltensmuster
Ziel ist es, dass KI-Systeme bestimmte Verhaltensmuster wie Schlagen oder Treten automatisch erkennen und den Polizeibeamten im Lagezentrum melden. Diese können dann entscheiden, ob ein Eingreifen notwendig ist. Durch die Vorauswahl relevanter Szenen sollen die Beamten entlastet werden.
Zudem bietet der Ansatz neue Möglichkeiten für den Datenschutz: Im Normalbetrieb werden die Bilder verpixelt und nur im Verdachtsfall in hoher Auflösung angezeigt. Das System läuft zunächst parallel zur menschlichen Videoauswertung, um die Zuverlässigkeit der Künstlichen Intelligenz zu testen.
MIT-Studie deckt Inkonsistenzen auf
Forscher des Massachusetts Institute of Technology (MIT) warnen jedoch vor den Schwächen der KI-Überwachung. Bei Tests mit Videos von Autoeinbrüchen schlugen große Sprachmodelle wie GPT-4 mal Alarm, mal sahen sie keine Gefahr – selbst bei ähnlichen Szenen. Es gab auch Unstimmigkeiten zwischen den KI-Modellen.
Zudem neigten einige Modelle dazu, Videos aus überwiegend weißen Wohngegenden seltener als bedrohlich einzustufen als Videos aus überwiegend schwarzen Wohngegenden. Die Forscher sehen darin eine systematische Voreingenommenheit, die durch die Demografie einer Nachbarschaft beeinflusst wird.
Diese "normative Inkonsistenz" macht es schwierig vorherzusagen, wie sich die Modelle in verschiedenen Kontexten verhalten. Da KI-Systeme auch in anderen sensiblen Bereichen wie dem Gesundheitswesen oder der Kreditvergabe eingesetzt werden, mahnen die Wissenschaftler zur Vorsicht.
Lesen Sie auch
Mangelnde Transparenz erschwert Fehlersuche
Das Problem: Forscher haben keinen Zugriff auf die Trainingsdaten oder die innere Funktionsweise der KI-Modelle. Daher ist es schwierig, die Ursache von Inkonsistenzen zu ermitteln.
"Es gibt die implizite Annahme, dass diese Modelle eine Reihe von Normen und Werten gelernt haben. Unsere Arbeit zeigt, dass dies nicht der Fall ist", betont Shomik Jain vom MIT.
Co-Autorin Dana Calacci von der Pennsylvania State University ergänzt: "Vielleicht lernen die Modelle nur willkürliche Muster oder Rauschen."
Die Forscher planen weitere Studien, um die normativen Urteile der KI in heiklen Situationen mit menschlichen Entscheidungen zu vergleichen. Außerdem wollen sie ein System entwickeln, mit dem Nutzer KI-Verzerrungen leichter an Unternehmen und Behörden melden können.