KI-System entschlüsselt Motive von Terroristen

Mit Künstlicher Intelligenz können die Motive von Terroristen erkannt werden.

(Bild: thinkhubstudio / Shutterstock.com )

ChatGPT könnten bald bei der Identifizierung potenzieller Terroristen helfen. Eine aktuelle Studie zeigt, wie KI-Tools Extremisten anhand ihrer Sprache erkennen können.

Technologien wie ChatGPT könnten in Zukunft eine wertvolle Ergänzung bei der Ermittlung potenzieller Terroristen sein. Dies ist das Ergebnis einer bahnbrechenden Studie von Forschern der Charles Darwin University (CDU) in Australien. Die Wissenschaftler untersuchten, wie KI-gestützte Sprachanalyse-Tools Extremisten identifizieren und die Wahrscheinlichkeit von Gewalttaten vorhersagen können.

Linguistische Analyse enthüllt Motive von Terroristen

Für ihre Studie fütterten die CDU-Forscher zunächst die Software "Linguistic Inquiry and Word Count" (LIWC) mit 20 öffentlichen Äußerungen internationaler Terroristen nach dem 11. September. Dann gaben sie ChatGPT eine Stichprobe von Aussagen von vier ausgewählten Terroristen aus diesem Datensatz und stellten dem KI-System zwei Fragen: Was sind die Hauptthemen der Texte und welche Missstände stecken hinter den kommunizierten Botschaften?

"ChatGPT war in der Lage, die Hauptthemen der ausgewählten Texte von vier Terroristen zu identifizieren, die Hinweise auf die Motivation der Individuen und den Zweck ihrer Texte lieferten", so die Forscher in ihrer Studie, die im Journal of Language Aggression and Conflict veröffentlicht wurde. Die KI sei in der Lage gewesen, "recht gut thematische und semantische Kategorien zu bilden".

Zu den identifizierten Themen gehören laut der Studie unter anderem Vergeltung und Selbstverteidigung, Ablehnung demokratischer Systeme, Opposition gegen Säkularismus und abtrünnige Herrscher, Kampf und Märtyrertum, Entmenschlichung von Gegnern, Kritik an Masseneinwanderung und Multikulturalismus.

KI findet Hinweise auf Gewaltmotivationen

ChatGPT identifizierte auch Hinweise auf Gewaltmotivation, darunter den Wunsch nach Vergeltung und Gerechtigkeit, antiwestliche Gefühle, Unterdrückung und Aggression durch Feinde, religiöse Beschwerden und die Angst vor dem Verlust der eigenen Rasse und Kultur.

Die Forscher ordneten die von der KI gefundenen Themen dann dem "Terrorist Radicalisation Assessment Protocol-18" (TRAP-18) zu, einem Instrument, das von Behörden zur Einschätzung potenziell gefährlicher Personen verwendet wird. "Die Themen stimmten mit den TRAP-18-Indikatoren für gefährliches Verhalten überein", lautete das Ergebnis.

Awni Etaywe, Hauptautor der Studie und führender Experte für forensische Linguistik mit Schwerpunkt Terrorismus, sieht einen Vorteil von Large Language Models (LLMs) wie ChatGPT darin, dass sie als ergänzendes Werkzeug eingesetzt werden können, das kein spezielles Training erfordert.

"Während LLMs menschliches Urteilsvermögen oder Textanalyse nicht ersetzen können, liefern sie wertvolle Ermittlungshinweise, beschleunigen Verdachtsmomente und verbessern unser Verständnis der Motivationen hinter terroristischem Diskurs", betont Etaywe.

Weitere Forschung zur Verbesserung der KI-Genauigkeit nötig

Trotz der vielversprechenden Ergebnisse mahnen die Forscher zur Vorsicht. "Wir müssen sicherstellen, dass ChatGPT ein praktisches Werkzeug zur Identifizierung potenzieller Bedrohungen wird, das den soziokulturellen Kontext des Terrorismus berücksichtigt", sagt er. "Bislang haben diese großen Sprachmodelle einen investigativen, aber keinen Beweiswert."

Weitere Studien seien nötig, um die Genauigkeit und Zuverlässigkeit von ChatGPT und ähnlichen KI-Systemen zu verbessern. Trotz der von Europol geäußerten Bedenken, KI-Tools wie ChatGPT zunehmend als Waffe zu nutzen, zeigt die Studie, dass maschinelles Lernen auch zur Kategorisierung von Cyberterrorismus-Texten und zur Verbesserung der forensischen Profilerstellung beitragen kann.

"Obwohl diese Technologien das menschliche Urteilsvermögen nicht ersetzen können, beschleunigen sie die Verdachtsgewinnung und verbessern unser Verständnis der Motivationen hinter extremistischer Rhetorik", fasst Etaywe zusammen. Künstliche Intelligenz könnte in Zukunft eine wertvolle Ergänzung für Ermittler bei der Suche nach potenziellen Terroristen sein.