KI-Betrug: Europas Unternehmen schlafen am Steuer
(Bild: earth phakphum / Shutterstock.com)
KI-Betrug nimmt zu, Unternehmen sind sich der Gefahr bewusst, aber nicht gerüstet. Deepfakes und Account Takeover sind auf dem Vormarsch. Was tun?
Künstliche Intelligenz (KI) verändert die Welt heute bereits in rasantem Tempo. Doch nicht nur nützliche Anwendungen profitieren von der Technologie, sondern auch Betrüger. Und diese nutzen KI, um ihre Methoden zu verfeinern und in noch größerem Stil anzuwenden.
Laut einer aktuellen Studie des Sicherheitsunternehmens Signicat, die gemeinsam mit dem Unternehmen Consult Hyperion erstellt wurde, sind sich die Unternehmen in Europa zwar dieser Bedrohung bewusst. Aber sie sind längst nicht ausreichend vorbereitet.
Studie offenbart Wissenslücken und mangelnde Ressourcen
Für die Studie "The Battle Against AI-driven Identity Fraud" wurden 1.206 Entscheidungsträger im Bereich Betrugsbekämpfung aus Banken, Versicherungen, Zahlungsdienstleistern und Fintechs in sieben europäischen Ländern befragt. Die Ergebnisse zeigen ein beunruhigendes Bild:
Zwar glauben 76 Prozent der Befragten, dass Betrug heute eine größere Bedrohung darstellt als vor drei Jahren. Auch sind sich 66 Prozent bewusst, dass KI-gestützter Identitätsbetrug zugenommen hat. Doch bei den Details hapert es: Nur ein Drittel kennt spezifische KI-Techniken wie Deepfakes oder synthetische Identitäten.
Betrüger setzen zunehmend auf Account Takeover und Deepfakes
Die Studie zeigt auch, wie sich die Betrugslandschaft verändert hat. Vor drei Jahren nutzten Betrüger demnach KI hauptsächlich, um gefälschte Ausweise zu erstellen oder synthetische Identitäten zu generieren. Heute stehen Account Takeover und Deepfakes im Fokus.
Beim Account Takeover übernehmen Kriminelle bestehende Online-Konten, z. B. in sozialen Netzwerken, statt neue zu eröffnen. Und diese Konten werden dann für betrügerische Aktivitäten missbraucht.
Deepfakes, also manipulierte Videos oder Stimmen, werden eingesetzt, um echte Personen zu imitieren. Laut Signicat machen Deepfakes inzwischen 6,5 Prozent aller Betrugsversuche aus – ein Anstieg um 2.137 Prozent in drei Jahren.
Mensch oder Maschine – wer erkennt Deepfakes?
Mehr als drei Viertel der Entscheider sind überzeugt, dass Deepfakes heute eine gängige Methode für Identitätsbetrug sind. Ebenso viele glauben, dass die Erkennung gefälschter Videos und Stimmen künftig nur noch mit Technologie möglich sein wird. Der Mensch allein sei damit überfordert.
Trotzdem zeigen sich viele Befragte erstaunlich gelassen. Rund 75 Prozent gehen davon aus, dass Deepfakes niemals überzeugend genug sein werden, um Finanzinstitute zu täuschen. Ein Trugschluss, warnen die Studienautoren.
Unternehmen kämpfen mit Ressourcenmangel
Als beste Verteidigungsmethoden gegen KI-gestützten Identitätsbetrug nannten die Befragten Biometrie, stärkere Passwörter und persönliche Interviews. Doch die wenigsten Unternehmen haben bisher entsprechende Maßnahmen ergriffen. Haupthindernisse sind laut Studie fehlendes Fachwissen, knappe Budgets und Zeitmangel.
Immerhin: Mehr als drei Viertel der Firmen haben spezialisierte Teams für das Thema eingerichtet, planen Technologie-Upgrades und erwarten steigende Budgets. Allerdings soll die Umsetzung bei den meisten erst in den nächsten zwölf Monaten erfolgen. Zu langsam, kritisieren die Experten.
Mit KI gegen KI
Als Lösung empfehlen die Studienautoren einen mehrschichtigen Ansatz. Statt auf Einzelmaßnahmen zu setzen, sollten die Unternehmen verschiedene Technologien und Verfahren kombinieren, um Angreifern das Leben schwer zu machen.
Ein Schlüssel sei der Einsatz von KI zur Betrugserkennung. Damit ließen sich verdächtige Muster aufspüren, die dem menschlichen Auge verborgen bleiben. Auch Mitarbeiter und Kunden müssten besser geschult werden, um nicht auf immer ausgefeiltere Täuschungsversuche hereinzufallen.
Letztlich gleicht dieser Kampf zwischen Betrügern und Firmen einem Wettrüsten: Wer nicht Schritt hält, verliert.