Künstliche Intelligenz gegen Desinformation als Waffe im Cyberwar

Seite 2: Erkennung von Propaganda in Echtzeit

Desinformation ist Teil eines jeden Wahlkampfs, jeder politischen Auseinandersetzung und Teil jeder Berichterstattung, die kaum je objektiv und neutral ist, sondern aufgrund von bestimmten Informationen eine Situation wie immer sachlich formuliert interpretiert. Eine Ausschreibung der Navy will ein Programm, das Beeinflussungskampagnen und Propaganda in Echtzeit erkennen soll, die Emotionen wie Angst, Furcht, Hass und Abscheu auslösen.

Patrick Tucker von Defense One feiert das Projekt. Hoffentlich könne Primers Technik "die Informationslandschaft überwachen und falsche Narrative identifizieren".

Das ist vielleicht schon selbst ein falsches Narrativ, aber Tucker fragt sich auch, wie man einem neuronalen Netzwerk lernen könne, glaubwürdige von unglaubwürdigen Behauptungen zu unterscheiden. Er meint, das sei so ähnlich, wie man einem Kind beibringt, glaubwürdige Quellen von unglaubwürdigen zu unterscheiden.

Das ist eigentlich ein schiefes Argument, denn es müsste darum gehen, Informationen als richtig oder falsch einzuordnen, unabhängig von der Vertrauenswürdigkeit der Quelle. Wenn dann das Projekt auf der Einschätzung von Benutzern der Sondereinheiten und der Luftwaffe beruht, welche Informationen vertrauenswürdig sind, wäre das eine Bestätigung einer bestimmten, militärisch oder sicherheitsstrategisch geprägten Weltsicht.

Allerdings würde damit Desinformation und Propaganda aus dem eigenen Lager ausgeblendet, da es sich ja um vertrauenswürdige Quellen handelt.

Anscheinend soll die KI anhand der Einschätzungen des militärischen Personals lernen, welche Quellen glaubwürdig sind. Bislang werden Informationen aus Nachrichten, sozialen Medien und anderen verfügbaren Quellen etwa über eine Region oder einen Konflikt automatisch gesammelt und so gruppiert, dass sich erkennen lassen soll, welche Regierungen oder Gruppen was zu einem Ereignis äußern.

Behauptungen auf einer Skala einordnen

Das Personal bewertet die Glaubwürdigkeit der Quellen aus seiner Sicht, wodurch das System lernen soll zu unterscheiden, welche Behauptungen eher auf Fakten basieren und welche Quellen anderes sagen. Daraus sollen sich dann Vorhersagemöglichkeiten des Systems entwickeln, die wiederum getestet und bewertet werden.

Ziel soll es sein, eine Nachricht oder eine Behauptung oder Äußerung auf einer Richtigkeitsskala auf dem Hintergrund der Glaubwürdigkeit einer Quelle und Informationen anderer mehr oder weniger glaubwürdigen Quellen einzuordnen. Wie das System die Richtigkeit beurteilt, soll sich auch von Menschen zur Überprüfung nachvollziehen lassen.

Der Knackpunkt ist wohl schon alleine bei der Beurteilung der Glaubwürdigkeit von Quellen. Ist die New York Times glaubwürdiger als Fox News, ist eine Regierung glaubwürdiger als eine NGO, sind Inhalte von CNN glaubwürdiger als die auf Facebook? Sind Quellen bei bestimmten Themen glaubwürdig, bei anderen eher nicht?

Und ist die US-amerikanische Regierung glaubwürdiger als die deutsche oder die russische? Kommt es darauf an, wer etwa sagt, sind also Personen Quellen? Ist eine Person immer glaubwürdig, egal ob sie einen Artikel in der Washington Post oder etwas auf Twitter schreibt, ein Interview gibt etc. unabhängig vom Thema. Ohne Faktencheck scheint man mit solch einem System zur Erkennung von Desinformation nur einen vorurteilsgeladenen Beurteilungsmechanismus aufbauen zu können.

Aber das ist militärisch wohl weniger ein Problem, weil man da keine selbstreflexiven Erkenntnisse gewinnen will, sondern eine Welt aus Informationen vor sich hat, in der Freund (Richtigkeit) und Feind (Desinformation) klar gegenüberstehen.

Sean Gourley, Gründer und Geschäftsleiter von Primer argumentiert entsprechend holzschnittartig. Er unterscheidet schon einmal demokratische Länder und autoritäre Regime. Letztere könnten Lügen zu geringen Kosten verbreiten, weil sie Wählern und demokratischen Alliierten gegenüber nicht verantwortlich seien. Das würde zu einem großen Problem, weil Desinformation im Sinne von "Informationsangriffen so schnell und billig online verbreitet werden könne:

Es gibt hier eine Asymmetrie. Das ist wie eine IED-Explosion (selbstgebaute Sprengbombe). Man kann sie sehr billig anbringen, aber die Kosten, sich dagegen zu verteidigen, sind sehr hoch." Und nachdem er die Situation so dramatisiert hat, dass die USA zum wehrlosen Opfer von autoritären Desinformations-Superspreadern werden, kommt eben die Rettung durch seine Firma: "Das lässt sich durch Menschen nicht lösen. Man geht mit einem Messer in einem Kampf mit Gewehren, wenn man Menschen auf dieses Problem ansetzt.

Mehr von Florian Rötzer in krass & konkret auf buchkomplizen.de, wo dieser Text parallel erschienen ist.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.