US-Wahl 2024: Warum KI (noch) keine Wahlen gewinnt
KI galt lange als Wunderwaffe. Doch Wähler und Politiker stehen der Technologie zunehmend skeptisch gegenüber. Wird KI den Wahlausgang trotzdem beeinflussen?
Noch vor einem Jahr behaupteten viele US-Medien, dass die neue KI-Technologie im US-Präsidentschaftswahlkampf 2024 eine prominente Rolle spielen könnte. Weniger als zwei Wochen vor der Wahl steht fest: Diese Vorhersage hat sich nicht bewahrheitet.
Das heißt aber nicht, dass Künstliche Intelligenz (KI) im diesjährigen Wahlkampf völlig irrelevant war.
Bereits im Februar dieses Jahres untersagte die FCC, die Federal Communications Commission, der US-Regierung den Einsatz von Robocalls, bei denen KI-generierte Stimmen Politikerinnen imitieren.
Ein falscher Joe Biden
Die Entscheidung folgte einer Untersuchung einer Telefonkampagne, in der ein falscher Joe Biden potenzielle Wähler dazu aufrief, nicht an den Vorwahlen in New Hampshire teilzunehmen.
Steve Kramer, der politische Berater hinter dieser Aktion, wurde im Mai in zehn Punkten strafrechtlich angeklagt und zusätzlich von der FCC mit einer Geldstrafe von sechs Millionen Dollar belegt.
Ironischerweise gab Kramer zu seiner Verteidigung an, er habe lediglich auf die Gefahren von KI-Technologien aufmerksam machen wollen.
Der Fall zeigt, dass KI durchaus zur illegalen Beeinflussung von Wahlen eingesetzt werden kann. Aber auch, dass der Staat in der Lage ist, solche Versuche zu sanktionieren.
Darüber hinaus birgt die KI-Technologie aber auch tiefgreifende Probleme, die künftige Wahlen durch die Verbreitung von Fehlinformationen beeinflussen könnten.
Falsche Angaben zu Kamala Harris
Nach der Ankündigung von Joe Biden, nicht mehr kandidieren zu wollen, verbreitete sich über X (ehemals Twitter) das Gerücht, dass es in einigen Bundesstaaten zu spät sei, Kamala Harris als neue demokratische Kandidatin aufzustellen.
Das Büro des Außenministers von Minnesota erhielt daraufhin zahlreiche Anfragen und stellte schnell fest, dass es sich um eine Fehlinformation handelte. Hinter der Fehlinformation steckte der X-Chatbot Grok. Bei jeder Anfrage, ob die Demokraten eine neue Kandidatin aufstellen könnten, antwortete die KI fälschlicherweise mit "Nein".
Nach öffentlichem Druck nahm sich Elon Musk, der Besitzer von X, des Problems an. Seitdem leitet die KI Anfragen zu Wahlen direkt an die offiziellen Regierungsseiten weiter. Das eigentliche Problem liegt darin, dass diese "künstliche Intelligenz" eigentlich eher eine Suchmaschine ist, die Informationen aus dem Internet bezieht.
Da das Internet voller Fehlinformationen ist, verwendet die KI manchmal falsche Daten. Die Nutzer akzeptieren diese oft ohne Alternativen und verbreiten sie weiter.
Zu den internen Problemen mit Fehlinformationen kommen externe hinzu.
US-Geheimdienste sehen Gefahren von außen
So behaupten US-Geheimdienste, dass Russland und der Iran KI einsetzen, um die US-Wahlen zu beeinflussen. OpenAI, die Firma hinter ChatGPT und DALL-E, erklärte, dass sie die notwendigen Sicherheitsvorkehrungen getroffen habe.
Angesichts dieser Entwicklung überrascht es nicht, dass die meisten Amerikaner KI in der Politik skeptisch gegenüberstehen. Laut dem Pew Research Center glauben 39 Prozent der US-Bürger, dass KI im Wahlkampf überwiegend negative Auswirkungen haben wird.
Skeptische Wähler
50 Prozent sind besorgt, dass KI falsche Informationen über Kandidaten verbreiten könnte. 77 Prozent sind der Meinung, dass große Technologieunternehmen für möglichen Missbrauch haftbar gemacht werden sollten. Allerdings glauben nur 20 Prozent, dass die Tech-Industrie die Technologie wirksam regulieren könnte.
Angesichts des weit verbreiteten Misstrauens zögern beide Parteien, KI in ihren Wahlkampf zu integrieren. Noch vor kurzem sah es so aus, als könnten die Wahlen 2024 von der rasanten Entwicklung neuer KI-Tools wie Chatbots und Bildergeneratoren bestimmt werden.
Mehr als 30 Technologieunternehmen in den USA haben Produkte für politische Kampagnen auf nationaler, bundesstaatlicher und lokaler Ebene entwickelt. Viele dieser Anbieter bieten Lösungen an, die Wählerdaten organisieren, Wahlkampf-E-Mails versenden und Robocalls durchführen.
Lesen Sie auch
Trump schickt seine loyalste Hardlinerin zu den Vereinten Nationen
Trump und Harris nach US-Wahl: Eine Show, zwei Hauptdarsteller
Trumps neues Kabinett: Die Rückkehr der Neocons
Veteranen-Votum 2024: Trumps klarer Sieg bei den Militärstimmen
Fehleinschätzungen: Medien zwischen Trump-Schock und Ampel-Aus
Wenig Interesse an neuen Technologien
Unternehmen wie BHuman ermöglichen sogar die Erstellung personalisierter Videos, in denen Kandidaten ihr Gesicht und ihre Stimme klonen können, um die Wähler direkt anzusprechen. Diese Form des personalisierten "Messaging" soll theoretisch die Bindung zwischen Kandidaten und Adressaten der Wahlwerbung stärken. Oberflächlich betrachtet ist dies der Traum eines jeden Wahlkampfmanagers.
Allerdings berichtete die New York Times, dass die meisten Wahlkampfteams wenig Interesse an diesen neuen Technologien zeigten.
Drei von 23 befragten Unternehmen gaben an, dass Kampagnen die Technologie nur unter der Bedingung gekauft hätten, dass die Öffentlichkeit nichts davon erfahre. Im Hintergrund würde KI jedoch für organisatorische Aufgaben wie die Verwaltung von E-Mail-Listen und Datenbanken eingesetzt.
Von der New York Times befragte Wahlkampfberater äußerten sich kritisch über den Nutzen von KI im Wahlkampf, insbesondere im Hinblick auf KI-generierte Videos und Bilder. Die Bedenken sind berechtigt.
KI-Fettnäpfchen
Einige dieser offensichtlichen Anwendungen von KI sind bereits gescheitert. Der demokratische Kandidat Matthew Diemer, der derzeit in Ohio für einen Sitz im Kongress kandidiert, testete eine KI-gestützte Anruftechnologie, die seinen Humor und seine politischen Prioritäten imitieren und so eine persönliche Verbindung zu den Angerufenen herstellen sollte.
Die echten Menschen am anderen Ende der Leitung waren nicht überzeugt und legten größtenteils sofort auf.
Auch die Republikaner sind bereits in das KI-Fettnäpfchen getreten. Erst kürzlich postete Ex-Präsident Donald Trump auf seiner Plattform "Truth Social" ein KI-generiertes Bild von Taylor Swift, das fälschlicherweise suggerierte, sie würde nun Trump unterstützen. Der Schuss ging nach hinten los. Sowohl der Popstar als auch ihre Fans zeigten sich mehr als empört.
Die anfängliche Begeisterung für die KI-Technologie als Wunderwaffe im Rennen um das Weiße Haus ist verflogen. Das allgemeine Misstrauen gegenüber der Technologie, der Unwille der Wähler, mit KI-generierten Kandidaten zu interagieren, sowie regulatorische Eingriffe haben sich sogar auf das Wachstum der KI-Industrie ausgewirkt.
Während das Geschäft mit der milliardenschweren Wahlkampfindustrie einst auf einen finanziellen Boom hindeutete, stehen Investoren den Versprechungen der KI-Unternehmen inzwischen skeptischer gegenüber.
In anderen Ländern mag der Einsatz von KI in der Wahlkampfpolitik einige Erfolge erzielt haben, bei den US-Wahlen in diesem Jahr ist das wohl noch nicht der Fall.