"Wir haben KI-Systeme in die Welt gesetzt, ohne dass die Risiken gut verstanden sind"
KI-Systeme werden ohne Verständnis der Risiken eingesetzt. Wettrüsten zwischen Entwicklern und Manipulatoren. Was bedeutet das für die Zukunft? Interview.
Holger Hoos ist Professor an der Alexander von Humboldt-Professor für Informatik an der Fakultät für Mathematik, Informatik und Naturwissenschaften der RWTH Aachen und stellte sich den Fragen von Telepolis.
An der RWTH Aachen begleitet er als Distinguished Scientific Director des KI-Centers der Hochschule unter anderem auch die Gründung eines trinationalen Forschungsverbunds in Belgien, den Niederlanden und Deutschland.
▶ Herr Professor, danke dafür, dass Sie sich die Zeit für das Gespräch nehmen.
Holger Hoos: Ich sehe es als meine Bürgerpflicht an, nicht nur Forschung zu betreiben, sondern auch die Öffentlichkeit zu informieren.
KI als Manipulationswerkzeug im Superwahljahr 2024
▶ 2024 ist weltweit ein Superwahljahr. Nie gab es so viele Wahlen auf einmal. Und dieses Mal sind es Wahlen unter dem Vorzeichen einer KI, die vieles verändern kann. Von Deep-Fake bis zu den Methoden, dass Wählerverhalten transparent wird, ist alles drin. Was steht uns bevor, wovor muss gewarnt werden?
Holger Hoos: Da ist eine Menge möglich. KI ist im Grund genommen eine Technologie, die einem hilft, komplexe Modelle zu bauen und zu verstehen. Das Wählerverhalten ist eine komplexe Sache, und es gibt eine Menge Daten dazu.
In anderen Jurisdiktionen, wie etwa den USA, gibt es sogar noch mehr Daten, als sie bei uns aufgrund der DSGVO zugänglich sind. Machen wir uns nichts vor.
Da geht es um sehr viel, weshalb man auch alles einsetzen wird, was man einsetzen kann, um Wahlausgänge nicht nur vorherzusagen, sondern auch in eine Richtung zu drücken, die bestimmten politischen Kräften opportun ist. Wir haben das ja bereits in den Präsidentschaftswahlen in den USA gesehen, wo das im Prinzip vor vier und acht Jahren schon geschehen.
Und davon werden wir mehr sehen, im Sinne von ausnutzbaren Einsichten in das Wählerverhalten. Und natürlich auf der anderen Seite eine Skalierbarkeit von Manipulationen, wie sie vorher noch nie da war.
Dabei spielt generative KI eine wichtige Rolle.
Wir haben eine Situation, wo sich Menschen zum Beispiel über ChatGPT Texte generieren lassen können, die auf den ersten Blick oft sehr überzeugend wirken. Natürlich ist so etwas auch für die politische Mobilisierung oder Manipulation nutzbar. Da dies möglich ist und viel auf dem Spiel steht, wird man generative KI in diesem Zusammenhang auch einsetzen – und zwar in großem Maßstab. Da bin ich mir sehr sicher.
Ich gehe davon aus, dass diese Inhalte auch über soziale Medien äußert effektiv verbreitet werden. Weiterhin befürchte ich, dass menschliches Verhalten viel manipulierbarer ist, als wir es uns das wünschen. Manipulierbar durch Inhalte, die auf der Oberfläche einfach gut gemacht sind und wo man weit in die Tiefe dringen muss, um zu sehen, wo die Schwächen sind und wo es nicht mehr passt.
Deshalb halte ich es für äußerst wichtig, dass mit generativer KI erzeugte Inhalte als solche gekennzeichnet sein müssen. In sozialen Medien müsste dann beispielsweise stehen, "dieser Post wurde mit generativer KI erstellt". Warum wäre das wichtig? Weil dann mündige Bürgerinnen und Bürger einen Anhaltspunkt hätten, wo sie genauer nachdenken müssten.
Man sollte generell, auch wenn Inhalte auf den ersten Blick überzeugend wirken, misstrauischer sein. Denn generative KI-Methoden muss nicht unbedingt aus böswilliger Absicht verzerrend wirken. Sie beruhen auf statistischen Ansätzen, können keine logischen Schlussfolgerungen ziehen und logische Zusammenhänge nur extrem begrenzt durchdringen. Selbst wenn man keine manipulative Absicht hat, bekommt man manchmal einfach Schrott, der auch sehr überzeugend aussehen kann.
Gerade innerhalb der EU könnten und sollten wir ein verpflichtendes Label, "hier war KI mit am Start" einführen.
KI-Checker gegen KI-generierte Inhalte: Ein technologisches Wettrüsten
▶ Gibt es Methoden, die KI selbst zum Aufdecken des Einsatzes von KI-Methoden einzusetzen, um KI-Nutzung aufzudecken?
Holger Hoos: Daran wird intensiv geforscht, und es gibt auch schon einigermaßen brauchbare Methoden. An einigen Universitäten werden standardmäßig studentische Arbeiten durch einen KI-Check gejagt, genauso, wie sie auch auf Plagiate überprüft werden. Dann erscheint da als Ergebnis "diese Passagen sehen so aus, als könnten sie aus generativer KI stammen". Das kann man schon recht gut machen.
Natürlich kommt es hier zu einer Art "Wettrüsten". Auf der einen Seite die Leute, die generative KI machen, die man nicht als solche erkennen soll, und auf der anderen diejenigen, die diese Checker entwickeln. Wobei zu erwähnen ist, dass zum Beispiel Microsoft, um mal einen Namen zu nennen, kein großes Interesse daran hat, dass Inhalte, die mit ChatGPT erzeugt werden, nicht als solche erkennbar sind. Da sehe ich zur Zeit keine Intention, so etwas zu verschleiern.
Man kann aber auch in kleinerem Maßstab generative KI-Methoden erzeugen – dazu muss man nicht OpenAI oder Microsoft sein, und ich davon aus, dass das angesprochene "Wettrüsten" an einigen Stellen bereits stattfindet.
Es gibt die Checker, die werden stetig verbessert – und die Sprachmodelle auf der anderen Seite werden ebenfalls immer besser. Sie werden menschenähnlicher. Selbst wenn man nicht die Intention hat, etwas zu verschleiern, wird es immer schwieriger, KI-generierte Inhalte also solche zu erkennen.
Vor diesem Hintergrund bin ich der Meinung, es wäre besser, sich erst einmal überhaupt nicht auf KI-Checker zu verlassen. Ich sehe es positiv, dass es sie gibt, aber ich finde, gesunde Skepsis und gesunder Menschenverstand sind das, was uns viel weiter bringt.
Das ist etwas, was wir in unserer Zeit mehr propagieren müssen und wovon wir mehr erzeugen müssen. Im politischen Prozess ist es ohnehin wichtig – egal, ob Inhalte von KI generiert werden oder nicht. Gesunde Skepsis und gesunder Menschenverstand sind die Grundlagen unserer demokratischen Prozesse.
Gesunder Menschenverstand statt KI-Checker: Die Basis der Demokratie
▶ Dann müsste das Bewusstsein dafür doch eigentlich so früh wie möglich in der Schule geschaffen werden, oder? Wo würden Sie da ansetzen?
Holger Hoos: Ich würde als Erstes sagen, da müssen wir gar nicht viel machen. Die KI ist da, die Kinder wissen das schon. Es ist ein so weit verbreitetes, so breit diskutiertes Thema, dass Schülerinnen und Schüler, spätestens nach der Grundschule, auf die eine oder andere Art damit in Berührung gekommen sind. Seit ChatGPT ist das die Realität.
Die wirkliche Frage ist, wo müssen wir ansetzen, um einen vernünftigen Umgang mit dieser Technologie zu garantieren. Und da denke ich, so früh wie irgend möglich. Spätestens wenn die Kids anfangen, sich mittels ihrer Geräte (zumeist Smartphones oder Tablets), mit der Welt auseinanderzusetzen, also, wenn sie anfangen, Websuchen zu machen, Wikipedia zu lesen – alles Dinge, die vernünftig eingesetzt sehr sinnvoll sind. Ich finde, da müsste man ansetzen und über KI diskutieren, Risiken aufzeigen, aber auch die enormen Chancen, die damit verbunden sind.
Destabilisierung der Demokratie durch KI
▶ Nächste Frage zum Risiko. Aus der fotografischen Welt wird die KI bereits "bombardiert" mit Fotos, die Hunde zeigen, aber als Katzen gekennzeichnet sind. Geschieht es oft genug, so kann dann bei der Aufforderung an die KI ein Foto einer Katze zu zeigen ein Bild eines Hundes geliefert werden. Ist so etwas auch in der Politik möglich? Kürzlich hatten viele EU-Regierungschefs vor so etwas, übrigens in nahezu gleichlautender Form, gewarnt.
Holger Hoos: Als KI-Experte gehe ich davon aus, dass es da Versuche geben wird, unsere Demokratie zu destabilisieren. Wie erfolgreich die sein werden, das ist eine andere Frage. Aufgrund der Arbeit, die wir hier am Institut machen, wo es um neuronale Netze geht – neuronale Netze sind die Basis der generativen KI – da weiß man, es gibt bösartige, manipulative Angriffe auf diese Netzwerke. Durch die kann man zum Beispiel mit der Veränderung weniger Pixel im Bild das, was eine Katze ist, als Hund oder als Hotdog erkennen lassen.
Und das beschränkt sich nicht nur auf Bilddaten – das kann man auch auf andere Daten machen. Bei Bildern ist es recht gut erforscht und es gibt bereits Ansätze für Lösungen.
Allerdings existiert keine Lösung, von der man weiß, dass sie das Problem in der Gesamtheit aus der Welt schafft. Trotz aller technischen Fortschritte, die es gegeben hat und die es noch geben wird, – wir forschen, wie gesagt daran – ist es ein offenes Problem, diese Art von fehlender Robustheit, gegenüber von Manipulationen von neuronalen Netzen und maschinellen Lernverfahren.
Diese Robustheitsproblematik ist auch für Textdaten sicherlich vorhanden, auch wenn sie dort bislang weniger intensiv erforscht wurde.
Es gibt auch keinen Grund zu glauben, warum nicht auch Menschen auf so eine Art manipuliert werden können. Wir stammen beide aus einer Generation, die irgendwann einmal von der subliminalen Werbung erfahren hat, mittels Bildern, die für Bruchteile einer Sekunde irgendwo eingeblendet werden, die man aber bewusst gar nicht wahrnehmen kann. So können aber Kaufentscheidungen beeinflusst werden.
Aus der Psychologie ist schon lange bekannt, dass man Verhalten auf eine erstaunliche Weise über das Unterbewusstsein manipulieren kann, sogar sich selbst manipulieren kann. KI-Methoden geben uns nun noch mächtigere Werkzeuge, um dies noch effizienter zu tun, beispielsweise durch geschickt platzierte Wörter im Text, mit geschickt zusammengestellten Bildern, die mit generativer KI erzeugt werden. In all diesen Bereichen muss sich die Psychologie noch sehr viel tiefer damit beschäftigen, was jetzt möglich ist.
Wir haben KI-Systeme in die Welt gesetzt. Microsoft und andere Unternehmen haben beschlossen, KI-Werkzeuge Milliarden von Menschen relativ unkompliziert zugänglich zu machen, ohne dass die Grenzen und die damit verbundenen Risiken – die Stärken und Schwächen – gut verstanden sind.
Es ist eine Entscheidung, zu der man verschiedene Meinungen haben kann. Aber sie ist nun mal gefallen. Und nun sind KI-Systeme in der Welt.
Ich glaube, es ist sehr wichtig, dass wir intensiv forschen, was die Konsequenzen davon sind. Was Schwächen und Stärken sind – und was schiefgehen kann. In gewisser Weise findet diese Forschung bereits in großem Umfang statt. Aber es ist auch eine Art Laborversuch, der nun zu einem großen Teil in der tatsächlichen Welt stattfindet.
So ist es im Grunde auch im Bereich KI und Demokratie. Vielleicht ist ihnen aufgefallen, dass in dem Gebäude, in dem wir uns befinden, zwei KI-Lehrstühle beheimatet sind, demnächst sogar ein dritter, sowie das Institut für Politische Wissenschaften.
Glauben Sie mir, die Kollegen von der Politikwissenschaft interessieren sich sehr für KI und sind ebenso wie wir froh, dass wir unter einem Dach sind. Um die möglichen Auswirkungen von KI auf politische Systeme zu verstehen, braucht es Leute, die über die Kenntnis der politischen Grundlagen verfügen.
Da bin ich kein Experte, meine Kollegen aus den politischen Wissenschaften aber durchaus. In diesem Bereich sehe ich Möglichkeiten der Zusammenarbeit, aber auch die Notwendigkeit interdisziplinärer Forschung. Das gilt nicht nur an der RWTH, sondern auch an anderen Institutionen.
Seien wir ehrlich, das Experiment in unserer Welt läuft und wir versuchen hinterherzukommen. Wir forschen dazu, was mit der KI möglich ist und was an Gefahren entsteht. Wir können uns nicht zurücklehnen und sagen, wir lassen uns Zeit.
Auf der einen Ebene ist es faszinierend, auf der anderen Ebene sehr beunruhigend. Denn wenn mit dem politischen System, in dem wir leben, und der KI etwas schiefgeht, dann sind wir alle betroffen.
Und wenn mit dem politischen System in den USA etwas schiefgeht, dann sind wir hier in Europa auch betroffen, ob wir das wollen oder nicht. Das macht mir große Sorgen.
Eingeschränkte Datenbasis von ChatGPT: Probleme für Fakten und Minderheiten
▶ In der heutigen "realen Laborwelt" gibt es nicht mehr die politische Zeit, zum Beispiel für die "ersten 100 Tage einer Regierung". Gleichzeitig ist die Datenlage der Sprachmodelle zeitlich verschoben. Wir haben in den letzten zwei Jahren komplett neue politische Eckdaten bekommen – Ukraine, Nahost, Energiekrise. Viele Laien wissen nicht, dass die kostenlose Version ChatGPT mit Daten trainiert wurde, die mehr als zwei Jahre alt sind.
Holger Hoos: Das eine ist das Alter der Daten. Und die Leute wissen wahrscheinlich auch nicht, dass die Systeme auf einer Datenmenge trainiert wurden, die nicht frei von Bias und Verzerrungen ist.
Und die Art der Verzerrungen ist generell nicht gut verstanden. Zumal es nicht genau bekannt ist, auf welche Daten die großen und breit verfügbaren KI-Modelle trainiert wurden. Das ist ein ganz großes Problem. Ein weiteres großes Problem ist, dass von den Systemen statistisch gesehen Antworten gegeben werden auf Basis der Wahrscheinlichkeit, welche die Mehrheit der Daten liefert. Wenn man sich überlegt, was das für Minderheiten bedeutet – auch für fundierte und wichtige Minderheitenmeinungen, dann sieht man, was wir hier für ein Problem haben.
▶ Werden also konkret Fakten verschwiegen, wenn die Datenlage es so hergibt?
Holger Hoos: Es muss gar nicht bösartig sein. Wir reden von Statistik. In diesem Sinn sind die Modelle dann auch ein bisschen simplistisch, da sie eben auf den Durchschnitt gehen. Auf die Mehrheit. Und im politischen Prozess, zumindest so wie wir ihn in Europa verstehen, wissen wir, dass nicht nur die Meinung der Mehrheit zählt, sondern auch die von Minderheiten.
Wie Sie selbst sagten, haben wir es hier nicht nur mit Meinungen zu tun, sondern auch mit Fakten. Und selbst bei Fakten ist es so, dass sich die Wahrheit nicht immer in der größten Faktenmenge niederschlägt. Manchmal ist sie in einem kleineren Teil des Datensatzes versteckt. Die Wahrheit zeichnet sich dadurch aus, dass sie logisch konsistenter ist als das, was sich im Gros der Daten wiederfindet. Und genau das kann ein neuronales Netz zurzeit gar nicht erfassen – und damit auch kein ChatGPT.
Und dann gehen wir einen Schritt weiter. Es geht ja nicht nur Fakten, sondern auch um Meinungen, um Wertvorstellungen und auch um kulturelle Unterschiede, so wie bei der Europawahl. Ich denke mal, was es in Deutschland bedeutet, konservativ zu sein, und was es in Italien oder Griechenland bedeutet, das sind zwei verschiedene Dinge. Und irgendwie ist es auch gut so.
Das europäische Projekt, die Europäische Union, lebt von dieser Vielfalt. Deshalb ist auch das Motto der EU "in Vielfalt vereint". Aber wenn nun die KI-Systeme, die wir nutzen, um die Welt zu verstehen und unser Tagesgeschäft zu erledigen, die Vielfalt nicht widerspiegeln und zum Teil auch nicht widerspiegeln können, dann kommt uns ein guter Teil dieser Vielfalt abhanden und wird verschüttet. Und das ist für den politischen Prozess äußerst bedenklich.
Nicht nur deshalb, weil man dann diese Vielfalt nicht mehr nutzbringend einsetzen kann oder weil sie sich in politischen Entscheidungen und Verwaltungsakten nicht mehr richtig widerspiegelt, sondern auch, weil viele Menschen und ihre Meinungen dann im Mainstream nicht mehr das Gehör finden, das ihnen fairerweise zustehen sollte. Diese Leute fühlen sich dann auch vernachlässigt – berechtigterweise.
Was passiert, wenn sich immer mehr Leute vom politischen Prozess nicht mehr abgeholt fühlen, das sehen wir – aus meiner Nichtexpertensicht – aktuell in den USA. Ich würde das Phänomen Trumpism ganz klar auch darauf zurückführen, dass sich ein großer Teil der Wählerschaft nicht mehr abgeholt fühlt, von dem, was im politischen Prozess passiert.
Und das hat nun zunächst wenig mit KI zu tun. Aber die Art von KI, die wir gerade auf die Welt losgelassen haben, kann nicht dazu beitragen, das Problem zu lösen, sondern im Gegenteil, sie birgt das Risiko, das Problem noch einmal zu verstärken.
Sie reden von der Schnelllebigkeit in der Politik, da bin ich 100 Prozent bei ihnen. Wenn wir jetzt über Politik und KI reden, dann geht es nicht nur darum, wie verändert die KI das politische Geschehen, sondern wie wird auch Politik über KI gemacht.
Weil die KI Gesellschaft, Politik und Wirtschaft beeinflusst, besteht hier auch der Bedarf der Regulierung, so wie es die EU nun tut
EU-KI-Act: Ein erster Schritt, aber noch nicht ausreichend
▶ Ist der EU-KI-Act ausreichend?
Holger Hoos: Ganz ehrlich, nicht einmal die Leute, die ihn verabschiedet haben, halten ihn für ausreichend. Aber die Frage ist auch, ist es besser das zu haben, was wir gerade haben oder gar nichts? Und da bin ich ganz klar der Meinung, dass der EU-KI-Act zumindest ein Schritt in die richtige Richtung ist. Sie werden niemanden finden, der ihnen sagt, dass die derzeitige Version der Weisheit letzter Schluss ist.
Aber schauen wir mal, ChatGPT wurde im November 2022 auf die Menschheit losgelassen und wurde seitdem mit enormem Tempo weiterentwickelt. Es ist auch der Politik klar, dass man da am Ball bleiben muss. Selbst Experten verstehen die Prozesse, auf denen moderne KI-Systeme beruhen, nicht vollständig.
Politikerinnen und Politiker haben einen ganz anderen Rhythmus. Für die Politik bereitet das große Probleme. Denn dort ist man auch nicht an so ein Tempo gewöhnt.
Der politische Prozess, der dazu führen muss, dass zum Beispiel im Verbraucherschutz die Leute, die KI nutzen, geschützt werden, dieser Prozess ist auf die Geschwindigkeit, welche die KI vorgibt, gar nicht ausgelegt.
Und, um es ganz ehrlich zu sagen, wir müssen dringend über Veränderung im politischen System nachdenken, damit es hier überhaupt vernünftig Schritt halten kann. Ich beneide die Politikerinnen und Politiker, die sich innerhalb des derzeitigen politischen Systems mit diesen Dingen auseinandersetzen müssen, überhaupt nicht. Das ist eine wahnsinnig schwierige Aufgabe.
Politisches System muss sich an KI-Tempo anpassen: Neue Beteiligungsmodelle
▶ Gibt es denn schon Modelle und Ansätze dafür, wie das politische System aufgestellt sein müsste, um in Zeiten der KI zu bestehen?
Holger Hoos: Dafür bin ich kein Experte, da müssten Sie zum Institut für Politische Wissenschaften gehen. Ich gebe nur kurz einen Denkanstoß weiter.
Es werden neue Mechanismen in der partizipativen Demokratie benötigt, ergänzend zu den eingefahrenen Modellen mit gewählten Vertretern, Parlamenten und Wahlen. Es braucht die Einbindung von Experten und Bürgern. Das heißt nicht, dass wir eine direkte Demokratie wie in der Schweiz brauchen, das wäre für ein Land der Größe Deutschlands schwierig. Aber wir müssen über neue Modelle der Beteiligung von Bürgerinnen und Bürgern dringend nachdenken.
Denn das kann, so höre ich im Gespräch mit den Politikwissenschaftlerinnen und -wissenschaftlern immer wieder, dazu beitragen, dass sich die Menschen von der Politik besser abgeholt fühlen.
▶ Das klingt gut und positiv…
Holger Hoos: Wir müssen hier positiv denken und ganz klar sagen, die KI bietet Chancen auch für die Politik und die Demokratie.
▶ Also optimistisch in die Zukunft blicken?
Holger Hoos: Ich bin und bleibe Optimist.
▶ Wir danken für das Gespräch.