"Wir haben KI-Systeme in die Welt gesetzt, ohne dass die Risiken gut verstanden sind"

Schachtel mit KI-Warnaufklebern

KI-Systeme werden ohne Verständnis der Risiken eingesetzt. Wettrüsten zwischen Entwicklern und Manipulatoren. Was bedeutet das für die Zukunft? Interview.

Holger Hoos ist Professor an der Alexander von Humboldt-Professor für Informatik an der Fakultät für Mathematik, Informatik und Naturwissenschaften der RWTH Aachen und stellte sich den Fragen von Telepolis.

An der RWTH Aachen begleitet er als Distinguished Scientific Director des KI-Centers der Hochschule unter anderem auch die Gründung eines trinationalen Forschungsverbunds in Belgien, den Niederlanden und Deutschland.

▶ Herr Professor, danke dafür, dass Sie sich die Zeit für das Gespräch nehmen.

Holger Hoos: Ich sehe es als meine Bürgerpflicht an, nicht nur Forschung zu betreiben, sondern auch die Öffentlichkeit zu informieren.

KI als Manipulationswerkzeug im Superwahljahr 2024

▶ 2024 ist weltweit ein Superwahljahr. Nie gab es so viele Wahlen auf einmal. Und dieses Mal sind es Wahlen unter dem Vorzeichen einer KI, die vieles verändern kann. Von Deep-Fake bis zu den Methoden, dass Wählerverhalten transparent wird, ist alles drin. Was steht uns bevor, wovor muss gewarnt werden?

Holger Hoos
Holger Hoos. Bild: W. Aswestopoulos

Holger Hoos: Da ist eine Menge möglich. KI ist im Grund genommen eine Technologie, die einem hilft, komplexe Modelle zu bauen und zu verstehen. Das Wählerverhalten ist eine komplexe Sache, und es gibt eine Menge Daten dazu.

In anderen Jurisdiktionen, wie etwa den USA, gibt es sogar noch mehr Daten, als sie bei uns aufgrund der DSGVO zugänglich sind. Machen wir uns nichts vor.

Da geht es um sehr viel, weshalb man auch alles einsetzen wird, was man einsetzen kann, um Wahlausgänge nicht nur vorherzusagen, sondern auch in eine Richtung zu drücken, die bestimmten politischen Kräften opportun ist. Wir haben das ja bereits in den Präsidentschaftswahlen in den USA gesehen, wo das im Prinzip vor vier und acht Jahren schon geschehen.

Und davon werden wir mehr sehen, im Sinne von ausnutzbaren Einsichten in das Wählerverhalten. Und natürlich auf der anderen Seite eine Skalierbarkeit von Manipulationen, wie sie vorher noch nie da war.

Dabei spielt generative KI eine wichtige Rolle.

Wir haben eine Situation, wo sich Menschen zum Beispiel über ChatGPT Texte generieren lassen können, die auf den ersten Blick oft sehr überzeugend wirken. Natürlich ist so etwas auch für die politische Mobilisierung oder Manipulation nutzbar. Da dies möglich ist und viel auf dem Spiel steht, wird man generative KI in diesem Zusammenhang auch einsetzen – und zwar in großem Maßstab. Da bin ich mir sehr sicher.

Ich gehe davon aus, dass diese Inhalte auch über soziale Medien äußert effektiv verbreitet werden. Weiterhin befürchte ich, dass menschliches Verhalten viel manipulierbarer ist, als wir es uns das wünschen. Manipulierbar durch Inhalte, die auf der Oberfläche einfach gut gemacht sind und wo man weit in die Tiefe dringen muss, um zu sehen, wo die Schwächen sind und wo es nicht mehr passt.

Deshalb halte ich es für äußerst wichtig, dass mit generativer KI erzeugte Inhalte als solche gekennzeichnet sein müssen. In sozialen Medien müsste dann beispielsweise stehen, "dieser Post wurde mit generativer KI erstellt". Warum wäre das wichtig? Weil dann mündige Bürgerinnen und Bürger einen Anhaltspunkt hätten, wo sie genauer nachdenken müssten.

Man sollte generell, auch wenn Inhalte auf den ersten Blick überzeugend wirken, misstrauischer sein. Denn generative KI-Methoden muss nicht unbedingt aus böswilliger Absicht verzerrend wirken. Sie beruhen auf statistischen Ansätzen, können keine logischen Schlussfolgerungen ziehen und logische Zusammenhänge nur extrem begrenzt durchdringen. Selbst wenn man keine manipulative Absicht hat, bekommt man manchmal einfach Schrott, der auch sehr überzeugend aussehen kann.

Gerade innerhalb der EU könnten und sollten wir ein verpflichtendes Label, "hier war KI mit am Start" einführen.

KI-Checker gegen KI-generierte Inhalte: Ein technologisches Wettrüsten

▶ Gibt es Methoden, die KI selbst zum Aufdecken des Einsatzes von KI-Methoden einzusetzen, um KI-Nutzung aufzudecken?

Holger Hoos: Daran wird intensiv geforscht, und es gibt auch schon einigermaßen brauchbare Methoden. An einigen Universitäten werden standardmäßig studentische Arbeiten durch einen KI-Check gejagt, genauso, wie sie auch auf Plagiate überprüft werden. Dann erscheint da als Ergebnis "diese Passagen sehen so aus, als könnten sie aus generativer KI stammen". Das kann man schon recht gut machen.

Natürlich kommt es hier zu einer Art "Wettrüsten". Auf der einen Seite die Leute, die generative KI machen, die man nicht als solche erkennen soll, und auf der anderen diejenigen, die diese Checker entwickeln. Wobei zu erwähnen ist, dass zum Beispiel Microsoft, um mal einen Namen zu nennen, kein großes Interesse daran hat, dass Inhalte, die mit ChatGPT erzeugt werden, nicht als solche erkennbar sind. Da sehe ich zur Zeit keine Intention, so etwas zu verschleiern.

Man kann aber auch in kleinerem Maßstab generative KI-Methoden erzeugen – dazu muss man nicht OpenAI oder Microsoft sein, und ich davon aus, dass das angesprochene "Wettrüsten" an einigen Stellen bereits stattfindet.

Es gibt die Checker, die werden stetig verbessert – und die Sprachmodelle auf der anderen Seite werden ebenfalls immer besser. Sie werden menschenähnlicher. Selbst wenn man nicht die Intention hat, etwas zu verschleiern, wird es immer schwieriger, KI-generierte Inhalte also solche zu erkennen.

Vor diesem Hintergrund bin ich der Meinung, es wäre besser, sich erst einmal überhaupt nicht auf KI-Checker zu verlassen. Ich sehe es positiv, dass es sie gibt, aber ich finde, gesunde Skepsis und gesunder Menschenverstand sind das, was uns viel weiter bringt.

Das ist etwas, was wir in unserer Zeit mehr propagieren müssen und wovon wir mehr erzeugen müssen. Im politischen Prozess ist es ohnehin wichtig – egal, ob Inhalte von KI generiert werden oder nicht. Gesunde Skepsis und gesunder Menschenverstand sind die Grundlagen unserer demokratischen Prozesse.

Gesunder Menschenverstand statt KI-Checker: Die Basis der Demokratie

▶ Dann müsste das Bewusstsein dafür doch eigentlich so früh wie möglich in der Schule geschaffen werden, oder? Wo würden Sie da ansetzen?

Holger Hoos: Ich würde als Erstes sagen, da müssen wir gar nicht viel machen. Die KI ist da, die Kinder wissen das schon. Es ist ein so weit verbreitetes, so breit diskutiertes Thema, dass Schülerinnen und Schüler, spätestens nach der Grundschule, auf die eine oder andere Art damit in Berührung gekommen sind. Seit ChatGPT ist das die Realität.

Die wirkliche Frage ist, wo müssen wir ansetzen, um einen vernünftigen Umgang mit dieser Technologie zu garantieren. Und da denke ich, so früh wie irgend möglich. Spätestens wenn die Kids anfangen, sich mittels ihrer Geräte (zumeist Smartphones oder Tablets), mit der Welt auseinanderzusetzen, also, wenn sie anfangen, Websuchen zu machen, Wikipedia zu lesen – alles Dinge, die vernünftig eingesetzt sehr sinnvoll sind. Ich finde, da müsste man ansetzen und über KI diskutieren, Risiken aufzeigen, aber auch die enormen Chancen, die damit verbunden sind.

Destabilisierung der Demokratie durch KI

▶ Nächste Frage zum Risiko. Aus der fotografischen Welt wird die KI bereits "bombardiert" mit Fotos, die Hunde zeigen, aber als Katzen gekennzeichnet sind. Geschieht es oft genug, so kann dann bei der Aufforderung an die KI ein Foto einer Katze zu zeigen ein Bild eines Hundes geliefert werden. Ist so etwas auch in der Politik möglich? Kürzlich hatten viele EU-Regierungschefs vor so etwas, übrigens in nahezu gleichlautender Form, gewarnt.

Holger Hoos: Als KI-Experte gehe ich davon aus, dass es da Versuche geben wird, unsere Demokratie zu destabilisieren. Wie erfolgreich die sein werden, das ist eine andere Frage. Aufgrund der Arbeit, die wir hier am Institut machen, wo es um neuronale Netze geht – neuronale Netze sind die Basis der generativen KI – da weiß man, es gibt bösartige, manipulative Angriffe auf diese Netzwerke. Durch die kann man zum Beispiel mit der Veränderung weniger Pixel im Bild das, was eine Katze ist, als Hund oder als Hotdog erkennen lassen.

Und das beschränkt sich nicht nur auf Bilddaten – das kann man auch auf andere Daten machen. Bei Bildern ist es recht gut erforscht und es gibt bereits Ansätze für Lösungen.

Allerdings existiert keine Lösung, von der man weiß, dass sie das Problem in der Gesamtheit aus der Welt schafft. Trotz aller technischen Fortschritte, die es gegeben hat und die es noch geben wird, – wir forschen, wie gesagt daran – ist es ein offenes Problem, diese Art von fehlender Robustheit, gegenüber von Manipulationen von neuronalen Netzen und maschinellen Lernverfahren.

Diese Robustheitsproblematik ist auch für Textdaten sicherlich vorhanden, auch wenn sie dort bislang weniger intensiv erforscht wurde.

Es gibt auch keinen Grund zu glauben, warum nicht auch Menschen auf so eine Art manipuliert werden können. Wir stammen beide aus einer Generation, die irgendwann einmal von der subliminalen Werbung erfahren hat, mittels Bildern, die für Bruchteile einer Sekunde irgendwo eingeblendet werden, die man aber bewusst gar nicht wahrnehmen kann. So können aber Kaufentscheidungen beeinflusst werden.

Aus der Psychologie ist schon lange bekannt, dass man Verhalten auf eine erstaunliche Weise über das Unterbewusstsein manipulieren kann, sogar sich selbst manipulieren kann. KI-Methoden geben uns nun noch mächtigere Werkzeuge, um dies noch effizienter zu tun, beispielsweise durch geschickt platzierte Wörter im Text, mit geschickt zusammengestellten Bildern, die mit generativer KI erzeugt werden. In all diesen Bereichen muss sich die Psychologie noch sehr viel tiefer damit beschäftigen, was jetzt möglich ist.

Wir haben KI-Systeme in die Welt gesetzt. Microsoft und andere Unternehmen haben beschlossen, KI-Werkzeuge Milliarden von Menschen relativ unkompliziert zugänglich zu machen, ohne dass die Grenzen und die damit verbundenen Risiken – die Stärken und Schwächen – gut verstanden sind.

Es ist eine Entscheidung, zu der man verschiedene Meinungen haben kann. Aber sie ist nun mal gefallen. Und nun sind KI-Systeme in der Welt.

Ich glaube, es ist sehr wichtig, dass wir intensiv forschen, was die Konsequenzen davon sind. Was Schwächen und Stärken sind – und was schiefgehen kann. In gewisser Weise findet diese Forschung bereits in großem Umfang statt. Aber es ist auch eine Art Laborversuch, der nun zu einem großen Teil in der tatsächlichen Welt stattfindet.

So ist es im Grunde auch im Bereich KI und Demokratie. Vielleicht ist ihnen aufgefallen, dass in dem Gebäude, in dem wir uns befinden, zwei KI-Lehrstühle beheimatet sind, demnächst sogar ein dritter, sowie das Institut für Politische Wissenschaften.

Glauben Sie mir, die Kollegen von der Politikwissenschaft interessieren sich sehr für KI und sind ebenso wie wir froh, dass wir unter einem Dach sind. Um die möglichen Auswirkungen von KI auf politische Systeme zu verstehen, braucht es Leute, die über die Kenntnis der politischen Grundlagen verfügen.

Da bin ich kein Experte, meine Kollegen aus den politischen Wissenschaften aber durchaus. In diesem Bereich sehe ich Möglichkeiten der Zusammenarbeit, aber auch die Notwendigkeit interdisziplinärer Forschung. Das gilt nicht nur an der RWTH, sondern auch an anderen Institutionen.

Seien wir ehrlich, das Experiment in unserer Welt läuft und wir versuchen hinterherzukommen. Wir forschen dazu, was mit der KI möglich ist und was an Gefahren entsteht. Wir können uns nicht zurücklehnen und sagen, wir lassen uns Zeit.

Auf der einen Ebene ist es faszinierend, auf der anderen Ebene sehr beunruhigend. Denn wenn mit dem politischen System, in dem wir leben, und der KI etwas schiefgeht, dann sind wir alle betroffen.

Und wenn mit dem politischen System in den USA etwas schiefgeht, dann sind wir hier in Europa auch betroffen, ob wir das wollen oder nicht. Das macht mir große Sorgen.