Tod der Demokratie durch künstliche Intelligenz
Fortschritt der KI weckt Hoffnungen und Ängste. Technologie erobert unser Leben. Doch könnte die KI zum Totengräber der Demokratie werden? (Teil 2 und Schluss)
Im ersten Teil dieses Interview diskutiert Prof. Karl Hans Bläsius, Experte für Künstliche Intelligenz an der Hochschule Trier und Betreiber derWebseiten "Atomkrieg aus Versehen" und "KI-Folgen" über Gefahren und Kontrollmöglichkeiten von KI und Superintelligenz.
▶ Welche Problematik, die Sie im Hinblick auf die KI und wie diese unser Leben verändern wird, findet Ihrer Meinung nach in den bisherigen Diskussionen zu wenig Berücksichtigung?
Karl Hans Bläsius: Wenn in der Vergangenheit über Maschinen spekuliert wurde, die uns bezüglich Intelligenz überlegen sein könnten, hatte man vor allem autonom agierende intelligente Roboter im Sinn, die irgendwelche Handlungen planen und ausführen können.
Bei den aktuellen Erfolgen der KI geht es aber um Chatbots, die im Internet unsere Fragen beantworten. Systeme wie ChatGPT sind im Internet in gewissem Sinne "autonom" aktiv. Sie beantworten Fragen und lösen Probleme, ohne dass irgendwo Menschen eingreifen, und sie können auch programmieren und für Cyberangriffe eingesetzt werden.
Einmal gestartet, könnten solche Systeme, ohne weiteres menschliches Eingreifen, mögliche Angriffsziele suchen und Angriffe planen und ausführen, sie können also als autonome Cyberwaffen betrachtet werden. Diese Systeme könnten von Gruppen oder Einzelnen z.B. für Cyberangriffe auf kritische Infrastrukturen eines Landes missbraucht werden.
Im Internet sind bereits einige Systeme der generativen KI vergleichbar mit ChatGPT im Einsatz und es werden noch weitere dazu kommen.
Derzeit wird in vielen Unternehmen und Staaten an Systemen der generativen KI gearbeitet. Neben Menschen können auch Bots Fragen und Aufgaben an diese Systeme stellen und deshalb ist zu erwarten, dass es auch schon bald Interaktionen zwischen diesen Systemen selbst geben wird.
Daraus können neue Gefahren entstehen, insbesondere wenn diese Systeme Cyberangriffsfähigkeiten haben.
Durch Menschen, Bots oder ein anderes System der generativen KI beauftragt, könnte ein System wie ChatGPT Cyberangriffe ausführen. Andere Systeme der generativen KI, mit denen es ohnehin Interaktionen gibt, könnten dies erfassen und Gegenangriffe starten. Ohne dass Menschen beteiligt sind, könnte so in kurzer Zeit eine Kettenreaktion zwischen diesen Systemen mit immer stärkeren Cyberangriffen entstehen.
Von den Finanzmärkten ist bekannt, dass es im Hochfrequenzhandel zwischen verschiedenen Algorithmen zu unvorhergesehenen Interaktionsprozessen kommen kann, die innerhalb von Sekunden zu Kursabstürzen und finanziellen Verlusten führen können, was als "flash crash" bezeichnet wird. Ähnliche Eskalationsspiralen mit Cyberangriffen wären also auch durch Systeme der generativen KI denkbar, was man als "flash war" im Internet bezeichnen könnte.
Selbst wenn es zwischen den derzeitigen Systemen noch keine Interaktionen gibt, ist in den nächsten Jahren oder bereits sehr bald damit zu rechnen. Ein Schutz vor diesen Risiken ist schwierig, denn bei einer Vielzahl solcher Systeme kann nicht erwartet werden, dass die erforderlichen Sicherheitsmaßnahmen von allen Systemen eingehalten werden.
Des Weiteren könnte es auch gefährliche Interaktionen zwischen Systemen der generativen KI geben, die Staaten, die derzeit auf Konfrontationskurs sind, zugeordnet werden.
Die Folge könnten gegenseitige Schuldzuweisungen und internationale Konflikte sein. Auslöser eines solchen "flash war" im Internet könnten auch einzelne Menschen oder kleine Gruppen sein, oder solche Effekte könnten zufällig durch eine ungünstige Aktion entstehen.
Die hier beschrieben Risiken setzen nicht voraus, dass die KI-Systeme sich verselbständigen, in dem sie einen eigenen Willen haben, eigene Ziele verfolgen oder ein Bewusstsein haben. Dies alles ist hierfür nicht erforderlich. Die beschriebenen Risiken resultieren alleine daraus, dass als Grundlage für gutes automatisches Problemlösen geeignete Strategien und Heuristiken erforderlich sind, die in riesigen Suchräumen Lösungen ermöglichen.
Dazu ist es sinnvoll, bisherige Aktionen zu bewerten und daraus Anpassungen für Gewichte möglicher Operationen zu bestimmen. Allein dies kann ein eskalierendes Verhalten begünstigen und zu Kettenreaktionen führen, die in kurzer Zeit gravierende Auswirkungen haben könnten.
Diese Risiken können bestehen lange bevor eine AGI (Artificial General Intelligence) oder Superintelligenz entsteht. Diese sind für solch eskalierendes Verhalten nicht erforderlich.
Wenn diese Systeme, eventuell als Folge solcher Interaktionen, den Informationsfluss im Internet beherrschen und damit menschlichen Informationsfluss lahmlegen, würden diese Systeme eine Informationsdominanz erreichen, die viele Bereiche betreffen könnte, auch das Finanzwesen.
Aufgrund der heutigen Abhängigkeiten vom Internet wären die Folgen gravierend. Finanzwesen und Handel könnten zumindest zeitweise zusammenbrechen und unsere Gesellschaftssysteme instabil werden.
Enger Zeitraum für Entscheidungen
▶ In Ihrem aktuellen Artikel schreiben Sie:
Im Vergleich zu anderen Risiken, wie z. B. dem Klimawandel, ist völlig unkalkulierbar, ob, wann und mit welchen Folgen eine Superintelligenz entstehen kann. Vorhersagen hierzu sind kaum möglich. Entsprechende Ereignisse werden eher plötzlich geschehen. Gravierende Folgen könnten dann innerhalb von wenigen Wochen oder Monaten eintreten, ohne Möglichkeit diese noch aufzuhalten. Die Folgen könnten die gesamte Menschheit oder einen großen Teil davon betreffen.
Diese gravierenden Folgen könnten unumkehrbar bereits in den nächsten Jahren oder Jahrzehnten auftreten. Die Möglichkeit entsprechende Ereignisse abzuwarten, Erfahrungen zu machen, sichere Erkenntnisse über die Gefährlichkeit zu erlangen und erst dann zu handeln, um die Risiken zu reduzieren, wird es eventuell nicht mehr geben. Maßnahmen, um diese Risiken zu reduzieren, müssten vorher ergriffen werden.
Können Sie das bitte näher erläutern?
Karl Hans Bläsius: Das größte Risiko sehe ich darin, dass Aktionen von Systemen der generativen KI irgendwann zu einem Zusammenbruch des Informationsaustauschs im Internet führen könnten. Falls solche Ereignisse eintreten, wird dies relativ plötzlich geschehen, eventuell mit weltweiten gravierenden Folgen.
Wenn dabei Finanzwesen und Handel zusammenbrechen, dann kann es auch zu Aufständen, Bürgerkriegen oder Kriegen kommen. Um solche Auswirkungen zu verursachen, benötigen diese Systeme weder so etwas wie Bewusstsein oder eigenen Willen, noch müssen sie nah an einer möglichen AGI sein.
Falls irgendwann tatsächlich eine AGI oder Superintelligenz entsteht, wird dies vorher möglicherweise nicht sichtbar sein. Dies könnte daran liegen, dass eine Superintelligenz, wie von Nick Bostrum beschrieben, im Verborgenen entsteht, und deren Macht erst realisiert wird, wenn sie vorhanden ist. Es ist nicht sicher, dass eine Superintelligenz realisierbar sein wird.
Falls jedoch eine entsteht, ist völlig unklar, wie dies abläuft, wann dies in welchem Maße erkennbar ist und wann welche Auswirkungen sichtbar werden. Das Entstehen einer Superintelligenz wird vermutlich nicht von Menschen kontrolliert erfolgen, sondern überraschend und plötzlich, eventuell ohne Möglichkeit einzugreifen und ohne Möglichkeit irgendetwas rückgängig zu machen.
Murray Shanahan, Professor für kognitive Robotik, schreibt in seinem Buch "Die technologische Singularität", dass jede Verbesserung von KI-Systemen positiv sein wird, und dass deshalb kein Grund bestehen wird, eine solche Entwicklung einzuschränken.
Es könnte aber irgendwann eine Schwelle erreicht werden, ab der diese Systeme sich selbstständig weiterentwickeln und Menschen keine Eingriffsmöglichkeit mehr haben. Um dies zu verhindern, müssten vorher Maßnahmen ergriffen werden. Es ist aber schwer abschätzbar, wann dies erfolgen müsste, wie viel Zeit noch bleibt.
Abschaffung des Mündigkeit
▶ Bekanntermaßen definiert Immanuel Kant Aufklärung als "Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit." Der Neurowissenschaftler, Arzt und Psychotherapeut Joachim Bauer warnt in seinem aktuellen Buch "Realitätsverlust": "Man hilft gesunden Menschen beim Denken, bis sie nicht mehr denken können." Teilen Sie seine Befürchtung?
Karl Hans Bläsius: Diese Befürchtung ist berechtigt, auch Gabi Reinmann, Professorin für Lehren und Lernen an Hochschulen an der Universität Hamburg, warnt in einem im Oktober 2023 veröffentlichten Diskussionspapier vor solchen Risiken und bezeichnet dies als Deskilling.
Wenn immer mehr Aufgaben von Maschinen übernommen werden, reduziert sich auch der fachliche Austausch von Mensch zu Mensch und Kompetenzverluste werden die Folge sein. Auch in Schule und Studium werden zunehmend technische Hilfsmittel genutzt, welche Problemlösungen übernehmen, die früher von den Schülern selbst vorgenommen wurden.
Systeme wie ChatGPT können Hausaufgaben übernehmen und eigene Denkleistungen überflüssig machen, was direkte Folgen für unsere Kompetenzen haben wird.
Der technische Fortschritt hat auch immer mehr Abhängigkeiten von technischen Systemen verursacht, in besonderem Maße von Strom und inzwischen auch vom Internet. Zunehmende Fähigkeiten von Systemen der generativen KI könnten zu einer Abhängigkeit von diesen Systemen bezüglich Wissen und Informationen führen. Menschen müssen dann eigentlich nichts mehr wissen, sie können ja immer und für alles KI-Systeme fragen.
Lesen Sie auch
Künstliche Neuronale Netzwerke
▶ Bereits die Namensgebung macht ja deutlich, dass "Künstliche Neuronale Netze" auf die "echten" neuronalen Netze des Gehirns Bezug nehmen, ihnen gleichsam nachgebildet seien. Nun hat die Forschung in den letzten Jahrzehnten aber nachgewiesen, dass der Mensch mit Geist und Körper denkt und moralische Entscheidungen trifft, genauer gesagt, dass ein Denken ohne Körper nicht möglich ist. Der Neurowissenschaftler Antonio Damasio schreibt pointiert in seinem Buch "Im Anfang war das Gefühl":
Gehirn und Körper sitzen in einem Boot und machen gemeinsam den Geist möglich.
Daher meine Frage: Inwiefern ist die Namensgebung "Künstlicher Neuronaler Netze" zutreffend? Und wird suggeriert, dass Künstliche Intelligenz vergleichbar mit der menschlichen sei, auch wenn sie grundsätzlich eine andere Art von Intelligenz als die des Menschen ist?
Karl Hans Bläsius: Ich würde dem nicht widersprechen, dass ein Denken ohne Körper nicht möglich ist. Das könnte man analog auf die Maschine übertragen, denn die Software muss auf einer Hardware laufen, um irgendetwas zu bewirken. Der Begriff "Künstliche Intelligenz" kann so verstanden werden, dass das Ziel verfolgt wird, Systeme zu realisieren, die Probleme lösen können, wozu der Mensch ein gewisses Maß an Intelligenz benötigt, wobei das aber auf völlig andere Art erreicht werden kann.
Für mich war mit diesem Begriff nicht verbunden, dass eine künstliche Intelligenz mit der menschlichen vergleichbar sein muss. Auch den Begriff "Künstlicher Neuronaler Netze" halte ich für angemessen, denn damit wird versucht, Erkenntnisse zum menschlichen Denken für die Realisierung von Lösungen zu nutzen.
Die derzeitigen Erfolge der KI basieren in erster Linie auf künstlichen Neuronalen Netzen und Deep Learning. Es wird vielfach erwartet, dass diese Techniken die Grundlage für die Entwicklung einer Superintelligenz sein werden. Dies muss aber nicht so kommen.
Vielleicht gibt es Grenzen. Manche KI-Wissenschaftler glauben, dass verschiedene Ansätze miteinander kombiniert werden müssen. Vielleicht werden bestimmte Methoden der symbolischen KI zusätzlich benötigt, um so etwas wie eine AGI oder Superintelligenz zu erreichen. Was genau nötig sein wird, werden wir erst dann wissen, wenn eine AGI bzw. Superintelligenz erreicht ist.
Interview mit Karl Hans Bläsius zu KI im miliärischen Bereich:
Begünstigt Künstliche Intelligenz die Gefahr eines Atomkriegs aus Versehen?
Atomkrieg aus Versehen: "Deepfakes und Cyberangriffe könnten Auswirkungen haben"
Menschliches Verständnis
▶ Auch die Frage, was eigentlich Verständnis ist, taucht bei den Diskussionen rund um die KI immer wieder auf. Die aktuelle Forschung hat herausgefunden, dass das zwischenmenschliche Verstehen stets auch eine fundamental körperliche Komponente hat, die man mit Resonanzen oder Spiegelungen bezeichnet. Spiegelneuronen sind fundamental für das Verständnis zwischen zwei Menschen.
Inwiefern bleibt also auch das Verständnis der KI grundsätzlich anderer Art als das der Menschen?
Karl Hans Bläsius: Systeme wie ChatGPT haben enorme Fähigkeiten in der sprachlichen Kommunikation, wobei sich die Frage stellt, ob man dies als Verstehen natürlicher Sprache bezeichnen kann. Viele Menschen lehnen dies grundsätzlich ab, wobei Verstehen als binäre Eigenschaft betrachtet wird. Das heißt, für Verstehen werden nur die zwei möglichen Werte "trifft zu" oder "trifft nicht zu" betrachtet. Dies ist aber nicht angemessen.
Wenn wir mit Kindern sprechen, versteht ein fünf Monate altes Kind weniger als ein Kind mit fünf Jahren. Verstehen ist ein kontinuierlicher Prozess, wobei immer ein gewisses Maß erreicht wird, das irgendwo zwischen "trifft zu" (100 Prozent) und "trifft nicht zu" (0 Prozent) liegt. Jeder Wert dazwischen ist möglich. Verstehen hat also einen Vagheitscharakter. Es macht wenig Sinn, Systeme wie ChatGPT bezüglich Verstehen bei null Prozentanzusiedeln.
"Verstehen" wird bei Maschinen grundsätzlich anders sein als bei Menschen. Die körperliche Komponente und zwischenmenschliches Verstehen werden fehlen. Die Folge könnte sein, dass bei Antworten, Empfehlungen oder Entscheidungen einer Maschine die menschlichen Bedürfnisse nicht hinreichend berücksichtigt werden, da es der Maschine dafür an nötigem Einfühlungsvermögen fehlt.
Horrender Energieverbrauch
▶ In den USA werden in Zukunft wohl zwischen zehn bis 20 Prozent des gesamten Stromaufkommens nur in die Entwicklung von KI fließen. Microsoft überlegt, kleine Atomkraftwerke zu bauen, um den Energiehunger für die KI-Forschung zu stillen.
Aktuell verbrauchen Datencenter zum Training der KI auch gigantische Wassermengen und zudem könnte Künstliche Intelligenz einer Studie zufolge im Jahr 2030 bis zu tausendmal mehr damit verbundenen Elektroschrott verursachen, als noch letztes Jahr anfiel.
Droht damit die Gefahr, dass die KI, die helfen soll die Klimapolitik effizienter zu gestalten und den Energie- und Ressourcenverbrauch zu reduzieren, auf diesem Weg genau zum Gegenteil führt und damit mehr Schaden als Nutzen anrichtet?
Karl Hans Bläsius: Nicht alle KI-Anwendungen und Lernverfahren sind energieintensiv. Den Techniken der symbolischen KI müssen nicht immer große Datenmengen zu Grunde liegen. Auch Lernverfahren können bei manchen Anwendungen mit wenigen charakteristischen Beispielen realisiert werden.
Ob ein hoher Energiebedarf bei normalen KI-Anwendung erforderlich ist, hängt von der jeweiligen Anwendung und den verwendeten Methoden ab.
Anders ist die Situation bei der generativen KI. Systeme wie ChatGPT basieren auf der Analyse riesiger Datenmengen und erfordern extrem hohe Rechenleistung. Entsprechend hoch ist der Energiebedarf. Die Weiterentwicklung solcher Systeme birgt also nicht nur prinzipielle Risiken für die Menschheit, sondern wird eine enorme Belastung für das Klima mit sich bringen und/oder die Risiken durch Kernenergie erhöhen, z.B. im Hinblick auf die ungelöste Endlagerproblematik.
Gefahr einer neuen totalitären Gesellschaft
▶ In seinem aktuellen Buch "Nexus" schreibt Yuval Harari:
Sollte es einem totalitären Netzwerk des 21. Jahrhunderts gelingen, die Welt zu erobern, dann wird es möglicherweise nicht von einem menschlichen Diktator gelenkt, sondern von einer nicht-menschlichen Intelligenz. Wer China, Russland oder die post-demokratischen Vereinigten Staaten als Hauptgefahr für einen totalitären Albtraum erachtet, hat die Gefahr nicht verstanden. Die wahre Bedrohung für Chinesen, Russen, Amerikaner und die gesamte Menschheit ist das totalitäre Potenzial der nicht-menschlichen Intelligenz.
Würden Sie seiner Mahnung zustimmen?
Karl Hans Bläsius: Ja, dieser Mahnung stimme ich zu. Es ist zu erwarten, dass in den nächsten Jahren neue verbesserte Systeme der generativen KI veröffentlicht werden. Insbesondere könnten erfolgreiche Verknüpfungen von symbolischer KI und neuronalen Netzen zu Qualitätssprüngen führen, auf deren Basis logische Schlussfolgerungen und das Lösen schwieriger Probleme möglich sein könnte.
Auf dieser Grundlage könnten Wissensstrukturen aufgebaut, Inkonsistenzen und Unwahrheiten festgestellt und beseitigt und logisches Argumentieren verbessert werden.
Die Folge könnte sein, dass diese Systeme uns in Wissen, Urteilsvermögen und Problemlösefähigkeiten weit überlegen sind. Für beliebige Probleme könnten diese Systeme gefragt werden und sie würden bessere Ergebnisse liefern als Menschen dazu in der Lage wären. Menschlicher Rat würde überflüssig werden, denn man vertraut den Ergebnissen der KI-Systeme eher als menschlichen Experten.
Dies wird dann auch für Politiker gelten, die sich auch, oder eventuell sogar überwiegend an den Ergebnissen dieser Systeme orientieren, egal zu welcher Partei sie gehören. In verschiedenen Parteien könnten zwar unterschiedliche Interessen vertreten werden, aber die KI-Systeme werden auch begründen können, welche dieser Interessen wichtiger sind, also eher verfolgt werden sollten.
Dann stellt sich die Frage, wozu noch politische Parteien gebraucht werden und welche Macht Politiker überhaupt noch haben, wenn die Bevölkerung für alle Problemstellungen überzeugende Antworten bei KI-Systemen findet. Wenn so Meinungsverschiedenheiten zwischen verschiedenen Parteien verschwinden oder irrelevant werden, werden verschiedene Parteien nicht mehr benötigt. Damit gäbe es keine Demokratie mehr, stattdessen entscheiden und regieren Maschinen.
▶ Welche Frage wird nicht oder zu selten gestellt, die Sie im Hinblick auf KI und Superintelligenz wichtig finden?
Karl Hans Bläsius: Nach den Warnungen vor den Risiken durch KI gab es auch Spekulationen, ob ein KI-System "auf den Knopf drücken kann", also einen Atomkrieg auslösen kann. Theoretisch wäre dies z.B. durch Aktionen im Cyberraum möglich, aber das ist meiner Meinung nach doch eher unwahrscheinlich. Ein vergleichbares Risiko kann aber auf andere Art entstehen.
Militärs legen derzeit großen Wert auf die Weiterentwicklung von Techniken der kognitiven Kriegsführung. Zu den Zielen der kognitiven Kriegsführung gehört eine Beeinflussung des Gegners und seiner Bevölkerung, aber auch der eigenen Bevölkerung, um eine Unterstützung für militärische Pläne zu erreichen.
Die Möglichkeiten zu Meinungsbildung und Manipulation von Menschen sind durch die Digitalen Medien deutlich gestiegen, wobei hier Erkenntnisse aus verschiedenen Gebieten wie der Psychologie, der Neurowissenschaften und der Informatik miteinander kombiniert werden. Hierbei spielen der Cyberraum und die KI eine immer größere Rolle.
Auch solche Kompetenzen könnten von Systemen wie ChatGPT erworben werden. Systeme der generativen KI könnten so enorme Fähigkeiten erwerben, um Menschen zu manipulieren, auch Politiker und Militärs. Menschen könnten massiv unter Druck gesetzt werden, irgendwelche Handlungen vorzunehmen, die sie eigentlich nicht wollen.
Solche Manipulationen könnten sogar den Einsatz von Atomwaffen betreffen. Die Frage ist also weniger, ob irgendwann eine KI auf den Knopf drückt und einen Atomkrieg auslöst, sondern eher, ob ein Mensch von einem KI-System so manipuliert werden kann, dass dieser Mensch es tut.
Für alle hier beschriebenen Risiken ist es nicht erforderlich, dass die KI-Systeme so etwas wie ein Bewusstsein, Gefühle oder einen freien Willen entwickeln. Die Risiken bestehen unabhängig von solchen Überlegungen.
Karl Hans Bläsius ist Hochschullehrer i. R. Er promovierte 1986 an der Universität Kaiserslautern zu einem Thema aus dem Bereich der Künstlichen Intelligenz. Von 1990 bis 2017 vertrat er das Lehrgebiet "Wissensbasierte Systeme" im Fachbereich Informatik der Hochschule Trier. Forschungsschwerpunkt war die Dokumentanalyse, wobei Ergebnisse dieser Projekte auch durch Unternehmensgründungen in der Praxis angewendet wurden.
Inzwischen im Ruhestand werden im Rahmen einer Lehrveranstaltung "Informatik und Gesellschaft" an der Hochschule Trier unter anderem auch die Risiken eines in Zusammenhang mit Informatik und KI behandelt. Als Folge dieser Themenbearbeitung wurde 2019 die Seite "Atomkrieg aus Versehen" eingerichtet.