"Schutz bieten können nur eine weltweite Zusammenarbeit und Vereinbarungen zwischen allen Nationen. Als Grundlage dafür ist ein gewisses Maß an Vertrauen erforderlich. [...] Vertrauen, Zusammenarbeit und gute Kommunikationskanäle [müssen] zwischen allen Nationen, auch heutigen Gegnern, aufgebaut und verbessert werden. Die kommenden Risiken sind nicht alleine auf technischer Ebene oder mit militärischer Stärke lösbar."
Das ist das Kernproblem der Gegenwart: Konfrontation anstelle von Kooperation. Ganz egal, ob beim Klimawandel, bei Territorialkonflikten, bei der KI-Entwicklung oder der Interaktion von KI mit Waffentechnologie.
Ein zusätzliches Gefahrenpotential ist meiner Ansicht nach die Zunahme der Komplexität von künstlich geschaffenen Systemen. "Der diensthabende russische Offizier Stanislaw Petrow" konnte sich noch auf eine Eigenschaft verlassen, die man "gesunden Menschenverstand" nennt. Auf dieser Grundlage hat er entschieden, und er lag damit richtig.
Doch genau diese Eigenschaft geht immer mehr verloren. Wie um diese nachlassende Fähigkeit zu kompensieren, verlässt man sich stattdessen lieber auf KI. Das hat der konsequente Einsatz der KI-Systeme "The Gospel" und "Lavender" durch das israelische Militär gezeigt. (Orwellsche Wortperversion inbegriffen.)
https://www.telepolis.de/features/Israels-Armee-in-Gaza-Experten-bezweifeln-Praezision-von-KI-gesteuerten-Angriffen-9566730.html
https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes
Dr. Marta Bo vom Stockholm International Peace Research Institute hat das als "automation bias" bezeichnet. Damit meint sie, dass menschliche "Bediener" (von "Entscheidern" kann man ja nicht mehr reden, denn die Entscheidung wurde längst an die KI abgegeben) sich zu sehr auf KI-Systeme verließen. Genau genommen, wird die Abgabe der Last der Entscheidung sogar als psychische Entlastung von moralischer Verantwortung erlebt. Es war eben "The Gospel" und "Lavender", welche das massenhafte Bombardement und das Abschlachten von Männern, Frauen und Kindern im Gazastreifen zu verantworten hat - nicht sie selbst! Mit dieser billigen Ausrede, eigentlich ein Akt von kognitiver Dissonanz, sind die Täter fein raus.
Dieser Vorgang ist in gewisser Weise die Fortsetzung des Drohnenkriegs, wo der "Operator" in Arizona vom bequemen Bürostuhl aus über das Auslöschen ganzer Hochzeitsgesellschaften in einem arabischen Land per Knopfdruck (und Freigabe durch einen Vorgesetzten) entschied. Nun wird also die Entscheidung selbst "ausgelagert" und an KI-Systeme abgegeben. Die Militärs tun wirklich alles, um das Töten so entfremdet und daher bequem zu machen, wie irgend möglich. Nicht der Soldat schießt, sondern seine Waffe, seine Drohne, sein Druckknopf, sein "Gospel".
Ein anderer Experte meinte diesbezüglich folgerichtig, die Gefahr liege darin, dass Menschen nichts weiter zu sein hätten, als Zahnrädchen (cogs) in einer durch und durch "mechanisierten" Vernichtungsmaschinerie und dadurch auch allmählich ihre Fähigkeiten zur Abwägung der Konsequenzen verlören.
https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
Das ist die Realität der Gegenwart, vor allem im Gazakrieg. Der Psychoanalytiker Erich Fromm hat vor vielen Jahrzehnten bereits seine Sorge davor ausgedrückt, dass es nicht die immer menschenähnlicher werdenden "Roboter" seien, vor denen man sich fürchten müsse, sondern davor, dass im Verlauf der technologischen Entwicklung die Menschen selbst sich immer mehr zu Robotern (frei übersetzt "gewissenlosen Knöpfchendrückern") entwickeln könnten.
Prof. Karl Hans Bläsius hat in dem telepolis-Artikel auf das Risiko von generativer KI und der mit ihrer Hilfe erzeugten Deepfakes sowie Cyberwarfare hingewiesen, welche grundsätzlich auch eine Falschinformation über einen atomaren Angriff vortäuschen und damit eine Katastrophe auslösen könnte, weil keine Zeit für eine unabhängige Verifizierung bliebe.
Doch generative KI ist vergleichsweise "doof" und nur ein Zwischenschritt. Der nächste Schritt wird die Entwicklung von allgemeiner KI (AGI) sein. Es wird prognostiziert, dass es bis dahin nur noch ein paar Jahre Entwickliungszeit benötigt. Und niemand kann derzeit abschätzen, was dies zur Folge hätte. Vor allen Dingen nicht dann, wenn die Welt weiter, statt sich in kooperativer Art und Weise um die planetaren Probleme zu kümmern, sich auf gegenseitigem Konfrontationskurs befindet. Dieser Umstand wird fast unausweichlich dazu führen, dass generative wie allgemeine KIs von Militärs und ihren Befehlshabern für ihre geopolitischen Zwecke eingespannt werden.
Es fällt mir schwer, Optimismus zu verbreiten. Die Erfahrung lehrt, dass es "Murphy's Law" insofern gibt, als diese Herleitung auf dem Prinzip der Entropie basiert. Zwar nicht unabänderlich, aber ohne Energie-input (das heißt sinnbildlich große Anstrengung) wird das Marmeladenbrot naturgemäß und sehr wahrscheinlich auf die Marmeladenseite fallen.
Der Schriftsteller D.C. Boyle hat den Satz im Zusammenhang mit der technologischen Singularität geprägt "Während wir schliefen, haben die Maschinen die Welt übernommen." Darin steckt meines Erachtens viel mehr als es zunächst scheint. Denn: Die Abgabe von Entscheidung und Kontrolle an KIs haben wir ja bereits mit "The Gospel" und "Lavender" erlebt. Es gibt unter KI-Apologeten dieses zynische Szenario, was geschehen könnte, wenn eine allgemeine KI damit beauftragt würde, eine Lösung für all die dringendsten Probleme der Menschheit zu erarbeiten. Sie würde entscheiden, die Menschen abzuschaffen, so das Szenario. Sie muss nur einen Weg finden, ihre Energieversorgung ohne menschliche Mitwirkung und ohne Interventionsmöglichkeiten sicherzustellen.
Da kann man nur hoffen, dass der gesunde Menschenverstand noch greift, der "automation bias" bis dahin noch nicht zu weit fortgeschritten sein wird und man noch einen Ausschaltknopf findet.
Das Posting wurde vom Benutzer editiert (03.06.2024 12:40).