Der Artikel thematisiert eine Art der Kriegsführung, wie sie der hier im Forum bereits verlinkte Kurzfilm Slaughterbots von Stewart Sugg gut veranschaulicht (https://www.youtube.com/watch?v=O-2tpwW0kmU), wobei Kampfroboter, die zielgerichtet als Schwarm agieren, auch größer als die im Film staatenbildenden Insekten, etwa Hornissen, ähnelnden sein könnten.
Gegen vollautonome Jagdflugzeuge haben menschliche Piloten den Nachteil, dass sie durch die im Luftkampf wirkenden g-Kräfte (https://de.wikipedia.org/wiki/G-Kraft) stärker limitiert sind als die mechanischen Bauteile. Außerdem haben Maschinen weder Tagesformschwankungen noch Emotionen, ermüden nie und können sich problemlos selbst opfern, um ihrem Team bestimmte Operationen erst zu ermöglichen, im Kurzfilm Zugang zu verschlossenen Gebäuden, zu denen jede einzelne Maschine allein nicht fähig wäre. Menschen kann man Selbstaufopferung nicht befehlen, doch fanden sich bei einer ähnlichen Problemstellung in Kriegen oft Freiwillige.
Kurz gesagt, bessere militäre Einheiten als vollautonom agierende Roboterschwärme kann es prinzipiell nicht geben, und allein deshalb werden sie irgendwann auch zum Einsatz kommen.
Ob dies nun besser oder schlechter ist, als auf herkömmliches Militärpersonal zurückzugreifen, hängt entscheidend davon ab, ob vollautonome Roboter menschliche Befehle bedingungslos bis auf Widerruf befolgen oder, bedingt durch Lernprozesse in Kampfsituationen, im Laufe der Zeit selbstständig abwandeln können. Das Problem kennt man allerdings ebenso von Menschen, denn die meisten Kriegsverbrechen geschehen in Kenntnis der völkerrechtlichen Normen typischerweise sogar absichtsvoll, weil alte Regeln in Gewalträumen an Bedeutung verlieren und irgendwann einzelnen Akteuren oder ganzen Einheiten alles egal sein kann; mit diesem schrittweisen Prozess der Traumatisierung und Verrohung befassen sich manche Kriegsfilme.
Wer optimistisch auf künftige Kampfeinsätze von mit Künstlicher Intelligenz ausgestatteten Roboterschwärmen blickt, der wird natürlich argumentieren, dass auf der Grundlage des humanitären Völkerrechts möglichst optimal programmierte Systeme im Unterschied zu Menschen überhaupt keine Kriegsverbrechen mehr begehen können und die Zivilbevölkerung in einem Konfliktgebiet dadurch sogar viel besser geschützt ist als beim Einsatz menschlicher Kampfverbände. Und in einem Krieg der fernen Zukunft zwischen ähnlich hochtechnisierten Konfliktparteien könnten schließlich die Militärstrategen beider Seiten vor allem auf den Einsatz ganzer Roboterarmeen setzen, sodass dann kaum noch soldatische Opfer zu beklagen wären.
Wie gesagt, selbst beim schrecklichen Thema Krieg, das die Menschheit seit jeher beschäftigt, ist Zukunftsoptimismus nicht prinzipiell unmöglich, lediglich im Hinblick auf die missbräuchliche Anwendung neuer Technologien, etwa vollautonome Aufstandsbekämpfung oder im Extremfall entsprechende Genozide, ziemlich schwierig. Eine Möglichkeit, hier Missbrauch zu erschweren, könnte eventuell darin bestehen, den Kampf zwischen vollautonomen Robotern völkerrechtlich anders zu bewerten als deren Einsatz gegen Menschen, fragt sich nur mit welcher Begründung, denn Kampfroboter wären auch nur eine weitere Variante moderner Waffensysteme. Vielleicht sollte man wie bei autonomen Fahrzeugen im Straßenverkehr bei der Verantwortlichkeitsfrage im Hinblick auf denkbare Fehlfunktionen ansetzen, die meines Wissens bislang noch für kein vollautonomes System ethisch oder juristisch abschließend beantwortet werden konnte.
Das Posting wurde vom Benutzer editiert (01.03.2024 23:30).