Noch schreibt KI für uns Texte – bald wird sie Kriege führen
Seite 2: EU, Nato, Bundeswehr: Kriegs-KI könnte bald konkrete Anwender finden
- Noch schreibt KI für uns Texte – bald wird sie Kriege führen
- EU, Nato, Bundeswehr: Kriegs-KI könnte bald konkrete Anwender finden
- Militärische KI im Informationskrieg
- Auf einer Seite lesen
Die Wahrnehmung, dass man vor großen Umbrüchen steht, durchzieht allerdings auch die Abstracts der 39 "Industrievorträge", die in einem weiteren, vorab veröffentlichten Heft zur Ausstellung abgedruckt waren.
Es war vermutlich kein Zufall, dass der erste dieser Vorträge einen Titel trug, der die Stimmung in der Industrie aktuell hervorragend auf den Punkt bringt: "Closing the implementation Gap" - sinngemäß: Die Lücke zur Umsetzung füllen.
Dieser Vortrag wurde von der Bechtle AG mit Hauptsitz in Neckarsulm initiiert, zu der Wikipedia weiß: "Schwerpunkte sind der Handel mit Hard-, Software und IT-Dienstleistungen sowie der Betrieb und die Wartung von IT-Infrastruktur bei gewerblichen und öffentlichen Auftraggebern." Zu seinen Großkunden zählt das Unternehmen u.a. die EU-Kommission, die Nato und die Bundeswehr.
KI im Gefecht – "seriennah"
Viele der Vorträge stellen konkrete Produkte der jeweiligen Unternehmen in den Mittelpunkt. So etwa der Vortrag "Der KI-unterstützte Feuerkampf" von Rheinmetall, in dem das System "Attac" vorgestellt werden sollte, welches für zukünftige "Gefechtsfahrzeuge" die "aktuelle und seriennahe Verwendung von KI für die Objekterkennung und -klassifizierung in Echtzeit" leisten soll.
Hierdurch solle die "Fahrzeugbesatzung im Bereich der Beobachtung und Zielerfassung sowie in der Entscheidungsfindung und Wirkung entlastet werden", indem die Fahrzeuge "die Fähigkeit (erlangen) selbstständig aufzuklären, erkannte Objekte zu klassifizieren und in die Bedrohungslage einzuordnen."
Ein weiterer Beitrag stammt von einem demgegenüber kleinen und jungen Unternehmen, der Vected GmbH aus Fürth, das Wärmebildgeräte für die Jagd, Polizei und Militär herstellt und dabei auf Künstlichen Neuronale Netze setzt. In der Ankündigung des Vortrages heißt es:
Künstliche Intelligenz (KI) und vor allem künstliche neuronale Netzwerke sind in der Verarbeitung von Bilddaten längst Standard. Beeindruckende Ergebnisse in den Bereichen Klassifizierung, Detektion, Lokalisation und Segmentierung sind für zukünftige Anwendungen in der Wehrtechnik vielversprechend.
Konkret geht es im Vortrag um die bislang unzureichende Verfügbarkeit von Trainingsdaten im "Wärmebildbereich", insbesondere im "Verteidigungs- und Sicherheitsbereich", und wie diese durch "die Verwendung von künstlich erzeugten Daten" überwunden werden könne.
Einem Beitrag auf dem "Wärmebildblog" der Firma kann man entnehmen, dass sie hierzu mit dem Unternehmen Vedted zusammenarbeitet, das zusammengesetzte, mit synthetischen Daten – in diesem Fall denen eines Panzers – angereicherte Trainingsdaten liefert.
An verschiedenen Stellen versichert auch Vected wie die Rüstungsindustrie insgesamt gerne: "In letzter Instanz ist es immer der Mensch, der eine Entscheidung über seine weiteren Handlungen trifft".
Wie allerdings die Entscheidungsunterstützung (vermeintlich) aussieht, welche die KI dem Menschen als Handlungsgrundlage bereitstellt, illustriert die Bebilderung eines Artikels aus der Zeitschrift Wehrtechnik (wt), welcher über die Homepage des Unternehmens zugänglich gemacht wird.
Es zeigt ein (vermeintliches) Wärmebild einer Situation an einem Interface, in dem offenbar eine Funktion "threat detection" aktiviert ist. Das eigentliche Bild ist durch Text und Grafiken angereichert, die vier Personen identifizieren und ihnen jeweils einen Prozentwert (zwischen fünf und 93 Prozent) zuweisen, mit dem es sich bei der entsprechenden Person um eine "Bedrohung" handelt.
Die Ankündigung des Vortrages der PlathGroup denkt da schon ein Stückchen weiter (oder kürzer). Dabei geht es im Kern um die Datenfusion, also die Vernetzung und KI-gestützte, gemeinsame Auswertung verschiedener Sensoren und anderer Datenquellen (z.B. soziale Medien). Im Abstract heißt es zu den damit verbundenen "Herausforderungen":
So können KI-Algorithmen beispielsweise anfällig für Verzerrungen, Fehler und gegnerische Angriffe sein, rechtliche und ethischen Bedenken sind ebenfalls relevant. Insbesondere wenn Entscheidungskompetenzen in der Prozesskette (Sensor to Shooter) abgetreten werden würden.