Es sind ja einige lustige Beispiele über falsche Aussagen von ChatGPT im Internet verbreitet worden. Das nennt man dann wohl "Halluzinationen" im Sprachgebrauch der Entwickler. Wenn man an die Aussagen der KI aber tödliche Waffen anschließt, dann sind diese Halluzinationen nicht mehr so lustig. Im Grunde wird dann wohl auch niemand mehr Verantwortung für sein Handeln übernehmen. Die KI hat die Ziele halt ausgespuckt, man habe keine Möglichkeit gehabt, diese Menge an Zielen zu überprüfen und hat eben der KI vertraut, als man die Befehle zum Abschuss gab.
Wenn sich nach Ende des Krieges herausstellt, dass die KI 90% unschuldige Zivilisten zum Töten empfohlen hat, dann werden die Entwickler sagen: Ups, wir werden die KI nochmal besser trainieren müssen.
Das ist mittlerweile schon ein Alptraum, wie in den distopischen Filmen meiner Jugend, in denen Maschinen Entscheidungen über Leben und Tod übernahmen.
Das Posting wurde vom Benutzer editiert (07.12.2023 12:24).