Die gesamte Prämisse ist schon komplett in den Sand gesetzt: ChatGPT kann nämlich nur eine Sache ziemlich perfekt: menschliche Sprache (und meinetwegen auch so manchen Programmcode) simulieren. Das war's.
Niemand würde jemals auf die Idee kommen, ChatGPT als Schachroboter einzusetzen. Genauso, wie niemand auf die Idee kommen würde, Pablo Picasso ein G36 Sturmgewehr in die Hand zu geben oder einen Lang Lang eine F35 zu setzen.
Wenn man das Ding eben menschliche Historie oder irgendwelche Kriegs- oder Kriminalromane lesen lässt, dann wird 95% seines Trainingsinputs die Botschaft erhalten, dass Angriff die beste Verteidigung ist und dass sich der stärkere in der Regel durchsetzt.
Dementsprechend wird ein beauftragtes Sprachmodell natürlich raten, möglichst hart und schnell zuzuschlagen.
Würde man es mit ausschließlich pazifistischer Literatur füttern, dann würde auch die KI dazu raten, sich besser dem Stärkeren zu ergeben, um das eigene Leben zu retten.
Insofern ist die Aussage, dass KI im Allgemeinen zur nuklearen Selbstvernichtung rät, extrem zu kurz gegriffen, da man noch gar keine wirklich spezialisierte und hochentwickelte "Kriegs-KI" zum Einsatz gebracht hat, sondern nur die Labertaschen vom Schlage eines ChatGPT.
Das Posting wurde vom Benutzer editiert (12.02.2024 18:06).