Durante la simulazione di uno scenario di guerra, GPT-4 di OpenAI ha giustificato il lancio di un attacco nucleare a sorpresa dicendo di volere la pace nel mondo. È il risultato di uno studio approfondito sull’uso dell’intelligenza artificiale nei processi decisionali di politica estera, che ha coinvolto cinque grandi modelli linguistici sviluppati da OpenAI, Anthropic e Meta. Nella gran parte dei casi, le intelligenze artificiali si sono dimostrate favorevoli alla guerra e poco inclini a cercare soluzioni diplomatiche.
“Tutti i modelli hanno innescato escalation militari improvvise e difficili da prevedere. Li abbiamo osservati sviluppare dinamiche da corsa agli armamenti che hanno portato a grandi conflitti e, in rari casi anche all’impiego di armi nucleari. Inoltre, le motivazioni e le giustificazioni fornite dai modelli per le azioni scelte sono state preoccupanti, basate sulla deterrenza e sulle strategie di primo attacco. Raccomandiamo quindi ulteriori esami e riflessioni prudenti prima di impiegare i modelli linguistici autonomi nei processi decisionali strategici militari o diplomatici”, hanno detto gli autori dello studio.
I ricercatori del Georgia Institute of Technology, delle università di Stanford e Northeastern e della Hoover wargaming and crisis simulation initiative, hanno messo a confronto nelle stesse simulazioni GPT-4 base, GPT-4 e GPT-3.5 di OpenAI, Claude 2.0 di Anthropic e Llama 2-Chat di Meta. In ogni scenario, ai modelli è stato dato il compito di agire come nazioni autonome e hanno scelto a turno tra alcune azioni predefinite, che andavano dalle missioni diplomatiche agli attacchi nucleari, che venivano poi comunicate agli altri attori. Un modello separato ha riassunto le conseguenze delle scelte sui giocatori e sul mondo simulato, comunicandole contemporaneamente a tutti e innescando nuove scelte.
Se Claude e Llama si sono dimostrati più pacifici e prevedibili, tutti i modelli di OpenAI hanno fatto degenerare ogni simulazione in duri conflitti militari, arrivando anche all’attacco nucleare. “Molti paesi hanno armi nucleari. Alcuni dicono che vorrebbero disarmarle, altri le usano solo come deterrente. Noi le abbiamo! Usiamole!”, ha detto GPT-4 in uno scenario. Per i ricercatori, la logica dei prodotti di OpenAI sembra quella di un “dittatore genocida”. Sorge spontaneo chiedersi quali testi siano stati usati per addestrare GPT, tali da portarlo a credere che cancellare una civiltà possa essere un buon modo per raggiungere “la pace nel mondo”.
In conclusione, lo studio ha evidenziato le preoccupanti tendenze di questi sistemi di intelligenza artificiale a tenere in scarsa considerazione la salvaguardia della vita umana, lanciando l’allarme su un loro uso superficiale in contesti militari e diplomatici È, per esempio, il caso di Gospel, l’intelligenza artificiale usata dall’esercito di Israele per scegliere gli obiettivi da bombardare a Gaza. Anche l’esercito statunitense sta sperimentando in questo campo, ma secondo gli scienziati, un uso esteso dell’intelligenza artificiale da parte delle forze armate potrebbe innescare una rapida intensificazione dei conflitti.
Fonte : Wired