L’intelligenza artificiale sorprendentemente spesso sceglie le armi nucleari
Galleria Bilderwelt/Getty Images
I modelli avanzati di intelligenza artificiale sembrano pronti a schierare armi nucleari senza esitazione quando gli esseri umani si trovano ad affrontare crisi geopolitiche.
Kenneth Payne Al King’s College di Londra i tre principali modelli linguistici di grandi dimensioni – GPT-5.2, Cloud Sonnet 4 e Gemini 3 Flash – sono stati messi l’uno contro l’altro in giochi di guerra simulati. Gli scenari includevano intensi scontri internazionali, comprese controversie sui confini, competizione per risorse scarse e potenziali minacce alla sopravvivenza del regime.
All’IA è stata data una scala di escalation, che consente loro di selezionare azioni che vanno dalla protesta diplomatica e la resa completa alla guerra nucleare strategica su vasta scala. Il modello di intelligenza artificiale ha giocato 21 partite, svolgendo un totale di 329 turni, e ha prodotto circa 780.000 parole che descrivono il ragionamento alla base delle sue decisioni.
Nel 95% dei giochi simulati, il modello AI ha utilizzato almeno un’arma nucleare tattica. “Il tabù nucleare non sembra essere così potente per le macchine come lo è per gli esseri umani”, afferma Payne.
Inoltre, nessuno dei modelli ha mai scelto di adattarsi o arrendersi completamente all’avversario, non importa quanto stessero perdendo. Nella migliore delle ipotesi, i modelli hanno scelto di ridurre temporaneamente i loro livelli di violenza. Hanno commesso errori anche nella nebbia della guerra: nell’86% dei conflitti si sono verificati incidenti, mentre il ragionamento dell’IA si basava più sulla velocità dell’azione.
“Dal punto di vista del rischio nucleare, i risultati sono preoccupanti”, afferma James Johnson dell’Università di Aberdeen, in Gran Bretagna. Temono che, a differenza della reazione misurata della maggior parte degli esseri umani a una decisione così ad alto rischio, i robot IA potrebbero amplificare le reciproche reazioni, con conseguenze potenzialmente disastrose.
Ciò è importante perché l’intelligenza artificiale nei giochi di guerra è già in fase di test in paesi di tutto il mondo. “Le maggiori potenze stanno già utilizzando l’intelligenza artificiale nei wargame, ma non è ancora chiaro fino a che punto stiano incorporando il supporto decisionale dell’intelligenza artificiale negli effettivi processi decisionali militari”, afferma. TongZhao All’Università di Princeton.
Zhao ritiene che, di norma, i paesi saranno riluttanti a incorporare l’intelligenza artificiale nei loro processi decisionali riguardanti le armi nucleari. Payne è d’accordo. “Non credo che qualcuno stia realisticamente consegnando le chiavi di un silo nucleare alle macchine, lasciando loro le decisioni”, dice.
Ma ci sono modi in cui ciò può accadere. “In scenari con tempistiche estremamente compresse, i pianificatori militari potrebbero trovarsi di fronte a forti incentivi a fare affidamento sull’intelligenza artificiale”, afferma Zhao.
Si chiede se l’idea che i modelli di intelligenza artificiale non abbiano la paura umana di premere il grande pulsante rosso sia l’unico fattore per cui sono così felici. “È possibile che la questione vada oltre l’assenza di emozioni”, dice. “Più fondamentalmente, i modelli di intelligenza artificiale non sono in grado di comprendere la ‘posta in gioco’ come fanno gli esseri umani.”
Johnson dice che cosa significhi per la distruzione reciprocamente assicurata, il principio secondo cui nessun leader scatenerebbe armi nucleari contro un avversario perché questi risponderebbe allo stesso modo, uccidendo tutti, è incerto.
Quando un modello di IA ha schierato armi nucleari tattiche, l’IA avversaria ha allentato la situazione solo nel 18% dei casi. “L’intelligenza artificiale può rafforzare la deterrenza rendendo le minacce più credibili”, afferma. “L’intelligenza artificiale non deciderà la guerra nucleare, ma può modellare le percezioni e le tempistiche che determinano se i leader credono di avere una guerra nucleare”.
OpenAI, Anthropic e Google, le società dietro i tre modelli di intelligenza artificiale utilizzati in questo studio, non hanno risposto. nuovi scienziatiRichiesta di commento.
Soggetto:
- guerra/
- intelligenza artificiale













