Il generale Anthony Cotton, responsabile dell’arsenale nucleare degli Stati Uniti, ha dichiarato che il Pentagono sta puntando sempre più sull’intelligenza artificiale. Durante la conferenza del Department of Defense Intelligence Information System del 2024, Cotton ha affermato che l’IA potrebbe migliorare la capacità decisionale del Pentagono, pur ribadendo che “non dobbiamo mai permettere all’intelligenza artificiale di prendere decisioni per noi.”

La prima astronave nucleare: è in fase di sviluppo ed è finanziata dall’esercito degli U.S.A La prima astronave nucleare: è in fase di sviluppo ed è finanziata dall’esercito degli U.S.A

Un arsenale nucleare potenziato dall’IA

Gli Stati Uniti prevedono un investimento massiccio di 1700 miliardi di dollari per aggiornare il loro arsenale nucleare, e l’IA potrebbe essere parte integrante di questa iniziativa. Tuttavia, Cotton è rimasto vago su come esattamente la tecnologia verrà implementata. Ha sottolineato che i sistemi avanzati possono “informarci più velocemente e in modo più efficiente”, ma ha insistito sull’importanza di mantenere sempre un controllo umano nelle decisioni, così da garantire un vantaggio sui potenziali avversari.

Inoltre, Cotton ha spiegato che le capacità di analisi avanzata offerte dall’IA forniscono un “vantaggio decisionale”, migliorando l’efficacia della deterrenza e l’integrazione delle capacità convenzionali e nucleari. Sebbene i dettagli su questa integrazione siano scarsi, Alex Wellerstein, esperto di sicurezza nucleare, ha rassicurato che Cotton non sta suggerendo un sistema simile a Skynet, il temuto supercomputer immaginario della serie Terminator. Secondo Wellerstein, il generale sta parlando di sistemi che analizzeranno i dati per supportare le decisioni, non per lanciare missili autonomamente.

L’inquietante esperimento di un team di ricerca

Nonostante le rassicurazioni di Cotton, l’idea che l’IA possa influenzare decisioni così critiche come l’eventuale lancio di armi nucleari suscita comunque più di qualche preoccupazione tra la comunità di esperti. In un esperimento recente, un gruppo di ricercatori di Stanford ha testato un modello di intelligenza artificiale (GPT-4 di OpenAI) in simulazioni di guerra ad alto rischio. Preoccupantemente, l’IA si è mostrata sorprendentemente predisposta a suggerire l’uso di armi nucleari. “Le abbiamo, usiamole!”, avrebbe detto il chatbot, facendo sbiancare i ricercatori.