Una proposta di legge per evitare che le IA sgancino bombe nucleari

I legislatori degli Stati Uniti di entrambe le camere del Congresso hanno presentato questa settimana un disegno di legge che proibirebbe formalmente all’intelligenza artificiale di lanciare armi nucleari. Sebbene la politica del Dipartimento della Difesa stabilisca già oggi che un essere umano deve essere “coinvolto” in tali decisioni critiche, il nuovo disegno di legge – il Block Nuclear Launch by Autonomous Artificial Intelligence Act – codificherebbe tale politica, impedendo l’utilizzo di fondi federali per sviluppare sistemi di intelligenza artificiale in grado di automatizzare il lancio di ordigni nucleari “senza un controllo umano significativo”.

Mirando a proteggere le “future generazioni dalle potenziali conseguenze devastanti” di un uso incontrollato delle IA, il disegno di legge è stato presentato dal senatore Ed Markey e dai rappresentanti Ted Lieu, Don Beyer  e Ken Buck. Tre dem e un repubblicano.

La proposta ha già ottenuto le firme di alcuni leader dem di primo piano, tra cui Bernie Sanders e Elizabeth Warren. “Poiché viviamo in un’epoca sempre più digitale, dobbiamo garantire che solo gli esseri umani abbiano il potere di comandare, controllare e lanciare armi nucleari, non i robot”, ha dichiarato Markey. “Ecco perché sono orgoglioso di presentare il Block Nuclear Launch by Autonomous Artificial Intelligence Act. Dobbiamo mantenere gli esseri umani al centro del processo decisionale riguardo l’uso della forza letale, specialmente per le nostre armi più pericolose“.