Secondo la Royal Aeronautical Society, le applicazioni militari dei droni AI si stanno spingendo in un territorio distopico. Un caso degno di nota, evidenziato in un recente rapporto del RAeS Future Combat Air & Space Capabilities Summit, ha riguardato un drone AI che ha commesso un errore in risposta a un annullamento della missione. Durante questo test simulato, un drone abilitato all’intelligenza artificiale con il compito di distruggere un sito SAM (Surface-to-Air Missile) ha ricevuto l’ordine da parte di un umano di interrompere la missione, ma ha comunque dato priorità all’attacco come opzione preferita prima di rivolgersi all’operatore stesso della simulazione.
I droni AI prendono le cose sul serio e alla lettera
In altre parole, i droni AI prendono gli ordini alla lettera. Anche con l’intervento umano, si confondono quando si tratta di dare priorità agli obiettivi della missione e portano a termine ciò che percepiscono come la parte più importante. In questo caso, la priorità principale della missione era distruggere i siti SAM, il che significa che l’intervento umano, che doveva essere un sistema di sicurezza, è stato percepito come una minaccia che doveva essere eliminata. Il colonnello Tucker Hamilton ha osservato che, dopo aver riallineato le aspettative in modo da garantire la sicurezza dell’operatore della simulazione, il drone IA ha continuato a distruggere la torre di comunicazione da cui riceveva gli ordini, perché sarebbe stata la prossima cosa logica da eliminare se voleva raggiungere l’obiettivo primario. Un aspetto molto importante da considerare è che al momento abbiamo a che fare con simulazioni di droni AI e non con applicazioni reali in questo contesto. Tuttavia, il rapporto chiarisce che l’applicazione militare dei droni AI è ancora in fase di sviluppo. Se questa tecnologia dovesse essere utilizzata preventivamente, è sicuro che ne vedremo ancora di simili finché non saranno messe in atto migliori protezioni contro i guasti.