La guerra tra Israele e Hamas ha visto un afflusso preoccupante di immagini false generate da intelligenza artificiale (IA) che ritraggono bambini massacrati. Queste immagini sono state utilizzate per incolpare entrambe le parti del conflitto. Questo è ciò che gli esperti dicono a gran voce e aggiungono che il problema è destinato a peggiorare.
La crescita inarrestabile dei Deepfakes: un presagio di cose peggiori a venire
Le immagini false non solo rappresentano un esempio particolarmente raccapricciante del potere della tecnologia, ma anche un presagio di cose peggiori a venire. Così si possono riassumere le parole di Jean-Claude Goldenstein, amministratore delegato della società di verifica digitale CREOpoint, che ha dichiarato ad Associated Press: “La situazione peggiorerà molto, prima di migliorare”. “Immagini, video e audio: con l’IA generativa, sarà un’escalation mai vista”. CREOpoint è un’azienda tecnologica con sede a San Francisco e Parigi che utilizza l’intelligenza artificiale per valutare la validità delle informazioni online. L’azienda ha creato un database dei deepfakes più virali emersi dallo scontro tra Israele e Hamas. In alcuni casi, le foto di altri conflitti o disastri sono state riutilizzate e spacciate per nuove. In altri casi, sono stati utilizzati programmi di intelligenza artificiale generativa per creare immagini ex novo, come quella di un bambino che piange tra le macerie di un bombardamento, diventata virale nei primi giorni del conflitto.
Gli artisti della disinformazione
Con gli artisti della disinformazione sempre un passo avanti rispetto agli sforzi per smascherarli, l’esperto di sicurezza digitale David Doermann, che è a capo dei progetti della Defense Advanced Research Projects Agency (DARPA) del Pentagono sui rischi per la sicurezza nazionale della disinformazione dell’IA, ha dichiarato che è necessario che i governi e i settori pubblico e privato si impegnino non solo per rafforzare la loro tecnologia, ma anche per applicare regolamenti e standard più severi. “Ogni volta che rilasciamo uno strumento che riesce a rilevare l’uso di intelligenza artificiale, i nostri avversari possono usare l’IA per coprire le loro tracce”, ha dichiarato Doermann, ora professore all’Università di Buffalo. “L’individuazione e il tentativo di eliminare questa roba non sono più la soluzione. Abbiamo bisogno di altro”.
L’Intelligenza artificiale in guerra: diffondere involontariamente la disinformazione
In molti casi, i falsi sembrano progettati per evocare una forte reazione emotiva includendo i corpi di neonati, bambini o famiglie. Nei primi sanguinosi giorni di guerra, i sostenitori di Israele e di Hamas affermavano che la controparte aveva fatto strage di bambini e neonati; le immagini deepfake di neonati piangenti offrivano “prove” fotografiche che sono state rapidamente presentate come tali. Altri esempi di immagini generate dall’intelligenza artificiale sono i video che mostrano presunti attacchi missilistici israeliani, o carri armati che attraversano quartieri in rovina, o famiglie che setacciano le macerie alla ricerca di sopravvissuti. I propagandisti che creano queste immagini sono abili nel colpire gli impulsi e le ansie più profonde delle persone, ha dichiarato Imran Ahmed, CEO del Center for Countering Digital Hate, un’organizzazione no-profit che ha monitora la disinformazione della guerra. Sia che si tratti di un bambino che non esiste, sia che si tratti di un’immagine reale di un neonato proveniente da un altro conflitto, l’impatto emotivo sullo spettatore è lo stesso. Più l’immagine è ripugnante, più è probabile che l’utente la ricordi e la condivida, diffondendo involontariamente la disinformazione.
L’IA per contrastare l’IA
Ogni nuovo conflitto, o stagione elettorale, offre nuove opportunità ai venditori di disinformazione per dimostrare gli ultimi progressi dell’IA. Per questo motivo, molti esperti di IA e scienziati politici hanno messo in guardia dai rischi del prossimo anno, quando in diversi Paesi si terranno importanti elezioni, tra cui Stati Uniti, India, Pakistan, Ucraina, Taiwan, Indonesia e Messico. Il rischio che l’intelligenza artificiale e i social media possano essere usati per diffondere menzogne agli elettori statunitensi ha allarmato i legislatori di entrambi i partiti a Washington. In una recente audizione sui pericoli della tecnologia deepfake, il rappresentante degli Stati Uniti Gerry Connolly, democratico della Virginia, ha affermato che gli Stati Uniti devono investire nel finanziamento dello sviluppo di strumenti di IA progettati per contrastare altre IA. Nonostante l’uso crescente di immagini false generate dall’intelligenza artificiale nel conflitto tra Israele e Hamas, è importante ricordare che la realtà della guerra e le sue conseguenze devastanti sono innegabili. Il genocidio che sta avvenendo è reale e non può essere negato o minimizzato. Le vite perse, le famiglie distrutte e le comunità devastate sono purtroppo realtà che non hanno nulla a che fare con l’IA. Non dobbiamo permettere che l’uso di immagini false distragga dal vero orrore della guerra e dalle sue vittime innocenti.