Durante un incontro con i firmatari del codice di condotta sulla disinformazione online, la Commissaria Europea per i valori e la trasparenza, Vera Jourova, ha sottolineato l’importanza di adottare tecnologie in grado di riconoscere e etichettare chiaramente i contenuti generati dall’intelligenza artificiale. Jourova ha evidenziato che le nuove tecnologie basate sull’IA offrono opportunità notevoli in termini di efficienza e creatività, ma allo stesso tempo comportano rischi e conseguenze negative, specialmente nel contesto dell’informazione e della sua diffusione.

La Commissaria ha espresso preoccupazione riguardo alla capacità degli algoritmi di generare contenuti complessi, come testi, immagini e persino voci, che possono apparire autentici ma sono in realtà frutto dell’intelligenza artificiale.

Attualmente, il codice di condotta sulla disinformazione online conta 44 firmatari, tra cui giganti della tecnologia come Google, Facebook e Microsoft, oltre a entità più piccole del settore tech e altre organizzazioni. Tuttavia, la versione attuale del codice non prevede specifiche misure per identificare e etichettare i deepfake, ma Jourova ha assicurato che si sta lavorando per porvi rimedio rapidamente.

La proposta di Jourova si divide in due approcci. Il primo coinvolge i fornitori di servizi che integrano l’IA generativa, come i nuovi servizi di ricerca potenziati dall’IA di Google e il nuovo Bing Chat di Microsoft. Questi fornitori dovrebbero impegnarsi a introdurre le protezioni necessarie per prevenire l’abuso di tali servizi per la generazione di contenuti falsi.

Il secondo approccio riguarda i firmatari che offrono servizi con potenziale diffusione di disinformazione generata dall’IA. Cioè, soprattutto i social network come Facebook. Quest’ultimi, spiega la commissaria, dovrebbero adottare tecnologie in grado di riconoscere e etichettare chiaramente questi contenuti per gli utenti. Una sfida tutt’altro che semplice.