Negli ultimi mesi, le immagini generate dall’intelligenza artificiale sono diventate sempre più comuni nei risultati di ricerca su Google, creando difficoltà per gli utenti nel trovare i contenuti reali che stanno cercando. In risposta a questo problema, Google ha annunciato che, a partire dai prossimi mesi, inizierà a etichettare i risultati di ricerca che includono immagini generate o modificate tramite AI.

Questa etichettatura verrà visualizzata nella finestra “Informazioni su questa immagine” e sarà applicata a diversi servizi, inclusi Google Search, Google Lens e la funzione Circle to Search su Android. Google sta inoltre considerando l’applicazione di questa tecnologia ai video su YouTube, sebbene non abbia fornito dettagli specifici, promettendo aggiornamenti successivi.

C2PA: l’alleanza per tracciare l’origine delle immagini

La tecnologia per identificare le immagini generate da AI utilizzerà i metadati del C2PA (Coalition for Content Provenance and Authenticity), un gruppo industriale di cui Google è membro. Questi metadati permettono di tracciare l’origine delle immagini, identificando quando e dove sono state create e quale software o attrezzatura è stato utilizzato.

Oltre a Google, altri colossi dell’industria come Amazon, Microsoft, OpenAI e Adobe fanno parte della C2PA. Tuttavia, il supporto hardware è limitato a pochi modelli di fotocamere Sony e Leica, mentre alcuni sviluppatori di strumenti AI, come Black Forest Labs, non hanno ancora adottato lo standard.

Deepfake, Microsoft ha presentato un software in grado di distinguere i video manipolati Deepfake, Microsoft ha presentato un software in grado di distinguere i video manipolati

Nel frattempo, le truffe con IA sono in aumento

Il fenomeno delle truffe online basate su deepfake generate da AI è in crescita vertiginosa. Un caso eclatante è quello di un finanziere di Hong Kong che, nel febbraio scorso, ha perso 25 milioni di dollari dopo essere stato ingannato da truffatori che si spacciavano per il CFO della sua azienda. Secondo un rapporto di Sumsub, i casi di frodi che utilizzano deepfake sono aumentati globalmente del 245% tra il 2023 e il 2024, con un incremento del 303% negli Stati Uniti.

L’accessibilità di questi strumenti – avvertono le autorità – ha abbassato la soglia di competenza necessaria per i criminali informatici, rendendo le frodi digitali sempre più diffuse.