OpenAI ha annunciato un’importante svolta nella sua missione di rendere più trasparente la provenienza dei contenuti generati dall’intelligenza artificiale. L’azienda ha introdotto nuovi strumenti di rilevamento delle immagini e migliorato i metodi di watermarking per segnalare contenuti generati da modelli AI, come DALL-E 3.Il watermarking in informatica si riferisce all’inclusione di informazioni all’interno di file multimediali o altri documenti digitali per identificarne l’origine e la provenienza. Queste informazioni possono essere rilevate o estratte successivamente, lasciando un contrassegno permanente sul documento

Il nuovo classificatore per le immagini

Il cuore della novità è un classificatore di immagini che sfrutta l’IA per determinare se una foto è stata generata con DALL-E 3. Questo strumento prevede con un’accuratezza del 98% la probabilità che una foto sia stata creata con DALL-E 3, anche quando è soggetta a modifiche come ritagli, compressione o alterazioni di saturazione. Tuttavia, il classificatore non è altrettanto efficace nel rilevare se il contenuto proviene da altri modelli di AI come Midjourney, riuscendo a segnalare solo il 5-10% delle immagini generate da altre piattaforme.

Metodi di watermarking avanzati

OpenAI ha anche iniziato a implementare un watermark resistente alle manomissioni per etichettare contenuti come audio con segnali invisibili, così come nuove credenziali di contenuto sviluppate dalla Coalition of Content Provenance and Authority (C2PA). Queste filigrane includono informazioni sul proprietario dell’immagine e sulle sue origini, e aiutano a distinguere i contenuti generati dall’AI. Gli strumenti di rilevamento delle immagini e di watermarking audio sono ancora in fase di perfezionamento. OpenAI chiede feedback da parte degli utenti per verificarne l’efficacia e per continuare a svilupparli. I ricercatori e i gruppi giornalistici possono testare il classificatore di rilevamento delle immagini attraverso la piattaforma di accesso alla ricerca di OpenAI.

Verso una maggiore trasparenza

Il lavoro di OpenAI rappresenta un passo avanti verso una maggiore trasparenza nella provenienza dei contenuti generati dall’AI. Sebbene ci siano ancora sfide da affrontare per garantire l’efficacia degli strumenti, l’impegno dell’azienda nella ricerca e nello sviluppo di soluzioni innovative potrebbe cambiare il modo in cui percepiamo e interagiamo con i contenuti generati dall’intelligenza artificiale.Questo è un passo cruciale per garantire che i contenuti creati con AI possano essere identificati chiaramente.

Fonte: