Ricercatori dell’Università di Buffalo stanno testando un algoritmo che è in grado di intercettare i ritratti deepfake solamente guardando al riflesso negli occhi dei soggetti. La precisione dichiarata dal report presentato al pubblico è strabiliante: il 94 per cento delle falsificazioni sono state intercettate.

A quanto pare, i limiti delle intelligenze artificiali che si occupano dell’alterazione di foto e video non sono ancora stati pensati per valutare le condizioni di luce riflesse nella cornea delle persone ritratte, un limite che – almeno per ora – può essere adoperato per contrastare una delle insidie più moleste della tecnologia contemporanea.

Nello specifico, le IA di deepfake faticano a creare un riflesso coerente in ambo gli occhi. Quando i ricercatori se ne sono resi conto, non c’è voluto molto perché se ne venissero fuori con un programma adatto a notare queste incongruenze.

La cornea è quasi una semisfera perfetta ed è molto riflettente. Quindi, qualsiasi emissione di luce che giunga all’occhio avrà una sua immagine sulla cornea.

I due occhi dovrebbero avere pattern di riflessione molto simili perché stanno guardando lo stesso oggetto. Si tratta di qualcosa che normalmente non notiamo, quando guardiamo a un volto,

ha detto il dottor Siwei Lyu, professore d’innovazione presso la SUNY Empire Innovation e autore a capo della ricerca.

Il ricercatore non manca di sottolineare come il deepfake sia drammaticamente adoperato per generare pornografia diffamatoria, ma anche per diffondere della pericolosa disinformazione politica. In effetti, questo genere di applicazione della tecnologia ha un potenziale di pericolo talmente incombente che persino Microsoft si è impegnata per trovare contromisure con cui ci potremo difendere.

 

Potrebbe anche interessarti: