Microsoft ha presentato un tool in grado di identificare i video deepfake. Lo strumento è progettato per combattere la disinformazione in vista delle elezioni presidenziali del 2020.
Il tool anti deepfake si chiama “Microsoft Video Authenticator” ed è in grado di analizzare foto e video, assegnando un punteggio che indica la probabilità che si tratti di un contenuto contraffatto usando l’intelligenza artificiale.
Sfruttando il machine learning è possibile clonare la voce o il volto di chiunque
Dei video e degli audio deepfake si parla con insistenza dal 2018, sono considerati tra le principali minacce alla democrazia. Sfruttando il machine learning è possibile clonare quasi alla perfezione la voce di una persona, oppure incollare in modo convincente la faccia di una persona sul corpo di un attore. Sfruttando questo enorme potere si potrebbe tranquillamente creare un video contraffatto dove si fa confessare ad un rivale politico di aver commesso dei reati, oppure si potrebbero mettere in bocca ad un manager dichiarazioni mai fatte, in modo da manipolare la democrazia e il mercato azionario.
Negli ultimi mesi ci sono già stati diversi tentativi di truffa, a volte conclusi con successo, altre volte falliti, dove i criminali avevano clonato la voce di un manager per convincere i dipendenti della sua azienda a spostare enormi quantità di denaro sui loro conti privati.
Il nostro è uno sforzo a lungo termine, ma ci auguriamo che sia possibile avere un impatto apprezzabile già nell’immediato che ci porterà alle elezioni di novembre
ha detto Tom Burt, uno dei vicepresidenti di Microsoft.
L’azienda di Redmond sostiene che non sempre sia possibile distinguere ad occhio nudo un deepfake da un contenuto reale, proprio per questo le intelligenze artificiali potrebbero darci una mano preziosa nella lotta ai video manipolati.
Microsoft Video Authenticator sarà inizialmente messo ad esclusiva disposizione delle organizzazioni politiche e dei giornalisti investigativi.
Microsoft sta anche lavorando ad un secondo strumento dalla funzione complementare al primo: permette alle organizzazioni e agli individui di dare ai loro video un “bollino” di autenticità. Insomma, una certificazione garantita da Microsoft per distinguere i contenuti buoni da quelli manipolati. Se un domani non ci risulta inverosimile pensare che questo bollino di garanzia possa venire implementato direttamente da social come Twitter e Facebook, inizialmente per poterlo vedere sarà necessario installare un estensione per browser creata ad hoc, il che potrebbe renderlo poco efficace o, comunque, relativamente macchinoso.
Sull’argomento:
- Microsoft Releases Deepfake Detection Tool Ahead of Election (bloomberg.com)