I ricercatori della NISON hanno divulgato la registrazione del deepfake audio usato nella tentata truffa a danno di una grossa azienda. Vale la pena di ascoltarla: un domani potreste essere voi a ricevere una telefonata del genere.

Le truffe a base di deepfake audio si stanno diffondendo a macchia d’olio. Sfruttando il machine learning è possibile replicare —in modo imperfetto, ma convincente— la voce di chiunque.

 

 

Con la possibilità di rubare la voce di un dirigente d’azienda i truffatori hanno carta bianca per architettare i crimini più sofisticati, e le pagine della cronaca, malauguratamente, stanno già iniziando a riempirsi di casi di questo tipo.

Un gruppo di truffatori, scriveva Futurism l’anno scorso, era riuscito a convincere un impiegato a trasferire —”con urgenza!”— oltre 200mila dollari dal conto corrente aziendale a quello gestito da loro. Era bastato clonare la voce del CEO della compagnia usando il machine learning.

Quello che trovate poco più sopra, è il caso reale di un deepfake audio usato nel corso di una tentata truffa. La qualità forse non è delle migliori, ma praticamente chiunque ha ricevuto in almeno un paio di occasioni telefonate con un audio ben più disturbato, e da persone al 100% in carne ed ossa. Insomma, può funzionare e infatti spesso funziona.

Non in questo caso, rivelano i ricercatori della NISON che hanno divulgato la traccia audio. Nel caso specifico il dipendente che ha ricevuto la telefonata è stato abbastanza accorto da non cadere nel tranello dei truffatori e segnalare l’episodio al dipartimento legale interno.

Suona sicuramente umana. Fino a qua ci arrivano: suona più umana o robotica? Personalmente direi più umana. Fortunatamente, non suona abbastanza come la voce reale del CEO che volevano impersonare

ha spiegato a Motherboard Rob Volkert, ricercatore di sicurezza informatica della NISOS.

Sull’argomento: