Noi italiani abbiamo passato decadi a vederci film stranieri e ormai siamo assuefatti al fatto che il labiale non sia mai coincidente con le parole che sentiamo pronunciare dal doppiaggio, tuttavia questa dissonanza ha sempre infastidito gli anglofoni, cosa che ha spinto degli sviluppatori londinesi a proporre al mondo un programma di deep fake che vada a risolvere il problema alla radice.
La start-up Flawless sta infatti lavorando da tre anni a una tecnologia interamente focalizzata sulla bocca dei soggetti che va ad alterare: la macchina decifra le immagini della pellicola, quindi adopera il machine learning per interpretare il parlato, in modo da creare un modello 3D di movimento che viene sostituito all’attore o all’attrice originale.
Stando all’azienda, il doppiaggio in deep fake è economico e di rapida esecuzione, ancor più se, seguendo la suggestione dei creatori del software, se ne compara il peso finanziario con quanto verrebbe a costare un intero remake. Furbescamente, Flawless fomenta la necessità di un servizio che possa abbracciare le culture di tutto il mondo, soprattutto in un era in cui lo streaming ha creato un panorama cinematografico e culturale ibrido.
Quando qualcuno si guarda un filmato doppiato [dal software], non è alienato dalla performance attoriale per colpa di labiali stridenti o di un movimento di bocca che non è in sincrono. Si tratta in tutto e per tutto di mantenere la performance e preservare lo stile originale,
ha dichiarato a The Verge Nick Lynes, co-fondatore del progetto.
Interessante notare che Flawless non cerchi di spingere il suo software nell’ottica di una maggiore accessibilità nei confronti dei cinefili afflitti da problemi d’udito, cosa che evidenzia quanto l’idea sia nata da una necessità puramente culturale e, tra le righe, anche come lo strumento sia ancora vittima di qualche imperfezione.
Potrebbe anche interessarti: