La settimana scorsa è stata diffusa la notizia che James Earl Jones si sarebbe ritirato dal doppiaggio di Darth Vader. L’attore, che per decenni ha prestato la propria voce per il personaggio, non ci sarà più nelle prossime produzioni, ma al suo posto non sarà scelto un altro interprete bensì un’intelligenza artificiale che riprodurrà le parti registrare di James Earl Jones per creare nuove battute. In questo approfondimento vogliamo spiegare quali tecniche e situazioni stanno dietro al caso James Earl Jones, Darth Vader ed il doppiaggio con l’intelligenza artificiale.
Darth Vader, James Earl Jones e l’I.A.
La storia del doppiaggio di Darth Vader passa per l’Ucraina, dove il conflitto con la Russia non ha impedito all’azienda Respeecher di lavorare all’universo di Star Wars su due serie TV molto attese come The Book of Boba Fett e Obi-Wan Kenobi. Respeecher ha utilizzato delle registrazioni già esistenti di Luke Skywalker e di Darth Vader per rielaborarle all’interno della serie TV. Bogdan Belyaev di Respeecher ha raccontato che grazie alla start-up è stata generata la voce di un giovane Luke Skywalker, mentre è stata ringiovanita quella di Darth Vader (considerando i 91 anni di James Earl Jones). Matthew Wood, che è un sound editor supervisore della Lucasfilm, ha dichiarato che la scelta su Respeecher è caduta per la loro particolare capacità di creare un “suono umano”. Già con il telefilm Obi-Wan Kenobi il ruolo di James Earl Jones sembra essersi limitato più a quello di consigliere che di doppiatore in tutto e per tutto. Ed il risultato del lavoro di Respeecher è stato considerato dallo stesso Jones come un degno tributo al suo lavoro su Darth Vader.
Il metodo utilizzato dalla start-up ucraìna ha a che fare con il voice cloning, una tecnica di Deep Learning tramite la quale è possibile ricreare una voce sintetica.
La base del voice cloning ha avuto inizio nel 1970, grazie al contributo dello scienziato giapponese Mashito Mori, che notò come gli esseri umani fossero inclini ad accettare le istruzioni di una voce robotica. Nel corso di 50 anni il lavoro di deep learning sul voice cloning ha raggiunto ottimi risultati (come appunto dimostra il caso Darth Vader). Grazie al voice cloning oggi è possibile ricreare una voce sintetica simile in tutto e per tutto a quella originale. Per arrivare a tutto ciò sono necessari due strumenti: un motore TTS (Text To Speech) e un vocoder. Il primo ha la capacità di prendere un testo dividendolo per fonemi, ovvero l’unità logica alla base di un suono; mentre il secondo lavora sul fonema rendendo l’influenza spettrale compatibile con il clone. Grazie al deep learning il vocoder può diventare sempre più preciso. Per un lavoro di qualità occorrono però centinaia di ore di training voce e testo e tutti i fonemi possibili della voce clonata. E proprio per il caso Darth Vader lo stesso Matthew Wood ha rivelato che il personaggio ha in genere per ogni sua apparizione 50 battute capaci di generare 10.000 file. Un quantitativo che, considerando la somma di tutti gli interventi passati di Darth Vader e di James Earl Jones in Star Wars, è sufficiente per creare una voce clonante abbastanza fedele.
E tutto ciò viene definito dagli esperti del settore come digital immortality, ovvero la possibilità di rendere immortale il personaggio e il suo doppiatore.
Umanità contro robotica?
Fino ad ora questo tipo di operazioni, proprio grazie a Star Wars, sono state maggiormente notate a livello visivo, considerando il “ritorno in vita” di Peter Cushing con il comandante della Morte Nera da lui interpretato, riproposto in versione digitale per Rogue One. La Lucasfilm sotto questo punto di vista sembra porsi sempre come un punto di riferimento e di avanguardia, non a caso la Industrial Light & Magic fu un’azienda degli effetti visivi nata proprio con il primo film di Star Wars e che, successivamente, ha conquistato l’intera Hollywood.
Ma cosa hanno da dire i doppiatori su quanto è accaduto con il caso James Earl Jones e Darth Vader? Il parere più diffuso tra gli addetti ai lavori, nonostante già nei documentari si utilizzino delle voci digitali, è abbastanza non a favore, visto che nei film si tratta di una situazione praticamente inedita. La categoria dei doppiatori è contraria a questo tipo di operazioni, anche se non si può non constatare che la tecnologia stia andando in questa direzione. Ad oggi, però, non si può sostenere che la voce umana possa essere del tutto sostituita. La voce computerizzata di un attore non può esprimere tutto ciò che è capace di fare una voce umana vera e propria. Questa cosa, magari, può funzionare con Darth Vader, ma per quanto riguarda delle situazioni meno artefatte e più drammatiche verrebbe molto più difficile renderla credibile.
Sembra porsi anche questa volta una sorta di conflitto tra umanità e robotica. Nel tempo, probabilmente, si arriverà ad un punto d’incontro, certo è che questo caso James Earl Jones, Darth Vader e intelligenza artificiale applicata al doppiaggio ha aperto dei nuovi orizzonti che, come spesso è accaduto negli ultimi decenni, sono partiti proprio da quella galassia lontana lontana dell’universo di Star Wars.
Fonti bibliografiche:
- Darth Vader’s Voice Emanated From War-Torn Ukraine (vanityfair.com)
- Voice cloning, cos’è, come funziona, prospettive e problematiche (ai4business.it)