Gli scienziati hanno impiantato con successo memorie deepfake in soggetti umani. Guidato da Gillian Murphy dell’University College Cork in Irlanda, il team ha preso in esame oltre 400 partecipanti a cui sono stati presentati filmati deepfake. In uno di questi video Will Smith interpretava Neo in Matrix, un ruolo originariamente interpretato da Keanu Reeves. Lo studio sui ricordi deepfake, pubblicato sulla rivista PLOS One, ha dimostrato che il 49% dei partecipanti credeva che il falso remake fosse reale. Molti di loro hanno persino “ricordato” il finto reboot di Matrix come migliore del film originale. Il 41% di questo gruppo ha affermato che il falso Captain Marvel, interpretato da Charlize Theron, era migliore. “Anche se i nostri risultati suggeriscono che la tecnologia deepfake non è l’unica in grado di distorcere i ricordi dei film, i nostri dati qualitativi hanno suggerito che la maggior parte dei partecipanti non si sentiva a proprio agio con il rifacimento del deepfake“, hanno detto i ricercatori. Le loro preoccupazioni includevano il potenziale di compromissione dell’integrità artistica e un senso di disagio riguardo al livello di controllo e alle possibilità che questa tecnologia poteva offrire.
Tutto sta nell’alfabetizzazione tecnologica
Tuttavia, i video deepfake non sono stati più efficaci nel distorcere i ricordi rispetto alle semplici descrizioni testuali. “Non dovremmo lanciarci in previsioni di futuri distopici sulla base delle nostre paure nei confronti delle tecnologie emergenti”, ha dichiarato a The Byte Murphy, ricercatrice sulla disinformazione presso l’University College Cork. Ha aggiunto che le prove dei danni dovrebbero essere raccolte prima di precipitarsi a risolvere problemi che potrebbero non esistere.Le persone possono proteggersi dalla natura ingannevole dei deepfakes migliorando la loro alfabetizzazione tecnologica. Inoltre, i risultati non destano preoccupazioni significative, poiché lo studio indica che i deepfakes non rappresentano una minaccia particolarmente potente per la memoria rispetto alle forme di disinformazione esistenti.
Esplorando i confini della memoria umana: Falsi ricordi e la distorsione dei ‘Deepfake’
È interessante notare che studi precedenti – non correlati alla tecnologia deepfake – hanno dimostrato varie tecniche per impiantare falsi ricordi. Un’importante ricercatrice in questo campo è Elizabeth Loftus, che ha condotto l’esperimento “lost in the mall“. In questo studio, ai partecipanti è stato detto falsamente che da bambini si erano persi in un centro commerciale. Sorprendentemente, un quarto dei partecipanti ha ricordato il falso evento. Questo esperimento è stato successivamente replicato da Murphy nel 2022. I risultati di questi studi rivelano che i ricordi delle esperienze originali possono essere distorti da informazioni successive all’evento. Murphy ha riassunto questo fenomeno come la possibilità che i nostri ricordi siano influenzati da dettagli successivi. La ricercatrice, e la sua équipe, hanno in programma di condurre un nuovo studio che coinvolge i ricordi “deepfake” legati alla politica. L’obiettivo sarà quello di valutare i potenziali effetti sulla memoria e sugli atteggiamenti degli elettori.