Secondo i ricercatori dell’ Australian National University (ANU), i volti bianchi creati dall’intelligenza artificiale (AI) appaiono più “realistici” dei volti umani reali. Sebbene i partecipanti al nuovo studio abbiano trovato i volti umani bianchi generati dall’IA più realistici di quelli reali, lo stesso non è avvenuto per le immagini di persone di colore.
Cosa c’è dietro questa percezione
La ragione di questa discrepanza è che gli algoritmi di IA vengono addestrati in modo sproporzionato sui volti bianchi, ha dichiarato la dott.ssa Amy Dawel, autrice senior del lavoro. In altre parole, gli algoritmi di IA vengono addestrati in misura molto maggiore sui volti bianchi. “Se i volti bianchi dell’intelligenza artificiale vengono costantemente percepiti come più realistici, questa tecnologia potrebbe avere serie implicazioni per le persone di colore, rafforzando in ultima analisi i pregiudizi razziali online“, ha affermato la dottoressa Dawel.
Uno dei problemi dell'”iperrealismo” dell’IA è che spesso le persone non si rendono conto di essere ingannate
Questi rapidi sviluppi delle capacità dell’IA stanno iniziando a superare la nostra capacità di renderci conto del loro potere.”È preoccupante che le persone che pensavano che i volti dell’IA fossero reali fossero anche, paradossalmente, le più sicure che i loro giudizi fossero corretti”, ha detto Elizabeth Miller, coautrice dello studio e dottoranda all’ANU. Questo significa che le persone che scambiano gli impostori dell’IA per persone reali non sanno di essere ingannate. Insomma, come dimostra questa ricerca, le persone non sempre si rendono conto di essere ingannate dall'”iperrealismo” dell’IA.
Il team di ricerca ritiene di avere un motivo per cui le persone vengono ingannate così facilmente
Sembra che esistano ancora differenze fisiche tra l’IA e i volti umani reali, ma che le persone le interpretino in modo errato. Per esempio, i volti bianchi generati dall’intelligenza artificiale sono spesso più proporzionati, ma gli spettatori lo vedono come un segno della loro “umanità”, ha spiegato Dawel. È chiaro che questi sviluppi potrebbero facilitare la diffusione di informazioni online errate. Secondo il team, è necessario intervenire per limitare la futura proliferazione di informazioni fuorvianti e il potenziale furto di identità che le immagini AI comportano.
L’IA non deve rimanere isolata
“La tecnologia dell’intelligenza artificiale non può essere isolata in modo che solo le aziende tecnologiche sappiano cosa succede dietro le quinte. È necessaria una maggiore trasparenza cosicché i ricercatori – e la società civile- possano identificare i problemi prima che diventino gravi“, ha dichiarato Dawel. È importante che il pubblico acquisisca una maggiore consapevolezza del potenziale uso improprio delle tecnologie AI per ridurre i rischi, sostiene il team. Poiché gli individui non sono più in grado di distinguere correttamente tra i volti reali e quelli generati dall’IA, la società ha bisogno di più strumenti in grado di identificare con precisione un impostore dell’IA. “Educare le persone sul realismo percepito dei volti dell’intelligenza artificiale potrebbe aiutare il pubblico a essere adeguatamente scettico sulle immagini che vede online“, ha concluso Dawel.