Gli utenti hanno notato che il sistema di preview di Twitter sia razzista, preferendo le foto dei caucasici a quelle delle minoranze.
Nel weekend ha preso piede un “gioco”, ovvero dimostrare quanto l’algoritmo del social in questione vada a nascondere i volti delle persone di colore dalle immagini in anteprima.
Tutto è iniziato per caso, quando un utente ha twittato osservazioni sul come il servizio di video comunicazione Zoom avesse la tendenza a non identificare la presenza di un suo collega di colore, facendolo scomparire all’interno dello sfondo digitale.
Geez…any guesses why @Twitter defaulted to show only the right side of the picture on mobile? pic.twitter.com/UYL7N3XG9k
— Colin Madland 🇺🇦 (@colinmadland) September 19, 2020
Ecco quindi la sorpresa: almeno nella versione mobile, la foto del suo post era tagliata in modo che il collega in questione venisse del tutto estromesso dalla preview. Un dettaglio che, complice anche il periodo di sensibilità alle tematiche razziali, ha infiammato la rete.
Da lì sono partiti due giorni di test informali, alcuni con risultati particolarmente sorprendenti. Dal caricare scatti dell’ex presidente statunitense Barack Obama al mettere alla prova i preconcetti dell’intelligenza artificiale con i personaggi dei Simpson, molto sembra perpetrare l’idea che la IA di Twitter sia razzista.
La situazione è tuttavia più complessa e articolata di così, come fa notare Dantley Davis, capo designer dell’azienda. In alcune sue prove preliminari ha infatti notato che in situazioni artificiosamente neutre il problema non sussista.
Here's another example of what I've experimented with. It's not a scientific test as it's an isolated example, but it points to some variables that we need to look into. Both men now have the same suits and I covered their hands. We're still investigating the NN. pic.twitter.com/06BhFgDkyA
— Dantley Davis (@dantley) September 20, 2020
D’altronde, l’azienda statunitense ha deliberatamente scelto di progettare la sua rete neurale in modo che non tenga troppo conto dei visi delle persone, consapevole che l’affidarsi al face recognition rischia di portare a soluzioni non sempre ottimali.
In precedenza abbiamo usato il riconoscimento facciale per concentrare l’inquadratura [della preview] sul volto prominente. […] l’approccio aveva ovvie limitazioni, visto che non tutte le immagini contengono volti.
In aggiunta, il nostro face detector perdeva frequentemente dei volti e, occasionalmente, identificava per errore delle facce dove non ve ne erano. Se non c’erano facce da trovare, focalizzavamo l’attenzione sul centro dell’immagine. Questo poteva portare a immagini di preview tagliate in maniera goffa,
recita il post con cui nel 2018 Twitter aveva lanciato il nuovo algoritmo.
A dire del social, erano stati eseguiti tutti i rodaggi del caso, per evitare una situazione simile. Evidentemente qualcosa è comunque sfuggito di mano e ora c’è “solo” da capire cosa.
Potrebbe anche interessarti: