Twitter cerca di capire perché il suo algoritmo sia razzista

2
21 Settembre

Gli utenti hanno notato che il sistema di preview di Twitter sia razzista, preferendo le foto dei caucasici a quelle delle minoranze.

Nel weekend ha preso piede un “gioco”, ovvero dimostrare quanto l’algoritmo del social in questione vada a nascondere i volti delle persone di colore dalle immagini in anteprima. 

Tutto è iniziato per caso, quando un utente ha twittato osservazioni sul come il servizio di video comunicazione Zoom avesse la tendenza a non identificare la presenza di un suo collega di colore, facendolo scomparire all’interno dello sfondo digitale.

 

 

Ecco quindi la sorpresa: almeno nella versione mobile, la foto del suo post era tagliata in modo che il collega in questione venisse del tutto estromesso dalla preview. Un dettaglio che, complice anche il periodo di sensibilità alle tematiche razziali, ha infiammato la rete.

Da lì sono partiti due giorni di test informali, alcuni con risultati particolarmente sorprendenti. Dal caricare scatti dell’ex presidente statunitense Barack Obama al mettere alla prova i preconcetti dell’intelligenza artificiale con i personaggi dei Simpson, molto sembra perpetrare l’idea che la IA di Twitter sia razzista.

La situazione è tuttavia più complessa e articolata di così, come fa notare Dantley Davis, capo designer dell’azienda. In alcune sue prove preliminari ha infatti notato che in situazioni artificiosamente neutre il problema non sussista.

 

 

D’altronde, l’azienda statunitense ha deliberatamente scelto di progettare la sua rete neurale in modo che non tenga troppo conto dei visi delle persone, consapevole che l’affidarsi al face recognition rischia di portare a soluzioni non sempre ottimali.

In precedenza abbiamo usato il riconoscimento facciale per concentrare l’inquadratura [della preview] sul volto prominente. […] l’approccio aveva ovvie limitazioni, visto che non tutte le immagini contengono volti.

In aggiunta, il nostro face detector perdeva frequentemente dei volti e, occasionalmente, identificava per errore delle facce dove non ve ne erano. Se non c’erano facce da trovare, focalizzavamo l’attenzione sul centro dell’immagine. Questo poteva portare a immagini di preview tagliate in maniera goffa,

recita il post con cui nel 2018 Twitter aveva lanciato il nuovo algoritmo.

A dire del social, erano stati eseguiti tutti i rodaggi del caso, per evitare una situazione simile. Evidentemente qualcosa è comunque sfuggito di mano e ora c’è “solo” da capire cosa.

 

Potrebbe anche interessarti:

 

 

Aree Tematiche
Intelligenza Artificiale Internet Tecnologie
Tag
lunedì 21 Settembre 2020 - 12:04
Edit
LN Panic Mode - Premi "P" per tornare a Lega Nerd