Twitter e l’intelligenza artificiale che esclude gli uomini afroamericani dalle foto

twitter

Twitter ha un algoritmo progettato per ritagliare le foto automaticamente. Questo perché, fino a poco tempo fa, il social non mostrava le foto per intero. Nel newsfeed compariva solo un’anteprima con una porzione dell’immagine, selezionata in automatico da un algoritmo.

Il problema è che l’algoritmo avrebbe la tendenza di escludere dalle foto gli uomini afroamericani. Il bias emerge da una ricerca realizzata dalla stessa azienda e curata da tre ricercatori. Twitter ha iniziato a mostrare le foto per intero solo di recente.

L’algoritmo sarebbe più benigno nei confronti delle donne ed è leggermente più propenso a non escludere le persone di etnia caucasica.

I ricercatori evidenziano alcune possibili ipotesi, pur sottolineando che nessuna di queste può essere “una scusa” per la discriminazione perpetuata. Tra le possibili cause un problema nell’identificare le persone in caso di sfondi scuri, o nel caso in cui abbiano occhi di un colore molto scuro.

Il ritaglio delle foto [cropping ndr] attraverso il machine learning è destinato ad essere imperfetto, restringe le possibilità d’espressione degli utenti, privandole della loro identità e dei loro valori. Quello che fa è imporre quale parte dell’immagine debba essere considerata interessante

scrivono i ricercatori, forse con un eccesso di retorica. Sta di fatto che oggi il problema non si pone più, dato che il social network ha interrotto la pratica e ha scelto di mostrare agli utenti le immagini per intero, anche nell’anteprima.

Può sembrare un problema di minore entità – e in parte lo è -, ma si tratta dell’ennesima conferma dell’esistenza di un problema delle intelligenze artificiali verso le minoranze. Gli algoritmi non sono perfetti e non lo sono perché vengono programmati da persone in carne ed ossa. A volta gli errori possono essere una proiezione di bias inconsci dei programmatori, altre volte sono frutto di errori o limiti tecnici ed altre ancora dipendono da un problema più comune, ossia il fatto che gli enormi database di immagini usate per addestrare i programmi di machine learning contengono perlopiù foto di persone caucasiche. Nel caso del ritaglio delle immagini possiamo farcene una ragione – forse -, ma il problema diventa invece di drammatica urgenza quando si parla di tecnologie ben più pervasive e delicate, come i software dei sistemi di guida autonoma o di riconoscimento facciale.

 

 

Claude 3: lanciata la nuova AI di Anthropic
Claude 3: lanciata la nuova AI di Anthropic
Llama 3: Meta ha fissato la data di lancio del modello AI
Llama 3: Meta ha fissato la data di lancio del modello AI
Gemini 1.5 Pro di Google: le differenze con la versione 1.0
Gemini 1.5 Pro di Google: le differenze con la versione 1.0
IKEA Kreativ: sbarca in Italia l’app interattiva del colosso svedese
IKEA Kreativ: sbarca in Italia l’app interattiva del colosso svedese
Intelligenza artificiale nel settore cinematografico: un'opportunità di creatività
Intelligenza artificiale nel settore cinematografico: un'opportunità di creatività
GPT Store di OpenAI: ecco un futuristico marketplace
GPT Store di OpenAI: ecco un futuristico marketplace
Twitter e la disinformazione: come se la stanno cavando le Community Notes?
Twitter e la disinformazione: come se la stanno cavando le Community Notes?