Quella pubblicata dalla MIT Technology Review è un’indagine melanconica, più che cupa. La giornalista Karen Hao ha tirato le somme di un’indagine lunga mesi, svelando come l’algoritmo di Facebook promuova volontariamente fake news e complottismi, ma anche come i tecnici che si occupano di machine learning per l’azienda si trovino costretti in posizioni di impotenza.
Riassunta all’osso, la questione sollevata è semplice: per anni, ogni volta che il Society and AI Lab (SAIL) ha proposto una soluzione che potesse migliorare umanamente l’esperienza sui social, la Big Tech si rifiutava categoricamente di accogliere il cambiamento, poiché avrebbe immancabilmente danneggiato l’engagement.
Quando il tuo business è quello di massimizzare il coinvolgimento, non ti interessa la verità. Non ti interessa se causi danni, generi divisioni e fomenti le cospirazioni. A conti fatti, questi fenomeni sono tuoi amici.
Loro [Facebook, ndr] fanno sempre ciò che basta per riuscire a pubblicare un comunicato stampa, ma, a parte rare eccezioni, non penso che il loro intervento si traduca in migliore policy. Non vogliono mai affrontare veramente i problemi fondamentai,
ha detto Hany Farid, professore dell’Università della California che collabora con Facebook per analizzare la disinformazione basata su immagini e video che si annida sulla piattaforma.
SAIL ha cercato a lungo di alterare l’algoritmo e il machine learning di Facebook per risolvere proprio queste criticità, ma ogni intervento si scontrava con le ambizioni di crescita dell’azienda. Il team si è trovato quindi definanziato o, eventualmente, depistato su problemi specifici e minori che non andassero a impattare sulla struttura del social.
Hao riporta che ogni nuova modifica introdotta sul social venga inoltre monitorata da vicino: se la sua implementazione danneggia il tasso di engagement, i ricercatori sono spinti a istruire nuovamente il programma, così che non causi ulteriori “danni”.
Il problema è che i “contenuti controversi“, quelli al limite della policy del portale, sono proprio quelli che scatenano il coinvolgimento sfrenato del pubblico, soprattutto se questi riguardano disinformazione e complottismi. Alterare un codice funzionante per preservarli, vuol dire automaticamente renderlo innocuo e inutile.
Seconda la ricostruzione fatta dal MIT Technology Review, l’azienda digitale avrebbe quindi cercato di combattere la tossicità della Rete solo sul piano formale, così da essere protetta per quanto riguarda il giudizio pubblico e le regolamentazioni di legge, ma con lo scopo di preservare uno status quo economicamente interessante.
Potrebbe anche interessarti:
- How Facebook got addicted to spreading misinformation (technologyreview.com)