TikTok, parla una moderatrice: “io costretta a guardare ogni giorno video di violenza e pedofilia”. E ora chiede i danni

Una moderatrice di TikTok, il social network di proprietà dell’azienda cinese ByteDance, ha presentato una class action sostenendo di essere costretta a visionare centinaia di ore di materiale raccapricciante ogni settimana, senza che l’azienda fornisca a lei ed i suoi colleghi le opportune tutele, soprattutto in materia di assistenza psicologica.

Candie Frazier, questo il nome della moderatrice, sostiene di lavorare su turni di 12 ore, con appena due pause da 15 minuti al giorno. I video che i moderatori devono revisionare ogni giorno includono scene di pedofilia, cannibalismo e violenza brutale.

Frazier, che ora ha presentato una proposta di class action nel tentativo di coinvolgere il numero più alto possibile di suoi colleghi, ha spiegato di lavorare in condizioni disumane. “I moderatori non possono impiegare più di 25 secondi per video, vista la quantità di contenuti che devono revisionare ogni giorno, spesso sono costretti a guardare dai tre ai dieci contenuti simultaneamente”, hanno scritto i suoi avvocati nel materiale presentato presso un tribunale di Los Angeles.

La moderatrice, dunque, punta il dito non solo contro la natura del suo lavoro, che ovviamente conosceva (o poteva intuire) prima della sua assunzione, ma soprattutto contro le modalità imposte dai dirigenti dell’azienda, che esacerberebbero significativamente i possibili danni al benessere psicofisico dei dipendenti.

Con un comunicato TikTok, pur rifiutandosi di commentare nello specifico le accuse sollevate dalla Frazier, ha negato di sottoporre i suoi dipendenti a condizioni di lavoro disumane.

Non è un problema nuovo, né tantomeno esclusivo a TikTok e ByteDance. La denuncia di Candie Frazier ricorda molto da vicino un’inchiesta del 2019 di The Verge. All’epoca si parlava delle condizioni in cui erano costretti a lavorare i dipendenti della Cognizant, azienda che si occupava di moderazione dei contenuti per conto di Facebook.

Gli utenti riempiono i social network di spazzatura, contenuti illegali e potenzialmente traumatizzanti. Qualcuno deve fare pulizia. Non è un lavoro semplice e gli effetti sulla salute mentale di chi si occupa quotidianamente di moderazione dei contenuti possono essere gravi e irreversibili. Nel caso della Cognizant diversi ex moderatori hanno sviluppato problemi di salute mentale paragonabili ai disturbi post-traumatici dei veterani di guerra. Sebbene non si possa fare molto per cambiare la natura (necessaria) di questi lavori, le aziende hanno il dovere di rendere la vita il più semplice possibile ai loro dipendenti, favorendo un ambiente di lavoro adeguatamente sano e, soprattutto, garantendo l’accesso ad assistenza medica e piscologica adeguata.

 

 

TikTok vuole diventare "l'app definitiva per lo shopping"
TikTok vuole diventare "l'app definitiva per lo shopping"
TikTok ha censurato gli scioperi degli sceneggiatori per sbaglio: voleva bloccare i complottisti
TikTok ha censurato gli scioperi degli sceneggiatori per sbaglio: voleva bloccare i complottisti
TikTok, i video non bastano: l'app vuole diventare un social network a 360 gradi
TikTok, i video non bastano: l'app vuole diventare un social network a 360 gradi
TikTok i dati degli utenti europei rimarranno in Europa: attivo il data center irlandese
TikTok i dati degli utenti europei rimarranno in Europa: attivo il data center irlandese
Anche TikTok ha rimosso gli account fake della Cina (ma solo perché il Guardian ha insistito)
Anche TikTok ha rimosso gli account fake della Cina (ma solo perché il Guardian ha insistito)
TikTok presto bombarderà gli utenti di pubblicità anche nei risultati di ricerca
TikTok presto bombarderà gli utenti di pubblicità anche nei risultati di ricerca
La maggioranza degli americani ritiene che TikTok sia un pericolo per la sicurezza degli USA
La maggioranza degli americani ritiene che TikTok sia un pericolo per la sicurezza degli USA