Mastodon, il social decentralizzato considerato un’alternativa valida a Twitter, ha un grave problema con il materiale pedopornografico. A denunciarlo è un rapporto dei ricercatori dell’Osservatorio Internet di Stanford: in soli due giorni, i ricercatori hanno trovato 112 casi di CSAM (acronimo usato per definire le immagini che ritraggono abusi sui minori), tutti già noti alle autorità, su un campione di appena 325.000 post pubblicati sulla piattaforma.
Ai ricercatori sono bastati cinque minuti per individuare il primo contenuto pedopornografico. Analizzando le altre piattaforme social mainstream, i ricercatori non si erano mai imbattuti in una situazione così allarmante.
Per condurre la ricerca, l’Osservatorio Internet ha analizzato le 25 istanze più popolari di Mastodon alla ricerca di CSAM. I ricercatori hanno anche utilizzato l’API SafeSearch di Google per identificare immagini esplicite, insieme a PhotoDNA, uno strumento sviluppato da Microsoft che aiuta a individuare materiale di abuso sessuale minorile (a patto che sia già stato segnalato e registrato da forze dell’ordine o associazioni). Usando questi due strumenti, i ricercatori riescono ad individuare il materiale illegale senza effettivamente visualizzarlo o salvarlo sulle cache del loro computer, evitando in questo modo di violare la legge.
Durante la ricerca, il team ha trovato 554 contenuti che corrispondevano a hashtag o parole chiave spesso utilizzate da gruppi online che condividono foto e video di abusi sessuali sui minori. I ricercatori sono anche risaliti ad oltre 1217 post che, seppur privi di file multimediali, facevano comunque riferimento allo scambio di materiale pedopornografico o a strategie per adescare i minori.
“Abbiamo ottenuto più corrispondenze su PhotoDNA in un periodo di due giorni di quanto ne abbiamo probabilmente avute in tutta la storia della nostra organizzazione durante qualsiasi tipo di analisi sui social media, e non c’è neppure paragone,” ha dichiarato David Thiel, uno dei ricercatori che ha lavorato al rapporto, in una dichiarazione al The Washington Post.
Thiel ha suggerito che Gran un problema così grave e pervasivo è verosimilmente il risultato dell’assenza di strumenti di moderazione che sono comunemente utilizzati dalle piattaforme centralizzate, ma che un social decentralizzato difficilmente può implementare.