Youtube ha rimosso oltre 11 milioni di video in appena tre mesi. Tutto merito degli algoritmi di moderazione, sempre più agguerriti e infallibili.

Il numero comunicato da Youtube riguarda i video rimossi, perché in violazione delle policy del sito, nel periodo che va da aprile a giugno. La stragrande maggioranza sono stati segnalati e revisionati dalle intelligenze artificiali, spiega l’azienda. Su 11,4 milioni di video, quelli rimossi dagli algoritmi sono 10.8 mln.

L’aiuto del processo di moderazione automatizzato, spiega Youtube, è stato provvidenziale, contando che a causa dell’epidemia nello stesso lasso di tempo l’azienda era stata costretta a ridurre, e di molto, la moderazione da parte del personale umano.

Affidandosi ai suoi algoritmi, Youtube ha rimosso il doppio dei video che erano stati cancellati nei primi tre mesi dell’anno

Youtube ha anche spiegato di aver aumentato i controlli degli algoritmi per quel che riguarda tutti quei video dove l’estrema prudenza non è necessariamente un male, ossia quelli che violano le policy sull’estremismo armato e sulla salute e l’integrità dei minori — quest’ultimo è una macro-categoria che riguarda anche le “challenge” considerate pericolose o estreme.

Solamente il 3% delle rimozioni ha ricevuto un reclamo

Solamente il 3% dei video rimossi hanno ricevuto un reclamo da parte delle persone o delle organizzazioni che li avevano caricati. Per quanto suggestivo possa essere, questo ovviamente non è un elemento di per sé assolutorio, ed è lontano da darci un dato esatto sul tasso di accuratezza degli algoritmi di Youtube.

La cosa impressionante è che il 75% dei video rimossi sono stati eliminati prima ancora che superassero le 10 visualizzazioni. Dei contenuti sottoposti a moderazione, 3.8 milioni violavano le policy sulla sicurezza dei minori, 3.2 quelle sullo spam o le truffe, 1.7 milioni violavano le linee guida sulla nudità, mentre 1.2 milioni e 900mila violavano, rispettivamente, le norme sulla violenza e sull’istigazione alla violenza.