Teoricamente i minori di 13 non possono iscriversi ai social network, eppure milioni di bambini usano le principali piattaforme ogni giorno. Fare finta che questo non succeda significa trascurare un problema che in alcuni Paesi ha raggiunto un livello emergenziale.
Negli Stati Uniti d’America un numero drammaticamente elevato di minori ha subito almeno una volta molestie o ha ricevuto messaggi non richiesti da un adulto. Lo rivela uno studio della nonprofit Thorn pubblicato da The Platformer, newsletter di The Verge.
Non sempre la questione riguarda le molestie da parte degli adulti, spesso il tema è un altro ed è altrettanto drammatico: i bambini non hanno le misure di difesa necessarie per interpretare e comprendere quello che vedono online, spesso le conseguenze sono tragiche e le pagine della cronaca nera ce lo ricordano con una frequenza drammatica. Ad inizio del 2021 una bambina palermitana di appena 10 anni ha perso la vita in circostanze tragiche, le prime ricostruzioni hanno attribuito il decesso alla “Blackout Challenge“, una moda pericolosa diffusasi attraverso TikTok, soprattutto tra i giovanissimi. In quell’occasione il garante della privacy era intervenuto con fermezza, imponendo misure draconiane al social.
Spesso casi drammatici come questo si mischiano ad una narrazione da leggenda metropolitana, tra Blue Whale, Jonathan Gallindo e altri fenomeni spesso fraintesi o raccontati in toni mistificatori dalla stampa generalista.
Non serve scomodare l’uomo nero per capire che esiste un problema che richiede un interesse da parte delle aziende tech e, forse con ancora più urgenza, impone una maggiore consapevolezza dei rischi del web da parte delle famiglie.
Il web non è un posto per bambini
Il 45% dei bambini tra i 9 e 12 anni usa Facebook abitualmente, rivela uno studio di Thorn sulle abitudini online degli adolescenti e dei preadolescenti. Il numero scende al 40% per Instagram e Snapchat, sale al 41% per TikTok e al 78% per YouTube.
Non tutte questi social hanno dato prova di voler affrontare questo problema con la stessa convinzione, gli sforzi messi in campo spesso sono insoddisfacenti: sempre stando a Thorne, il 25% dei ragazzi interessanti – con un campione compreso tra 9 e 17 anni – sostiene di aver avuto almeno in un’occasione una sollecitazione di natura sessuale da parte di una persona maggiorenne.
Le molestie vengono raccontate ai genitori molto raramente, la stragrande maggioranza dei ragazzini (l’83%) si affida agli strumenti messi a disposizione dal social network: mutando o bloccando l’interlocutore. Spesso questo non basta: nella maggior parte delle occasioni le molestie continuano, è sufficiente che l’adulto usi un altro account o contatti il minore usando un altro social.
Il problema è ancora più sentito tra gli adolescenti LGBT: il 57% dei quali racconta di aver avuto almeno una volta «un’esperienza potenzialmente dannosa» online, contro il 46% dei loro coetanei.
La risposta dei social
È in questo contesto che vanno lette le iniziative di alcuni grossi social che in questi anni hanno presentato – o hanno dichiarato l’intenzione di presentare – una versione per bambini delle loro app. YouTube Kids non esiste esclusivamente per proporre un catalogo in target per gli utenti più giovani, ma anche per garantire uno spazio sicuro e per adempiere in modo più efficace alla normativa americana – il COPPA Act – che vieta espressamente alle aziende tech di raccogliere e trattare i dati dei minori di 13 anni.
Facebook ha già Messenger Kids e lavora anche ad una versione per bambini di Instagram, un prodotto pensato per consentire agli infratredicenni di comunicare con gli amici senza esporsi ai pericoli. L’iniziativa è ancora in cantiere ed ha già incontrato un’aspra opposizione da parte della politica, dei quotidiani e dell’opinione pubblica.
È una reazione istintivamente appropriata: Facebook, come azienda, ha già deluso il pubblico in ogni modo immaginabile e affidargli senza battere ciglio una responsabilità così grande sembra un azzardo. Spesso però l’istinto non è un buon consigliere: i bambini navigano sul web e usano i principali social, succede ogni giorno. Illudersi che non sia così o che sia possibile ridurre questo fenomeno rischia di essere un errore ancora più grande. Iniziare a pensare a prodotti tech sicuri e progettati fin dalle fondamenta per le esigenze dei più giovani potrebbe rivelarsi una strategia vincente. Da una parte una strategia di harm reduction, che riconosce il problema e cerca di evitare il peggio, dall’altra una crociata ideologica che è destinata al fallimento. Certo, non fraintendete: le aziende tech non devono essere lasciate solo in questo compito. Creare obblighi e regole chiare rimane un compito della legge.
È proprio questa l’opinione di Julie Cordua, CEO di Thorn:
Le piattaforme devono diventare più brave a progettare le esperienze. Gli adulti hanno il compito di creare spazi sicuri per i bambini che vogliono parlare con i loro coetanei. Il Governo e il legislatore devono invece comprendere il comportamento dei bambini online e farlo con un livello d’approfondimento estremamente più dettagliato di quello che avviene oggi. Devi entrare nel merito dei dettagli e capire qual è l’esperienza di un giovane che si connette online
Non sempre una politica di riduzione dei danni è accettabile o giustificabile, esistono molto semplicemente degli spazi dove i giovani non devono poter accedere, per il loro bene. Tra le scoperte di Thorn emerge un dato che non può che fare impallidire: ben il 27% dei giovani tra 9 o 12 anni intervistati nel corso dello studio ha dichiarato di essersi registrato almeno una volta ad un sito d’incontri. La maggior parte delle dating app impone agli utenti di avere come minimo 18 anni.
I social devono investire di più sui processi di verificazione dell’età usando ogni risorsa a loro disposizione. Devono creare anche canali d’emergenza preferenziali per i più giovani: oggi un adolescente che riceva una molestia sui social è lasciato in balia di opzioni di segnalazione spesso criptiche o inconcludenti. «Questo è anche un problema di user experience, per prendere in prestito il linguaggio della Silicon Valley», sintetizza il giornalista di The Verge Casey Newton.
Gli sforzi per combattere le molestie sui social non possono essere individuali, le piattaforme devono collaborare e cooperare tra di loro. Ad esempio, spiega Thorn, dovrebbero condividere informazioni e liste nere di presunti molestatori.
Di recente ha fatto discutere una nuova iniziativa di Instagram, che ha annunciato l’intenzione di impedire agli adulti di mandare messaggi ai minori, almeno che il minore non segua a sua volta l’adulto. Un algoritmo segnalerà poi eventuali account sospetti: ad esempio se un adulto segue o contatta un numero significativamente alto di minori. In quel caso un utente minorenne che dovesse averci a che fare verrebbe avvisato del potenziale pericolo. Le nuove misure di sicurezza verranno introdotte in alcuni Paesi già nel corso del 2021, poi nel resto del mondo.
La situazione in Italia
Dell’uso del web e dei social da parte dei giovanissimi, in Italia, si è iniziato a parlare ad inizio anno, quando le autorità inquirenti avevano collegato la morte di una bambina palermitana ad una pericolosa moda diffusasi su TikTok. Il Garante della Privacy è intervenuto d’urgenza, imponendo al social di prendere adeguati provvedimenti per evitare che i minori di 13 anni possano iscriversi.
Dopo il primo accordo dello scorso gennaio, TikTok a maggio del 2021 ha rafforzato ulteriormente le sue policy recependo le seguenti richieste dell’autorità italiana:
- garantire la cancellazione, entro 48 ore, degli account segnalati e che risultino, all’esito di verifiche, intestati a utenti al di sotto dei 13 anni di età;
- rafforzare i meccanismi di blocco dei dispositivi utilizzati dagli utenti infratredicenni per provare a accedere alla piattaforma;
- studiare e elaborare soluzioni, anche basate sull’intelligenza artificiale, che nel rispetto della disciplina in materia di protezione dei dati personali, consentano di minimizzare il rischio che bambini al di sotto dei 13 anni di età utilizzino la piattaforma;
- lanciare nuove iniziative di comunicazione, sia in app che attraverso radio e giornali, allo scopo di educare a un uso consapevole e sicuro della piattaforma e di ricordare che la piattaforma non è adatta a un pubblico di infratredicenni;
- studiare e elaborare una nuova informativa realizzata con linguaggio semplice e con modalità interattive e coinvolgenti dedicata agli utenti minorenni anche utilizzando modalità multimediali o nuove soluzioni idonee a rafforzare le opportunità che i minorenni prendano effettivamente conoscenza del contenuto di tale informativa;
- condividere con il Garante, dati e informazioni relative all’efficacia delle diverse misure adottate, al fine di collaborare nell’identificazione di misure efficaci e capaci di contenere il fenomeno.
Dal monito del Garante a maggio del 2021, TikTok ha rimosso oltre mezzo milione di account rivelatesi intestati, verosimilmente, a bambini con meno di 13 anni. L’autorità continuerà a monitorare il social per assicurarsi che l’impegno venga mantenuto.
Ancora più recentemente il tema è finito in aula del Parlamento, con una proposta di legge che mira a vietare l’uso degli smartphone trai giovanissimi e ad introdurre multe fino a 1.500€ per i genitori inadempienti. Più che un divieto totale, i proponenti chiedono dei limiti d’uso a seconda dell’età:
- Da 0 a 3 anni: «Divieto di utilizzo» di smartphone, tablet e qualsiasi altro dispositivo digitale
- Da 4 a 6 anni: «Utilizzo graduale per non più di un’ora al giorno»
- Da 6 a 8 anni: «Utilizzo non superiore a tre ore giornaliere»
- Da 9 a 12 anni: «Utilizzo non superiore a quattro ore giornaliere»
La proposta è firmata dai deputati De Giorgi, Ianaro, Palmisano, Papiro, Vizzini, Lombardo e dall’ex Ministro dell’Istruzione Fioramonti, tutti del Movimento 5 Stelle. Come il legislatore intenda far rispettare questo obbligo, salvo entrare nelle case degli italiani, è un’altra questione — alla quale noi non sappiamo dare risposta.
The Gateway è il magazine settimanale di Lega Nerd che vi parla del mondo della tecnologia e dell’innovazione.
- The child safety problem on platforms is worse than we knew (theverge.com)
- Social Media Safety – Child Welfare Information Gateway (childwelfare.gov)
- Social media, online gaming and keeping children safe online (nidirect.gov.uk)