L’AI è inquietantemente brava a smascherare gli utenti anonimi sul web
Uno studio ha rivelato che gli LLM sono ormai formidabili nel rintracciare e riconoscere gli utenti anonimi online. L'accuratezza arriva fino al 90%. La privacy è morta per sempre?

L’era in cui bastava un nickname per proteggere la propria identità sui social media potrebbe essere al tramonto. Chiariamoci, un nomignolo non è mai stato sufficiente per proteggersi da organizzazioni particolarmente determinate, come le forza dell’ordine. Tuttavia, forniva una protezione di base da occhi indiscreti. Ora però smascherare gli utenti del web potrebbe diventare un gioco da ragazzi per virtualmente qualsiasi persona: basta usare le AI.
Come funziona il meccanismo di identificazione
Un gruppo di ricercatori ha dimostrato che i modelli linguistici di grandi dimensioni — i cosiddetti LLM — sono in grado di de-anonimizzare gli utenti che si nascondono dietro account pseudonimi con una precisione e una velocità impensabili fino a pochi anni fa, riscrivendo di fatto le regole della privacy online.
Lo studio, recentemente pubblicato, si basa su una serie di esperimenti condotti su dataset reali tratti da piattaforme pubbliche come Reddit, Hacker News, LinkedIn e Netflix. I ricercatori hanno incrociato post e profili su più piattaforme, eliminato preventivamente tutti i riferimenti identificativi espliciti, e poi lasciato lavorare gli agenti AI sui testi rimanenti.
I risultati sono stati netti: il tasso di richiamo — cioè quanti utenti sono stati correttamente identificati — ha raggiunto il 68 percento, mentre la precisione delle identificazioni corrette è arrivata fino al 90 percento. Numeri che staccano nettamente i metodi classici di de-anonimizzazione, che si basavano su dataset strutturati e abbinamenti algoritmici o su investigatori umani.
Il vantaggio degli LLM sta nella loro capacità di ragionare su testo libero e navigare il web in modo autonomo, esattamente come farebbe un essere umano. In uno degli esperimenti più rivelatori, i ricercatori hanno usato le risposte date da 125 partecipanti a un questionario di Anthropic sull’uso dell’AI nella vita quotidiana: senza alcun dato esplicito, il sistema è riuscito a identificare correttamente il 7 percento degli intervistati. In un altro test su Reddit, gli utenti che avevano commentato più di dieci film su subreddit differenti sono stati riconosciuti nel 48 percento dei casi con una precisione del 90 percento.
Le conseguenze per la privacy
Le implicazioni di questi risultati sono profonde. La pseudonimia è stata a lungo considerata una protezione sufficiente per chi partecipa a discussioni sensibili online, pubblica opinioni politiche o cerca informazioni delicate. Gli LLM, secondo i ricercatori, invalidano questa assunzione di base.
Chi volesse sfruttare queste tecniche potrebbe costruire profili dettagliati su scala industriale, aprendo la strada al doxing, allo stalking, alla profilazione commerciale iperpersonalizzata e persino all’uso da parte di governi per identificare dissidenti o critici online. E se salta l’anonimato, a rischio potenzialmente c’è l’incolumità delle persone.
Sul fronte delle contromisure, i ricercatori suggeriscono più livelli di intervento: le piattaforme dovrebbero imporre limiti di accesso alle API, rilevare lo scraping automatizzato e bloccare l’esfiltrazione su scala massiccia dei dati. I fornitori di LLM potrebbero monitorare usi impropri dei propri modelli e inserire guardrail che rifiutino richieste di de-anonimizzazione. Agli utenti, infine, si consiglia di ridurre l’esposizione sui social o quantomeno di cancellare i post periodicamente. Soprattutto quest’ultima potrebbe rivelarsi una strategia vincente.