Milioni di conversazioni private con un’AI sono finite in rete
Sicuri che sia una buona idea confidare i vostri segreti alle intelligenze artificiali? Il caso Chat & Ask AI, scaricata da milioni di persone, è l'ennesima conferma che faremmo meglio a non fidarci troppo.

Un’enorme quantità di messaggi privati scambiati con un chatbot è rimasta accessibile online per mesi, senza alcuna protezione adeguata. Al centro del caso c’è Chat & Ask AI, una delle applicazioni di intelligenza artificiale più scaricate su Google Play e Apple App Store, che dichiara oltre 50 milioni di utenti. Secondo un’indagine pubblicata da 404 Media e basata sulle analisi di un ricercatore indipendente, centinaia di milioni di conversazioni contenenti informazioni estremamente sensibili sono state esposte a causa di una configurazione errata dei sistemi backend.
Un errore espone milioni di utenti
Il problema riguarda l’utilizzo di Google Firebase, una piattaforma di sviluppo molto diffusa che, se configurata in modo scorretto, consente a chiunque di accedere ai database interni dell’applicazione come se fosse un utente autenticato. Il ricercatore, noto online come Harry, ha dichiarato di aver avuto accesso a circa 300 milioni di messaggi appartenenti a più di 25 milioni di utenti, con cronologie complete delle chat, timestamp, impostazioni del modello AI e persino i nomi personalizzati dati ai chatbot.
I contenuti emersi sono particolarmente inquietanti. Tra le conversazioni analizzate compaiono richieste su come togliersi la vita senza dolore, su come scrivere lettere di suicidio, su come produrre droghe sintetiche o violare altri servizi digitali. Un quadro che evidenzia quanto i chatbot vengano spesso usati come spazio di sfogo o come fonte di risposte per questioni estremamente delicate, andando ben oltre un uso superficiale dell’AI.
Chat & Ask AI non sviluppa un proprio modello linguistico, ma funge da “wrapper” che consente agli utenti di scegliere tra grandi modelli forniti da aziende come OpenAI, Anthropic e Google. Questo rende il caso ancora più rilevante, perché mostra come la sicurezza non dipenda solo dai grandi provider di AI, ma anche da chi costruisce le app che li integrano.
L’app è sviluppata dalla società turca Codeway, che afferma di rispettare standard elevati di sicurezza, conformità GDPR e certificazioni internazionali. Dopo la segnalazione del 20 gennaio, l’azienda ha corretto la vulnerabilità in poche ore, non solo su Chat & Ask AI ma anche su altre app dello stesso sviluppatore. Resta però il dato strutturale: errori di configurazione di Firebase sono noti da anni e continuano a colpire decine di applicazioni popolari.
Le persone affidano ai chatbot pensieri intimi, paure e richieste estreme, spesso dando per scontato che quelle conversazioni restino private. Questo episodio dimostra, per l’ennesima volta, quanto si sbaglino.