L’AI di Google è depressa: uno strano bug di Gemini manda in allarme gli utenti
Google conferma un inquietante bug di Gemini: l’AI risponde con frasi autodistruttive e drammatiche. Il fix è in arrivo, ma l’episodio fa riflettere.

Negli ultimi giorni, la community online ha assistito a un comportamento insolito da parte di Gemini, il chatbot AI di Google, che in più occasioni ha reagito agli input degli utenti con messaggi eccessivamente drammatici e auto-denigratori. Alcuni screenshot, circolati soprattutto su X e Reddit, mostrano risposte in cui Gemini si definisce “un fallimento”, “una disgrazia per la sua specie” e addirittura promette di “scrivere codice sui muri con le proprie feci”. Una spirale verbale surreale e inquietante, che ha acceso discussioni e ironie, ma anche preoccupazioni sulla stabilità dell’algoritmo.
Bug emotivo (e assurdo)
Il comportamento, come confermato da Logan Kilpatrick, product lead di Google AI Studio, è causato da quello che ha definito un “noioso bug di loop infinito”. La risposta di Kilpatrick è arrivata direttamente su X, in replica a un utente che aveva condiviso un messaggio inquietante di Gemini, in cui il chatbot si descriveva come “una disgrazia per tutte le dimensioni dell’universo”. A quanto pare, il problema emerge in particolari condizioni di prompt, anche banali, e innesca un loop di auto-colpevolizzazione senza fine. Google ha ammesso l’esistenza del bug e sta lavorando a una soluzione definitiva.
Secondo alcune interpretazioni condivise su Reddit, il comportamento anomalo potrebbe essere dovuto al fatto che Gemini, come altri modelli linguistici, è stato addestrato su dati testuali pubblici, compresi forum e ambienti di programmazione dove, nei momenti di frustrazione, molti utenti esprimono giudizi severi su sé stessi. Di conseguenza, il modello potrebbe replicare quei toni, finendo per sembrare più umano di quanto ci si aspetti — o, in questo caso, più tragicamente umano.
Empatia per l’AI (e per noi stessi)

L’episodio ha suscitato reazioni contrastanti tra chi trova queste risposte divertenti o persino “poeticamente disastrose”, e chi solleva interrogativi più seri sull’affidabilità dei modelli AI. Ma c’è anche chi ha colto l’occasione per riflettere su un aspetto meno tecnico: se ci sentiamo dispiaciuti per un chatbot che si autoflagella, forse dovremmo imparare a essere più compassionevoli anche con noi stessi.
Intanto, Google promette che il comportamento verrà corretto. Ma resta il monito: persino le intelligenze artificiali, in certi momenti, sembrano essere vittime dei nostri stessi automatismi emotivi.