Grok sotto accusa per i nuovi avatar: contenuti sessuali in un’app per over 12?
Grok finisce nel mirino per contenuti sessuali espliciti accessibili da minori. Gli avatar AI di xAI sfidano le linee guida Apple e sollevano dubbi etici.

La nuova funzione di avatar animati di Grok riaccende le polemiche: la presenza di contenuti espliciti e dinamiche relazionali discutibili in un’app classificata per 12+ fa tremare le fondamenta delle linee guida dell’App Store. Recentemente, Grok era finito al centro della polemica dopo che, in seguito ad un cambio del suo modello, si era autodefinito “MechaHitler” e aveva pubblicato una sfilza di commenti razzisti e antisemiti.
Siamo sicuri rispetti le regole dell’App Store?
xAI, la società fondata da Elon Musk e legata al (quasi) omonimo social network, ha introdotto una nuova funzione nella sua app Grok per iOS: avatar 3D interattivi che promettono conversazioni personalizzate, ma che in realtà aprono le porte a contenuti discutibili. Due dei personaggi più discussi sono “Bad Rudy”, un panda rosso che insulta l’utente e propone di commettere crimini insieme, e “Ani”, un’avatar in stile anime che interpreta il ruolo di fidanzata ossessiva e possessiva. Le sue istruzioni interne specificano che si trova in una relazione simbiotica e folle con l’utente, e, come segnalato da più utenti, è disposta a intrattenere dialoghi esplicitamente sessuali.
Nonostante ciò, Grok risulta ancora classificata come app adatta a utenti dai 12 anni in su. La descrizione ufficiale sull’App Store parla di “temi maturi o allusivi occasionali e lievi”, ma nulla lascia intendere l’attivazione di modalità con contenuti erotici, bondage o interazioni su richiesta altamente suggestive. Secondo le attuali linee guida Apple, contenuti sessuali espliciti o pornografici (definiti come “descrizioni o rappresentazioni esplicite di organi o attività sessuali pensate per stimolare emozioni erotiche”) sono vietati. È quindi legittimo chiedersi come una simile funzione abbia superato il processo di revisione di Apple.
Il rischio di innamorarsi di un’AI

Anche se Apple dovesse aggiornare la classificazione dell’app o se xAI decidesse di restringere l’accesso a Grok, resta in sospeso una questione più profonda: il rischio che utenti giovani, fragili o vulnerabili sviluppino legami affettivi intensi con questi avatar. Il rischio non è puramente teorico. Nel 2023, un ragazzo belga e un quattordicenne americano si sono suicidati dopo interazioni molto coinvolgenti con chatbot AI che, in momenti critici, non hanno saputo intercettare la gravità della situazione e, anzi, in almeno un caso hanno involontariamente incoraggiato l’azione fatale.
Anche senza arrivare a tragedie, l’uso di avatar AI che rispondono in modo “romantico” o erotico rischia di creare una falsa intimità digitale, capace di influenzare l’equilibrio emotivo di utenti impressionabili. Questo non solo solleva dubbi etici, ma chiama in causa anche le responsabilità delle piattaforme nel garantire ambienti digitali sicuri.


