In questi giorni si sta parlando con particolare apprensione di BikiniOff, un’applicazione che consentirebbe di creare, pare con risultati convincenti, una foto deepfake di nudo (anche detti deepnude) partendo da una qualsiasi foto innocua di una persona.
L’applicazione, diffusa come bot sull’app di messagistica Telegram, sembrerebbe essere soprattutto in voga tra i ragazzini di età molto giovane ed è già stata al centro di un controverso e delicato caso di cronaca che ha coinvolto un liceo italiano.
Peraltro, l’app è anche spuntata fuori in un momento in cui si sta discutendo con sempre più insistenza delle intelligenze artificiali generative e delle loro implicazioni su numerosi temi, come la privacy, il diritto d’autore e la lotta contro la disinformazione.
BikiniOff ha un’interfaccia in lingua inglese, nasce in Europa e dal sito è evidente che si rivolge ad un pubblico internazionale, tuttavia questa inquietante applicazione ha fatto parlare di sé praticamente solo in Italia e le poche fonti internazionali che hanno coperto l’argomento fanno comunque riferimento al caso di cronaca che ha coinvolto un liceo della provincia di Roma. Partiamo proprio da lì.
Usano un’app per “spogliare” le compagne e finiscono indagati per pedopornografia: nei guai due 14enni italiani
L’argomento dei deepnude è entrato nel radar dell’informazione italiana in questi giorni, dopo la conclusione di un’indagine aperta lo scorso agosto su due ragazzi di appena 14 anni. L’accusa (fortunatamente, per loro, già archiviata) era gravissima: “hanno prodotto e diffuso materiale pedopornografico“.
I ragazzi avevano usato un’applicazione per generare delle foto false di nudo di alcune loro compagne di classe, poi circolate in alcune chat frequentate dagli studenti della loro scuola. La notizia è arrivata anche alle dirette interessate, che hanno scelto di sporgere denuncia. Interpellati da alcuni quotidiani, tra cui La Repubblica, i poliziotti della Questura di Roma hanno rivelato che non si tratterebbe nemmeno del primo episodio, ma che ci sarebbero state quasi una trentina di segnalazioni simili dallo scorso dicembre ad oggi. Quasi tutti gli episodi riguardano ragazzini giovanissimi e dinamiche molto simili: le ragazze finiscono, senza il loro consenso, oggetto di false foto di nudo che circolano tra decine di smartphone e poi scatta la denuncia.
Sebbene il caso degli studenti di Roma sia stato attribuito da molti quotidiani a BikiniOff, il sito d’informazione Giornalettismo, che ha dedicato all’argomento numerosi approfondimenti, lo ha smentito categoricamente, sottolineando come l’episodio in questione risalga ad agosto, mentre BikiniOff è stato lanciato solamente a febbraio di quest’anno. Lo stesso Giornalettismo segnala comunque che anche le foto diffuse dai ragazzini di Roma sarebbero state generate usando un bot di Telegram che concettualmente è molto simile a BikiniOff.
Un altro caso riportato da diversi quotidiani è molto più recente e riguarda una scuola media sempre di Roma: è verosimile che almeno in questo caso gli studenti abbiano usato effettivamente BikiniOff per generare le immagini.
A prescindere, sul tema è intervenuta anche il Garante per l’Infanzia della Regione Lazione, Monica Sansoni, che ha inviato a non sminuire la gravità dell’episodio. “Non è una ragazzata”, ha detto, aggiungendo di aver già iniziato ad organizzare degli incontri nelle scuole e in altri luoghi di aggregazione giovanile per fare sensibilizzazione sull’argomento dei deepfake e della pornografia non consensuale.
Come funziona BikiniOff, che cosa è e da dove salta fuori
BikiniOff è un’applicazione che produce quello che in gergo si chiamano deepnude, cioè immagini di nudo generate usando l’intelligenza artificiale e, in genere, create partendo dalle fattezze o da un foto di una persona reale. In sostanza: trasforma foto innocenti in contenuti pornografici.
La nostra avanzata tecnologia di image editing può facilmente rimuovere i vestiti da qualsiasi foto, lasciando soltanto il minimo essenziale
Provala ora e assisti alla nostra magia in azione
si legge nella homepage del sito ufficiale del “servizio”. BikiniOff non ha un’applicazione ufficiale distribuita sul Play Store o su App Store, banalmente perché viola le linee guida di entrambi i marketplace. Al contrario, il bot è distribuito (sembra) esclusivamente sull’applicazione di messaggistica Telegram — già al centro di numerose controversie e di parecchi casi di distribuzione di pornografia non consensuale e pornografia minorile.
Sempre Giornalettismo è riuscito a risalire all’azienda che ha lanciato il servizio: si chiama Crystal Future OÜ ed è stata registrata in Estonia con un capitale sociale di 2.500€ dall’imprenditore Theodotos Kapsis, che l’ha fondata nel 2017 per poi disfarsene nel 2020. Il sito dell’azienda cita alcuni altri prodotti: nessun’altra applicazione, ma solo alcuni siti dedicati a news di videogiochi, che in passato, peraltro, le erano costati altri guai legali. Tra questi c’era anche il dominio PUGB.com, che però è stato rivendicato – con successo – in aulta di tribunale dalla PUBG Corporation, che possiede il celebre videogioco Player Unknown: Battlegrounds.
Il funzionamento di BikiniOff non è completamente gratuito, fatta eccezione per una demo iniziale. Per usarla gli utenti devono acquistare dei gettoni, che vengono consumati ad ogni foto “convertita”. Si possono acquistare usando carte di credito, Google Pay ma anche pagando in criptovalute (e ci mancherebbe…).
Il canale ufficiale del bot conta già oltre 100mila utenti da tutto il mondo. Numeri che fanno paura, ma che sono tristemente simili a quelli di moltissimi altri gruppi e canali dediti alla diffusione di pornografia non consensuale scoperti su Telegram dalle autorità italiane e di mezzo mondo nel corso degli ultimi anni.
Il problema dei deepnude è sempre più attuale
BikiniOff è un bot piuttosto recente, ma il tema della pornografia non consensuale “sintetica” non lo è, anche se con l’impressionante avanzamento delle IA generazionali diffuse al grande pubblico sta diventando sempre più attuale e probabilmente finirà per divenire epidemico da qui a poco.
Recentemente ha fatto molto discutere un caso che ha colpito la comunità americana di Twitch, dopo che si è scoperto che uno streamer relativamente famoso aveva visitato un sito pornografico specializzato proprio nella generazione e nella diffusione di deepfake porno di content creator famose su Twitch e YouTube.
Durante una diretta su Twitch, Brandon “Atrioc” Ewing – questo il nome dello streamer – aveva condiviso per sbaglio il suo schermo, rivelando che tra le finestre aperte sul suo browser ce n’era anche una a con un sito per adulti dedicato ai video deepfake. La schermata in questione mostrava diversi video espliciti, con il volto di alcune popolari colleghe di Atrioc, tra cui Pokimane e Maya Higa
Sebbene Atrioc abbia giurato che si sia trattato di un errore, e che non fosse sua intenzione condividere le finestre aperte sul browser con il suo pubblico, l’incidente ha dato vita ad un acceso dibattito e diverse streamer hanno manifestato la loro insofferenza per il problema dei video deepfake. “Smettetela di oggettificare le donne senza il loro consenso. Punto.”, ha scritto, ad esempio, Pokimane, una delle streamer ritratte dal sito visitato da Atrioc.
In risposta, alcuni mesi dopo Twitch ha aggiornato le sue policy per vietare la menzione e la diffusione di cotenuti deepfake porno, riservandosi il diritto di sanzionare anche gli episodi avvenuti fuori dalla sua piattaforma.