Secondo quando riportato dal South China Morning Post reports, un uomo in Cina è stato arrestato per aver usato ChatGPT per scrivere una notizia falsa. L’uomo ha creato una notizia in cui scriveva che un incidente ferroviario ha causato la morte di nove persone.

L’uomo, identificato solo come Hong, è stato arrestato nella provincia cinese di Gansu per aver “usato la tecnologia dell’intelligenza artificiale per creare informazioni false e non veritiere“, secondo la polizia locale, che ha accusato Hong di “aver scatenato litigi e provocato problemi“. Si tratta di un’accusa piuttosto ampia che comporta una condanna da cinque a dieci anni di carcere se Hong viene condannato. L’incidente segna la prima volta che un arresto è stato effettuato pubblicamente in base alle nuove norme cinesi sull’intelligenza artificiale entrate in vigore a gennaio. Le norme sono un tentativo del governo di frenare l’uso della tecnologia di “deep synthesis” per diffondere disinformazione online.

Nè chat GPT, nè i deepfakes

Le nuove disposizioni amministrative cinesi sulla deep synthesis per il servizio di informazione su Internet rendono illegale l’uso dell’IA per creare deepfakes, a meno che il contenuto non sia esplicitamente etichettato come tale e si possa risalire alla sua fonte originale. Le disposizioni prevedono inoltre che chiunque utilizzi la tecnologia di sintesi profonda per alterare la voce o l’immagine di una persona, i deepfakes, debba prima contattarla e ottenere il suo consenso. I deepfakes sono definiti come video in cui il volto e/o il corpo di una persona sono stati alterati digitalmente utilizzando l’intelligenza artificiale in modo da farla apparire come un’altra persona. Finora il processo è stato utilizzato soprattutto per scopi di intrattenimento, come nel caso della serie web Sassy Justice di Matt Stone e Trey Parker. Justice è una serie di satira politica creata dai creatori di South Park per prendere in giro Donald Trump e altre figure politiche. Ma i deepfake possono essere usati anche per scopi nefasti. La maggior parte dei siti per adulti affidabili proibisce i contenuti deepfake, ma non c’è modo di fermarli tutti. Ed è proprio questo il problema: fermarli. L’approccio della Cina sembra eccessivamente severo, ma qual è l’alternativa? Come possono i legislatori assicurarsi che l’intelligenza artificiale non invada completamente Internet senza violare le libertà individuali delle persone? È possibile? Alla velocità con cui programmi di intelligenza artificiale come ChatGPT stanno crescendo e imparando, potrebbe non esserlo. Anche l’approccio draconiano della Cina potrebbe non essere sufficiente a impedire la diffusione di media manipolati dall’IA.