Lo scorso 11 aprile, il Garante per la protezione dei dati personali ha pubblicato le misure che OpenAI dovrà adottare per poter tornare a rendere disponibile ChatGPT in Italia. Tra i diversi punti, ce n’è uno in particolare che ha destato preoccupazioni. Il motivo? Da solo potrebbe rendere virtualmente impossibile il ritorno del chatbot in Italia, non nell’immediato quantomeno.

La richiesta è la seguente:

[…] la messa a disposizione, sul proprio sito Internet, almeno agli interessati, anche diversi dagli utenti del servizio, che si collegano dall’Italia, di uno strumento attraverso il quale chiedere e ottenere la correzione di eventuali dati personali che li riguardano trattati in maniera inesatta nella generazione dei contenuti o, qualora ciò risulti impossibile allo stato della tecnica, la cancellazione dei propri dati personali.

Il Garante, in altre parole, sta chiedendo che OpenAI dia alle persone vittime di disinformazione o di contenuti diffamanti (vedasi l’ormai celebre caso di un sindaco australiano ingiustamente accusato dall’IA di corruzione) la possibilità di richiedere una rettifica delle informazioni fornite da ChatGPT. OpenAI, petraltro, avrebbe fino al 30 aprile per introdurre questa modifica e soddisfare tutte le altre richieste.

Il problema è che rischia di essere impossibile. Il perché lo ha spiegato il giornalista Sergio Donato sulle pagine di DDay.it: «ChatGPT, così come ha spiegato OpenAI, non è connesso a Internet per il recupero delle informazioni, e il suo modello linguistico GPT è stato addestrato a prevedere la parola successiva in un documento utilizzando dati disponibili pubblicamente (come quelli di Internet) e dati concessi in licenza a OpenAI», spiega.

La possibilità di memorizzare da una parte le risposte fornite a tutti gli utenti e dall’altra prevedere un meccanismo di rettifica di informazioni errate su una persona specifica non è prevista dall’attuale modello. GPT, attualmente, molto probabilmente non ha gli strumenti per soddisfare uno scopo di questo tipo ed è probabile che l’IA necessiterebbe di un nuovo addestramento per imparare a farlo.

Donato segnala comunque che OpenAI oggi offre già un sistema di feedback per raccogliere le segnalazioni degli utenti ogni volta che l’IA offre delle risposte inconsuete, offensive, errate o in qualche modo problematiche. Resta da capire se OpenAI abbia anche le risorse per raccogliere le segnalazioni degli utenti e provvedere ad una rettifica nei tempi estremamente celeri richiesti dal Garante.

È realistico pensare che OpenAI possa e voglia imbastire un’operazione di questo tipo solamente per l’Italia? Molto difficile. Vale però la pena di menzionare che recentemente l’UE ha lanciato una task force interamente dedicata a ChatGPT, nata proprio con lo scopo di coordinare i tentativi di regolamentare e monitorare questa tecnologia. Se una simile richiesta arrivasse da numerosi Stati membri, il tema diventerebbe sicuramente più urgente per l’azienda.