Il comitato per la protezione dei dati dell’Unione Europea ha recentemente dichiarato che gli sforzi di OpenAI per migliorare l’accuratezza del suo chatbot, ChatGPT, non sono ancora sufficienti per garantire la piena conformità con le rigorose norme europee in materia di protezione dei dati. Nonostante i progressi compiuti per aumentare la trasparenza, la task force dell’UE ritiene che le misure adottate non siano ancora adeguate a soddisfare il principio di accuratezza dei dati.

La task force e le preoccupazioni sull’accuratezza

Nel rapporto pubblicato venerdì sul suo sito web, la task force dell’UE ha sottolineato che, sebbene le misure per migliorare la trasparenza di ChatGPT possano aiutare a evitare interpretazioni errate degli output, queste non bastano per garantire la precisione delle informazioni fornite. Questo gruppo, composto dalle autorità nazionali di vigilanza sulla privacy in Europa, ha istituito una task force specifica su ChatGPT l’anno scorso, in risposta alle preoccupazioni sollevate dai regolatori nazionali, con l’Italia in prima linea.

Problemi di formazione del modello e output distorti

La task force ha evidenziato che, a causa della natura probabilistica del sistema di ChatGPT, l’attuale approccio alla formazione del modello può portare alla produzione di risultati distorti o inventati. Questo problema è particolarmente critico quando si considerano le informazioni relative agli individui, che gli utenti finali potrebbero ritenere accurate indipendentemente dalla loro effettiva veridicità. La natura del modello probabilistico di ChatGPT comporta che, anche con migliori misure di trasparenza, il chatbot può ancora generare informazioni inesatte.

Indagini in corso e future implicazioni

Le indagini avviate dalle autorità nazionali di vigilanza sulla privacy in vari Stati membri dell’UE sono ancora in corso. Di conseguenza, non è ancora possibile fornire una descrizione completa dei risultati. Tuttavia, il rapporto della task force sottolinea la necessità di ulteriori miglioramenti da parte di OpenAI per allinearsi agli standard europei di protezione dei dati, specialmente in termini di accuratezza.

OpenAI e la risposta alle critiche

Al momento della pubblicazione del rapporto, OpenAI non ha rilasciato commenti ufficiali in risposta alle critiche sollevate dalla task force. Tuttavia, la pressione da parte delle autorità europee potrebbe portare l’azienda a implementare ulteriori miglioramenti nel modello di ChatGPT per garantire una maggiore conformità con le normative sulla protezione dei dati. L’accuratezza dei dati è un principio fondamentale delle norme dell’UE in materia di protezione dei dati, e l’attuale capacità di ChatGPT di generare informazioni precise rimane sotto scrutinio. OpenAI dovrà probabilmente adottare misure più rigorose per assicurare che il suo chatbot possa soddisfare pienamente gli standard europei, garantendo così la sicurezza e la veridicità delle informazioni fornite agli utenti.