Per usare le funzioni più avanzate di ChatGPT bisognerà fornire un documento
OpenAI introduce un sistema di verifica dell'identità: per accedere ai futuri modelli AI più avanzati sarà necessario registrarsi caricando un documento d'identità.

OpenAI, l’azienda che ha creato ChatGPT, ha annunciato l’introduzione di un nuovo processo di verifica dell’identità che potrebbe presto diventare obbligatorio per le organizzazioni che desiderano accedere a determinati modelli AI futuri. L’informazione è emersa da una pagina di supporto pubblicata sul sito web dell’azienda la scorsa settimana.
Un nuovo sistema di verifica
Il nuovo processo, denominato “Verified Organization“, viene descritto come “un nuovo modo per gli sviluppatori di sbloccare l’accesso ai modelli e alle funzionalità più avanzate sulla piattaforma OpenAI”. La procedura richiederà la presentazione di un documento d’identità rilasciato dal governo di uno dei paesi supportati dall’API di OpenAI. Secondo quanto riportato, un documento d’identità potrà verificare una sola organizzazione ogni 90 giorni, e non tutte le organizzazioni saranno idonee per la verifica.
“In OpenAI, prendiamo seriamente la nostra responsabilità di garantire che l’IA sia al contempo ampiamente accessibile e utilizzata in modo sicuro”, si legge nella pagina. “Sfortunatamente, una piccola minoranza di sviluppatori utilizza intenzionalmente le API di OpenAI in violazione delle nostre politiche di utilizzo. Stiamo aggiungendo il processo di verifica per mitigare l’uso non sicuro dell’IA, continuando a rendere i modelli avanzati disponibili alla più ampia comunità di sviluppatori.”
Una misura contro la Cina?
Questo nuovo processo di verifica potrebbe essere inteso come un rafforzamento della sicurezza attorno ai prodotti di OpenAI, che stanno diventando sempre più sofisticati e potenti. L’azienda ha pubblicato diversi rapporti sui suoi sforzi per rilevare e mitigare l’uso malevolo dei suoi modelli, anche da parte di gruppi presumibilmente basati in Corea del Nord.
La misura potrebbe anche mirare a prevenire il furto di proprietà intellettuale. Secondo quanto riportato da Bloomberg all’inizio di quest’anno, OpenAI stava indagando se un gruppo collegato a DeepSeek, il laboratorio di IA con sede in Cina, avesse esfiltrato grandi quantità di dati attraverso la sua API alla fine del 2024, possibilmente per addestrare modelli – una violazione dei termini di servizio di OpenAI.

È importante ricordare che OpenAI ha bloccato l’accesso ai suoi servizi in Cina la scorsa estate, un’ulteriore indicazione della crescente attenzione dell’azienda verso la sicurezza e il controllo dell’accesso ai suoi modelli più avanzati.
Questa iniziativa si inserisce in un contesto più ampio di tensioni geopolitiche attorno alle tecnologie di intelligenza artificiale e rappresenta uno dei primi tentativi significativi di introdurre un sistema di verifica dell’identità nel settore dell’IA accessibile agli sviluppatori.


