OpenAI e Microsoft hanno avviato un’indagine su DeepSeek dopo che i ricercatori di sicurezza hanno rilevato, alla fine del 2024, un’anomala estrazione di dati attraverso account sviluppatore OpenAI.

Il sospetto è che l’azienda cinese, che ha recentemente fatto scalpore per aver sviluppato un avanzato modello AI con costi estremamente contenuti, abbia utilizzato la tecnica della “distillazione” per estrarre dati dai sistemi più avanzati di OpenAI. Questa pratica, che viola i termini di servizio dell’azienda, permette di creare modelli più piccoli a una frazione del costo – significativamente inferiore ai 100 milioni di dollari spesi da OpenAI per addestrare GPT-4.

DeepSeek costruito ‘copiando’ le risposte do ChatGPT?

La situazione ha generato preoccupazione ai massimi livelli istituzionali e aziendali. David Sacks, consigliere per l’intelligenza artificiale del Presidente Trump, ha commentato a Fox News l’esistenza di “prove sostanziali” dell’utilizzo della distillazione da parte di DeepSeek. OpenAI, in una dichiarazione a Bloomberg, ha confermato di essere consapevole dei tentativi costanti da parte di aziende cinesi di distillare i loro modelli, sottolineando l’importanza di collaborare con il governo statunitense per proteggere le tecnologie più avanzate.

Mentre gli sviluppatori possono utilizzare le API di OpenAI per integrare la loro AI nelle proprie applicazioni, la distillazione degli output per costruire modelli concorrenti rappresenta una chiara violazione dei termini di servizio. OpenAI non ha ancora fornito dettagli specifici sulle prove raccolte, ma ha evidenziato come sia criticamente importante lavorare a stretto contatto con il governo USA per proteggere i modelli più capaci da tentativi di appropriazione da parte di concorrenti e avversari.

Così DeepSeek avrebbe ‘travasato’ la conoscenza di OpenAI

La distillazione, nel contesto dell’intelligenza artificiale, è una tecnica che permette di “trasferire” la conoscenza da un modello AI più grande e complesso (chiamato “teacher”) a uno più piccolo e snello (chiamato “student”). Il processo funziona facendo rispondere il modello più grande a numerose domande e utilizzando queste risposte per addestrare il modello più piccolo. È come creare una versione “compressa” di un’AI più potente, permettendo di ottenere prestazioni simili con risorse computazionali inferiori.