In una discussione sui pericoli rappresentati dai sistemi di intelligenza artificiale, Sam Altman, CEO e co-fondatore di OpenAI, ha confermato che attualmente l’azienda non sta addestrando GPT-5, il presunto successore del suo modello di linguaggio AI GPT-4, rilasciato a marzo.

Parlando ad un evento al MIT, ad Altman è stato chiesto di commentare una recente lettera aperta circolata nel mondo della tecnologia che ha chiesto ai laboratori come OpenAI di mettere in pausa lo sviluppo di sistemi di AI “più potenti di GPT-4”. La lettera ha evidenziato preoccupazioni per la sicurezza dei futuri sistemi ma è stata criticata da molti veterani dell’industria. Gli esperti non sono d’accordo sulla natura della minaccia rappresentata dall’AI e, a dire il vero, non sappiamo nemmeno come si potrebbe creare delle misure di sicurezza adeguate per evitare lo sviluppo di IA “eccessivamente avanzate”, qualsiasi cosa questo possa significare.

Al MIT, Altman ha detto che la lettera ha fallito nell’entrare nello specifico della questione, tant’è che non menziona nemmeno di preciso quali applicazioni debbano essere messe in pausa. Altman ha smentito il fatto che OpenAI stia addestrando GPT-5 in questo preciso momento. “Non è vero, non stiamo sviluppando il prossimo standard”, ha detto. “È abbastanza sciocco che la lettera abbia dato per scontato il contrario”.

Tuttavia, il fatto che OpenAI non stia lavorando su GPT-5 non significa che non stia espandendo le capacità di GPT-4 – o, come Altman ha voluto sottolineare, che l’azienda non stia prendendo in considerazioni le implicazioni etiche e per la sicurezza delle IA. “Stiamo facendo altre cose su GPT-4 che meritano comunque attenzione e che sollevano delle questioni sulla sicurezza che in quella lettera sono assenti”, ha comunque confessato Altman.