OpenAI potenzia Codex e lancia nuovo SDK per voice agent: sviluppatori al centro del futuro dell’AI
OpenAI aggiorna Codex con accesso internet e lancia un nuovo SDK per agenti vocali in TypeScript: più potenza per sviluppatori e app AI interattive.

OpenAI continua a rafforzare la sua posizione non solo come leader nell’esperienza ChatGPT per milioni di utenti, ma anche come partner privilegiato per gli sviluppatori che costruiscono applicazioni AI. Oggi, l’azienda ha annunciato due aggiornamenti fondamentali pensati per chi lavora nel cuore della programmazione: da un lato nuove funzionalità per Codex, l’agente di programmazione assistita, e dall’altro un importante rilascio per la creazione di voice agent tramite SDK in TypeScript.
Codex si connette a internet e diventa più potente
L’agente Codex, inizialmente pensato per assistere nello sviluppo software, si evolve radicalmente: ora può accedere a internet per installare dipendenze, aggiornare pacchetti o eseguire test che richiedono risorse esterne. Questa funzionalità è disattivata di default, ma può essere attivata manualmente per ambienti specifici. Gli utenti potranno anche limitare i domini accessibili e controllare meglio il perimetro di utilizzo. L’accesso internet è attualmente disponibile per utenti ChatGPT Plus, Pro e Teams, con supporto in arrivo anche per le aziende.
Oltre a questo, Codex può aggiornare pull request esistenti, accettare comandi vocali e supportare i file binari nelle patch (con alcune limitazioni nei PR), mostrando messaggi d’errore più chiari nei setup script. Altri miglioramenti includono l’aumento del limite per i task diffs da 1MB a 5MB e l’estensione della durata massima degli script di setup da 5 a 10 minuti. È stata inoltre semplificata la connessione a GitHub, ripristinata la funzionalità Live Activities su iOS e rimossa la 2FA obbligatoria per chi accede con login social o SSO.
Assistenti vocali più umani e personalizzabili

La seconda grande novità è il rilascio dell’Agents SDK in TypeScript, progettato per facilitare la creazione di assistenti vocali intelligenti con capacità avanzate. Tra le novità troviamo: gestione delle interruzioni, handoff tra utenti e agenti, tracing, controllo degli strumenti (guardrails) e, soprattutto, il supporto per approvazioni manuali (human-in-the-loop). Questo significa che un’azione può essere sospesa, salvata, esaminata e poi ripresa, rendendo i voice agent adatti a scenari sensibili come customer care o processi decisionali.
OpenAI ha anche aggiornato il modello speech-to-speech, migliorandone la coerenza con le istruzioni, l’accuratezza nell’uso degli strumenti e la gestione delle interruzioni vocali. Gli sviluppatori possono ora anche personalizzare la velocità del parlato.


