L’azienda ha ospitato la sua prima conferenza per sviluppatori, chiamata DevDay, a San Francisco (qui per vederelo in streaming), nella quale ha anche annunciato una piattaforma per la creazione di chatbot personalizzati. Ma andiamo con ordine.

GPT-4 Turbo

In occasione dell’evento l’azienda ha presentato il GPT-4 Turbo, una versione migliorata del suo modello di punta di intelligenza artificiale per la generazione di testi, GPT-4, che l’azienda dichiara essere “più potente” e meno costosa. GPT-4 Turbo è disponibile in due versioni: una che analizza esclusivamente il testo e una seconda che comprende il contesto di testo e immagini. Il modello che analizza il testo è disponibile in anteprima tramite un’API a partire da oggi (API è l’acronimo di Application Programming Interface, interfaccia di programmazione dell’applicazione. Si tratta di un insieme di comandi, funzioni, protocolli e oggetti che consentono agli sviluppatori di interagire più facilmente con un programma o servizio) e OpenAI dice che intende rendere entrambi disponibili in generale “nelle prossime settimane”.

Dettagli su GPT-4 Turbo

Il prezzo è di 0,01 dollari per 1.000 token di input (~750 parole), dove i “token” rappresentano bit di testo grezzo (ad esempio, la parola “fantastico” suddivisa in “fan”, “tas” e “tic”) e di 0,03 dollari per 1.000 token di output (i token di input sono i token immessi nel modello, mentre i token di output sono quelli generati dal modello sulla base dei token di input). Il prezzo del GPT-4 Turbo per l’elaborazione delle immagini dipenderà dalle dimensioni dell’immagine. Ad esempio, passare un’immagine di 1080×1080 pixel a GPT-4 Turbo costerà 0,00765 dollari (circa 0,0072 euro) afferma OpenAI. “Abbiamo ottimizzato le prestazioni in modo da poter offrire GPT-4 Turbo a un prezzo 3 volte inferiore per i token di ingresso e 2 volte inferiore per i token di uscita rispetto a GPT-4“, scrive OpenAI in un post. GPT-4 Turbo vanta diversi miglioramenti rispetto a GPT-4, tra cui una base di conoscenze più recente a cui attingere per rispondere alle richieste.

Risposte più accurate

Come tutti i modelli linguistici, GPT-4 Turbo è essenzialmente uno strumento statistico per prevedere le parole. Basandosi su un enorme numero di esempi, per lo più provenienti dal web, GPT-4 Turbo ha appreso la probabilità che le parole si verifichino in base a modelli, compreso il contesto semantico del testo circostante. Ad esempio, data una tipica e-mail che termina con il frammento “Non vedo l’ora…”. GPT-4 Turbo potrebbe completarla con “… di avere una risposta”. GPT-4 è stato addestrato su dati web sin da settembre 2021, ma il limite di conoscenza di GPT-4 Turbo è aprile 2023. Questo dovrebbe significare che le domande su eventi recenti, almeno quelli accaduti prima della nuova data limite, daranno risposte più accurate.

Gli utenti possono creare i propri GPT

OpenAI ha annunciato che consentirà agli utenti di creare le proprie versioni di GPT per scopi ludici o di produttività. Gli utenti saranno in grado di costruire questi bot semplicemente tramite prompt, senza dover conoscere alcun codice. L’azienda consentirà anche ai clienti aziendali di creare GPT solo per uso interno, basati sulla base di conoscenza dell’azienda.  Inoltre, OpenAI ha dichiarato che gli sviluppatori possono collegare i GPT a database o basi di conoscenza come le e-mail per importare informazioni esterne.

Un nuovo GPT Store per i bot AI creati dagli utenti

Non solo si potrà creare la propria chat GPT per divertimento o per produttività, ma presto si potrà anche mettere in vetrina su un marketplace chiamato GPT Store. Infatti, OpenAI ha dichiarato che intende consentire agli utenti di pubblicare questi GPT anche in uno store, in arrivo nel corso del mese. Inizialmente saranno disponibili le creazioni di “costruttori verificati”. Il CEO dell’azienda, Sam Altman, ha anche parlato della possibilità di pagare le persone che avranno realizzato le GPT più popolari.

Una nuova API per consentire agli sviluppatori di creare assistenti

Laa Assistants API, che è stata definita come un passo avanti per aiutare gli sviluppatori a costruire “esperienze simili a quelle di un agente” all’interno delle loro applicazioni. Utilizzando l’API Assistants, i clienti di OpenAI possono creare un “assistente” che ha istruzioni specifiche, sfrutta conoscenze esterne e può chiamare i modelli e gli strumenti generativi di IA di OpenAI per eseguire i compiti. I casi d’uso vanno da un’applicazione per l’analisi dei dati a un assistente di codifica o persino a un pianificatore di vacanze alimentato dall’intelligenza artificiale.

Code Interpreter alla base della nuova API

Alla base della nuova API Assistants c’è Code Interpreter, lo strumento di OpenAI che scrive ed esegue codice Python in un ambiente di esecuzione sandbox. Lanciato a marzo per ChatGPT, Code Interpreter può generare grafici e tabelle ed elaborare file, consentendo agli assistenti creati con l’API Assistants di eseguire codice in modo iterativo per risolvere problemi di codice e matematica. L’API Assistants può anche utilizzare un componente di recupero che aumenta le conoscenze degli assistenti creati dagli sviluppatori con conoscenze esterne ai modelli di OpenAI, come informazioni sui prodotti o documenti forniti dai dipendenti di un’azienda. Inoltre, supporta le chiamate di funzione, che consentono agli assistenti di invocare le funzioni di programmazione definite dagli sviluppatori e di incorporare le risposte nei loro messaggi.

API DALL-E 3

DALL-E 3, il modello text-to-image di OpenAI, è ora disponibile tramite un’API dopo essere stato introdotto in ChatGPT e Bing Chat, con strumenti di moderazione integrati. Le regolazioni di output vanno da 1024×1024 a 1792×1024 in diversi formati. Open AI ha fissato il prezzo del modello a 0,04 dollari (0,037 euro) per immagine generata. Come la versione precedente di DALL-E (ad esempio DALL-E 2), l’API incorpora una moderazione incorporata per proteggere dall’uso improprio, afferma OpenAI.

 

Nuove API per la sintesi vocale

L’azienda ha lanciato una nuova API text-to-speech chiamata Audio API con sei voci preimpostate: Alloy, Echo, Fable, Onyx, Nova e Shimer. L’API fornisce l’accesso a due modelli di intelligenza artificiale generativa e ha un prezzo di 0,015 dollari per 1.000 caratteri immessi.

Una promessa per difendere le aziende dalle rivendicazioni di copyright

OpenAI ha annunciato un nuovo programma chiamato Copyright Shield durante la sua conferenza per gli sviluppatori, promettendo di proteggere le aziende che utilizzano i prodotti dell’azienda di intelligenza artificiale da rivendicazioni di copyright. L’azienda ha dichiarato che pagherà le spese legali nel caso in cui i clienti che utilizzano la piattaforma per sviluppatori OpenAI e ChatGPT Enterprise, “generalmente disponibile”, debbano affrontare cause per violazione della proprietà intellettuale contro i contenuti creati dagli strumenti di OpenAI.

Recentemente, aziende come Mircosoft, Cohere, sostenuta da Google, Amazon e IBM hanno annunciato che indennizzeranno i clienti contro le richieste di risarcimento per violazione della proprietà intellettuale.

Altri annunci dall’evento

Ci sono stati anche altri annunci degni di nota durante l’evento:

OpenAI avvierà un programma per consentire alle aziende di costruire i propri modelli di clienti con l’aiuto dei ricercatori dell’azienda.
Il selezionatore di modelli in ChatGPT verrà eliminato per semplificare le cose e consentire alle persone di utilizzare lo strumento senza doversi preoccupare di quale modello scegliere.
L’azienda ha lanciato la prossima versione del suo modello di riconoscimento vocale open-source chiamato Whisper large v3.
L’azienda sta raddoppiando il tasso di token per limite per tutti i clienti GPT-4 paganti.