A distanza di una settimana dal rilascio di Gemini 1.0 Ultra, Google ha adesso lanciato in anteprima Gemini 1.5 Pro. Questo nuovo modello ha il compito di entrare in competizione diretta con GPT-4, il top in questo settore.

Disponibile tramite AI Studio e Vertex AI, promette di offrire prestazioni notevolmente migliorate, stando a quanto affermato da Google. La progettazione si è concentrata sulla maggiore gestione di dati. Ma quanto è effettivamente migliore della versione 1.0 Pro? Per capirlo, mettiamole a confronto.

 

Gemini 1.5 Pro vs 1.0 Pro: quali le novità?

Per quanto riguarda l’utilizzo di Gemini 1.5 Pro, è uguale a prima, ma con nuove aggiunte. Da una finestra di contesto più ampia a tempi di risposta più rapidi, questo nuovo modello offre parecchio.

Non soltanto è in grado di analizzare enormi blocchi di dati, ma riesce a trovare velocemente una particolare porzione di testo. I blocchi in cui effettua la ricerca possono arrivare a consumare circa 1 milione di token. Vediamo novità e differenze di seguito.

Risposta con tempistica più rapida

Rispetto alla versione precedente, Gemini 1.5 Pro ha tempi di risposta molto più rapidi. Ciò grazie all’architettura di ultima generazione Transformer e Mixture-of-Experts (MoE).

In genere, un normale trasformatore funziona come un’unica rete neurale. Tuttavia, i modelli MoE sono composti da un gruppo di piccole reti o modelli neurali, che fanno funzionare il sistema con grande efficienza.

Quando il modello riceve un input, i modelli MoE attivano soltanto i percorsi più importanti onde evitare lo spreco di risorse. Inoltre, suddividono il compito in più sotto-attività facendo in modo che vengano assegnati a modelli neurali adeguati. La qualità dell’output resta inalterata, nonostante la maggiore rapidità di risposta.

Finestra di contesto più ampia

La finestra di contesto è il punto di forza più evidente in questo nuovo modello IA. Di cosa parliamo? Di un elemento composto da token, ossia parti di testo, immagini, audio, codice o video. Più grande è la finestra di contesto, maggiori sono le informazioni che il modello riesce ad acquisire ed elaborare per generare un output.

Come anticipato all’inizio, questa finestra contestuale è composta da 1 milione di token. Gemini 1.0, invece, era limitato a 32.000. Si può, però, accedere a questa finestra di contesto soltanto a pagamento. Quella della versione gratuita, invece, è composta soltanto da 128.000 token, che è comunque il doppio della versione 1.0.

Codifica migliore

Altro elemento di miglioramento è la codifica. La nuova versione di Gemini può offrire risultati notevolmente migliori grazie sempre alla finestra di contesto molto ampia. Adesso l’IA riesce a comprendere maggiori informazioni e righe di codice.

Durante l’anteprima ufficiale, è riuscito a eseguire un prompt con più di 100.000 righe di codice, che utilizzavano più di 800.000 token, suggerendo modifiche utili. È stato anche capace di spiegare come funzionavano alcune parti del codice con grande accuratezza.

Prestazioni e capacità di apprendimento migliori

A livello di prestazioni, Gemini 1.5 Pro supera 1.0 Pro nell’87% dei benchmark. Per testare l’accuratezza, Google ha utilizzato il metodo Needle In A Haystack. Come?

Inserendo un piccolo pezzo di testo che conteneva un fatto o un’affermazione particolare dentro un lungo blocco di testo. Successivamente, hanno chiesto al modello di individuarlo, riuscendoci il 99% delle volte.

Per quanto riguarda le capacità di apprendimento, i risultati sono davvero impressionanti. Durante i test, è stato fornito all’IA un manuale di grammatica per il Kalamang, lingua parlata da meno di 200 persone nel mondo. Con grande sorpresa, il modello ha appreso tutto al riguardo, traducendo la lingua in inglese.

Google ha fatto un notevole passo avanti nel campo dell’intelligenza artificiale con questa nuova versione di Gemini. Quella precedente, al confronto, sembra già obsoleta. Adesso, può partire la lotta alla supremazia in questo settore contro GPT-4. Chi vincerà? Staremo a vedere.