L’intelligenza artificiale sta diventando sempre più accessibile per i ricercatori grazie alla possibilità di eseguire modelli linguistici di grandi dimensioni (LLM) localmente, senza la necessità di connettersi a piattaforme cloud come ChatGPT. Un recente articolo pubblicato su Nature esplora questa tendenza, partendo dall’esempio di un bioinformatico che utilizza un LLM su un semplice Mac per generare riassunti leggibili di strutture proteiche del sistema immunitario. Il vantaggio? Evitare l’uso di servizi web e mantenere il pieno controllo su processi e risultati.

Le Mini IA sono il futuro della ricerca… e non solo

Due sono i fattori che stanno rendendo possibile questa rivoluzione. Il primo riguarda la disponibilità di modelli con “open weights”, ovvero versioni di LLM i cui pesi e parametri sono resi pubblici, consentendo agli utenti di scaricarli e utilizzarli sui propri dispositivi, a condizione di avere sufficienti risorse computazionali. Il secondo fattore è lo sviluppo di versioni ridotte degli LLM, ottimizzate per funzionare su hardware di uso comune, come computer portatili o persino smartphone, con prestazioni che ormai rivaleggiano con quelle dei modelli più grandi e complessi di qualche anno fa.

Questa tendenza non solo permette di risparmiare sui costi, ma anche di garantire la riservatezza dei dati, un aspetto cruciale soprattutto in settori come la medicina e la bioinformatica. Inoltre, eseguire gli LLM localmente assicura la riproducibilità dei risultati, un principio fondamentale per la ricerca scientifica. “Nella scienza, è essenziale poter riprodurre i risultati”, afferma il bioinformatico intervistato da Nature, sottolineando come la gestione autonoma di questi modelli elimini il rischio di variazioni dovute a eventuali aggiornamenti non controllati da parte di aziende esterne.

Amazon lavora a due chip per LLM e IA generative: così il colosso risponde all’offensiva di Microsoft e Google Amazon lavora a due chip per LLM e IA generative: così il colosso risponde all’offensiva di Microsoft e Google

La nuova frontiera dei LLM e delle IA ridotte

Tra i modelli open source più popolari troviamo Llama, sviluppato da Meta, Gemma di Google DeepMind, Qwen di Alibaba, DCLM di Apple, NeMo di Mistral e OLMo, creato dall’Allen Institute for AI. Nonostante OpenAI non abbia ancora rilasciato versioni open-weight dei suoi modelli più avanzati, il suo partner Microsoft ha compiuto progressi significativi con il rilascio dei modelli Phi, con versioni ridotte che vanno da Phi-1 fino a Phi-3.5, capaci di gestire fino a 14 miliardi di parametri e di affrontare anche dati visivi.

Questi modelli offrono prestazioni che superano persino GPT-3.5 Turbo, nonostante quest’ultimo abbia una maggiore quantità di parametri attivi. La potenza di questi nuovi LLM, combinata alla possibilità di eseguirli su dispositivi di consumo, sta trasformando il modo in cui la ricerca e le applicazioni pratiche dell’AI vengono sviluppate. Stephen Hood, responsabile dell’intelligenza artificiale open-source presso Mozilla, ha commentato che il progresso compiuto nel corso dell’ultimo anno è stato “sbalorditivo”.

Grazie a questi strumenti, gli scienziati possono ora creare applicazioni personalizzate, avendo l’AI a portata di mano. E il consiglio finale per chi vuole esplorare queste tecnologie è chiaro: non temere di sperimentare. “Potreste essere piacevolmente sorpresi dai risultati”, afferma l’esperto Zakka. “Ma prima è necessario sporcarsi un po’ le mani”.