Quando Microsoft ha investito 1 miliardo di dollari in OpenAI nel 2019, ha accettato di costruire un enorme supercomputer all’avanguardia per la startup che si occupa di ricerca nel campo dell’intelligenza artificiale. All’epoca Microsoft non aveva nulla di simile a ciò che le chiedeva OpenAI.
A dirla tutta, l’azienda non era nemmeno certa di avere gli strumenti per poter accontentare la startup. Ma l’accordo venne fatto lo stesso.
OpenAI stava cercando di allenare un insieme sempre più grande di modelli di intelligenza artificiale. Aveva bisogno di elaborare volumi sempre maggiori di dati, aumentando anche il numero di parametri da far apprendere alle sue IA. Ciò significava che OpenAI aveva bisogno di poter contare su servizi di cloud computing estremamente all’avanguardia e doveva avere la certezza di poterlo fare, senza interruzioni, per periodi di tempo molto estesi.
Per affrontare questa sfida, Microsoft ha dovuto trovare un nuovo modo per poter combinare decine di migliaia di chip grafici A100 della NVIDIA. Recentemente Scott Guthrie, vicepresidente di Microsoft incaricato di supervisionare la divisione cloud e IA, ha spiegato che l’iniziativa ha avuto un costo monumentale. Non è entrato nel merito della cifra, limitandosi a spiegare che Microsoft è stata costretta ad investire diverse centinaia di milioni di dollari.
“Abbiamo costruito un’architettura che potesse funzionare e essere affidabile su una scala molto grande. È così che ChatGPT è diventato possibile”, ha detto Nidhi Chappell, general manager di Azure AI Infrastructure di Microsoft. “Questo è solo il primo prodotto emerso da questa sinergia con OpenAI, ma ce ne saranno molti, molti altri.”