Il gruppo MLCommons , un’organizzazione di ingegneria collaborativa incentrata sullo sviluppo dell’ecosistema dell’IA attraverso benchmark, set di dati pubblici e ricerca, ha recentemente annunciato i risultati di test che misurano la velocità di esecuzione dei modelli di IA su hardware di punta. In queste prove, un chip prodotto da Nvidia Corp si è classificato al primo posto, mentre un semiconduttore Intel Corp è arrivato secondo.
Il test con 6 miliardi di paramentri
Questo nuovo benchmark (Con il termine benchmark si indica un parametro di riferimento), chiamato MLPerf, si basa su un modello linguistico di grandi dimensioni con 6 miliardi di parametri che ha la capacità di riassumere articoli di CNN. Questo benchmark è focalizzato sulla fase di “inferenza” nell’elaborazione dei dati da parte dell’IA, che è fondamentale per il funzionamento di strumenti di IA generativa. Il sistema Nvidia, leader nel benchmark dell’inferenza, si basa su otto dei suoi chip H100. Va notato che, sebbene Nvidia abbia dominato il mercato dell’addestramento dei modelli di IA, non ha ancora raggiunto la stessa affermazione nel mercato dell’inferenza. Intel, d’altra parte, ha ottenuto il secondo posto grazie ai suoi chip Gaudi2 prodotti dall’unità Habana, acquisita nel 2019. Anche se il sistema Gaudi2 è risultato leggermente più lento rispetto a quello di Nvidia (circa del 10%), Intel sostiene che è più economico. Nvidia ha annunciato piani per un aggiornamento del software che dovrebbe raddoppiare le prestazioni rispetto al benchmark MLPerf. Nel frattempo, l’unità Google di Alphabet ha mostrato anteprime delle prestazioni dell’ultima versione di un chip personalizzato annunciato durante la conferenza sul cloud computing di agosto.