In un edificio senza insegne ad Austin, Texas, un piccolo team di Amazon sta lavorando su qualcosa di rivoluzionario. All’interno di due stanze si celano i progettisti di due tipologie di microchip destinati ad alimentare e accelerare l’intelligenza artificiale generativa. Questi chip, chiamati Inferentia e Trainium, potrebbero rappresentare per i clienti AWS un’alternativa agli attuali GPU di Nvidia per addestrare i loro LLM, i modelli linguistici alla base di servizi come ChatGPT, che sono diventati difficili e costosi da ottenere.

“Ogni azienda al mondo desidera più chip per l’IA generativa, sia che si tratti di GPU sia dei nostri chip personalizzati,” ha dichiarato Adam Selipsky, CEO di Amazon Web Services, durante un’intervista con CNBC a giugno. Selipsky sembra convinto che Amazon sia meglio posizionata di chiunque altro per soddisfare questa crescente domanda.

Chirag Dekate, Vicepresidente e analista di Gartner, sostiene che a lungo termine, questi chip personalizzati potrebbero conferire ad Amazon un vantaggio significativo nel campo dell’IA generativa.

Anche se AWS, il servizio cloud di Amazon, conta milioni di clienti, rappresenta ancora il 70% dei 7,7 miliardi di dollari di profitto operativo di Amazon nel secondo trimestre, come evidenziato da CNBC. Ma nello stesso momento, importanti competitor come Microsoft stanno investendo risorse importanti per mettere piattaforme e servizi specifici per lo sviluppo delle IA all’interno dei loro servizi di cloud. Insomma, per Amazon Web Services investire proattivamente in questo settore è imperativo: in gioco c’è la sua leadership.

A giugno, AWS ha annunciato l’apertura di un “centro” di innovazione per l’IA generativa con un investimento di 100 milioni di dollari. “Abbiamo tantissimi clienti che ci dicono di voler lavorare sull’IA generativa, ma spesso non sanno cosa significhi nel contesto delle loro attività. Ecco perché stiamo selezionando i migliori ingegneri, strategist e data scientist, creeremo un team incaricato di lavorare con loro,” ha spiegato Selipsky.