I modelli di linguaggio di grandi dimensioni (LLM) popolari come ChatGPT di OpenAI e Bard di Google richiedono molta energia, necessitando di enormi server farm per fornire abbastanza dati per addestrare i potenti programmi. Il raffreddamento di questi stessi data center rende anche i chatbot AI incredibilmente assetati. Nuove ricerche suggeriscono che solo l’addestramento di GPT-3 abbia consumato oltre 700.000 litri di acqua. Uno scambio conversazionale medio di un utente con ChatGPT equivale fondamentalmente a versare una grande bottiglia di acqua fresca per terra, sintetizza (facendo un iperbole) Gizmodo.
Raffreddare i data center usati dalle IA come Bard e ChatGPT consuma una quantità spropositata di acqua. L’addestramento di GPT-3? Ha richiesto la stessa quantità di acqua necessaria per raffreddare un reattore nucleare
I ricercatori dell’Università di Colorado Riverside e dell’Università del Texas Arlington hanno pubblicato le stime di consumo d’acqua dell’IA in un articolo intitolato “Rendere l’IA meno “assetata”“. Gli autori hanno scoperto che la quantità di acqua dolce necessaria per addestrare GPT-3 equivale a quella necessaria per riempire una torre di raffreddamento di un reattore nucleare. OpenAI non ha divulgato la durata necessaria per addestrare GPT-3, complicando le stime dei ricercatori, ma Microsoft, che ha stretto una partnership pluriennale e multimiliardaria con la startup, dice che il suo ultimo supercomputer contiene 10.000 schede grafiche e oltre 285.000 core del processore.
Peraltro, la stima dei ricercatori si basa sull’assunto che l’addestramento del modello di IA sia avvenuto usando un data center appositamente ottimizzato per questo scopo e quindi con alcune soluzioni di ottimizzazione dei consumi energetici in essere. Ma se i dati fossero stati addestrati non nel nuovo data center di Microsofot per i LLM, bensì nel meno efficiente data center che si trova in Asia, il consumo d’acqua potrebbe essere stato addirittura tre volte superiore rispetto a quanto calcolato dagli scienziati.