Gemini cambia radicalmente il suo biglietto da visita, venendo ora definito da Google stessa come un assistente AI dai consumi ambientali minimi, capace di utilizzare appena 0,26 millilitri d’acqua e 0,24 Wh di elettricità per ogni prompt, cioè l’equivalente di cinque gocce e meno di dieci secondi di televisione accesa. L’azienda parla di un miglioramento enorme, con una riduzione dei consumi fino a trentatré volte rispetto al 2024. Una rappresentazione certamente efficace sulla carta, ma che potrebbe non restituire l’intero quadro, come emerso dai dati riportati nello studio recentemente diffuso.
Gli esperti, infatti, mettono in discussione la validità di questi dati. Shaolei Ren, docente all’Università della California e autore di studi sul tema, curiosamente citato dalla stessa Google, evidenzia che i calcoli considerano solo l’acqua usata nei sistemi di raffreddamento diretto dei data center, ignorando invece quella impiegata a monte nella produzione di energia elettrica. La crescente fame di elettricità dei modelli generativi ha già spinto diversi Paesi a pianificare nuove centrali a gas e nucleari, entrambe con un impatto idrico consistente.

I conti nascosti dietro l’AI Gemini
Un’altra criticità riguarda le emissioni di CO₂. Google ha scelto di pubblicare solo il dato “market-based”, che tiene conto degli investimenti globali in rinnovabili, ma ha tralasciato quello “location-based”, più aderente alla realtà dei singoli territori. Nei luoghi dove l’energia proviene ancora in gran parte da fonti fossili, le emissioni effettive dei data center restano infatti molto più alte di quanto indicato.
Google difende la propria posizione parlando di trasparenza, ricordando che il documento include anche i consumi legati alle macchine inattive e alle infrastrutture di supporto. Tuttavia, la mancanza di una revisione paritaria lascia dubbi sulla solidità scientifica delle conclusioni. Inoltre, studiosi come Ren e Alex de Vries-Gao sottolineano come la compagnia abbia confrontato dati non omogenei, mediane contro medie, e ha ignorato fattori determinanti come il numero di token elaborati per ogni richiesta.
Anche ammesso che i consumi per singola operazione siano davvero calati, la crescita vertiginosa del numero di richieste, server e infrastrutture annulla gran parte dei vantaggi. L’efficienza diventa così un’arma a doppio taglio, perché l’espansione stessa della tecnologia moltiplica gli impatti ambientali. Per questo gli esperti parlano di “punta dell’iceberg”, senza un’analisi completa che consideri anche le conseguenze indirette, l’impronta ecologica dell’intelligenza artificiale rischia di essere molto più pesante di quanto mostrano le cinque gocce di Google.
