La crescente domanda di chatbot e altri strumenti di intelligenza artificiale sta avendo un impatto significativo sulle risorse idriche globali, sollevando preoccupazioni sulla sostenibilità ambientale. Secondo un recente articolo di Sanjana Gupta, una singola chat con strumenti come ChatGPT consuma circa il 10% dell’acqua che una persona beve quotidianamente, ovvero circa mezzo litro per conversazione. Sebbene possa sembrare una quantità trascurabile, la scala diventa enorme quando si considera il numero di persone che utilizzano questi strumenti ogni giorno, contribuendo a un notevole aumento dell’impronta idrica complessiva.
Uno studio condotto da A. Shaji George, esperto in tecnologia dell’informazione e delle comunicazioni (ICT), stima che i chatbot AI come ChatGPT consumino 0,5 litri di acqua per ogni lunga conversazione con un utente. Un altro studio, intitolato “Secret Water Footprint of AI Models” e condotto da Pengfei Li e Shaolei Ren dell’Università della California, Riverside, ha evidenziato la pressione crescente che i carichi di lavoro dell’IA stanno esercitando sulle risorse di acqua dolce. Si prevede che entro il 2027 la domanda globale di intelligenza artificiale richiederà quantità d’acqua comparabili al prelievo totale annuo di paesi come la Danimarca o metà del Regno Unito, tra 4,2 e 6,6 miliardi di metri cubi.
I data center, in particolare quelli utilizzati per addestrare i modelli di intelligenza artificiale, sono responsabili di una parte significativa di questo consumo d’acqua. Solo i data center di proprietà di Google, ad esempio, hanno prelevato direttamente 25 miliardi di litri di acqua per il raffreddamento nel 2022, di cui 20 miliardi di litri erano acqua potabile. Questo è dovuto alla necessità di raffreddare i server, che richiedono un elevato consumo di energia e, di conseguenza, un uso significativo di acqua per il raffreddamento.
L’acqua è anche utilizzata nella produzione dei chip necessari per l’intelligenza artificiale, un processo che può richiedere milioni di litri al giorno, soprattutto nelle fasi che necessitano di acqua ultrapura. Inoltre, le centrali termoelettriche, che generano l’elettricità necessaria ai data center, consumano anch’esse grandi quantità di acqua. Negli Stati Uniti, ad esempio, la media del consumo è di circa 43,8 litri di acqua per ogni kWh di elettricità prodotta.
La situazione è ulteriormente aggravata dalla scarsità d’acqua che già colpisce molte regioni del mondo. In India, ad esempio, stati come Rajasthan e Nagaland stanno affrontando gravi siccità, e la crescente richiesta di acqua da parte dei data center rischia di esacerbare ulteriormente la situazione. Secondo un rapporto del 2019 di Niti Aayog, più di 600 milioni di persone in India sono già prive di accesso adeguato all’acqua, e molte grandi città come Chennai, Hyderabad, Delhi e Bangalore hanno esaurito le loro risorse idriche sotterranee nel 2021.
Per far fronte a questo crescente problema, alcune aziende stanno adottando misure per migliorare l’efficienza delle risorse. Ad esempio, il progetto Natick di Microsoft ha esplorato la possibilità di utilizzare data center sottomarini, raffreddati con acqua di mare. Sebbene il progetto sia stato interrotto nel 2024, ha fornito spunti importanti su come migliorare l’efficienza del raffreddamento dei server. Altre aziende stanno puntando sull’uso dell’energia rinnovabile e sull’adozione dell’intelligenza artificiale verde, una tecnica volta a rendere più efficienti dal punto di vista energetico gli algoritmi di AI.
Nonostante questi tentativi, il consumo d’acqua da parte dell’intelligenza artificiale resta una questione critica. Gli esperti sottolineano la necessità di un’azione coordinata per ridurre l’impatto ambientale dell’IA, migliorando l’efficienza delle risorse e adottando tecnologie sostenibili. L’adozione di misure come il raffreddamento alternativo, l’uso di energie rinnovabili e una regolamentazione più rigorosa potrebbe contribuire a mitigare l’impatto ambientale della crescita dell’intelligenza artificiale.