La crescita esplosiva dell’intelligenza artificiale (AI) sta sollevando preoccupazioni riguardo all’uso sempre più intensivo di energia. Alcuni esperti ritengono che entro il 2027, la quantità di elettricità consumata da un paese potrebbe essere superata dall’energia richiesta dall’AI. Questa prospettiva richiede una considerazione attenta nell’impiego dell’intelligenza artificiale.

Uno studio pubblicato da Alex de Vries, un data scientist presso la Banca Centrale dei Paesi Bassi, intitolato “La crescente impronta energetica dell’intelligenza artificiale” sulla rivista scientifica “Joule,” ha evidenziato il problema. È ormai ben noto che l’addestramento e il funzionamento dei modelli di AI generativa richiedono una quantità significativa di energia elettrica. Ad esempio, lo strumento AI per la generazione di testo multilingue di Hugging Face ha consumato circa 433 MWh (megawattora) durante il suo addestramento, quantità sufficiente per alimentare 40 case americane medie per un intero anno. Inoltre, l’uso quotidiano di ChatGPT potrebbe richiedere fino a 564 MWh di elettricità.

De Vries ha introdotto il “paradosso di Jevons”, che sottolinea che se l’efficienza nell’uso delle risorse aumenta, il consumo di tali risorse tende ad aumentare anziché diminuire. In altre parole, nonostante gli sforzi per migliorare l’efficienza energetica nell’AI, ciò potrebbe comportare un uso ancora più intensivo di questa tecnologia.

Un esempio tangibile è Google, che sta sperimentando l’integrazione di AI generativa nelle ricerche online. Considerando che Google gestisce fino a 9 miliardi di ricerche al giorno, si stima che se utilizzasse l’AI per tutte le ricerche, richiederebbe circa 29,2 TWh (terawattora) di energia all’anno, pari al consumo annuale di elettricità dell’Irlanda.

È importante notare che uno scenario così estremo non è previsto a breve termine a causa dei costi elevati di costruzione dei server AI e di eventuali limiti nella catena di fornitura. Tuttavia, ci si aspetta una rapida crescita del numero di server AI nei prossimi anni. Secondo le previsioni sulla produzione di server AI, NVIDIA da sola dovrebbe spedire 1,5 milioni di dispositivi server AI all’anno entro il 2027, con un conseguente aumento del consumo energetico globale associato all’AI da 85 a 134 TWh all’anno.

Questo consumo energetico corrisponde al consumo annuale di paesi come Paesi Bassi, Argentina e Svezia. Inoltre, con il miglioramento dell’efficienza dell’AI, gli sviluppatori potrebbero riutilizzare alcuni chip di elaborazione dei computer per scopi legati all’AI, aumentando ulteriormente il consumo energetico. Al momento, i data center rappresentano l’1-1,5% del consumo globale di elettricità.

In conclusione, de Vries ha sottolineato che dobbiamo essere molto attenti nell’uso dell’intelligenza artificiale. Ha avvertito che l’AI è ad alta intensità energetica e utilizzarla in modo sconsiderato rappresenta uno spreco di risorse. Pertanto, ha concluso che dovremmo impiegare l’AI solo in compiti essenziali, evitando utilizzi non necessari che comportano un inutile dispendio di denaro ed energia.

Di Fantasy