Immagine AI

Immagina di avere a disposizione un’intelligenza artificiale notevolmente più capace del passato, in grado di comprendere testi complessi, ragionare su livelli superiori e addirittura superare le capacità del modello precedente. Ma pensa anche che ogni sua risposta, ogni elaborazione, costi all’incirca quanto 18 minuti di luce di una lampadina accesa. Questo è il quadro che emerge dallo studio condotto dal laboratorio di intelligenza artificiale dell’Università del Rhode Island, che ha acceso i riflettori su un aspetto spesso sottovalutato: la voracità energetica di GPT‑5.

Secondo questo studio, una risposta di lunghezza media (circa 1.000 token) fornita da GPT‑5 può richiedere fino a 40 watt‑ora (Wh), con una media stimata attorno a 18,35 Wh, più di otto volte rispetto ai 2,12 Wh stimati per GPT‑4. Questo lo colloca tra i modelli più affamati di energia al mondo, al pari di sistemi come l’o3 di OpenAI o il DeepSeek R1.

Per rendere l’idea: 18 Wh corrispondono all’accensione di una lampadina a incandescenza per 18 minuti. E se GPT‑5 rispondesse a tutte le circa 2,5 miliardi di richieste giornaliere attribuite a ChatGPT? Il consumo totale potrebbe superare i 45 GWh al giorno – un quantitativo di energia pari alla produzione di due o tre reattori nucleari, sufficiente ad alimentare un piccolo paese.

Tuttavia, è importante sottolineare che questi numeri derivano da una metodologia complessa e basata su molte ipotesi. I ricercatori non hanno avuto accesso alle configurazioni hardware precise di OpenAI: si presume quindi l’utilizzo di sistemi NVIDIA DGX H100 o H200 ospitati su Azure, e si è fatta una stima moltiplicando il tempo di risposta per il consumo stimato dell’intera infrastruttura, includendo CPU, memoria, sistema di raffreddamento e altri parametri come PUE (Power Usage Effectiveness), WUE (Water Usage Effectiveness) e Carbon Intensity Factor (CIF).

Inoltre, GPT‑5 adotta un’architettura “mixed-expert” (MoE), in cui solo una parte del modello è attiva per ogni richiesta—una scelta progettuale che riduce il consumo in contesti semplici. Ma quando si attiva la modalità di ragionamento più complessa—spesso necessaria in compiti avanzati—il consumo può aumentare di 5–10 volte, superando quindi i 40 Wh.

Che si tratti di stime o di dati effettivi, pochi dubbi restano sul fatto che modelli come GPT‑5 spingano al limite le risorse dei data center. Il divario tra capacità computazionale e sostenibilità ambientale si sta allargando, e quella che per certi versi era una rivoluzione nell’uso del linguaggio naturale, rischia di diventare un fardello per la rete elettrica globale.

Secondo esperti, la proliferazione repentina dell’IA potrebbe aggravare la crisi energetica, rendendo urgentemente necessario ripensare infrastrutture, fonti di energia rinnovabile e modelli di efficienza.

Mentre modelli come GPT‑5 mostrano progressi straordinari in capacità di ragionamento e multimodalità, è chiaro che una transizione verso modelli “eco‑efficienti” è impellente. Serve maggiore trasparenza da parte delle aziende, sistemi di benchmarking ambientale trasparenti e il supporto a tecnologie più sostenibili. Alcuni studi accademici stanno già mettendo le basi per valutare l’impatto ambientale delle IA su larga scala, considerando consumi energetici, acqua, carbonio e infrastrutture.

Di Fantasy