In un’epoca in cui l’Intelligenza Artificiale continua la sua crescita esponenziale, portando con sé un’insaziabile fame di potenza di calcolo ed energia, Google ha annunciato un’iniziativa che trascende i confini terrestri. Sotto il nome di “Project Suncatcher”, l’azienda ha svelato i suoi piani per inviare i propri data center AI direttamente nello spazio, una mossa audace che si inserisce nella sua lunga tradizione di “moonshot”, progetti di ricerca visionari volti a risolvere sfide complesse e apparentemente irrealizzabili.
L’idea alla base di Project Suncatcher è radicale e affonda le sue radici nella necessità di trovare una fonte di alimentazione illimitata e sostenibile per l’AI. I data center sulla Terra, pur diventando sempre più efficienti, richiedono enormi quantità di energia e risorse idriche per il raffreddamento. Man mano che i modelli di Machine Learning si fanno più complessi e potenti, il loro impatto ambientale e i limiti infrastrutturali terrestri diventano un ostacolo sempre più pressante.
Google ha individuato la soluzione in orbita terrestre bassa. Il Sole, come sottolineato dall’azienda, emette una quantità di energia superiore a cento trilioni di volte la produzione totale di elettricità dell’umanità. Sfruttare questa risorsa illimitata e gratuita in un ambiente privo di atmosfera offre vantaggi straordinari. In un’orbita adeguata, come quella eliosincrona, un pannello solare può generare una potenza fino a otto volte superiore rispetto alla sua controparte terrestre e farlo in modo quasi continuo, riducendo drasticamente la dipendenza da sistemi di accumulo con batterie.
L’infrastruttura spaziale immaginata da Google si configura come una costellazione di satelliti compatti, ognuno dei quali ospita le sue potenti Tensor Processing Unit (TPU), i chip personalizzati sviluppati internamente per accelerare i carichi di lavoro di intelligenza artificiale. L’obiettivo a lungo termine è costruire flotte di decine di satelliti, magari fino a ottanta, che operino in stretta formazione, a circa 650 chilometri dalla Terra, agendo collettivamente come un vero e proprio data center orbitale.
La sfida ingegneristica di mantenere un tale cluster di calcolo funzionale nello spazio è titanica. Per emulare la connettività ad alta velocità dei data center terrestri, i satelliti dovrebbero comunicare tra loro utilizzando collegamenti ottici nello spazio libero (free-space optical links), che consentirebbero il trasferimento di dati a decine di terabit al secondo, una tecnologia che si basa sulla trasmissione wireless tramite laser. Mantenere queste formazioni compatte e stabili, distanti tra loro anche solo poche centinaia di metri, è cruciale per garantire la bassa latenza richiesta dall’AI, ma è reso complesso dalle variazioni gravitazionali e dall’attrito atmosferico residuo nell’orbita bassa.
Il progetto non è esente da ostacoli. Oltre al mantenimento orbitale, i chip nello spazio devono affrontare livelli di radiazione più elevati e gestire temperature estreme senza i tradizionali sistemi di raffreddamento a liquido o ad aria utilizzati sulla Terra. Google ha tuttavia effettuato test preliminari che hanno dimostrato che le sue TPU di generazione “Trillium” sono in grado di resistere a livelli di radiazione che simulano quelli presenti in orbita.
Nonostante l’attuale alto costo dei lanci spaziali, Google ipotizza che, con la continua discesa dei prezzi (stimata a meno di 200 dollari al chilogrammo entro la metà degli anni 2030), i costi operativi di un data center spaziale potrebbero diventare competitivi rispetto a quelli terrestri. La mossa inaugurale di questo progetto visionario è prevista per l’inizio del 2027, con il lancio di due satelliti prototipo in collaborazione con Planet Labs. Questi primi test saranno fondamentali per valutare la durabilità dell’hardware e la sua performance in orbita.
