Immagine AI

Nel mondo della tecnologia c’è una tensione sotterranea fatto di attese, investimenti e visioni che superano i limiti dell’oggi. È una tensione in cui si intrecciano le ambizioni di capire dove porterà l’intelligenza artificiale, quale sarà il peso del quantum computing, chi controllerà le risorse più critiche – come le GPU – e come cambierà il panorama delle infrastrutture tecnologiche globali. Al convegno Cypher 2025, in India, AS Rajgopal, fondatore e CEO di NxtGen, ha offerto una riflessione che scuote qualche certezza molto radicata: secondo lui, il quantum computing potrebbe rendere obsolete le GPU. È una provocazione, certo, ma utile per pensare al domani con più realismo.

Rajgopal ha chiamato l’attenzione su due cose collegate tra loro: da un lato, la dominanza quasi totale delle GPU per costruire modelli di AI “frontiera” – modelli grandi, che richiedono calcolo massivo, molte risorse hardware, molta energia – e dall’altro, l’idea che il quantum potrebbe essere un’alternativa non solo sperimentale, ma abbastanza matura da mettere in discussione le fondamenta di quel modello hardware. In effetti, oggi quasi il 95% delle GPU necessarie per i modelli più avanzati provengono da pochissime aziende come NVIDIA. Ciò conferisce a quelle aziende, ma anche ai Paesi che le ospitano o che possono accedere a quelle GPU in modo privilegiato, un potere strategico enorme.

Rajgopal ha evidenziato che negli ultimi dieci anni le big tech hanno visto raddoppiare i loro profitti operativi, passando circa dal 34% al 63% — un segnale che il ritorno economico delle infrastrutture di calcolo, della scalabilità, è diventato una delle leve principali del dominio tecnologico. In parallelo, si spendono cifre enormi per espandere la capacità di compute: infrastrutture, data center, GPU sempre più potenti, sistemi di raffreddamento, energia elettrica… tutto questo mentre il quantum è visto come una frontiera che potrebbe cambiare molto profondamente le regole del gioco.

Quando Rajgopal parla di GPU che diventano obsolete, non intende un calo immediato del loro utilizzo, ma un processo di evoluzione nel quale il quantum computing diventa talmente competitivo da sostituirle in molti ambiti nei quali oggi le GPU sono lo strumento migliore. Le GPU funzionano bene per operazioni che richiedono parallelismo, come l’apprendimento profondo, l’addestramento di modelli di AI, elaborazione di grandi moli di dati, render grafico, simulazioni. Sono state ottimizzate negli anni, ma hanno dei limiti fisici, architetturali, energetici: consumo, scalabilità, costi. Il quantum computing promette (o almeno i suoi sostenitori lo sperano) di offrire vantaggi, in certe classi di problemi, che possono superare quei limiti: tipo ottimizzazione complessa, simulazioni quantistiche, alcuni tipi di calcolo combinatorio dove le varianti crescono in modo esponenziale. Se queste promesse diventano realtà pratica, allora per quei problemi le GPU non saranno più la soluzione preferita — diventerebbero, per così dire, “strumenti del passato” in molti contesti specializzati.

Naturalmente, non siamo ancora al momento in cui il quantum sostituisce le GPU ovunque. Diverse sfide grosse stanno davanti:

  • Stabilità e coerenza: i computer quantistici oggi funzionano in condizioni estremamente controllate, spesso con errori, decoerenza, rumore. Non sono ancora pronti per molte applicazioni pratiche su larga scala, o comunque non nelle condizioni in cui le GPU e i sistemi classici funzionano affidabilmente.
  • Costo e infrastruttura: costruire hardware quantistico, mantenerlo, raffreddarlo (molti modelli richiedono temperature vicinissime allo zero assoluto), isolare gli errori quantistici, è molto costoso. Non è un’infrastruttura che può essere distribuita come i data center con GPU, almeno non oggi.
  • Algoritmi e casi d’uso pratici: non tutti i problemi possono trarre vantaggio immediato dal quantum. Serve che ci siano algoritmi quantistici ben definiti, efficienti, che davvero superino le versioni classiche in modo tangibile. In molti casi oggi è ancora teorico, prototipale.
  • Transizione tecnologica: passare da un’architettura classica (CPU + GPU) a una che integra componenti quantistiche richiede riconfigurazioni software, nuove tecnologie, competenze. Non è qualcosa che succede da un giorno all’altro.

Anche se il quantum ha potenziale disruptive, le GPU non spariranno in un batter d’occhio: sono mature, diffuse, hanno ecosistemi software ampi (frameworks di AI, librerie, tool di calcolo parallelo), infrastrutture consolidate (data center, reti di distribuzione, supply chain). Per molti problemi, oggi la GPU è la scelta più pragmatica: offre risultati affidabili, velocità, costi che sono diventati ragionevoli col passare del tempo. Fino a che il quantum non risolve stabilmente le sue sfide principali, le GPU continueranno ad essere il punto di riferimento per chi sviluppa AI, modelli avanzati, per chi ha bisogno di formazione di reti neurali e calcolo parallelo di massa

Quel che Rajgopal mette in luce, oltre l’aspetto tecnico, è la dimensione geopolitica. Controllare la produzione e la disponibilità di GPU, o più in generale di hardware di calcolo, è diventato un vettore di potere: Paesi che ospitano aziende che producono GPU (o che hanno accesso preferenziale) hanno un vantaggio competitivo notevole nello sviluppo dell’AI. Se il quantum assume un ruolo centrale, chi sviluppa tecnologie quantistiche, chi ha le infrastrutture, chi ha il capitale e la ricerca per sostenerle, potrebbe acquisire un nuovo vantaggio. Questo può cambiare gli equilibri tra nazioni, tra settori, tra giganti del cloud e aziende emergenti.

Pensando all’evoluzione, ci sono diversi possibili futuri. In uno scenario, il quantum resta “nicho”, cioè utile in certi settori (simulazioni molecolari, chimica quantistica, ottimizzazione complessa, ricerca scientifica), mentre il grosso dell’AI commerciale, industriale, continuerà ad appoggiarsi su GPU per molto tempo. In un altro scenario più ambizioso, le tecnologie quantistiche miglioreranno fino a scalare, diventare stabili, meno costose, integrate con il calcolo classico, con software che sfruttano ibridi classico-quantistico — e allora sì, in quegli ambiti le GPU saranno progressivamente superate.

Anche per Paesi come l’Italia o per l’Europa, questo tipo di visione vale molto. Non basta investire in banda larga o in data center: serve strategia, ricerca, competenze, investimenti in hardware d’avanguardia. Serve studiare come integrare il quantum nei piani nazionali per l’innovazione, nella sanità, nell’industria, nel cloud computing, nelle start-up deep tech. serve anche capire come regolamentare questi sviluppi, come formare tecnici e ricercatori, come gestire le dipendenze da fornitori esteri di hardware.

Di Fantasy