Negli ultimi decenni l’evoluzione della potenza di calcolo è stata guidata principalmente dal miglioramento dei sistemi di high-performance computing basati su architetture classiche. Supercomputer composti da CPU sempre più veloci e, più recentemente, acceleratori come GPU e TPU hanno consentito progressi straordinari nella simulazione scientifica, nell’intelligenza artificiale e nell’analisi dei dati su larga scala. Tuttavia, con l’avvicinarsi dei limiti fisici e architetturali del calcolo tradizionale, la ricerca scientifica e industriale sta esplorando nuovi paradigmi computazionali. In questo contesto, IBM sostiene che il futuro della computazione avanzata non sarà rappresentato da computer quantistici isolati, ma da un nuovo modello denominato quantum-centric supercomputing, nel quale sistemi quantistici e supercomputer classici lavorano in stretta integrazione.
Il concetto di quantum-centric supercomputing nasce dall’osservazione che i computer quantistici, pur avendo capacità teoricamente rivoluzionarie, non sono progettati per sostituire completamente i sistemi classici. I processori quantistici operano su unità di informazione chiamate qubit, che sfruttano le proprietà della meccanica quantistica come sovrapposizione ed entanglement per eseguire calcoli in modo radicalmente diverso rispetto ai bit tradizionali. Questa caratteristica consente loro di affrontare alcune categorie di problemi, come la simulazione di sistemi molecolari complessi o la fattorizzazione di grandi numeri, con efficienza potenzialmente irraggiungibile per i computer convenzionali. Tuttavia, molte operazioni di preparazione dei dati, controllo del sistema e analisi dei risultati continuano a richiedere un’infrastruttura classica estremamente potente.
Per questo motivo IBM propone un’architettura ibrida in cui i quantum processing unit (QPU) vengono integrati all’interno di un ecosistema di supercalcolo che comprende CPU, GPU, reti ad alta velocità e sistemi di storage condivisi. In questo modello, il calcolo quantistico non sostituisce il supercomputer, ma diventa una componente specializzata all’interno di una piattaforma più ampia. I supercomputer classici gestiscono operazioni come la compilazione dei circuiti quantistici, la simulazione preliminare dei modelli, la gestione delle code di calcolo e la post-elaborazione dei risultati, mentre il processore quantistico viene utilizzato per eseguire le parti dell’algoritmo che traggono beneficio dalle proprietà quantistiche.
Questo approccio rappresenta un cambiamento significativo rispetto alla visione tradizionale del computing quantistico come tecnologia completamente separata. Nella prospettiva di IBM, la vera rivoluzione non deriva da un singolo dispositivo quantistico estremamente potente, ma dalla creazione di un’infrastruttura computazionale eterogenea nella quale risorse classiche e quantistiche collaborano per risolvere problemi complessi. In pratica, il sistema funziona come una piattaforma coordinata in cui diversi tipi di processori vengono utilizzati per le operazioni per cui sono più efficienti.
L’architettura di quantum-centric supercomputing proposta dall’azienda prevede diversi livelli tecnologici che devono essere progettati in modo integrato. Il primo riguarda l’hardware, dove i processori quantistici vengono collegati a cluster HPC tramite infrastrutture di rete ad altissima velocità. Il secondo livello riguarda il middleware, cioè il software che permette di orchestrare i flussi di lavoro tra i diversi sistemi. Questo strato è responsabile della distribuzione dei compiti tra QPU e sistemi classici, della sincronizzazione delle operazioni e della gestione dei dati generati durante l’esecuzione degli algoritmi. Infine, il livello applicativo comprende gli algoritmi ibridi progettati specificamente per sfruttare entrambe le tipologie di calcolo.
Uno degli strumenti centrali di questo ecosistema è il framework software Qiskit, sviluppato da IBM per programmare e orchestrare algoritmi quantistici in ambienti ibridi. Attraverso questa piattaforma, gli sviluppatori possono progettare applicazioni che eseguono parte delle operazioni su hardware quantistico e parte su infrastrutture classiche distribuite, includendo anche risorse cloud e sistemi on-premise. L’obiettivo è rendere il calcolo quantistico una componente integrata delle infrastrutture di high-performance computing già utilizzate nei centri di ricerca e nelle aziende.
Un elemento importante di questa strategia è rappresentato dal sistema IBM Quantum System Two, una piattaforma modulare progettata per ospitare processori quantistici scalabili e integrarsi con infrastrutture di supercalcolo tradizionali. Questo sistema utilizza processori come il chip Heron da oltre cento qubit e consente di collegare più unità quantistiche tra loro per aumentare progressivamente la capacità computazionale. L’architettura modulare permette inoltre di aggiornare i processori nel tempo, adattando l’infrastruttura alle future generazioni di hardware quantistico.
Secondo IBM, il modello di quantum-centric supercomputing potrebbe accelerare la risoluzione di problemi scientifici particolarmente complessi. Tra gli ambiti più promettenti figurano la simulazione di sistemi molecolari per la scoperta di nuovi farmaci, lo sviluppo di materiali avanzati per l’energia e l’elettronica, l’ottimizzazione di processi industriali complessi e alcune applicazioni di machine learning. In questi contesti, i computer quantistici possono eseguire operazioni matematiche difficili o impossibili per i supercomputer classici, mentre questi ultimi gestiscono l’enorme volume di dati e la logica di controllo necessaria per l’intero workflow computazionale.
