Qualcomm, storicamente pilastro del mercato della telefonia mobile e fornitore dominante di chip per modem, ha annunciato un’audace e definitiva diversificazione strategica, puntando con decisione al florido e in crescita mercato dei chip di Intelligenza Artificiale (AI) per i data center. Questa mossa, formalizzata con la presentazione degli acceleratori di inferenza AI di nuova generazione ‘AI200’ e ‘AI250’, non è solo un cambio di rotta, ma la risposta all’evoluzione del panorama tecnologico e alla necessità di ridurre la dipendenza dai ricavi derivanti dal settore mobile, messo in discussione dalla sospensione delle attività con Huawei e dalla decisione di Apple di sviluppare chip proprietari. L’importanza dell’annuncio è stata immediatamente recepita dal mercato, con il prezzo delle azioni di Qualcomm che ha registrato un notevole aumento.

I chip AI200 e AI250 sono il cuore della strategia di Qualcomm per competere con i leader di settore come Nvidia e AMD. L’azienda ha immediatamente messo in chiaro il proprio vantaggio competitivo: questi prodotti sono progettati per offrire maggiore efficienza e un Costo Totale di Proprietà (TCO) inferiore rispetto alle soluzioni rack-scale dei concorrenti.

L’acceleratore AI200, la cui commercializzazione è prevista per il 2026, è una macchina ottimizzata per l’inferenza AI ad alte prestazioni. Vanta 768 GB di memoria LPDDR, supporta l’espansione PCIe ed Ethernet e implementa la tecnologia di raffreddamento a liquido diretto. Questa configurazione è pensata per gestire l’inferenza AI in rack con un consumo energetico di soli 160 kilowatt (kW), un valore significativamente efficiente. Inoltre, supporta funzionalità di confidential computing di livello enterprise, garantendo maggiore sicurezza per i dati sensibili.

Il modello successivo, AI250, previsto per il 2027, eleva ulteriormente l’asticella dell’innovazione. Introduce un’architettura di elaborazione quasi-memoria che promette di migliorare la larghezza di banda della memoria di oltre 10 volte. L’AI250 è specificamente ottimizzato per l’esecuzione di modelli transformer di grandi dimensioni, gestendo dinamicamente le risorse di elaborazione e di memoria per la massima efficienza.

Durga Malladi, vicepresidente e direttore generale di Qualcomm Data Center, ha affermato che i nuovi chip “definiranno un nuovo standard per l’inferenza dell’intelligenza artificiale”, consentendo ai data center di implementare l’AI generativa con “un’efficienza senza precedenti, mantenendo al contempo la flessibilità e la sicurezza di cui hanno bisogno”.

A riprova della serietà e dell’impatto della sua incursione nel settore AI, Qualcomm ha annunciato l’imminente implementazione dei suoi prodotti. Il lancio avverrà a partire dal 2026, in un progetto su vasta scala: un rack AI da 200 megawatt (MW) all’interno di un mega data center da 6 gigawatt (GW) in costruzione presso la società saudita Humain.

Questo contratto su larga scala con l’Arabia Saudita è stato analizzato da esperti come Joe Tigay, gestore di portafoglio, come la prova che “l’ecosistema globale delle infrastrutture di intelligenza artificiale è entrato in una fase decentralizzata e diversificata”. Secondo questa visione, “Nessuna singola azienda sarà più in grado di monopolizzare la domanda globale di elaborazione di intelligenza artificiale”, aprendo la porta a player come Qualcomm.

Per quanto riguarda l’infrastruttura di supporto, Qualcomm deve ancora rivelare le configurazioni CPU esatte per i sistemi AI200 e AI250. Sebbene si preveda che l’AI200 utilizzi inizialmente processori ARM o x86 esistenti, l’azienda sta sviluppando attivamente i propri chip CPU per data center, il cui completamento è atteso intorno al 2027 o 2028, rafforzando ulteriormente la sua indipendenza e il suo controllo sull’intera stack tecnologica.

L’impegno di Qualcomm non si limita all’hardware. L’azienda ha presentato anche una piattaforma software unificata cruciale per l’inferenza su larga scala. Questa piattaforma garantisce la compatibilità con i principali strumenti dell’AI generativa, tra cui PyTorch, ONNX, vLLM, LangChain e CrewAI.

Soprattutto, la piattaforma è progettata per semplificare l’adozione, consentendo l’implementazione immediata di modelli pre-addestrati tramite una pratica funzionalità di “onboarding del modello con un clic”. Fornendo sia un hardware ad alta efficienza che un software di supporto flessibile, Qualcomm si posiziona non solo come fornitore di chip, ma come soluzione completa e pronta all’uso per la crescente domanda di capacità di inferenza AI a livello globale.

Di Fantasy