Negli ultimi mesi sono emerse indiscrezioni secondo cui Apple starebbe valutando un ricorso più marcato a infrastrutture cloud esterne per sostenere la prossima generazione delle proprie funzionalità di intelligenza artificiale, inclusa una versione rinnovata di Siri basata su modelli linguistici di grandi dimensioni. Questa ipotesi segnerebbe un cambiamento rilevante rispetto alla tradizionale strategia dell’azienda, storicamente orientata al controllo diretto delle tecnologie chiave attraverso progettazione proprietaria di hardware, software e silicio personalizzato.
Secondo quanto riportato da The Information, Apple avrebbe chiesto a Google di esaminare un piano per costruire server dedicati all’interno dei data center di Google al fine di gestire una Siri di nuova generazione basata sulla piattaforma Gemini, nel rispetto degli standard di privacy definiti da Apple. L’azienda di Cupertino utilizza già Google Cloud per alcune funzioni, tra cui servizi di archiviazione online e addestramento di modelli di intelligenza artificiale, ma l’ipotesi di affidare a un provider esterno una componente critica come l’inferenza di un assistente vocale di nuova generazione rappresenta un salto qualitativo nel grado di dipendenza infrastrutturale.
In precedenza Apple aveva dichiarato di elaborare le query di intelligenza artificiale più complesse attraverso il proprio sistema denominato “Private Cloud Compute”, un’architettura basata su server equipaggiati con chip in silicio progettati internamente. In questo schema, le richieste semplici vengono processate direttamente sul dispositivo, sfruttando i Neural Engine integrati nei SoC Apple, mentre le operazioni più onerose in termini di calcolo vengono instradate verso server controllati dall’azienda. Questo modello ibrido è coerente con la narrativa di Apple sulla privacy, che privilegia l’elaborazione locale e limita l’esposizione dei dati a infrastrutture esterne.
Tuttavia, l’evoluzione dell’intelligenza artificiale generativa, accelerata in modo significativo dal lancio di ChatGPT alla fine del 2022, ha evidenziato la centralità dei modelli cloud su larga scala. I grandi modelli linguistici richiedono cluster di acceleratori hardware, reti ad alta larghezza di banda e sistemi di orchestrazione distribuita che vanno oltre l’architettura tradizionale di molti data center orientati a servizi web o storage. In questo contesto, la capacità di scalare rapidamente la potenza di calcolo diventa un fattore competitivo determinante.
Apple, pur avendo avviato nel 2019 il cosiddetto “Progetto ACDC” (Apple Chips in Data Centers) con l’obiettivo di integrare chip proprietari nei propri data center e costruire un’infrastruttura interna più coerente, avrebbe incontrato limiti di investimento dovuti a valutazioni del dipartimento finanziario, che avrebbe considerato il cloud computing più come un centro di costo che come un investimento strategico. Questo orientamento avrebbe rallentato l’espansione dell’infrastruttura interna e contribuito all’uscita di esperti cloud dall’azienda, indebolendo la capacità di esecuzione su larga scala.
Parallelamente, le funzionalità di intelligenza artificiale presentate finora non avrebbero generato un entusiasmo proporzionato alle aspettative. Il tasso medio di utilizzo del Private Cloud Compute sarebbe rimasto intorno al 10%, con parte dei server dedicati all’IA ancora inutilizzati. Anche la rinnovata Siri, annunciata come profondamente riprogettata su base AI, non è stata lanciata nei tempi previsti, e le funzionalità introdotte – come strumenti di scrittura assistita o riassunti intelligenti delle notifiche – non hanno raggiunto il livello di maturità percepito nei prodotti concorrenti.
Al contrario, aziende come Microsoft, Amazon, Meta e la stessa Google hanno investito massicciamente in data center e cluster GPU per soddisfare la crescente domanda di modelli generativi. Apple ha mantenuto un approccio più prudente, preferendo noleggiare potenza di calcolo da provider esterni piuttosto che espandere in modo aggressivo la propria capacità interna.
Dal punto di vista tecnico, affidarsi a un provider come Google per l’esecuzione di modelli Gemini all’interno di data center dedicati potrebbe offrire diversi vantaggi. Google dispone di un’infrastruttura unificata con un pool condiviso di risorse di calcolo, ottimizzato per carichi AI e supportato da acceleratori proprietari come le TPU. Questa architettura consente di allocare dinamicamente risorse su larga scala, riducendo il rischio di sottoutilizzo. In un’organizzazione come Apple, descritta da ex ingegneri come frammentata tra diversi reparti con server e servizi eterogenei, l’efficienza sistemica potrebbe risultare inferiore.
Un altro elemento critico riguarda l’obsolescenza hardware. Nel 2023 Apple avrebbe dovuto sostituire un numero significativo di chip Nvidia nei propri data center, segno che l’infrastruttura esistente non era più adeguata ai carichi moderni di addestramento e inferenza. In seguito a decisioni interne, l’azienda avrebbe optato per una strategia più orientata all’esterno, facendo maggiore affidamento su provider come AWS e Google, e adottando le TPU di Google per migliorare l’efficienza dei costi.
Alla Worldwide Developers Conference del 2024 Apple ha annunciato “Apple Intelligence”, un’iniziativa basata sull’integrazione di modelli generativi nei propri sistemi operativi. Tuttavia, il Private Cloud Compute che avrebbe dovuto sostenerla non è stato reso disponibile prima della fine del 2024, con un ritardo di circa sei mesi rispetto alle previsioni. La revisione dell’interfaccia conversazionale di Siri, elemento chiave per competere con assistenti AI avanzati, non è ancora pronta per il lancio, suggerendo difficoltà nell’integrazione tra modelli, infrastruttura e interfaccia utente.
L’eventuale accordo con Google può quindi essere interpretato come una misura preventiva per gestire un possibile picco di domanda in seguito al rilascio di una Siri di nuova generazione. Allo stesso tempo, rappresenta un’ammissione implicita che l’attuale infrastruttura privata di Apple non sia ottimizzata per l’esecuzione efficiente di modelli su larga scala. Se i costi dei provider cloud dovessero aumentare nel tempo, la pressione per espandere server proprietari potrebbe riemergere con forza, ma nel breve periodo la flessibilità e la scalabilità offerte dal cloud esterno appaiono difficili da eguagliare.
