Immagine AI

Quando Mark Zuckerberg parla di intelligenza artificiale, non usa mezze parole. Per il CEO di Meta, la corsa verso la superintelligenza non è una scelta fra possibili ritorni facili o speculazioni: è una sfida che coinvolge la sopravvivenza tecnologica, la capacità di essere protagonisti nell’innovazione, la posta in gioco nel futuro digitale. In un recente intervento nel podcast Access, Zuckerberg ha ammesso che una bolla dell’IA è “del tutto possibile”; eppure, ha fatto capire che il rischio più grande — per Meta — sarebbe non investire abbastanza, restare in ritardo mentre altri avanzano.

Nell’intervista, Zuckerberg ha tracciato un parallelismo con momenti storici come la bolla dot-com, quando entusiasmo, investimenti massicci e infrastrutture specie troppo ottimistiche portarono a un collasso. Ma avverte che la situazione attuale — anche se rischiosa — potrebbe essere diversa: se la capacità dei modelli cresce costantemente, se la domanda di IA continua ad aumentare, allora potrebbe non esserci un crollo, ma piuttosto un’evoluzione continua e rapida.

Non ha nascosto che aziende come OpenAI o Anthropic, che hanno mosso passi molto aggressivi, sono vulnerabili se i loro finanziamenti venissero a mancare: “potrebbero trovarsi in gravi difficoltà”, ha detto Zuckerberg, rimarcando che Meta, con un bilancio più solido, con capitale elevato e ricavi consistenti, si trova in una posizione differente. Non immune ai rischi, ma con un margine di sicurezza maggiore.

Questo approccio si traduce in numeri molto grandi. Zuckerberg ha confermato che Meta intende investire almeno 600 miliardi di dollari entro il 2028 nelle infrastrutture IA e nei data center negli Stati Uniti, perché la potenza di calcolo, l’hardware, le reti sono il tessuto su cui si costruirà il progresso delle IA più avanzate.

Al di là della spesa, però, Zuckerberg ha parlato anche di organizzazione interna, di struttura: il progetto “Superintelligence Lab” di Meta non è pensato per crescere indefinitamente in numero di persone, ma per essere efficiente, concentrato, con team di alto livello tecnico. Ha detto che non serve avere centinaia di persone nei team di frontiera, se non si mantiene qualità e competenza; ha sottolineato che in ambienti così rapidi, dove ciò che conta possono essere pochi mesi o scoperte inattese, una struttura troppo gerarchica o disomogenea può diventare un ostacolo.

Ci sono, naturalmente, domande che restano aperte. Quando Zuckerberg parla di “grande rischio” se Meta restasse indietro, si accosta al timore di perdere la leadership tecnologica, ma non spiega in dettaglio quanto questa leadership si misuri non solo in innovazione, ma in sostenibilità, etica, regolamentazione, responsabilità. Se l’IA diventa omnipresente, se i modelli sono sempre più potenti, quanta energia occorre, che impatto ambientale, che costi sociali, che rischi di sorveglianza o di uso improprio? Sono tutti spettri che emergono a fianco del tema economico. Le bolle non esplodono solo per mancanza di soldi, ma per aspettative tradite, problemi etici, problemi di fiducia.

Un’altra questione riguarda il ritorno sugli investimenti: grandi infrastrutture, data center, GPU, chip, sono costosi da costruire, da mantenere, da raffreddare, da alimentare. Se le promesse di applicazioni concrete, di benefici tangibili (prodotti, servizi, efficienza) non procedono al passo degli investimenti, il rischio non è solo finanziario, ma reputazionale. Zuckerberg sembra scommettere che la traiettoria dell’IA giustifichi questi investimenti massicci, ma molti guarderanno con attenzione ai risultati effettivi.

Le parole di Zuckerberg delineano un duplice principio: da un lato, il riconoscimento che l’IA, come tutte le rivoluzioni tecnologiche, può essere vittima di euforia e sopravvalutazione; dall’altro, l’idea che il rischio maggiore oggi sia quello del ritardo, del farsi scavalcare da chi è disposto a puntare forte, a costruire l’infrastruttura, a dedicare risorse e talento con decisione.

Di Fantasy