È ampiamente riconosciuto che Google detiene la maggiore quantità di unità di elaborazione grafica (GPU) con tecnologia di intelligenza artificiale (IA) sviluppata da Nvidia. Tuttavia, emerge una crescente disparità nella distribuzione di GPU, accentuando la separazione tra le realtà ricche e quelle meno avvantaggiate, poiché nuove start-up o gruppi open source faticano a garantirsi l’accesso a queste risorse chiave.

Secondo quanto riportato da Semianalytics, un’azienda di ricerca e analisi, il panorama tecnologico può essere suddiviso in due categorie: “poveri di GPU” e “ricchi di GPU”.

All’interno del gruppo “poveri di GPU” rientrano principalmente le nuove start-up o i ricercatori open source, che si trovano a dover affrontare limitate scorte di GPU. Esemplari rappresentativi sono le start-up europee e i supercomputer governativi come “Jules Verne”, che si ritrovano a essere meno competitive nel campo dell’IA.

Anche aziende di spicco nel settore dell’intelligenza artificiale open source, come Hugging Face, Databricks e Together, sono classificate come parte del gruppo “poveri di GPU”.

Inoltre, le aziende che hanno acquisito un considerevole numero di GPU Nvidia ma che non sono riuscite a generare profitti sono state collocate in una categoria intermedia.

Il parametro per rientrare nella categoria “ricchi di GPU” richiede la disponibilità di oltre 20.000 GPU Nvidia “A100” e “H100”. Questo gruppo include nomi come OpenAI, Google, Antropic, X di Elon Musk, Meta e Inflection. Essi possiedono la più alta dotazione di risorse informatiche per ricercatore.

All’interno di questo panorama, Google spicca come azienda con la maggiore quantità di GPU, definendola “il maggior titolare di risorse informatiche al mondo, dotato di un’architettura straordinariamente efficiente”.

Particolarmente interessante è lo sviluppo in corso da parte di Google di un nuovo modello di linguaggio di grandi dimensioni (LLM) denominato “Gemini”, che supera il noto “GPT-4”. È noto che, entro la fine dell’anno, Google prevede di far apprendere il modello Gemini cinque volte più velocemente rispetto alla fase di pre-addestramento di “GPT-4”.

La costante espansione delle infrastrutture, alimentata dalla crescente quantità di GPU, suggerisce che la velocità di apprendimento di Gemini potrebbe addirittura aumentare di 20 volte rispetto a quella di GPT-4 entro la fine dell’anno successivo. Il tasso di apprendimento rappresenta, in definitiva, un determinante chiave delle prestazioni del modello LLM.

Nel frattempo, il secondo posto per quantità di GPU è rivendicato da Meta, che ha avviato la costruzione di centri di elaborazione su larga scala alla fine dell’anno scorso. Si stima inoltre che alcune imprese all’interno del gruppo “ricchi” e alcune delle principali aziende tecnologiche cinesi possano acquisire oltre 100.000 GPU entro la fine del 2024.

Di Fantasy