Nel panorama in continua evoluzione dell’intelligenza artificiale, l’efficienza nell’addestramento dei modelli rappresenta una sfida cruciale. Recentemente, la startup cinese 01.AI ha attirato l’attenzione del settore annunciando di aver addestrato un modello AI avanzato, denominato ‘Yi-Lightning’, utilizzando 2000 GPU e sostenendo un costo di soli 3 milioni di dollari. Questo risultato è particolarmente significativo se confrontato con le spese sostenute da giganti come OpenAI, che ha investito tra 80 e 100 milioni di dollari per l’addestramento di GPT-4, e prevede di spendere fino a 1 miliardo di dollari per GPT-5.
La strategia di 01.AI si basa su un approccio innovativo all’ottimizzazione delle risorse. L’azienda ha implementato soluzioni che riducono il carico computazionale, trasferendo parte del lavoro alla memoria e sviluppando un sistema di caching multilivello. Inoltre, ha progettato un motore di inferenza specializzato per minimizzare i colli di bottiglia, migliorando così l’efficienza complessiva del processo di addestramento. Queste tecniche hanno permesso a 01.AI di abbassare significativamente i costi, portando il costo di inferenza a soli 10 centesimi per milione di token, una cifra circa 30 volte inferiore rispetto a modelli comparabili.
Nonostante questi risultati impressionanti, alcune fonti sollevano dubbi sulla veridicità delle cifre riportate. Considerando che una singola GPU H100 ha un costo approssimativo di 30.000 dollari, l’utilizzo di 2000 unità comporterebbe una spesa di circa 60 milioni di dollari, ben al di sopra dei 3 milioni dichiarati. Inoltre, il CEO di 01.AI, Kai-Fu Lee, aveva precedentemente affermato che l’azienda disponeva di un numero sufficiente di GPU per coprire il proprio piano operativo per i successivi 18 mesi, sollevando ulteriori interrogativi sulla coerenza delle informazioni fornite.
Indipendentemente da queste discrepanze, il successo di 01.AI è notevole, soprattutto considerando le restrizioni imposte dagli Stati Uniti sull’esportazione di GPU avanzate verso la Cina. In risposta a queste limitazioni, molte aziende cinesi stanno adottando strategie creative, come l’utilizzo di chip domestici meno potenti e la connessione di GPU distribuite in diversi data center, per mantenere la competitività nel campo dell’intelligenza artificiale.