La scorsa settimana, DeepSeek ha organizzato l’evento “Open Source Week”, durante il quale ha rivelato dettagli tecnici sui modelli “R1” e “V3”, suscitando sia interesse che critiche riguardo alla completezza e alla trasparenza delle informazioni fornite.
Durante l’Open Source Week, DeepSeek ha reso pubblici cinque repository open source relativi ai modelli “R1” e “V3”. Questi repository illustrano metodi per massimizzare le prestazioni delle GPU in termini di calcolo, comunicazione e storage, elementi fondamentali per l’addestramento dei modelli.
Nonostante l’apparente apertura, Asif Razzaq, CEO di MarkTechPost, ha evidenziato che DeepSeek ha omesso dettagli cruciali riguardanti l’architettura completa del sistema e le metodologie di riproduzione dei risultati. Sebbene siano state fornite informazioni su librerie di matrici FP8 personalizzate e componenti di comunicazione di base, mancano dettagli su algoritmi di bilanciamento del carico e sistemi di memoria distribuita. Questa mancanza impedisce una verifica completa del sistema e mette in discussione l’effettiva trasparenza del progetto.
Un aspetto particolarmente preoccupante è la totale assenza di informazioni sui dataset utilizzati per l’addestramento dei modelli. Non è chiaro se siano state utilizzate tecniche come la distillazione o se siano stati impiegati modelli come “o1” di OpenAI. Questa opacità solleva interrogativi non solo sulla validità tecnica dei modelli, ma anche sulle implicazioni etiche legate all’origine e all’uso dei dati.
La selettività nella divulgazione delle informazioni ha portato alcuni a accusare DeepSeek di “open-washing”, ovvero di professare un’apertura verso l’open source mentre si trattengono dettagli fondamentali. Questo comportamento è stato paragonato a quello di grandi aziende come Meta, che ha reso open source la serie “Llama” senza fornire dettagli sui dataset utilizzati.
Razzaq sottolinea che un vero progetto open source dovrebbe documentare ogni aspetto, dalla complessità del design del sistema alle questioni etiche legate ai dati di addestramento. La trasparenza non dovrebbe essere una semplice lista di controllo, ma la base per la fiducia e la collaborazione all’interno della comunità AI.