DeepSeek, la startup cinese nel campo dell’intelligenza artificiale, ha recentemente attirato l’attenzione del settore tecnologico globale grazie alle sue dichiarazioni riguardanti i margini di profitto ottenuti dai suoi modelli di intelligenza artificiale, DeepSeek-V3 e R1. Nonostante offra numerosi servizi gratuiti, l’azienda ha riferito un rapporto teorico costo-profitto giornaliero del 545%, sollevando discussioni sulle implicazioni per l’industria dell’IA e per i mercati finanziari.
Secondo un recente post su GitHub pubblicato da DeepSeek, l’azienda ha dettagliato i costi operativi e i ricavi potenziali associati ai suoi modelli di intelligenza artificiale. Utilizzando GPU NVIDIA H800, con un costo di noleggio stimato di $2 all’ora per GPU, l’azienda ha registrato un costo operativo giornaliero di $87.072. Basandosi sul modello di pricing del DeepSeek-R1—che prevede tariffe di $0,14 per milione di token di input per cache hit, $0,55 per milione per cache miss e $2,19 per milione di token di output—il ricavo teorico giornaliero è stato stimato in $562.027.
Questo porta a un rapporto costo-profitto teorico del 545% al giorno. Tuttavia, DeepSeek ha sottolineato che i ricavi effettivi sono significativamente inferiori a causa di diversi fattori, tra cui prezzi più bassi per il modello DeepSeek-V3, accesso gratuito ai servizi web e app, e sconti automatici durante le ore notturne. L’azienda ha affermato che la sua strategia di pricing dà priorità all’accessibilità e all’adozione a lungo termine rispetto alla massimizzazione immediata dei ricavi.
Le rivelazioni di DeepSeek hanno avuto un impatto significativo sui mercati finanziari, in particolare sulle azioni delle aziende tecnologiche. Il lancio del modello R1, che l’azienda sostiene sia stato addestrato con un budget inferiore a $6 milioni, ha innescato una reazione marcata nel mercato. Le azioni di NVIDIA, ad esempio, hanno subito una flessione del 17%, cancellando quasi $600 miliardi in valore, a causa delle preoccupazioni sull’efficienza del modello.
Tuttavia, Jensen Huang, CEO di NVIDIA, ha dichiarato durante una recente chiamata sugli utili che la domanda di inferenza è in accelerazione, alimentata dalla scalabilità durante il test e da nuovi modelli di ragionamento. Huang ha elogiato il modello R1 di DeepSeek come un’innovazione eccellente e ha sottolineato l’importanza dell’open-source nel promuovere l’adozione globale.
Guardando al futuro, DeepSeek ha annunciato l’intenzione di rilasciare il suo prossimo modello di ragionamento, il DeepSeek R2, il prima possibile. Inizialmente previsto per l’inizio di maggio, l’azienda sta ora considerando un rilascio anticipato. Il nuovo modello promette una migliore capacità di codifica e la capacità di ragionare in lingue diverse dall’inglese, ampliando ulteriormente le potenzialità e l’accessibilità dei suoi servizi di intelligenza artificiale.