Immagine AI

Nel campo dell’intelligenza artificiale, le aziende stanno scoprendo che “meno è più”. La tendenza al minimalismo nei modelli AI sta emergendo come una strategia vincente per ridurre costi e migliorare l’efficienza operativa.

L’introduzione dei modelli linguistici di grandi dimensioni (LLM) ha rivoluzionato il modo in cui le imprese sviluppano applicazioni, portando a una proliferazione di progetti pilota che ora stanno passando alla fase di implementazione. Tuttavia, molte aziende si sono rese conto che questi modelli, pur essendo potenti, sono anche ingombranti e costosi. Di conseguenza, si sta facendo strada una nuova filosofia: l’adozione di modelli più piccoli e specializzati.

Modelli come la famiglia Gemma di Google, Phi di Microsoft e Mistral Small 3.1 offrono prestazioni elevate per compiti specifici, riducendo significativamente i costi operativi e infrastrutturali. Secondo Karthik Ramgopal, ingegnere di LinkedIn, i modelli più piccoli richiedono meno risorse computazionali e memoria, con tempi di inferenza più rapidi, traducendosi direttamente in minori spese operative e capitali investiti.

La distillazione dei modelli è un’altra tecnica che sta guadagnando terreno. Questo processo consente di creare versioni più compatte e veloci dei modelli originali, mantenendo alte le prestazioni. Ad esempio, OpenAI offre una versione “mini” del suo modello o4, che costa $1,1 per milione di token in input e $4,4 per milione in output, rispetto ai $10 e $40 rispettivamente della versione completa o3.

La valutazione del ritorno sugli investimenti (ROI) in AI può essere complessa. Alcune aziende considerano già raggiunto il ROI semplicemente riducendo il tempo dedicato a determinati compiti, mentre altre attendono risparmi concreti o un aumento degli affari per confermare l’efficacia degli investimenti in AI. Arijit Sengupta, CEO di Aible, sottolinea che l’aggiunta di contesto ai modelli, attraverso tecniche come il fine-tuning, può comportare riduzioni dei costi fino a 100 volte, passando da milioni a poche decine di migliaia di dollari.

Le aziende stanno imparando che la scelta del modello giusto dipende dal caso d’uso specifico. Alcuni compiti, come la sintesi di testi o la generazione di codice, sono meglio gestiti da modelli più piccoli. Daniel Hoske, CTO di Cresta, suggerisce di iniziare con modelli di grandi dimensioni per testare la fattibilità del progetto, per poi passare a soluzioni più personalizzate man mano che emergono vincoli legati alla qualità, ai costi o alla latenza.

Indipendentemente dalle dimensioni del modello, è fondamentale mantenere la flessibilità per affrontare eventuali problemi o nuove esigenze. Tessa Burg, CTO di Mod Op, afferma che è importante comprendere che qualsiasi tecnologia utilizzata oggi sarà superata da una versione migliore in futuro. Pertanto, è essenziale essere pronti a adattarsi e a evolversi con le nuove innovazioni.

Di Fantasy