Circa un anno fa, è stato introdotto un avanzamento tecnologico che riproduce le capacità umane, anche se non espressamente richiesto. Con l’introduzione del chatbot di OpenAI, tutti sono stati incoraggiati a familiarizzare con strumenti come ChatGPT, al fine di arricchire sia la vita personale che professionale.

Al cuore di questi strumenti si trovano i Modelli Linguistici di Grandi Dimensioni (LLM) basati su una vasta quantità di dati e ingenti investimenti. Eppure, i colossi tecnologici non hanno ancora mostrato risultati tangibili con questi chatbot.

“Siamo nettamente in disaccordo con l’approccio di OpenAI, Anthropic e Cohere. La nostra filosofia è più vicina all’open source, incline verso modelli specifici e compatti piuttosto che un ‘unico modello dominante'”, afferma Mark McQuade, co-fondatore di Arcee.ai, una startup focalizzata sugli LLM settoriali.

McQuade sottolinea: “Mentre i grandi modelli hanno il loro ruolo, le aziende stanno cercando di incorporare troppi use case in un singolo modello. Ogni applicazione dovrebbe avere un modello linguistico dedicato per massimizzare efficienza e scalabilità”.

L’idea è chiara: un modello linguistico destinato all’assistenza clienti non ha bisogno di eccellere in poesia. Utilizzare un modello gigante per compiti piccoli e specifici è come avere una valigia piena di attrezzi quando in realtà ne serve solo uno. I modelli più concentrati offrono formazioni più mirate.

McQuade, con esperienze passate in Hugging Face, ha lanciato il sistema End2End RAG per sfruttare al meglio gli LLM. L’idea è quella di combinare un modello specifico con un dominio per ottenere il massimo ROI.

Recensioni recenti evidenziano le sfide affrontate dalle grandi aziende nel monetizzare la loro intelligenza artificiale generativa. Di fatto, si dice che anche giganti come Microsoft stiano rilasciando aggiornamenti supportati da IA con un prezzo più elevato, mentre altre aziende cercano di ridurre i costi con soluzioni AI interne.

La visione di McQuade riguarda l’implementazione di una variante potenziata di RAG, più sensibile al contesto dei dati, migliorando l’efficienza e la precisione. Questo approccio, afferma, riduce significativamente le inesattezze.

In termini di costi, l’approccio di McQuade risulta notevolmente più conveniente rispetto ai grandi modelli come GPT-4, offrendo un ROI più alto.

Guardando al futuro, McQuade confronta l’evoluzione dell’AI generativa con l’adozione del cloud. Prevede che la battaglia principale sarà tra modelli giganti e modelli più snelli, specializzati. Mentre giganti come Microsoft, AWS e Google si orientano verso soluzioni come LLaMA di Meta, McQuade scommette sulla prossima grande tendenza: la generazione multimodale.

In conclusione, McQuade sottolinea l’importanza dei dati nella formazione dei modelli. La sfida principale per ogni modello è la sua formazione e ottimizzazione, ed è per questo che si sta assistendo a una crescente enfasi sulla generazione di dati sintetici di alta qualità.

Di Fantasy