L’attenzione delle aziende tecnologiche si sta sempre più spostando da una semplice corsa alla dimensione dei modelli di linguaggio verso aspetti spesso meno visibili ma estremamente fondamentali: la capacità di recuperare informazioni in modo accurato ed efficiente. Ecco, allora che si esplora proprio questa visione alternativa, adottata da MongoDB, uno dei principali fornitori di database al mondo, che ritiene il recupero dati — e dunque la qualità dell’informazione restituita — il vero punto critico per la fiducia e l’efficacia delle applicazioni di AI enterprise.
L’introduzione del testo chiarisce come, per sistemi agentici e per tecnologie basate su retrieval-augmented generation (RAG), la semplice capacità di generare testo coerente non sia più sufficiente. In realtà, è proprio la qualità con cui un sistema riesce a identificare, estrarre e interpretare informazioni rilevanti dal vasto mare di dati disponibili che determina se una applicazione AI sarà affidabile o, al contrario, suscettibile di errori, imprecisioni e costi operativi insostenibili. Quanto più cresce l’adozione di agenti e pipeline di RAG in produzione, tanto più questo “collasso della qualità di recupero” emerge come un punto debole che può compromettere l’intero valore dell’AI.
Per affrontare questa sfida, MongoDB ha lanciato quattro nuove versioni dei suoi modelli di embedding e di reranking, con nomi come voyage-4, voyage-4-large, voyage-4-lite e voyage-4-nano, ognuno pensato per bilanciare diverse esigenze di prestazioni, costo e capacità operativa. Tra queste, voyage-4-large rappresenta il modello flagship, ideato per interpretare in modo più profondo il senso semantico dei dati aziendali, mentre voyage-4-nano apre la strada all’utilizzo di modelli open-weight più leggeri e adatti a contesti di sviluppo locale o su dispositivi con risorse limitate. Tutti questi modelli sono disponibili tramite API o attraverso la piattaforma MongoDB Atlas, il cuore della proposta di database di MongoDB.
La logica alla base di questa strategia è semplice, ma potente: se un sistema di AI non riesce a recuperare le informazioni corrette al momento giusto, allora la generazione di risposte di qualità diventa quasi impossibile, indipendentemente da quanto grande o sofisticato sia il modello linguistico sottostante. In altre parole, un modello enorme ma che si basa su dati poco pertinenti o mal organizzati rischia di produrre risultati superficiali o, peggio, errati, indebolendo la fiducia degli utenti e aumentando costi e complessità nel lungo termine.
Questa consapevolezza ha portato MongoDB a concentrarsi non tanto sull’ultima generazione di reti neurali con parametri sempre più numerosi, ma piuttosto su una integrazione stretta tra database, embedded retrieval e modelli AI. Il risultato è un’architettura in cui la funzione di recupero dell’informazione — cioè la capacità di comprendere semanticamente i contenuti presenti in grandi volumi di dati, siano essi testi, immagini o altro — diventa elemento chiave per la qualità dell’intera pipeline AI. È un approccio che punta a ridurre la frammentazione tipica di molte soluzioni enterprise, dove spesso database, motori di ricerca semantica e modelli di linguaggio sono scollegati tra loro, costringendo gli sviluppatori a gestire complesse integrazioni manuali.
In questo contesto, l’uso di modelli multimodali come voyage-multimodal-3.5 rappresenta un ulteriore passo in avanti, permettendo di estrarre significato non solo dal testo ma anche da immagini e video presenti nei documenti aziendali. Questo tipo di capacità è particolarmente rilevante in scenari dove le aziende devono trattare grandi insiemi di dati eterogenei e trarre da essi conoscenza utile in modo rapido e affidabile — un’esigenza cruciale quando le applicazioni AI passano dalla sperimentazione all’uso reale in produzione.
