Immagine AI

La startup indiana Sarvam AI, con sede a Bengaluru e fondata nel 2023 da Vivek Raghavan e Pratyush Kumar, ha presentato al India AI Impact Summit 2026 una nuova generazione di modelli di intelligenza artificiale che intendono rispondere alle esigenze di un mercato linguistico e culturale profondamente diversificato come quello indiano, proponendosi come alternativa locale a sistemi consolidati come ChatGPT e altri modelli globali. Questa iniziativa rientra in un più ampio movimento verso un’“AI sovrana”, cioè un’infrastruttura di intelligenza artificiale sviluppata, controllata e gestita internamente, senza dipendere esclusivamente da piattaforme estere e preservando così il controllo sui dati e l’adattamento ai contesti nazionali.

Il cuore dell’annuncio consiste nel lancio di due modelli di linguaggio di grandi dimensioni e nel debutto di Vikram, un chatbot multilingue costruito su queste fondamenta che ha l’obiettivo di fornire una conversazione generativa in più lingue indiane, con capacità di comunicazione contestuale e una comprensione adattata alle esigenze locali. I due principali modelli presentati, Sarvam-30B e Sarvam-105B, differiscono per scala e capacità: il primo, con 30 miliardi di parametri, è progettato per applicazioni interattive più leggere, capaci di fornire risposte rapide, realizzare contenuti generativi, gestire dialoghi e offerte di assistenza in tempo reale. Il secondo, con 105 miliardi di parametri e una finestra di contesto estesa fino a 128 000 token, si indirizza a scenari più complessi come l’analisi di documenti strutturati, l’elaborazione di informazioni aziendali dettagliate e compiti di ragionamento avanzato tipici delle applicazioni enterprise.

Dal punto di vista architetturale, questi modelli rientrano nella classe dei modelli fondamentali (foundational models), reti neurali di grandi dimensioni addestrate su enormi corpus di dati testuali per acquisire una comprensione profonda del linguaggio naturale. Una volta addestrati, possono essere adattati a molteplici compiti specialistici come generazione di testo, traduzione, codifica, analisi semantica o sintesi di documenti, senza richiedere lo sviluppo di modelli dedicati per ciascun uso specifico — una caratteristica condivisa con le più note versioni dei modelli GPT. La differenza principale in questo caso è l’orientamento verso un supporto nativo per lingue indiane, che mira a superare le limitazioni dei modelli generalisti quando si tratta di dialetti, contesti culturali e frasi miste tipiche del subcontinente.

Nel corso delle dimostrazioni al summit, Vikram è stato mostrato come esempio concreto di come l’ecosistema di Sarvam AI possa essere impiegato nella pratica: l’interfaccia conversazionale è in grado di comprendere e rispondere in Hindi, Punjabi, Marathi e altre lingue parlate, con l’ulteriore vantaggio della compatibilità anche su feature phone, dispositivi non-smartphone molto diffusi in molte aree dell’India dove l’accesso a internet e a hardware costosi è più limitato. Questo tipo di accessibilità amplia enormemente il bacino di utenza potenziale, portando funzionalità avanzate di AI persino a utenti che non dispongono di smartphone di fascia alta.

La portata del progetto va oltre l’interazione chat-bot: in un’esibizione in tempo reale, il modello Sarvam-105B ha analizzato bilanci aziendali complessi, rispondendo a domande finanziarie dettagliate e dimostrando capacità di ragionamento su dati sia strutturati che non strutturati, una caratteristica che lo rende idoneo per applicazioni professionali come la ricerca, l’analisi di grandi documenti o il supporto alla decisione in ambiti aziendali. Questa capacità di elaborazione avanzata deriva dall’ampia finestra di contesto e da tecniche di addestramento che cercano di mantenere coerenza anche su testi molto estesi o altamente tecnici.

L’approccio di Sarvam AI si inserisce in una strategia più ampia di sviluppo tecnologico nazionale che punta a ridurre la dipendenza dalle soluzioni dei grandi operatori tecnologici stranieri, favorendo l’autonomia tecnologica, la protezione dei dati e l’inclusione linguistica. I modelli non si limitano a riconoscere o generare testo in lingue diverse dall’inglese, ma cercano di incorporare modalità di ragionamento e comprensione contestuale che tengano conto delle specificità culturali e strutturali delle lingue indiane — un elemento cruciale in un paese dove oltre venti lingue ufficiali e centinaia di dialetti coesistono in un panorama comunicativo estremamente vario.

Questo sforzo interessa anche il mercato enterprise, dove la disponibilità di modelli capaci di eseguire attività complesse di analisi o generazione di contenuti può ridurre i costi operativi legati all’uso di servizi esteri e migliorare la privacy dei dati sensibili, mantenendo i flussi di elaborazione all’interno del territorio nazionale. L’uso di modelli localizzati e ottimizzati per le lingue e i contesti indiani può avere implicazioni dirette nei settori bancario, legale, educativo e governativo, dove la precisione linguistica e la comprensione culturale sono fattori chiave per l’efficacia delle applicazioni.

Di Fantasy