Recentemente, Ola ha presentato la “prima soluzione IA full stack dell’India”, chiamata Krutrim. Nel frattempo, Zoho, che sta progettando una soluzione simile, sta aspettando che le cose si stabilizzino e deve ancora annunciare ufficialmente i suoi progressi nel lancio di un proprio modello linguistico proprietario o una roadmap per la costruzione di capacità interne di silicio e infrastruttura.
In una precedente conversazione con AIM, il CEO di Zoho, Sridhar Vembu, ha dichiarato che stanno lavorando su modelli linguistici più piccoli e specifici per determinati settori.
Attualmente, Zoho ha introdotto Zia in 13 estensioni e integrazioni delle sue applicazioni con l’intelligenza artificiale generativa basata su ChatGPT. Zia fornisce funzionalità di intelligenza artificiale generativa su Zoho CRM, Zoho Desk e altre soluzioni di Customer Experience (CX). Tuttavia, è importante notare che l’approccio di queste due aziende è diverso.
Krutrim ha raccolto 24 milioni di dollari da Matrix Partners per costruire modelli di intelligenza artificiale da zero, ma sta affrontando pressioni dagli investitori e dalle parti interessate. Questo spiega perché il CEO di Ola, Bhavish Aggarwal, ha annunciato il lancio di Krutrim Pro con funzionalità multimodali entro il prossimo trimestre.
D’altra parte, Zoho sta procedendo con cautela e sta concentrando i suoi sforzi sulla costruzione di capacità interne per ridurre la dipendenza dagli hyperscaler. In una recente intervista, Sridhar Vembu ha dichiarato che non può fornire una data precisa per i loro progressi, poiché la risoluzione di problemi complessi richiede tempo.
Durante il lancio di Krutrim AI, Aggarwal ha comparato Krutrim al modello Llama 2 7B, affermando prestazioni superiori su vari benchmark riconosciuti dal settore. Ha anche affermato che Krutrim è “equivalente” a Llama 2 in termini di dimensioni.
Nel frattempo, Zoho sta lavorando su modelli più piccoli basati su 7-20 miliardi di parametri per risolvere problemi specifici dei propri clienti. Vembu ha sottolineato che i modelli più piccoli sono più adatti per affrontare questioni specifiche del settore, e questo è uno dei motivi per cui non stanno attualmente sviluppando modelli da 500 miliardi di parametri, che richiederebbero un investimento significativo.
Inoltre, Zoho sta cercando di evitare la dipendenza da fornitori esterni come AMD e NVIDIA per le GPU. Vembu ha riferito che hanno dovuto attendere sei mesi per ottenere le GPU NVIDIA H100 e che ora stanno esplorando le opzioni con i chip AMD, poiché questi stanno diventando più competitivi.
L’ecosistema dell’apprendimento automatico in India sta diventando sempre più competitivo, con Ola che si distingue per la sua ambizione di sviluppare la “prima soluzione AI full stack dell’India” in tempi rapidi, mentre Zoho adotta un approccio più ponderato.
In termini di analogie, potremmo paragonare l’approccio di Ola alla rapida innovazione di OpenAI, mentre la strategia più ponderata di Zoho richiama l’approccio meticoloso e centrato sulla ricerca di Google.