A giugno, il Team di Intelligenza Artificiale degli Emirati Arabi Uniti ha lanciato il suo modello linguistico su larga scala (LLM) chiamato Falcon, il quale ha ottenuto un ottimo punteggio nella classifica Hugging Face Open LLM, superando persino il modello Llama 2 di Meta in vari test. Tuttavia, c’erano dubbi perché i ricercatori non avevano ancora pubblicato un documento ufficiale per supportare le loro affermazioni.

Attualmente, il team non ha ancora condiviso un documento dettagliato sul modello Falcon. Inoltre, nonostante sia open source e conti ora 180 miliardi di parametri, il modello ha requisiti computazionali molto elevati, il che lo rende poco utilizzato. Questo ha sollevato domande sulla sua efficienza.

Nella classifica Open LLM, ci sono ora modelli come Mistral, Llama 2 e anche alcuni modelli cinesi come Yi-24B e Qwen-7B che hanno superato Falcon in termini di prestazioni. Falcon, un modello nato negli Emirati Arabi Uniti, è notevole perché non proviene dagli Stati Uniti o dall’Europa, che dominano la scena dei modelli linguistici su larga scala. Nonostante ciò, Falcon sembra non essere più al centro dell’attenzione.

Maxime Labonne, un ricercatore open source esperto in modelli linguistici, ha affermato che trova modelli come Llama e Mistral più facili da utilizzare per le lingue europee rispetto a Falcon. Labonne ha anche notato che Falcon era considerato buono quando è stato rilasciato inizialmente, ma ora modelli come Llama 2 e Mistral hanno superato in prestazioni.

Inoltre, per le lingue indiane, il modello Llama è considerato la migliore opzione. Mistral, sebbene efficace per le lingue europee, ha difficoltà a gestire le lingue indiane. Adarsh ​​Shirawalmath, creatore di Kannada Llama (Kan-Llama), ha spiegato che Mistral e Falcon sono problematici per la tokenizzazione delle lingue indiane.

La maggior parte dei modelli linguistici indiani attuali si basa su Llama 2. Quando è stato chiesto ai creatori di BharatGPT riguardo a Falcon, hanno spiegato che, sebbene fosse stato inizialmente promettente, ora è superato da modelli come Mistral e Zephyr.

In definitiva, nonostante le sue enormi dimensioni e la natura open source, il modello Falcon sembra essere in ritardo rispetto ad altri modelli in termini di prestazioni, soprattutto per quanto riguarda l’India e l’ambito multilinguistico. La comunità dei ricercatori sta esplorando alternative più efficienti e adatte alle esigenze specifiche.

Di Fantasy