Immagine AI

Alibaba ha recentemente presentato un nuovo modello di intelligenza artificiale, Qwen 3.5-397B-A17B, che definisce un punto di svolta nella progettazione e nell’efficienza dei large language model (LLM) per applicazioni enterprise e di IA autonoma. L’annuncio, fatto in concomitanza con le festività del Capodanno lunare cinese, sottolinea come questo modello offra prestazioni competitive con sistemi di dimensioni molto maggiori, inclusi quelli che superano il trilione di parametri totali, ma a un costo operativo notevolmente inferiore e con una impronta computazionale più sostenibile. Questa innovazione non solo ridefinisce le aspettative rispetto alla semplice conta di parametri, ma pone l’accento su come una combinazione di architetture avanzate e attivazione selettiva possa ottimizzare capacità e costi nell’AI generativa.

La caratteristica più significativa di Qwen 3.5-397B-A17B risiede nella sua struttura interna, dove il totale di 397 miliardi di parametri non corrisponde direttamente al carico computazionale durante l’inferenza. Invece, il modello utilizza un’architettura sparse mixture-of-experts (MoE) con un routing di esperti e un meccanismo di attenzione ibrido, che permette di attivare soltanto circa 17 miliardi di parametri per ogni token elaborato. Questa attivazione selettiva significa che, durante l’esecuzione, la maggior parte dei parametri resta inattiva per la specifica richiesta, riducendo latenza e richiesta di memoria senza sacrificare la profondità di ragionamento o la capacità di comprensione contestuale. Tale approccio evidenzia un’evoluzione rispetto allo schema “più grande è meglio è” che caratterizza molti LLM tradizionali, dimostrando che l’efficienza architetturale può produrre profili prestazionali comparabili o superiori con una frazione dei costi energetici e computazionali.

La filosofia di design dietro Qwen 3.5 si basa su anni di sviluppo della famiglia di modelli Qwen, che Alibaba ha reso progressivamente più sofisticata e capace di gestire input multimodali. La serie Qwen, nota anche come Tongyi Qianwen, ha visto il suo sviluppo iniziato nel 2023 e ha integrato nel tempo innovazioni come il supporto nativo a testo, immagini e video, nonché l’elaborazione di linguaggi naturali in centinaia di dialetti. [turn0search22] Con Qwen 3.5 il concetto di multimodalità si amplia ulteriormente, permettendo al modello di trattare non solo testo e immagine ma anche sequenze video estese e compiti complessi di ragionamento sequenziale, rendendolo adatto a scenari di IA agentica in cui l’autonomia e l’adattività sono requisiti chiave.

Dal punto di vista delle prestazioni, Alibaba ha confrontato internamente Qwen 3.5-397B-A17B con versioni precedenti della stessa famiglia, tra cui Qwen 3-Max, un modello con oltre un trilione di parametri totali. Sebbene il modello da trilione di parametri sia stato concepito per massimizzare la capacità teorica di elaborazione e competere sullo stesso terreno di altre architetture ultra-large, Qwen 3.5 si è dimostrato in grado di eguagliare o superare le prestazioni in benchmark selezionati pur occupando meno risorse computazionali effettive durante l’inferenza. Questo è possibile perché l’attivazione di soli 17 miliardi di parametri per token avvicina le prestazioni dell’architettura sparse a quelle di un modello denso con capacità equivalenti, ma con un’efficienza di esecuzione molto più elevata e costi operativi sensibilmente più bassi.

L’approccio di Alibaba riflette una tendenza più ampia nel campo dei LLM moderni, che punta a superare la semplice espansione dimensionale attraverso metodi di scaling efficiente come la Mixture-of-Experts, progettata per attivare dinamicamente sotto-reti di esperti specializzati in base alla natura dell’input. Questo paradigma è simile alle innovazioni accademiche e industriali viste in altri progetti di AI, nei quali l’introduzione di reti sparse permette di mantenere la capacità di ragionamento e la versatilità di un modello di grandi dimensioni senza i costi proibitivi associati alle architetture densamente parametriche.

Un’altra dimensione importante di Qwen 3.5 riguarda l’accessibilità e la distribuzione. Alibaba ha reso i pesi aperti (open weights) disponibili, consentendo agli sviluppatori e alle imprese di eseguire il modello localmente, personalizzarlo su dati specifici o auditare tecnicamente il comportamento del sistema. Questo approccio si allinea con una crescente domanda di trasparenza e controllo nei modelli AI, in particolare nei casi in cui l’AI deve essere integrata in applicazioni sensibili o regolamentate. La possibilità di deployment locale non solo riduce la dipendenza da API cloud esterne, ma consente anche un controllo più diretto su aspetti come la sicurezza dei dati, la privacy e la governance del modello nei processi aziendali.

Di Fantasy