Meta ha presentato una nuova evoluzione della propria piattaforma di intelligenza artificiale introducendo il modello “Muse Spark” all’interno dell’app Meta AI. L’aggiornamento rappresenta un cambio di approccio significativo rispetto ai classici assistenti conversazionali, perché combina dialogo vocale naturale, comprensione visiva in tempo reale, ragionamento multimodale, shopping AI e orchestrazione multi-agente in un unico sistema operativo distribuito attraverso WhatsApp, Instagram, Facebook, Messenger e Threads.
La novità principale riguarda il modo in cui l’intelligenza artificiale gestisce la conversazione. Meta AI non opera più come un chatbot lineare che attende input completi prima di rispondere, ma come un sistema conversazionale continuo capace di mantenere il contesto anche durante interruzioni, cambi di argomento o passaggi tra lingue differenti. Durante il dialogo, il modello può generare immagini, recuperare contenuti social, mostrare mappe, cercare informazioni online e integrare dati contestuali in tempo reale direttamente nella conversazione.
Particolarmente rilevante è la nuova funzione “Live AI”, progettata per trasformare smartphone e occhiali intelligenti in interfacce percettive permanenti. Attraverso la fotocamera del dispositivo, Meta AI interpreta l’ambiente circostante in tempo reale, comprendendo oggetti, luoghi, prodotti e situazioni operative. Questo consente all’utente di chiedere spiegazioni contestuali semplicemente mostrando ciò che vede. L’intelligenza artificiale può riconoscere punti di riferimento, interpretare oggetti domestici, suggerire prodotti alimentari o fornire indicazioni pratiche basate direttamente sulla scena visualizzata.
Il sistema utilizza un’architettura multimodale avanzata che integra simultaneamente immagini, voce, testo, dati web e contenuti sociali. A differenza dei modelli tradizionali focalizzati principalmente sul testo, Muse Spark elabora continuamente flussi eterogenei di informazioni per costruire una rappresentazione contestuale dinamica dell’ambiente e dell’attività dell’utente.
Meta sta inoltre spingendo fortemente sul modello “multi-agent”. Quando un utente richiede un’attività complessa, il sistema suddivide automaticamente il compito tra più agenti AI specializzati che lavorano in parallelo. Nel caso di un viaggio familiare, ad esempio, un agente genera l’itinerario, un altro confronta le destinazioni e un altro ancora cerca attività adatte ai bambini. Questo approccio distribuito permette di accelerare l’elaborazione e migliorare la qualità delle risposte, avvicinandosi sempre di più al concetto di orchestrazione autonoma di task complessi.
Anche il comparto ecommerce e shopping viene profondamente integrato nell’ecosistema AI di Meta. Il nuovo sistema collega Facebook Marketplace, prodotti online, contenuti social e creator economy all’interno dello stesso layer conversazionale. Gli utenti possono cercare articoli filtrando prezzo, stile e distanza geografica, mentre il sistema suggerisce automaticamente prodotti e contenuti correlati attraverso l’analisi di brand, creator e community pubbliche.
Uno degli aspetti strategicamente più importanti è però l’integrazione dei dati sociali all’interno delle risposte AI. Meta sta infatti cercando di differenziarsi dai competitor trasformando la propria rete sociale globale in una base contestuale per l’intelligenza artificiale. Quando viene cercato un luogo, il sistema può mostrare post e suggerimenti degli utenti locali; quando si cercano trend o opinioni, le risposte vengono costruite combinando contenuti della community, commenti e reazioni social. In pratica, Meta AI diventa un layer intelligente costruito sopra l’intero ecosistema relazionale della piattaforma.
L’azienda sta inoltre espandendo rapidamente l’esperienza AI verso gli smart glasses. Le funzionalità Muse Spark verranno progressivamente integrate negli occhiali Ray-Ban Meta e Oakley Meta per creare un assistente AI sempre attivo, capace di comprendere ciò che l’utente guarda e interpretare il contesto ambientale in tempo reale. Questo approccio porta Meta verso una forma di computing ambientale continuo, dove l’intelligenza artificiale accompagna costantemente l’utente durante la vita quotidiana.
Meta ha anche confermato l’intenzione di aprire parte della piattaforma tramite API dedicate ai partner e sta valutando future versioni open source del modello. Parallelamente, l’azienda vuole integrare direttamente Reels, immagini e post pubblici nelle risposte dell’intelligenza artificiale, attribuendo in modo esplicito le fonti ai creator. L’obiettivo finale è trasformare Meta AI da semplice chatbot a infrastruttura centrale dell’intero ecosistema social, contenuti e servizi dell’azienda.
