In un mondo in cui le interazioni con l’intelligenza artificiale stanno diventando sempre più naturali e pervasive, Microsoft ha deciso di fare un passo ulteriore verso la “umanizzazione” del rapporto tra utente e macchina. È così che nasce Copilot Portraits, una funzionalità sperimentale che permette agli utenti di avere conversazioni vocali con Copilot accompagnate da volti animati, capaci di espressioni facciali realistiche, movimenti del capo e sincronizzazione labiale, pur partendo da un’unica immagine statica.
L’annuncio è stato dato da Mustafa Suleyman, CEO di Microsoft AI, che ha sottolineato come molti utenti abbiano dichiarato di sentirsi più a proprio agio parlando “faccia a faccia”, piuttosto che solo con una voce astratta. Con questo nuovo esperimento, Microsoft cerca di rendere Copilot non solo un assistente potente, ma anche un compagno con cui è più naturale interagire.
Questa funzionalità è attualmente attiva in versione sperimentale tramite Copilot Labs, e soltanto in tre paesi: Stati Uniti, Regno Unito e Canada. Chi ha accesso può scegliere uno dei 40 avatar stilizzati disponibili e associarlo a una voce. Durante la conversazione, il volto animato reagisce in tempo reale: muove le labbra, inclina la testa, adotta microespressioni per rendere l’interazione meno “fredda”.
Ma dietro questo effetto apparentemente semplice si cela una tecnologia sofisticata: VASA-1 (Visual Affective Skills Animator), sviluppata da Microsoft Research. VASA-1 è in grado di prendere un’immagine statica — un ritratto — e animarla in base all’audio in ingresso, generando movimento e sincronia tra voce e labbra. Non richiede modelli 3D complessi o lunghe sequenze video pre-registrate.
Il fatto che gli avatar siano stilizzati e non fotorealistici è una scelta consapevole: Microsoft intende evitare che gli utenti possano confondere il volto animato con una persona reale, mitigando rischi di inganno o uso improprio. Di conseguenza, l’animazione appare più “pittorica”, con un’estetica visiva che rimane entro un confine percepibile come artificiale.
Per ragioni di sicurezza e per gestire la sperimentazione con cautela, Microsoft ha imposto alcuni limiti: gli utenti devono avere almeno 18 anni, l’utilizzo del volto animato è soggetto a limiti temporali per sessione o giornalieri, e ogni interazione mostra chiaramente che si sta conversando con un’IA e non con una persona.
Vale la pena notare che Copilot Portraits non è la prima incursione di Microsoft nel dare “presenza visiva” al suo assistente. A luglio era stata annunciata una funzione denominata Copilot Appearance, che proponeva avatar più astratti — come una goccia d’acqua — più che volti umani. L’idea dietro Portraits è un’evoluzione verso un’espressività più empatica.
Questo esperimento assume un significato particolare nel contesto della strategia di Microsoft per Copilot, che non vuole più essere solo uno strumento di risposta testuale, ma un’entità con personalità, memoria e presenza percettibile. Suleyman stesso ha parlato in precedenza di un Copilot “che invecchia”, che accumula storia e tratte distintive nel tempo.
Da un punto di vista dell’esperienza utente, l’obiettivo è limare la distanza che spesso si avverte quando si parla con un assistente vocale puro. Le espressioni facciali e le microgestualità supportano il flusso conversazionale: stabiliscono timing nei turni, rafforzano enfasi, segnalano attenzione. In altre parole, danno contesto emotivo alla voce.