Immagine AI

Quando Microsoft ha tolto il velo sul suo nuovo progetto, definendolo con semplicità “Hey Copilot”, ha voluto parlare un linguaggio chiaro: vuole che tu possa interagire con il computer come faresti con una persona. Non più solo digitare comandi, cliccare icone o navigare menu, ma conversare, chiedere, affidarsi. Questo annuncio non è una piccola evoluzione: è una scommessa audace sull’idea che il modo in cui usiamo i PC possa mutare radicalmente.

Nel cuore della visione di Microsoft risiede una triplice promessa: “devi poter interagire naturalmente, tramite testo o voce, e avere comprensione; deve vedere ciò che vedi e darti supporto contestuale; e infine, deve poter agire per tuo conto.” Con queste parole Yusuf Mehdi, vicepresidente esecutivo della società, ha tracciato il disegno ambizioso che Microsoft vuole portare su tutti i PC con Windows 11.

“Hey Copilot” si propone come la porta di accesso principale: pronunci quella formula e l’assistente AI si attiva, ovunque tu ti trovi nel sistema operativo. Non più dover aprire una finestra, selezionare l’app, scrivere il comando: basterà parlare. L’azienda lo paragona alla trasformazione che la GUI (interfaccia grafica) ha portato decenni fa — oggi, il mouse e la tastiera sono dati per scontati; domani potrebbe esserlo anche il parlare con il PC.

Microsoft ha osservato che gli utenti interagiscono con Copilot il doppio delle volte quando usano la voce rispetto al testo: parlare avrebbe una soglia cognitiva più bassa rispetto allo scrivere comandi perfetti. Certo, non c’è ingenuità nell’assunzione che la voce sia sempre adatta: l’azienda ha ammesso che in ambienti condivisi — uffici, open space — sarà necessario trovare un equilibrio. Ma con cuffie o in momenti più intimi, “parlare con il PC” potrebbe diventare la norma.

Importante: Microsoft non abbandona la scrittura. Tutte le nuove funzioni restano accessibili anche via testo, perché la voce non è sempre la modalità giusta, né comoda.

Una delle evoluzioni forse più intriganti riguarda Copilot Vision: l’idea che l’AI non solo ascolti, ma guardi — o meglio, interpreti — ciò che appare sullo schermo per offrire un supporto contestuale. Fino ad oggi, la funzione era limitata a interazioni vocali, ma ora Microsoft la estende globalmente anche via testo. Ciò significa che puoi digitare una domanda su un documento aperto, anche complesso, e l’assistente può comprenderne il contesto intero — non una frase alla volta, ma l’insieme del contenuto.

Durante la presentazione, Microsoft ha mostrato scenari concreti: Copilot Vision che aiuta ad attivare audio lossless in Spotify, che redige una bio per un artista basandosi su quello che vede sullo schermo, che suggerisce prodotti connessi a immagini viste in un video YouTube.

In altre parole, non si tratta solo di dare risposte a quello che chiedi, ma intervenire con un livello di contesto visuale che abbassa la distanza tra quello che vedi e quello che vuoi ottenere. Il computer diventa un “occhio intelligente”, capace di interpretare le implicazioni visive e testuali insieme.

Il momento più controverso — e al tempo stesso affascinante — dell’annuncio riguarda Copilot Actions, una funzione sperimentale con cui l’AI non si limita a rispondere, ma agisce: apre file, sposta foto, compone documenti, organizza cartelle, esegue operazioni multi-step mentre tu ti dedichi ad altro. L’agente, in un ambiente sandbox (isolato), fornisce una narrazione in tempo reale delle sue azioni; e l’utente può intervenire, interrompere o riprendere il controllo.

Ovviamente non è magia perfetta. Microsoft ammette che inizierà con scenari ristretti, affinando il sistema man mano che emergono difficoltà con interfacce complesse, errori, o compiti inaspettati. In molti casi, l’agente potrebbe “indovinare male” o non sapersi orientare se l’interfaccia cambia leggermente.

Permettere a un’AI di agire sui tuoi file e sulle tue applicazioni porta con sé rischi non trascurabili. Microsoft ne è consapevole, e per questo struttura un sistema di protezioni e suddivisioni pensate per preservare il controllo umano. Il principio è che l’agente opera sotto un account distinto — un “account agente” — separato da quello dell’utente umano, con una propria “area di lavoro” isolata (sandbox). In caso di azioni sensibili, sarà necessaria un’autorizzazione esplicita.

Copilot Actions è disattivato di default e richiede l’abilitazione volontaria. Mentre l’agente opera, l’utente può vedere cosa sta facendo, intervenire, sospendere o riprendere il comando. Il sistema registra attività in un audit log, così è sempre possibile risalire alle operazioni compiute automaticamente.

Tuttavia, un punto che preoccupa è il fatto che l’agente ha, di default, accesso a cartelle come Documenti, Download, Desktop, Immagini: spazi molto sensibili in termini di dati personali e aziendali. Questo solleva interrogativi validi per le aziende, soprattutto in ambienti regolamentati o con esigenze di compliance.

Un’altra minaccia potenziale è ciò che Microsoft chiama “cross-prompt injection” (XPIA): l’idea che un contenuto malevolo inserito in un documento o un’interfaccia possa manipolare le istruzioni dell’agente, spingendolo a compiere azioni indesiderate come estrarre dati o installare malware. Microsoft promette che al prossimo evento Ignite approfondirà le garanzie per l’ambito enterprise.

Queste nuove capacità non saranno riservate soltanto ai PC “speciali” con hardware AI dedicato. Microsoft chiarisce che “tutto ciò che abbiamo mostrato qui è per qualsiasi PC con Windows 11”. Non serve un “Copilot Plus PC” per avere l’AI integrata. Questo approccio democratizza l’accesso all’intelligenza artificiale, rendendo l’AI una caratteristica del sistema, non un optional per pochi. Allo stesso tempo, pone una sfida: come convincere l’utente che l’esperienza su dispositivi “normali” sia fluida e affidabile? Microsoft punta sul fatto che integrare l’AI nel sistema operativo — piuttosto che venderla come un servizio separato — possa dare un vantaggio competitivo, soprattutto contro rivali come Apple e Google che finora sono stati più cauti nel proporsi con funzionalità AI integrate.

L’integrazione tocca più elementi dell’esperienza Windows: la barra delle applicazioni ospiterà “Ask Copilot”, uno spazio per attivare conversazioni, visione o ricerche con un click. File Explorer guadagna AI grazie a partner che permettono di generare siti web da immagini con un clic, o aprire scenari di editing video direttamente.

Inoltre Microsoft lancia Copilot Connectors, che permettono di collegare servizi cloud — OneDrive, Outlook, Gmail, Google Drive, Calendar — all’assistente. In questo modo, potrai interrogare i tuoi dati personali raccolti su piattaforme diverse usando un linguaggio naturale.

Sul versante gaming, Microsoft e Xbox hanno introdotto “Gaming Copilot” su un dispositivo portatile da gioco sviluppato con ASUS. Con esso l’AI guiderà il giocatore con suggerimenti, navigazione dell’interfaccia e risposte via voce. Un modo per portare l’assistente anche nella dimensione ludica.

Con Hey Copilot, Microsoft sta tentando di riscrivere il sistema operativo come un’esperienza pensata per l’era dell’IA conversazionale. Sta scommettendo che il PC del futuro non sarà un semplice strumento, ma un interlocutore intelligente. Restano tante incognite, ma è chiaro che il gioco, almeno da parte di Microsoft, è cambiato.

Di Fantasy