Immagine AI

Google ha finalmente svelato i suoi piani per il futuro del computing indossabile, annunciando il lancio di una nuova generazione di occhiali intelligenti potenziati dall’Intelligenza Artificiale Gemini previsto per il 2026. Questa mossa segna l’ingresso ufficiale del colosso di Mountain View nella crescente battaglia per l’Augmented Reality (AR), un campo dove la competizione si fa sempre più serrata con competitor come Meta, e il prossimo arrivo di Apple e l’espansione globale di Alibaba. Il progetto di Google non è un’iniziativa solitaria, ma il risultato di una collaborazione strategica che include giganti come Samsung Electronics, oltre a marchi di eyewear come Warby Parker e Gentle Monster.

Il lancio del 2026 comprenderà una duplice linea di prodotti, pensata per coprire diverse esigenze di utilizzo e fattori di forma: gli “AI Glasses” senza display e gli “Display AI Glasses” che integrano un piccolo schermo nelle lenti. Google ha confermato che la versione solo audio e senza display sarà la prima ad essere commercializzata nel 2026.

Questa distinzione sottolinea l’approccio di Google focalizzato sull’usabilità quotidiana e sulla leggerezza. Per raggiungere questo obiettivo di design, la compagnia ha adottato una scelta architetturale cruciale: l’elaborazione dei dati pesanti è delegata allo smartphone connesso wireless. Mentre i Meta Smart Glasses integrano tutte le funzionalità all’interno degli occhiali stessi, l’approccio di Google scarica il carico computazionale sul telefono, consentendo agli occhiali di mantenere un fattore di forma più leggero e più adatto a essere indossato per tutto il giorno.

Le funzionalità principali saranno gestite da Gemini AI, che si occuperà della riproduzione musicale, dell’analisi dello schermo (dello smartphone o del mondo reale) e delle risposte vocali, fungendo da assistente contestuale costantemente attivo.

Nonostante la prima versione sarà solo audio, la dimostrazione dei prototipi degli occhiali con display ha già offerto un assaggio delle capacità avanzate che Google intende portare nell’AR. I demo hanno mostrato funzionalità come:

  • Mappe AR: L’applicazione delle mappe è stata resa più pratica, mostrando una mappa e una bussola nella parte superiore della visuale dell’utente quando questi guarda verso il basso, fornendo informazioni di navigazione in base alla direzione dello sguardo.
  • Traduzione in Tempo Reale: Una funzionalità di traduzione che può operare in modalità solo audio o con visualizzazione del testo tradotto in sovrimpressione, garantendo un utilizzo flessibile.
  • Integrazione con Google Meet: Proiettare elementi di una riunione virtuale direttamente nel campo visivo.

Sono stati mostrati sia prototipi con display monoculare che binoculare, evidenziando l’intenzione di esplorare diverse soluzioni ottiche per l’interazione AR.

Oltre alla linea sviluppata con Samsung e altri, Google ha presentato i prototipi del “Project Aura”, in collaborazione con l’azienda cinese Xreal. Questi dispositivi si differenziano per essere autonomi, sebbene richiedano ancora un collegamento cablato a una batteria esterna per l’alimentazione.

Il Project Aura vanta un campo visivo più ampio (70 gradi) rispetto ai prodotti Xreal esistenti e incorpora una tecnologia see-through avanzata, che permette agli utenti di sovrapporre contenuti digitali direttamente sulla loro visione del mondo reale in modo immersivo. Il dispositivo integra inoltre un’interfaccia di tracciamento delle mani, simile a quella in fase di sviluppo per il prodotto Samsung, suggerendo un approccio unificato all’interazione utente-AR.

Parallelamente al lancio degli occhiali, Google sta investendo nell’ecosistema XR (Extended Reality) di Samsung Galaxy, rilasciando aggiornamenti per migliorare l’esperienza utente sui visori esistenti come l’Infinity (lanciato lo scorso ottobre). Questi aggiornamenti includono:

  • Modalità Viaggio: Una compensazione migliorata che mantiene le finestre AR stabili anche in ambienti instabili come auto o aerei.
  • PC Connect: La possibilità di collegare qualsiasi schermo di PC Windows al dispositivo XR, espandendo una funzionalità precedentemente limitata alla sola serie Samsung Galaxy Book.
  • Likeness: Una nuova funzionalità che crea avatar realistici tramite scansione facciale da telefono, utilizzabili in videoconference.

L’annuncio di Google posiziona l’azienda in diretta competizione con Meta, che ha già lanciato occhiali con display integrato. Il ritardo di oltre un anno rispetto a Meta, unito all’atteso ingresso di Apple con il suo primo prodotto AR entro la fine del prossimo anno, e all’espansione globale di Alibaba, preannuncia l’inizio di una vera e propria guerra degli occhiali AI nel 2026. L’integrazione di Gemini e la forza delle partnership saranno cruciali per determinare se Google riuscirà a conquistare un ruolo di leadership in questo mercato in rapida maturazione.

Di Fantasy