Immagine AI

L’imminente debutto dei Galaxy Glass, identificati dal nome in codice Jinju, segna l’ingresso ufficiale di Samsung Electronics nel settore degli occhiali intelligenti focalizzati sull’intelligenza artificiale generativa. La strategia di Samsung per la seconda metà del 2026 si discosta sensibilmente dai visori di realtà mista ingombranti, puntando su un design leggero da 50 grammi che privilegia l’estetica e la portabilità quotidiana. Questa scelta progettuale è supportata da una configurazione hardware ottimizzata per l’elaborazione dei dati ambientali tramite sensori, rinunciando, in questa prima fase, a un display interno per massimizzare l’efficienza energetica e il comfort.

Il cuore tecnologico del modello Jinju è il processore Qualcomm Snapdragon AR1, una piattaforma specificamente ingegnerizzata per dispositivi di realtà aumentata a basso consumo. Questo chip gestisce l’acquisizione di immagini tramite un sensore Sony IMX681 da 12 megapixel, ottimizzato per la scansione rapida dei metadati visivi. La batteria da 155 mAh, pur sembrando limitata rispetto agli standard degli smartphone, è calibrata per un utilizzo intermittente basato su attivazioni vocali e cattura di snapshot, garantendo un’autonomia sufficiente per la giornata lavorativa grazie all’assenza di pannelli di visualizzazione attivi. Il sistema operativo è una versione customizzata di Android per dispositivi XR (Extended Reality), progettata per garantire una latenza minima nella comunicazione tra gli occhiali e lo smartphone dell’ecosistema Galaxy.

L’elemento di differenziazione competitiva dei Galaxy Glass risiede nella profonda integrazione con Google Gemini. A differenza degli smart glasses tradizionali, l’architettura software di Samsung sfrutta l’intelligenza artificiale multimodale per interpretare il mondo circostante in tempo reale. Attraverso comandi vocali, l’utente può accedere a traduzioni istantanee proiettate virtualmente o riprodotte in audio, navigazione assistita tramite Google Maps e ricerche visuali avanzate che identificano oggetti, testi o monumenti inquadrati dalla fotocamera Sony. Questa collaborazione tra Google e Samsung mira a creare un’esperienza “context-aware”, dove l’intelligenza artificiale non è solo un assistente reattivo, ma un layer informativo che arricchisce la percezione ambientale dell’utilizzatore.

La strategia di Samsung prevede una segmentazione chiara del mercato per contrastare il dominio di Meta e Ray-Ban. Mentre il modello Jinju si posiziona in una fascia di prezzo accessibile, compresa tra i 379 e i 499 dollari, l’azienda sta già sviluppando una versione premium nota come Haean. Questo secondo modello, previsto per il 2027, rappresenterà un salto tecnologico significativo grazie all’implementazione di display Micro LED. Questa tecnologia permetterà di sovrapporre informazioni grafiche direttamente sul campo visivo dell’utente senza compromettere la trasparenza della lente, portando il costo del dispositivo in una fascia compresa tra i 600 e i 900 dollari. Con l’ingresso di Apple in questo segmento, la mossa di Samsung riflette la volontà di presidiare sia il settore dei wearable di massa sia quello dell’informatica spaziale di alta gamma.

Di Fantasy