Quando Mark Zuckerberg ha presentato i nuovi Ray-Ban Display con la Neural Band alla conferenza Meta Connect del 17 settembre 2025, non ha semplicemente mostrato un gadget di moda o una versione evoluta degli occhiali smart che tutti aspettavamo. Ha provato a tracciare una visione: quella di un dispositivo che, più che essere indossato, diventi una parte fluida del nostro modo di interagire con il mondo digitale, una porta verso la cosiddetta “superintelligenza personale”. Ma cosa significa davvero tutto questo, cosa offre il nuovo prodotto, e quali sono le sfide che lo attendono?
Gli Ray-Ban Display sono occhiali intelligenti con display integrato nella lente destra, ma non un display ingombrante: un piccolo punto fisso che appare solo quando serve, spostato leggermente di lato per non ostacolare la visione normale. L’effetto è simile a un heads-up display (HUD) monoculare. Questo display può mostrare messaggi, traduzioni in tempo reale, indicazioni stradali a piedi, anteprime di foto, videochiamate tramite app come WhatsApp o Messenger, e persino funzioni legate a Meta AI che prima erano solo audio.
A completare l’esperienza, Meta include la Neural Band, un braccialetto che sfrutta la sEMG (elettromiografia superficiale) per captare i segnali creati dai muscoli del polso e delle dita, traducendoli in comandi. Movimenti come pinzare con il pollice e l’indice, sfiorare, ruotare, possono diventare veri input per navigare l’interfaccia degli occhiali, cambiare fotogrammi, regolare volume, attivare o disattivare il display.
Dal punto di vista delle specifiche, il display ha una luminosità elevata (fino a 5.000 nit) che dovrebbe renderlo visibile anche alla luce del sole; la risoluzione è di circa 600×600 pixel in un campo visivo di ~20°, sufficiente per testi, notifiche, mappe leggere.
Gli occhiali pesano un po’ di più rispetto alle versioni senza display, hanno una durata della batteria di circa sei ore in uso misto, e sono corredati da una custodia-caricatore che ne estende l’autonomia complessiva. La Neural Band invece promette fino a 18 ore di autonomia, è resistente all’acqua (IPX7), e disponibile in misure diverse.
Il set completo (occhiali + Neural Band) sarà venduto a partire dal 30 settembre negli Stati Uniti a circa 799-800 dollari. Si espanderà in altri Paesi (tra cui Italia, UK, Francia e Canada) nei primi mesi del 2026.
Nel suo discorso, Zuckerberg ha descritto questi occhiali come “il fattore di forma ideale” per avvicinare le persone al potenziale dell’intelligenza artificiale personale. L’idea è che, indossando dispositivi come questi, tu possa restare presente nel mondo – vedere, sentire, interagire fisicamente – mentre al contempo accedi a supporto digitale, informazioni utili, traduzioni, navigazioni, richieste AI, tutto senza dover togliere lo sguardo, senza dover uscire dal momento.
Meta immagina che questo possa migliorare memoria, sensibilità dei sensi, comunicazione: ottenere risposte dall’IA nel momento in cui servono, osservare, apprendere, interagire più naturalmente, in modo meno mediato da smartphone, schermi che devi prendere in mano, interfacce complesse.
Grazie al display, alcune attività che prima erano scomode diventano più immediate: leggere messaggi, vedere anteprime, avere traduzioni in testo visivo, confrontare le indicazioni passo-a-passo, verificare cosa stai fotografando in tempo reale. Tutto questo riduce la dipendenza dallo smartphone. La fascia neurale permette comandi con gesti sottili, il che aiuta in situazioni in cui non vuoi prendere le mani dal volante, o tenere le mani occupate, o semplicemente regolare tutto in modo discreto. Anche l’idea che il display non sia sempre attivo e che non distragga, che non sia al centro della visione ma un elemento che appare all’occorrenza, è pensata proprio per minimizzare il disturbo nell’uso quotidiano.
Inoltre, miglioramenti hardware sembrano reali: l’integrazione, la robustezza della fascia perché progettata su molti soggetti, la resistenza all’acqua, la batteria che può durare svariate ore, la custodia-caricatore compatta, sono tutti elementi che suggeriscono che Meta ha pensato non solo al “wow factor”, ma anche all’usabilità.
Non tutto è luminoso come il display promesso. Innanzitutto, la stessa presentazione ha avuto piccoli momenti imbarazzanti: durante il demo una videochiamata non è riuscita, o comunque non ha funzionato come previsto. Questi incidenti non sono rari in lanci tecnologici di questo tipo, ma avvertono che la tecnologia non è ancora perfetta.
Poi c’è il tema del prezzo: 799-800 dollari non sono pochi, specialmente per chi non è certo che userà spesso tutte queste funzioni. È probabile che diventino dispositivi di nicchia inizialmente, per appassionati, per utenti con disponibilità economiche, o per professionisti interessati a funzioni specifiche.
Un altro problema è il potenziale distrazione. Anche se il display è progettato per essere discreto, sempre “invisibile” quando non serve e spostato fuori dalla visione centrale, in contesti reali può essere diverso: in ambienti luminosi intensi, su strada, in movimento, può attirare l’occhio involontariamente, richiedere attenzione, magari distrarre da ciò che accade attorno. Ogni volta che hai un elemento digitale nella scena visiva, il rischio di “guardare meno il mondo” aumenta. Alcuni primi hands-on riportano proprio che in certi casi il display distrae più di quanto ci si aspetti.
C’è anche la questione della privacy: microfoni, fotocamere, connessione al cloud; quando il dispositivo “vede” o “sente”, come vengono trattati quei dati? Chi li controlla, dove vengono inviati, quanto sono protetti? Meta ha qualche LED che avverte quando la fotocamera è attiva, ma non si sa tutto, e questo genere di dispositivi tende a generare preoccupazioni – legittime – da parte degli utenti e da legislatori.
Infine, la durata della batteria, il comfort, la leggerezza, l’adattamento delle lenti per chi porta occhiali da vista, la leggibilità sotto varie condizioni di luce: tutto questo è fattore reale, e solo l’uso quotidiano permetterà di capire se le promesse reggeranno.
Se Meta riuscirà a far funzionare bene questi occhiali e se gli utenti li adotteranno, potremmo vedere una trasformazione nel modo in cui interagiamo con la tecnologia quotidiana. Non più schermi in tasca, non più telefoni che guardi più che guardare ciò che è intorno, ma un uso più fluido – occhiali che ti permettono di accedere a informazioni senza staccare lo sguardo, gesture che sostituiscono tocchi, comandi vocali che diventano naturali, contenuti visivi che emergono solo quando servono.
Potremo immaginare scenari in cui questi occhiali aiutano chi ha difficoltà motorie o visive – grazie al live captioning, alle traduzioni in tempo reale, al display laterale che può presentare testo – oppure applicazioni professionali, per chi lavora all’aperto, per esploratori urbani, per turisti, per ciclisti, per persone che fanno sport, che vogliono navigare, tradurre, comunicare, senza estrarre il telefono.
Nel lungo periodo, Meta punta a device più evoluti, forse veri occhiali AR completi (“Orion” è il nome del progetto più ambizioso), ma questi Ray-Ban Display sono un passo intermedio: uno sguardo verso un futuro in cui la realtà aumentata, l’intelligenza artificiale e l’interazione naturale diventano normali, non solo “di nicchia”.