Oggi, Meta Platforms, la società madre di noti brand come Facebook, Instagram, WhatsApp e Oculus VR, ha fatto un annuncio significativo dopo il recente lancio dell’intelligenza artificiale di clonazione vocale denominata “Audiobox”. La società ha comunicato che questa settimana avvierà una piccola sperimentazione negli Stati Uniti di una nuova intelligenza artificiale multimodale progettata per funzionare con gli occhiali intelligenti Ray-Ban Meta, sviluppati in collaborazione con l’azienda di occhiali Ray-Ban.
L’intelligenza artificiale multimodale Meta sarà disponibile pubblicamente nel 2024, come annunciato da Andrew Bosworth (noto anche come “Boz”), veterano di Facebook e attuale Chief Technology Officer di Meta, attraverso un video postato su Instagram.
“Nel prossimo anno, lanceremo una versione multimodale dell’assistente IA che sfrutta la fotocamera degli occhiali per offrire non solo risposte alle tue domande, ma anche informazioni sul mondo che ti circonda”, ha dichiarato Boz. “Sono entusiasta di condividere che, a partire da questa settimana, testeremo l’IA multimodale in versione beta attraverso un programma di accesso anticipato negli Stati Uniti”.
Gli occhiali Ray-Ban Meta, presentati alla conferenza annuale Connect di Meta a Palo Alto a settembre, sono disponibili al prezzo di $299 nella loro versione base e già integrano un assistente IA. Tuttavia, questa versione ha limitazioni e non può rispondere in modo intelligente a video o fotografie, né può visualizzare in tempo reale ciò che vede chi li indossa, nonostante sia dotata di fotocamere integrate.
L’assistente attuale è principalmente basato sul controllo vocale, simile ad Alexa di Amazon o Siri di Apple.
Boz ha mostrato alcune delle nuove funzionalità della versione multimodale nel suo post su Instagram, in cui si è visto indossare gli occhiali e osservare un’opera d’arte illuminata raffigurante lo stato della California. È interessante notare che Boz sembrava tenere anche uno smartphone in mano, suggerendo che l’IA potrebbe richiedere l’abbinamento agli occhiali per funzionare.
Questo annuncio è coerente con l’ampio impegno di Meta nell’intelligenza artificiale attraverso i suoi prodotti e le sue piattaforme, e con il supporto all’intelligenza artificiale open source tramite la sua sottoscritta LLM Llama 2. Tuttavia, è interessante notare che questo primo tentativo di intelligenza artificiale multimodale giunge attraverso un dispositivo, invece che sotto forma di modello open source accessibile via web.
L’integrazione dell’intelligenza artificiale generativa nel settore hardware è stata fino ad oggi una transizione graduale, con alcune startup più piccole che hanno sperimentato con dispositivi dedicati all’IA, come ad esempio Humane con il suo “AI Pin”, basato su GPT-4V di OpenAI.
Allo stesso tempo, OpenAI ha reso disponibile GPT-4V, la propria IA multimodale (dove “V” sta per “visione”), attraverso la sua app ChatGPT per iOS e Android, sebbene l’accesso al modello richieda un abbonamento Chat GPT Plus ($20 al mese) o Enterprise (prezzo variabile).
Questa iniziativa richiama anche alla mente il caso sfortunato dei Google Glass, uno dei primi prototipi di occhiali intelligenti degli anni 2010. Gli occhiali erano stati oggetto di derisione per il loro aspetto e il termine “Glassholes” era stato coniato per descrivere chi li indossava. Nonostante una forte pubblicità, gli usi pratici erano limitati.
La nuova intelligenza artificiale multimodale di Meta per gli occhiali Ray-Ban Meta sarà in grado di evitare le sfide affrontate dai Google Glass? È passato abbastanza tempo, e la percezione dei dispositivi fotografici montati sul viso è cambiata abbastanza da consentire al prodotto di avere successo?