Google ha recentemente annunciato l’introduzione di nuove funzionalità per Gemini Live, il suo assistente AI conversazionale, che ora può analizzare in tempo reale l’ambiente circostante utilizzando la fotocamera del dispositivo o visualizzare il contenuto dello schermo dell’utente. Queste innovazioni, derivanti dal “Project Astra” presentato lo scorso anno, rappresentano un significativo passo avanti nell’interazione uomo-macchina.​

Le nuove caratteristiche di Gemini Live includono:​

  • Condivisione dello schermo: gli utenti possono condividere in tempo reale il contenuto del proprio schermo con Gemini, permettendo all’assistente di fornire risposte immediate e contestuali basate su ciò che viene visualizzato. ​
  • Video in diretta: utilizzando la fotocamera del dispositivo, Gemini è in grado di analizzare l’ambiente circostante e rispondere a domande relative a ciò che “vede”, offrendo suggerimenti e informazioni pertinenti. ​

Queste funzionalità sono attualmente in fase di rollout per gli abbonati a Gemini Advanced tramite il piano Google One AI Premium su dispositivi Android. Un utente su Reddit ha segnalato di aver ricevuto l’aggiornamento e ha condiviso un video dimostrativo del funzionamento della condivisione dello schermo. ​

Durante il Mobile World Congress a Barcellona, Google ha confermato che queste funzionalità saranno disponibili per gli abbonati nel corso del mese di marzo. ​

L’introduzione di queste funzionalità posiziona Google all’avanguardia nel settore degli assistenti AI, superando concorrenti come Alexa e Siri, che stanno ancora sviluppando capacità simili. La possibilità per Gemini di analizzare in tempo reale sia il contenuto dello schermo che l’ambiente circostante attraverso la fotocamera rappresenta un significativo miglioramento nell’interazione utente-assistente, offrendo risposte più contestuali e pertinenti. ​

Di Fantasy