In occasione del Google I/O 2025, il colosso californiano ha presentato un aggiornamento epocale della sua app Gemini, segnando un deciso passo avanti nella competizione tra gli assistenti vocali basati sull’intelligenza artificiale. La nuova versione, che si affida a una combinazione sofisticata di funzionalità multimodali, integrazione profonda con l’ecosistema Google e strumenti evoluti per l’analisi dei contenuti, è pensata per offrire agli utenti un’esperienza conversazionale ancora più naturale e potente.
La novità più sorprendente è senz’altro Gemini Live, una funzione che consente agli utenti di interagire con l’IA in tempo reale attraverso la fotocamera e lo schermo del proprio smartphone. Derivata dal progetto sperimentale Project Astra, Gemini Live consente non solo di dialogare vocalmente, ma anche di mostrare all’assistente video e immagini ripresi dal proprio ambiente circostante.
Immagina di essere in vacanza, puntare il telefono verso una cattedrale gotica e chiedere “Che stile architettonico è questo?”: in pochi istanti, l’intelligenza artificiale fornisce una risposta esaustiva e contestuale. È un approccio radicalmente diverso rispetto ai tradizionali comandi vocali, perché trasforma il dispositivo in una vera finestra conversazionale sulla realtà.
Questa funzionalità sarà distribuita progressivamente su tutti i dispositivi iOS e Android nelle prossime settimane. Google ha già annunciato che Gemini Live sarà integrato con applicazioni come Google Maps (per fornire informazioni sui luoghi in tempo reale), Google Calendar (per pianificare eventi con suggerimenti intelligenti) e Google Tasks (per creare elenchi di attività sulla base di conversazioni in corso).
Oltre alla comunicazione visiva, un altro pilastro dell’aggiornamento è la nuova versione della funzione di Deep Research, che sfrutta l’intelligenza artificiale per analizzare documenti PDF e immagini personali. Il sistema è in grado di incrociare i contenuti caricati con le informazioni disponibili pubblicamente, generando risposte più precise, contestualizzate e rilevanti. A breve, Google prevede di ampliare ulteriormente la portata di questa funzione, integrandola direttamente con Google Drive e Gmail. Ciò significa che l’utente potrà ricevere assistenza intelligente non solo sui documenti personali salvati in locale, ma anche su quelli archiviati nel cloud.
Con questo aggiornamento, Gemini accoglie anche due dei modelli più evoluti della suite Google AI: Imagen 4, per la generazione di immagini, e Veo 3, per la creazione di video. Imagen 4 si distingue per la sua capacità di riprodurre dettagli estremamente realistici, come la texture dei tessuti o le rifrazioni dell’acqua, mentre Veo 3 si spinge oltre i limiti dei tradizionali modelli video, permettendo di generare sequenze animate coerenti e arricchite da effetti visivi e sonori.
Durante l’evento, il CEO Sundar Pichai ha rivelato che gli utenti attivi mensili di Gemini hanno superato i 400 milioni, in aumento di oltre il 14% rispetto ai 350 milioni registrati appena due mesi prima. Un dato significativo, che dimostra quanto sia centrale questa app nell’ecosistema Google. Non a caso, già a febbraio l’azienda ha interrotto il supporto all’intelligenza artificiale integrata nella classica app Google su iOS, spingendo gli utenti a scaricare Gemini come nuova piattaforma principale per le interazioni AI.
L’obiettivo per il 2025 è chiaro: raggiungere i 500 milioni di utenti, facendo di Gemini non solo un assistente, ma il vero fulcro dell’esperienza AI personalizzata e quotidiana.
Infine, Google ha presentato Gemma 3n, un modello leggero ma estremamente efficace, pensato per funzionare su dispositivi con specifiche modeste, come smartphone economici, tablet di fascia bassa e laptop entry-level. Questo modello, capace di elaborare input di varia natura — testo, immagini, audio e video — è stato progettato per offrire performance di alta qualità anche su dispositivi con soli 2 GB di RAM.
Secondo Gus Martins, product manager di Gemma, il nuovo modello mantiene la stessa architettura di Gemini Nano, assicurando un’elevata compatibilità e prestazioni stabili. È un passo importante verso la democratizzazione dell’IA, permettendo a un pubblico ancora più vasto di accedere a funzionalità avanzate senza necessità di dispositivi costosi.