Google sta orchestrando una profonda trasformazione dei suoi servizi di base, integrando l’Intelligenza Artificiale in modo pervasivo per migliorare drasticamente l’accessibilità e l’usabilità degli strumenti quotidiani. Attraverso una serie di annunci recenti, l’azienda sta elevando Gemini, il suo modello di punta, da semplice assistente a vero e proprio “assistente di ricerca agente”, ridisegnando il modo in cui interagiamo con il web, la navigazione e il lavoro in ufficio.
Il primo passo verso questa integrazione ubiqua è l’aggiunta di un pulsante di scelta rapida dedicato alla Modalità AI nella parte inferiore della pagina “Nuova scheda” del browser Chrome per dispositivi mobili. Questo posizionamento strategico, proprio sotto la barra di ricerca, mira a rendere l’accesso alla ricerca conversazionale di Google — la risposta diretta alle sfide lanciate da strumenti come ChatGPT Search e Perplexity di OpenAI — immediato e intuitivo. Questa funzionalità, inizialmente lanciata negli Stati Uniti, sarà presto estesa per supportare ben 160 lingue, tra cui coreano, giapponese, hindi, indonesiano e portoghese, garantendo una portata globale e democratizzando l’uso dell’AI avanzata.
La Modalità AI non è una novità, ma la sua evoluzione è costante. Dalla sua introduzione, Google ha continuato ad arricchire le sue capacità, in particolare potenziando le sue funzionalità “agentiche”. Queste includono il supporto per la biglietteria di eventi, la prenotazione di appuntamenti di bellezza e benessere (funzionalità recentemente introdotte) e le prenotazioni nei ristoranti (aggiunte in agosto). Il kit di strumenti è stato inoltre arricchito con “Canvas”, un tool lanciato a luglio che assiste nella pianificazione degli studi e nell’organizzazione complessa di informazioni, dimostrando la crescente capacità dell’AI di gestire task che richiedono un’interazione prolungata e sequenziale. A ciò si aggiunge la possibilità di utilizzare Google Lens per riconoscere le immagini sullo schermo del desktop e porre domande direttamente su ciò che si vede.
L’integrazione di Gemini in Google Maps rappresenta una delle evoluzioni più tangibili nell’uso quotidiano dell’AI. Le nuove funzionalità di navigazione non si basano più solo su distanze generiche (“Svolta a destra dopo 500 piedi”), ma forniscono indicazioni stradali ancorate a punti di riferimento reali e visivamente distinti (“Svolta a destra dopo Starbucks”). Questo è possibile grazie alla capacità di Gemini di incrociare le immagini di Street View con i dati di circa 250 milioni di posizioni, identificando gli elementi del paesaggio che sono immediatamente riconoscibili all’occhio umano, un passo che rende la navigazione non solo più precisa, ma anche intrinsecamente più umana e intuitiva.
Inoltre, la sinergia tra Lens e Gemini su Maps permetterà agli utenti di puntare la fotocamera verso edifici, monumenti o ristoranti e di interagire con l’AI ponendo domande in linguaggio naturale, come: “Com’è questo posto?” o “Perché è famoso?”. Questa funzione, presto disponibile su iOS e Android, trasforma la fotocamera in un interrogatore intelligente del mondo reale, sbloccando informazioni contestuali in tempo reale.
L’Intelligenza Artificiale si sta inserendo profondamente anche nel contesto professionale grazie all’integrazione della funzionalità “Deep Research” in Google Workspace. Questa capacità trasforma Gemini in un analista di mercato e un report di concorrenza automatizzato. Gli utenti possono richiedere a Gemini di creare un’analisi di mercato complessa. L’AI risponde sviluppando autonomamente un piano di ricerca e generando un report completo basato sull’accesso ai dati interni dell’utente, attingendo a email (Gmail), documenti (Drive) e chat del team.
Il report finale, completato in modo autonomo dall’AI, non solo può essere esportato in un documento Google, ma, in una mossa innovativa, può persino essere convertito in un podcast generato dall’intelligenza artificiale, offrendo un formato di consumo versatile per i dirigenti o i team in movimento. Questa funzionalità, inizialmente lanciata su desktop e presto in arrivo sui dispositivi mobili, segna, secondo Google, un passo importante nell’evoluzione di Gemini da semplice assistente a “assistente di ricerca agente”, con l’obiettivo finale di ridefinire l’esperienza di utilizzo dell’intelligenza artificiale sia nella vita quotidiana che nel mondo del lavoro attraverso una combinazione di accessibilità mobile e integrazione profonda delle funzionalità.
