Google ha appena fatto un passo significativo nel trasformare il modo in cui cerchiamo informazioni: ha reso disponibile per tutti gli utenti negli Stati Uniti — in inglese — la funzione Search Live, una modalità di ricerca conversazionale in tempo reale che combina voce, visione e intelligenza artificiale.
Fino a poco tempo fa, Search Live era un esperimento interno, parte del programma Google Labs, a disposizione solo di utenti selezionati. Ora è parte integrante dell’app Google su Android e iOS: basta toccare un nuovo pulsante “Live” sotto la barra di ricerca per iniziare a parlare con l’IA, come se fosse un assistente vocale, e perfino mostrarle ciò che la fotocamera vede.
La novità più eclatante è che non sei più costretto a “digitare parole chiave” o formulare query scritte complesse. Con Search Live puoi porre domande spontanee, usare il linguaggio naturale, fare follow-up, chiarire. Se il tuo quesito riguarda oggetti davanti a te — un cavo, un utensile, un ingrediente — puoi attivare la fotocamera e lasciare all’IA la visione contestuale per interpretare meglio la ricerca.
Questo cambiamento è rilevante. La ricerca diventa meno un’azione “point & click” e più un dialogo continuo con l’ambiente. Ad esempio, puoi chiedere “Qual è questo tipo di pianta?”, puntare la fotocamera su una foglia, far vedere all’assistente la pianta stessa e ricevere spiegazioni, link approfonditi e persino domande di chiarimento dal sistema.
Google offre anche modalità per rendere l’esperienza più completa: puoi attivare una “trascrizione” testuale della conversazione, passare da voce a digitazione, continuare a usare altre app mentre l’IA “lavora in background”, mantenendo lo scambio fluido.
Dietro questa evoluzione c’è una strategia più ampia: negli ultimi mesi Google ha già introdotto “AI Mode”, una modalità di ricerca potenziata che consente input multimodali (testo, immagini, voce). Search Live è un’estensione naturale di questa direzione, che integra l’IA con un’esperienza conversativa e visuale più immersiva.
Ma come avviene “dietro le quinte”? Il sistema si muove via “query fan-out”: non solo tenta di rispondere direttamente alla tua domanda, ma esplora domande correlate, considera più percorsi di ragionamento e combina fonti multiple per dare una risposta più ricca e contestualizzata.
Naturalmente, non mancano le sfide e le questioni critiche. L’interpretazione visiva può fallire in presenza di condizioni di luce scarsa, angoli strani o oggetti ambigui. Google sembra consapevole di questi limiti e correla le risposte con link di approfondimento per permetterti di verificare.
C’è anche il discorso dell’“authoritativeness”: quando l’IA fornisce una risposta, spesso la accompagna con fonti web citate, per lasciare spazio all’utente di esplorare l’argomento più in dettaglio. In questo modo, Google tenta di bilanciare l’immediatezza della risposta conversazionale con la trasparenza delle fonti.
Un’altra questione sensibile riguarda la privacy e il controllo: quando attivi la fotocamera per condividere visivamente ciò che stai guardando, il sistema acquisisce informazioni ambientali potenzialmente molto ricche. Google ha dichiarato che sono previste guardrails, per evitare che si chieda “Chi è questa persona?” o si induca in situazioni di sorveglianza impropria.
Per ora, la funzione è disponibile soltanto negli Stati Uniti e in lingua inglese. Non ci sono annunci ufficiali per l’espansione in altri Paesi o lingue al momento del lancio.
Search Live segna, in definitiva, una svolta nel rapporto tra utente, dispositivo e ricerca. Non si tratta semplicemente di migliorare la rapidità o la precisione, ma di trasformare il modo stesso in cui interagiamo con l’informazione: meno parola chiave digitate, più conversazione visiva e vocale. Se l’IA riuscirà a essere sufficientemente affidabile ed equa, potremmo essere davanti a una versione “Search 3.0” — più umana, più integrata, più immersiva.