Di recente, gli sviluppatori di Google hanno dettagliato i metodi e i modi in cui hanno utilizzato l’intelligenza artificiale e l’apprendimento automatico per migliorare la propria esperienza di ricerca. Gli annunci sono stati fatti durante l’ evento Search On 2020 , dove il gigante della tecnologia ha svelato diversi miglioramenti nell’IA che aiuteranno a ottenere risultati di ricerca nei prossimi anni.
Nel 2018, il gigante della tecnologia ha introdotto la tecnica di pre-formazione basata sulla rete neurale per l’elaborazione del linguaggio naturale (PNL) chiamata Rappresentazioni di encoder bidirezionali da Transformers o semplicemente BERT . L’anno scorso, l’azienda ha introdotto in che modo i sistemi di comprensione del linguaggio BERT stanno aiutando a fornire risultati più pertinenti nella Ricerca Google .
Da allora, sono stati apportati miglioramenti in molte aree, tra cui le capacità di comprensione del linguaggio del motore, query di ricerca e altro ancora. BERT è stato ora utilizzato in quasi tutte le query in inglese che aiutano a ottenere risultati di qualità superiore.
Negli ultimi due decenni, il gigante della tecnologia ha ottenuto enormi progressi nel suo motore di ricerca. Prabhakar Raghavan, responsabile della ricerca e dell’assistente di Google, ha affermato in un post sul blog che quattro elementi chiave costituiscono la base di tutto il lavoro per migliorare la ricerca e rispondere a trilioni di domande ogni anno. Sono menzionati di seguito:
Comprendere tutte le informazioni del mondo
Informazioni di altissima qualità
Privacy e sicurezza di livello mondiale
Accesso aperto a tutti
Di seguito sono menzionati alcuni dei miglioramenti chiave con AI e ML annunciati durante l’evento:
Canticchia per cercare
La notizia di questa nuova funzionalità sta facendo il giro di tutte le piattaforme dei social media. La funzione “ronza per cercare” consente agli utenti di canticchiare, fischiare o cantare una melodia a Google per risolvere il loro verme. Dopo aver canticchiato qualsiasi sintonia nel widget di ricerca di Google, l’algoritmo di apprendimento automatico aiuta a identificare potenziali corrispondenze di brani.
Questo utilizza la tecnologia di riconoscimento musicale che include reti neurali profonde con riconoscimento a bassa potenza della musica sui dispositivi mobili. Quando un utente canticchia una melodia in Ricerca, i modelli di apprendimento automatico trasformano l’audio in una sequenza basata sui numeri che rappresenta la melodia di una canzone.
I modelli di apprendimento automatico sono addestrati per identificare le canzoni in base a una varietà di fonti, inclusi gli esseri umani che cantano, fischiano o mormorano, nonché le registrazioni in studio. Secondo gli sviluppatori, gli algoritmi estraggono anche altri dettagli, inclusi gli strumenti di accompagnamento e il timbro e il tono della voce. Attualmente, la funzione è disponibile in inglese su iOS e in più di 20 lingue su Android.
Accesso a informazioni di alta qualità durante COVID-19
Gli sviluppatori dell’azienda si sono assicurati che gli utenti ricevessero tutte le informazioni necessarie sulla pandemia. Al fine di mantenere gli utenti aggiornati con le informazioni più recenti, Google ha annunciato nuovi miglioramenti per fornire agli utenti le informazioni di cui hanno bisogno per navigare in luoghi e fare le cose.
Funzionalità come gli aggiornamenti sull’attività in tempo reale su Google Map mostrano agli utenti quanto è occupato un luogo in questo momento per mantenere la distanza sociale. Un’altra funzione chiamata Live View che aiuta a ottenere informazioni essenziali sulle aziende. Il gigante della tecnologia ha anche aggiunto informazioni sulla sicurezza COVID-19 sui profili aziendali su Ricerca Google e Maps.
Questo aiuta gli utenti a sapere se devono indossare una maschera o effettuare una prenotazione. Le funzionalità utilizzano la tecnologia di conversazione Duplex, i dati della cronologia delle posizioni, tra gli altri. Usano anche la tecnica della privacy differenziale per garantire che i dati aziendali rimangano anonimi.
Comprensione dei momenti nei video
Gli sviluppatori di Google hanno introdotto un nuovo approccio basato sull’intelligenza artificiale per aiutare gli utenti a comprendere la semantica profonda di un video e identificare automaticamente i momenti chiave. La funzione aiuterà gli utenti a taggare i momenti nel video, che possono essere ulteriormente esplorati come i capitoli di un libro.
Raghavan ha dichiarato nel post del blog : “Abbiamo iniziato a testare questa tecnologia quest’anno e, entro la fine del 2020, prevediamo che il 10% delle ricerche su Google utilizzerà questa nuova tecnologia”.
Approfondire la comprensione attraverso i dati
Google lavora al Data Commons Project da due anni. Per fornire i migliori risultati di ricerca e comprendere i dati di grandi dimensioni, gli sviluppatori del gigante tecnologico sfruttano le tecniche di elaborazione del linguaggio naturale.
La PNL aiuta a mappare la ricerca su un insieme specifico dei miliardi di punti dati in Data Commons per fornire le statistiche giuste in un formato visivo e di facile comprensione.
Aiutare il giornalismo attraverso la ricerca avanzata
Come parte di Journalist Studio, il gigante della tecnologia ha introdotto una nuova suite di strumenti che aiuteranno reporter e giornalisti a svolgere il proprio lavoro in modo più efficiente e sicuro. Quest’anno, la società ha lanciato un nuovo strumento che porta la potenza della Ricerca Google ai giornalisti, noto come Pinpoint.
Pinpoint aiuta i giornalisti a setacciare rapidamente migliaia di documenti identificando e organizzando automaticamente le persone, le organizzazioni e le località citate più di frequente.
Esplora le informazioni in immagini 3D
Come parte dell’evento SearchOn, gli sviluppatori hanno anche annunciato nuovi modi per utilizzare Google Lens e la realtà aumentata (AR) durante l’apprendimento e lo shopping. L’obiettivo di Google ora può riconoscere 15 miliardi di cose, il che aiuterà a identificare piante, animali, punti di riferimento e altro ancora. L’obiettivo può anche tradurre più di 100 lingue, come lo spagnolo e l’arabo.
Aparna Chennapragada, VP di Google, ha dichiarato in un post sul blog: “Un’altra area in cui la fotocamera può essere utile è lo shopping, soprattutto quando ciò che stai cercando è difficile da descrivere a parole”.
Lens utilizza la tecnologia Style Engine che combina il più grande database di prodotti con milioni di immagini di stile. E, quindi, l’algoritmo abbina il modello per comprendere concetti come maniche con volant o denim vintage.