Google mostra LaMDA, un’intelligenza artificiale di nuova generazione per il dialogo
 
 

 Durante un discorso programmatico al Google I / O 2021, la conferenza annuale degli sviluppatori di Google, la società ha annunciato LaMDA, un sofisticato modello di linguaggio che secondo Google è di gran lunga migliore nel comprendere il contesto delle conversazioni rispetto ai modelli leader di oggi. Il CEO di Google Sundar Pichai afferma che LaMDA, che è stato creato per applicazioni di dialogo, è di dominio aperto e progettato per conversare su qualsiasi argomento. È importante sottolineare che il modello non deve essere riqualificato per avere un’altra conversazione.

“Anche se è ancora in fase di ricerca e sviluppo, abbiamo utilizzato LaMDA internamente per esplorare nuove interazioni”, ha detto Pichai. “Ad esempio, dì che volevi conoscere uno dei miei pianeti neri preferiti, Plutone. LaMDA conosce già molto su Plutone e milioni di altri argomenti “.

I data scientist non devono programmare manualmente i concetti in LaMDA, perché nessuna delle risposte del modello è predefinita. LaMDA cerca di rispondere con risposte sensate, mantenendo il dialogo aperto e generando conversazioni naturali che non prendono mai due volte lo stesso percorso.

 

“È davvero impressionante vedere come LaMDA può portare avanti una conversazione su qualsiasi argomento”, ha detto Pichai. Ma ha ammesso che il modello non è perfetto. “È ancora una ricerca iniziale, quindi non va tutto bene. A volte può dare risposte senza senso “, ha detto.

 
In un annuncio correlato, Google ha dettagliato il modello unificato multitask (MUM), un modello multimodale in grado di eseguire il multitasking per sbloccare le informazioni in modi nuovi. Formazione su oltre 75 lingue contemporaneamente, MUM può comprendere simultaneamente diverse forme di informazioni tra cui testo, immagini e video.

È l’affermazione di Google che la MAMMA può comprendere domande come “Voglio fare un’escursione sul Monte Fuji il prossimo autunno, cosa dovrei fare per prepararmi?” A causa delle sue capacità multimodali, MUM si rende conto che quella “preparazione” potrebbe comprendere cose come l’allenamento fitness e il tempo. Il modello, quindi, potrebbe consigliare all’interrogante di portare una giacca impermeabile e fornire indicazioni per approfondire argomenti con contenuti pertinenti tratti da articoli, video e immagini in tutto il web.

La MUM può anche fare affidamento sul contesto e di più nelle immagini e nei dialoghi. Data una foto di scarponi da trekking e chiesto “Posso usarli per fare un’escursione sul Monte Fuji?”, MUM può comprendere il contenuto dell’immagine e l’intento dietro la domanda, facendo sapere all’interrogante che gli scarponi da trekking sarebbero appropriati e indicandoli verso un lezione in un blog sul Monte Fuji.



Google afferma di aver già avviato progetti pilota interni per vedere i tipi di query che MUM potrebbe essere in grado di risolvere.

“Siamo all’inizio dello sfruttamento di questa nuova tecnologia”, ha detto sul palco Prabhakar Raghavan, Vicepresidente senior di Google. “Siamo entusiasti del suo potenziale per risolvere domande più complesse, non importa come lo chiedi … MUM sta cambiando il gioco con le sue capacità di comprensione del linguaggio.”

Di ihal