Google ha recentemente introdotto significativi aggiornamenti al suo modello linguistico avanzato, Gemini. La versione 2.0 Flash Thinking Experimental non solo migliora le capacità di ragionamento del modello, ma introduce anche funzionalità di memoria avanzata e una profonda integrazione con le applicazioni Google, offrendo agli utenti un’esperienza più personalizzata e contestualizzata.​

Annunciato per la prima volta durante il keynote di Google I/O nel maggio 2023, Gemini è stato sviluppato come successore potenziato di PaLM 2, con l’obiettivo di creare un modello multimodale capace di elaborare simultaneamente testo, immagini, audio, video e codice informatico. Frutto della collaborazione tra DeepMind e Google Brain, Gemini è stato progettato per competere con modelli come GPT-4 di OpenAI, integrando le capacità avanzate di programmi precedenti come AlphaGo. ​

Con il rilascio di Gemini 2.0 Flash Thinking Experimental, Google ha introdotto miglioramenti significativi, tra cui una finestra di contesto più ampia e il supporto per l’aggiornamento dei file. Questo modello è stato addestrato per scomporre i prompt in una serie di passaggi, rafforzando le sue capacità di ragionamento e fornendo risposte più accurate. Una caratteristica distintiva di questa versione è la capacità di mostrare il processo di “pensiero” del modello, aiutando gli utenti a comprendere come vengono generate le risposte. ​

Una delle novità più rilevanti di Gemini 2.0 è l’integrazione con le applicazioni Google, che consente al modello di accedere ai dati personali degli utenti, come la cronologia delle ricerche, YouTube, Maps e, prossimamente, Google Photos. Questa integrazione permette a Gemini di fornire risposte più personalizzate, basate sulle attività e preferenze individuali. Ad esempio, l’utente può chiedere a Gemini di trovare una ricetta su YouTube, aggiungere gli ingredienti a una lista della spesa e individuare i negozi nelle vicinanze che vendono tali prodotti. ​

È importante sottolineare che l’accesso di Gemini ai dati personali avviene solo con il consenso esplicito dell’utente, garantendo trasparenza e controllo sulle informazioni condivise. Gli utenti possono disattivare questa funzione in qualsiasi momento e visualizzare come i loro dati vengono utilizzati per generare le risposte. ​

Oltre all’integrazione con le app, Gemini 2.0 introduce funzionalità di memoria avanzata, consentendo al modello di ricordare conversazioni precedenti e preferenze dell’utente. Questa capacità rappresenta un passo significativo verso la realizzazione di agenti AI semi-autonomi, in grado di eseguire compiti complessi con supervisione minima. Demis Hassabis, CEO di Google DeepMind, ha descritto Gemini 2.0 come un progresso verso l’intelligenza artificiale generale (AGI), con il potenziale di pianificare e svolgere azioni in autonomia. ​

Al momento, Gemini 2.0 Flash Thinking Experimental è disponibile per gli abbonati a Gemini Advanced sul web e sarà progressivamente rilasciato su dispositivi mobili in oltre 40 lingue. Google prevede di integrare ulteriormente Gemini in prodotti come Chrome, Maps e YouTube nel prossimo anno, ampliando le possibilità di interazione e assistenza offerte dall’AI.

Di Fantasy