Google ha presentato Gemini 2.0, la nuova generazione del suo modello di intelligenza artificiale, segnando un passo significativo verso sistemi capaci di completare autonomamente compiti complessi. Questa versione introduce funzionalità avanzate, tra cui la generazione nativa di immagini e audio multilingue, posizionando Google in diretta competizione con leader del settore come OpenAI e Anthropic.
A un anno dal lancio iniziale di Gemini, questa evoluzione arriva in un momento cruciale per lo sviluppo dell’intelligenza artificiale. Mentre i modelli precedenti rispondevano principalmente a domande, Gemini 2.0 è progettato per comprendere contesti complessi, pianificare azioni su più livelli e agire in modo supervisionato per conto degli utenti.
Tulsee Doshi, direttore della gestione prodotto per Gemini, ha illustrato le capacità potenziate del sistema durante una recente conferenza stampa, mostrando in tempo reale la generazione di immagini e conversazioni multilingue. “Gemini 2.0 offre prestazioni migliorate e nuove funzionalità come la generazione nativa di immagini e audio multilingue”, ha spiegato Doshi. “Inoltre, può utilizzare in modo intelligente strumenti nativi, accedendo direttamente a prodotti Google come la ricerca o eseguendo codice.”
Il rilascio iniziale si concentra su Gemini 2.0 Flash, una versione sperimentale che, secondo Google, opera al doppio della velocità del suo predecessore, superando le capacità di modelli più potenti. Questo rappresenta un notevole traguardo tecnico, poiché in precedenza i miglioramenti in velocità comportavano una riduzione delle funzionalità.
Particolarmente rilevante è l’introduzione di tre prototipi di agenti AI basati sull’architettura di Gemini 2.0, che incarnano la visione futura di Google per l’intelligenza artificiale. Project Astra, un assistente AI universale aggiornato, ha dimostrato la capacità di mantenere conversazioni complesse in più lingue, accedendo a strumenti Google e conservando la memoria contestuale di interazioni precedenti.
“Project Astra ora dispone di una memoria in-sessione fino a 10 minuti e può ricordare conversazioni passate, offrendo un’esperienza più utile e personalizzata”, ha spiegato Bibo Xu, responsabile del prodotto presso Google DeepMind, durante una dimostrazione dal vivo. Il sistema ha mostrato fluidità nel passare da una lingua all’altra e nell’utilizzare strumenti come Google Lens per identificare oggetti in tempo reale.
Oltre a Project Astra, Google ha presentato Project Mariner, un’estensione per Chrome progettata per automatizzare attività complesse di navigazione web, e Jules, un assistente per sviluppatori capace di analizzare problemi, proporre soluzioni dettagliate e scrivere codice basato su specifiche definite.
Questi sviluppi riflettono l’impegno di Google nel posizionarsi all’avanguardia dell’intelligenza artificiale autonoma, offrendo strumenti che promettono di trasformare il modo in cui interagiamo con la tecnologia e svolgiamo attività quotidiane. Con Gemini 2.0, l’azienda mira a ridefinire le aspettative riguardo alle capacità e all’autonomia dei sistemi AI, aprendo nuove possibilità per applicazioni in vari settori.