Google ha recentemente presentato Gemini 2.0 Flash Thinking, un modello di intelligenza artificiale progettato per competere con l’o1 di OpenAI, introducendo capacità di ragionamento avanzate e una maggiore trasparenza nel processo decisionale.
Questo modello multimodale è in grado di affrontare problemi complessi con rapidità ed efficienza. Una delle sue innovazioni più significative è la modalità “Thinking Mode”, che consente agli utenti di visualizzare passo dopo passo il processo di ragionamento utilizzato per giungere a una conclusione. Questa funzionalità mira a ridurre l’opacità spesso associata ai modelli di intelligenza artificiale, offrendo una maggiore comprensione del funzionamento interno dell’IA.
Inoltre, Gemini 2.0 Flash Thinking supporta un input di 32.000 token, equivalenti a circa 50-60 pagine di testo, e può generare output fino a 8.000 token per risposta. Queste capacità lo rendono particolarmente adatto per compiti che richiedono una comprensione e un’elaborazione di grandi quantità di informazioni, come la codifica e l’analisi di dati complessi.
Nei test preliminari, Gemini 2.0 Flash Thinking ha mostrato una notevole precisione e velocità nel risolvere problemi notoriamente difficili per altri modelli di IA. Ad esempio, è stato in grado di contare correttamente il numero di lettere “R” nella parola “Strawberry” in uno o due secondi. In un altro scenario, ha confrontato numeri decimali (9,9 e 9,11) scomponendo sistematicamente il problema in passaggi più piccoli, analizzando i numeri interi e confrontando le cifre decimali.
Queste prestazioni sono state confermate da analisi indipendenti, che hanno posizionato Gemini 2.0 Flash Thinking al vertice dei modelli di ragionamento attualmente disponibili.
Attualmente, Gemini 2.0 Flash Thinking è disponibile in fase sperimentale tramite Google AI Studio e Vertex AI, con una disponibilità generale prevista per gennaio 2025. Google ha dichiarato che ulteriori dettagli sul processo di addestramento, l’architettura, le licenze e i costi saranno resi noti in futuro.