OpenAI ha aggiornato ChatGPT al nuovo modello GPT-4o, introducendo miglioramenti significativi nel ragionamento e nella comunicazione. L’annuncio è stato fatto ieri tramite un post sul social network X, senza molta fanfara. Il post recitava: “C’è un nuovo modello GPT-4o in ChatGPT dalla scorsa settimana. Speriamo che vi piaccia e dategli un’occhiata se non l’avete ancora fatto!” seguito da un’emoji sorridente.
Il nuovo modello sembra offrire un ragionamento passo dopo passo e spiegazioni più dettagliate in linguaggio naturale. Gli utenti hanno notato che GPT-4o presenta miglioramenti nel modo in cui gestisce e spiega i processi, rendendo le risposte più chiare e strutturate.
Una delle novità principali è che il modello GPT-4o può generare immagini in modo autonomo. A differenza del precedente GPT-4, che utilizzava DALL-E 3 per la generazione di immagini basate su testo, GPT-4o è nativamente multimodale. Questo significa che può trasformare sia testo che immagini in token, producendo immagini di qualità superiore e con una comprensione migliore dei prompt di testo.
Non tutti sono entusiasti dell’aggiornamento. Alcuni utenti ritengono che le modifiche siano superficiali e chiedono chiarimenti su cosa sia cambiato esattamente nel comportamento del modello e nell’esperienza dell’utente. Alcuni suggeriscono che le novità potrebbero non essere così evidenti come ci si aspettava.
Un portavoce di OpenAI ha spiegato che ChatGPT e l’API di OpenAI possono avere versioni leggermente diverse del modello GPT-4o. La versione di ChatGPT è ottimizzata per l’interazione con i consumatori, mentre l’API, utilizzata dagli sviluppatori, può avere delle variazioni per soddisfare meglio le esigenze di programmazione.