OpenAI ha appena lanciato GPT-4 Turbo con Vision, la sua ultima creazione nell’ambito dell’intelligenza artificiale, ora disponibile tramite API. Questa nuova versione porta con sé una serie di miglioramenti, tra cui il supporto per la modalità JSON e la chiamata di funzioni per le richieste Vision. Il modello aggiornato promette prestazioni superiori e può essere integrato anche in ChatGPT.
GPT-4 Turbo è un modello multimodale potente che può elaborare sia testo che immagini, offrendo risultati accurati grazie alla sua vasta conoscenza e capacità di ragionamento avanzate.
Presentato da OpenAI lo scorso novembre durante il DevDay, GPT-4 Turbo è stato mostrato con le sue funzionalità migliorate e una base di conoscenze ampliata fino ad aprile 2023. Con una capacità di contesto di 128k, questo modello può gestire più di 300 pagine di testo in un unico prompt, offrendo agli utenti una comprensione approfondita su una vasta gamma di argomenti.
Uno dei punti forti di GPT-4 Turbo è la sua efficienza, che si traduce in una significativa riduzione dei costi per gli utenti. I token di input hanno ora un costo tre volte inferiore, mentre i token di output sono disponibili a metà prezzo rispetto alla versione precedente di GPT-4, rendendo questo aggiornamento più conveniente ed efficiente per i clienti.
OpenAI ha anche annunciato recentemente Voice Engine, un motore in grado di generare un parlato naturale da testo e un breve campione audio di soli 15 secondi. Questo motore può creare voci emotive e realistiche, sebbene al momento non sia ancora disponibile al pubblico.
Inoltre, OpenAI ha anticipato il prossimo modello GPT-5 con miglioramenti nelle capacità di ragionamento. Il COO di OpenAI, Brad Lightcap, ha dichiarato in un’intervista al Financial Times che GPT-5 si concentrerà su sfide complesse, soprattutto nell’ambito del ragionamento.