Ieri, OpenAI ha fatto un annuncio importante, anticipando la conferenza degli sviluppatori di Google I/O con il lancio del suo nuovo modello di intelligenza artificiale di base, chiamato GPT-4o. Questo nuovo modello sarà offerto gratuitamente agli utenti finali come parte di ChatGPT, oltre a essere disponibile come servizio a pagamento per gli sviluppatori di terze parti tramite l’API di OpenAI.
GPT-4o, abbreviazione di GPT-4 Omni, è stato addestrato per essere multimodale, il che significa che è in grado di gestire più tipi di media contemporaneamente, come testo, audio e immagini. Rispetto ai suoi predecessori, è più veloce, più efficiente e più potente.
Questo annuncio è stato fatto durante una teleconferenza con Olivier Godement e Owen Campbell-Moore di OpenAI, che hanno sottolineato l’importanza di GPT-4o per gli sviluppatori di software. Il nuovo modello apre nuove possibilità per le applicazioni, consentendo agli sviluppatori di integrare facilmente l’intelligenza artificiale nei propri prodotti, sia rivolti al cliente che all’interno delle organizzazioni.
Una delle caratteristiche più significative di GPT-4o è la sua capacità di gestire input audio in tempo reale, rispondendo agli input in modo rapido e naturale. Rispetto ai modelli precedenti, GPT-4o è molto più veloce nel processare gli input audio, riducendo notevolmente la latenza.
Inoltre, GPT-4o è in grado di fornire risposte più accurate e complesse rispetto ai suoi predecessori, grazie alla sua capacità di comprendere meglio il contesto e di elaborare più informazioni contemporaneamente. Questo lo rende particolarmente adatto per applicazioni che richiedono una comprensione più approfondita del linguaggio naturale e una maggiore precisione nelle risposte.
OpenAI ha anche annunciato un cambiamento nei prezzi e nei limiti di utilizzo per GPT-4o, rendendo il modello più accessibile per gli sviluppatori. Questo include una riduzione dei costi di utilizzo e un aumento dei limiti di velocità per l’API di OpenAI.