OpenAI ha recentemente annunciato l’implementazione di aggiornamenti per i suoi potenti modelli di linguaggio, GPT-3.5 Turbo e GPT-4, insieme alla riduzione dei costi associati all’utilizzo delle loro API da parte delle organizzazioni. Questi modelli aggiornati includono una nuova funzionalità chiamata “chiamata di funzione”, che consente agli sviluppatori di comunicare in modo colloquiale un’operazione di programmazione all’intelligenza artificiale. L’IA genererà quindi il codice informatico corrispondente a tale operazione, un aspetto sempre più comune nei servizi di intelligenza artificiale aziendale.
La funzionalità di chiamata di funzione consente agli sviluppatori di progettare chatbot conversazionali generativi che possono recuperare informazioni al di là dei database immediati, accedendo a strumenti esterni all’organizzazione. In pratica, l’intelligenza artificiale è in grado di riconoscere quando è necessario avviare una chiamata di funzione e tradurre automaticamente le richieste in linguaggio naturale in codice adatto per effettuare una query al database. Il modello di intelligenza artificiale riformula quindi la risposta in uno stile simile a quello di ChatGPT.
OpenAI ha dichiarato: “Gli sviluppatori possono ora descrivere le funzioni e fare in modo che il modello scelga intelligentemente di generare un oggetto JSON contenente gli argomenti necessari per chiamare tali funzioni. Questo rappresenta un nuovo modo per collegare in modo affidabile le capacità di GPT con strumenti e API esterni”. I modelli sono stati appositamente sviluppati per rilevare quando è necessario effettuare una chiamata di funzione, in base all’input dell’utente, e rispondere con un JSON conforme alla firma della funzione. La funzione di chiamata consente agli sviluppatori di recuperare in modo più affidabile dati strutturati dal modello.
Inoltre, OpenAI ha introdotto una nuova variante di GPT-3.5 Turbo con una finestra di contesto significativamente più ampia. La finestra di contesto rappresenta il contenuto di un prompt utilizzato dal modello per rispondere alle domande ed è misurata in bit di linguaggio chiamati token, con circa tre token per parola. La versione precedente di GPT-3.5 Turbo utilizzava 4.000 token, mentre GPT-4 ha una variante con 8.000 e 32.000 token. La nuova variante Turbo ha una finestra di contesto di 16.000 token, quadruplicando la capacità rispetto alla versione precedente e corrispondendo a circa 20 pagine di testo. Non si avvicina alla dimensione della finestra di contesto di 100.000 token dell’IA generativa chiamata Claude, recentemente lanciata da Anthropic, ma per un utilizzo aziendale quotidiano, è probabilmente molto ampia.
Le aziende potrebbero trovare interessanti anche i nuovi prezzi proposti per entrambe le dimensioni dei modelli. OpenAI ha ridotto del 25% il costo del modello più piccolo, che ora è di $0,0015 per 1.000 token di input e $0,002 per 1.000 token di output. Nonostante la finestra di contesto del modello più grande sia quattro volte più ampia, il prezzo è solo il doppio rispetto a quello del modello più piccolo, ossia $0,003 per 1.000 token di input e $0,004 per 1.000 token di output. Anche il modello Ada, sviluppato da OpenAI per l’incorporazione di testo, ha subito una significativa riduzione di prezzo, arrivando a $0,0001 per 1.000 token, con una diminuzione del 75%. OpenAI ha attribuito il successo nell’efficienza dei modelli come la causa di queste variazioni di prezzo.