OpenAI ha recentemente introdotto una funzionalità di regolazione fine nell’ambito della versione “GPT-3.5 Turbo”, una versione più leggera di “GPT-3.5”. Questa novità permette alle aziende che utilizzano GPT-3.5 Turbo di personalizzare il modello attraverso l’API OpenAI per adattarlo alle loro esigenze specifiche.

Nonostante sia più leggero rispetto a “GPT-4”, il GPT-3.5 Turbo offre prestazioni degne di nota, rendendolo una scelta popolare per le aziende che stanno considerando l’implementazione dell’intelligenza artificiale. OpenAI ha introdotto questa funzionalità con l’obiettivo di accelerare l’adozione aziendale di questo modello.

L’annuncio della funzione di messa a punto di GPT-3.5 Turbo è stato fatto attraverso il blog ufficiale di OpenAI, che ha anche reso noto che la funzione di regolazione fine sarà presto disponibile anche per “GPT-4”, prevista per questo autunno.

La messa a punto implica l’adattamento di un modello pre-addestrato a nuovi dati e la regolazione dei parametri in modo appropriato per una specifica attività. Utilizzando la regolazione fine su Large Language Model (LLM), le aziende e gli sviluppatori possono creare modelli che si adattano perfettamente a compiti specifici, offrendo esperienze uniche agli utenti.

La messa a punto consente alle aziende di garantire che i loro modelli rispondano in modo più preciso alle istruzioni fornite, come rispondere in modo conciso o in una lingua specifica. Ad esempio, gli sviluppatori possono adattare i modelli per rispondere sempre in tedesco, garantendo coerenza nelle interazioni.

Questa funzione si dimostra altrettanto efficace quando si desidera specificare che il modello risponda in un formato particolare. Ciò è di fondamentale importanza per applicazioni che richiedono il completamento del codice, l’esecuzione di chiamate API o risposte in formati specifici come JSON.

La regolazione fine può anche essere utilizzata per adeguare il tono e lo stile delle risposte generate dal modello all’immagine del marchio aziendale, offrendo coerenza e riconoscibilità.

OpenAI suggerisce che “una versione ottimizzata di GPT-3.5 Turbo potrebbe superare GPT-4 in alcune attività”. Inoltre, la messa a punto può consentire di ridurre la quantità di testo richiesto, migliorando le prestazioni e contenendo i costi. Iniziali test hanno dimostrato che OpenAI è in grado di ridurre la lunghezza dei prompt fino al 90%, accelerando le chiamate API e contribuendo a una riduzione dei costi.

Attualmente, la messa a punto richiede una serie di passaggi, tra cui la preparazione dei dati, il caricamento dei file necessari e l’uso dell’API OpenAI per la regolazione fine. Per semplificare questo processo, OpenAI sta sviluppando un’interfaccia utente di tipo dashboard che consentirà di monitorare lo stato del processo di ottimizzazione.

Per quanto riguarda i costi, al momento l’ottimizzazione ha un prezzo di 0,008 $ per 1.000 token addestrati, 0,012 $ per 1.000 token in input e 0,016 $ per 1.000 token in output. Ad esempio, per la messa a punto di un turbo GPT-3.5 con un file di addestramento da 100.000 token, il costo stimato sarà di 2,40 $.

Di Fantasy