OpenAI ha recentemente aggiornato la sua API Assistants, introducendo una serie di nuove funzionalità per migliorare le capacità degli assistenti AI generativi nelle applicazioni che utilizzano i suoi modelli. Tra le novità più rilevanti, c’è il supporto per la gestione fino a 10.000 file per assistente, grazie a un nuovo strumento di ricerca di file che facilita l’analisi, la suddivisione e l’integrazione automatizzata dei file tramite gli oggetti dell’archivio vettoriale di OpenAI.

Per aiutare gli sviluppatori a controllare i costi, OpenAI ha introdotto la possibilità di impostare limiti massimi sui token di input e output. È ora possibile anche personalizzare il troncamento del contesto, scegliendo il numero di messaggi recenti da considerare. Un’altra importante aggiunta è Tool Choice, una funzione che regola l’uso di strumenti specifici, come la ricerca di file o l’interprete di codice, durante l’operatività dell’assistente.

Le nuove opzioni di configurazione del modello, insieme ai miglioramenti nel supporto per lo streaming e il polling, nonché per i modelli perfezionati, offrono agli sviluppatori maggiore flessibilità e potenza. Queste innovazioni ampliano le potenzialità dell’API Assistants, presentata per la prima volta durante la conferenza degli sviluppatori dello scorso anno, per creare agenti all’interno delle app capaci di seguire istruzioni specifiche e utilizzare gli strumenti e le basi di conoscenza di OpenAI.

L’API, che include il Code Interpreter per eseguire attività di codifica in Python in un ambiente controllato e funzionalità per la generazione di immagini ed elaborazione di grandi file di dati, è stata ulteriormente arricchita. “Con il nuovo strumento di ricerca file, l’integrazione del recupero della conoscenza è ora più rapida e può gestire fino a 10.000 file per assistente,” ha spiegato OpenAI. “Il supporto per la scelta dello strumento aumenta la precisione delle operazioni dell’assistente, permettendoti di specificare l’uso di particolari funzioni durante l’esecuzione,” ha aggiunto l’azienda in un post su X.

Di Fantasy