È un momento cruciale per gli sviluppatori e le aziende che fanno affidamento sugli strumenti di OpenAI: una nuova API, ideata per migliorare l’affidabilità e l’intelligenza dei modelli linguistici, ha invece generato una sorprendente confusione. Prashant Mital, responsabile dell’Applied AI in OpenAI, ha riconosciuto apertamente che “c’è ancora troppa confusione sull’API Responses”, attribuendosi parte della responsabilità per non essere stati sempre chiari nel comunicarne il motivo, il funzionamento e il valore — e ha lanciato una serie di post su X per fare ordine nella narrazione.

L’API Responses, lanciata a marzo 2025, è progettata per sostituire entro il 2026 l’Assistants API. Pur mantenendo tutto ciò che era possibile fare con la Completions o la Chat Completions API, apporta nuovi vantaggi, soprattutto nella gestione della complessità delle interazioni: grazie ai “modelli riflessivi”, che “pensano” e riflettono prima di rispondere, migliora accuratezza e affidabilità, riducendo errori come le “allucinazioni” nei testi generati.

Un obiettivo chiave è rendere più semplice per gli sviluppatori gestire flussi complessi: la Responses API integra strumenti come la ricerca web, la ricerca in file e l’uso del computer stesso — tutto in un unico chiamata API, semplificando la creazione di agenti intelligenti in grado di ragionare in più fasi.

Il cuore della comunicazione di Mital è stato proprio lo smantellamento di alcuni miti che stanno frenando l’adozione diffusa della Responses API:

  • Mito 1: “non si può fare tutto con Responses”. In realtà, si può fare tutto ciò che si faceva con Completions — e in più, la Responses API può gestire lo stato della conversazione, oppure lasciare che sia l’utente a farlo manualmente .
  • Mito 2: “non adatta a contesti ZDR (Zero Data Retention)”. Un altro timore frequente riguarda i contesti con rigorosi requisiti di privacy: molte organizzazioni — come quelle in ambito bancario, sanitario o governativo — richiedono che le interazioni non siano conservate da terze parti. Anche qui, Mital rassicura che si può utilizzare Responses in modalità stateless: basta richiedere che gli elementi di “reasoning” vengano restituiti criptati e gestire lo stato tutto lato client.
  • Mito 3: “intelligenza del modello identica a Completions”. Questo è, secondo Mital, “probabilmente il fraintendimento più grave”. Le API Responses sono state progettate per modelli che utilizzano strumenti integrati nella loro catena del pensiero (chain-of-thought, CoT). Grazie alla possibilità di persistere la CoT tra invocazioni, le prestazioni e l’utilizzo della cache migliorano notevolmente: in alcuni casi si è visto il riuso della cache passare dal 40% all’80%, aumentando efficienza e risparmio.

Nella sua serie di post su X, Mital ha sintetizzato con chiarezza il messaggio:

  • “responses = completions ++”
  • funziona anche in contesti stateless e ZDR
  • è costruita per “modelli riflessivi”
  • sblocca un’intelligenza maggiore e massimizza l’uso della cache

E l’invito è forte: “se usi ancora Chat Completions, considera il passaggio ora — stai probabilmente lasciando prestazioni e risparmi sul tavolo”.

Dietro gli sguardi di molti stint developers che si affacciano al mondo degli agenti intelligenti, questa nuova API vuole diventare la pietra angolare della prossima generazione di applicazioni AI: più accurate, efficienti e personalizzabili. È un chiaro segnale che OpenAI intende semplificare — e non complicare — la vita degli sviluppatori, mantenendo però al centro l’evoluzione delle capacità cognitive dei modelli.

Di Fantasy