All’interno di OpenAI, l’analisi dei dati è diventata negli anni un’attività sempre più complessa. L’azienda gestisce un patrimonio informativo enorme, composto da decine di migliaia di set di dati e da centinaia di petabyte di informazioni utilizzate quotidianamente da migliaia di dipendenti. In un contesto del genere, anche operazioni apparentemente semplici, come individuare la tabella giusta o interpretare correttamente una metrica, possono richiedere tempo, attenzione e un’elevata competenza tecnica. È proprio per rispondere a questa complessità che OpenAI ha sviluppato e introdotto un proprio agente interno di analisi dei dati basato sull’intelligenza artificiale.
Presentato ufficialmente alla fine del mese, questo agente dati non è un prodotto destinato al mercato, ma uno strumento costruito su misura per le esigenze interne dell’azienda. L’obiettivo non è stato solo quello di automatizzare alcune fasi dell’analisi, ma di ripensare l’intero processo, permettendo ai dipendenti di passare da una domanda in linguaggio naturale a un risultato concreto nel giro di pochi minuti, invece che di giorni. L’agente è in grado di esplorare i dati, scrivere ed eseguire query SQL, interpretare i risultati e generare report in modo autonomo, mantenendo il contesto della conversazione mentre l’utente affina o modifica le proprie richieste.
Dal punto di vista tecnologico, OpenAI ha scelto di non creare un’infrastruttura separata rispetto a quella già messa a disposizione degli sviluppatori esterni. Lo stesso stack utilizzato per i prodotti pubblici è alla base di questo agente interno, con strumenti come Codex, le Embedding API e le Evals API, il tutto costruito attorno a GPT-5.2. Questa scelta riflette una filosofia precisa: usare internamente le stesse tecnologie offerte al mondo esterno per comprenderne limiti, punti di forza e possibilità di miglioramento.
Oggi l’agente dati è utilizzato in tutta l’azienda, dai team di ingegneria e data science fino a finanza, vendite e ricerca. Secondo quanto riportato dai dipendenti, anche analisi complesse come la valutazione delle performance di un lancio di prodotto, lo stato di salute dell’azienda o il calcolo di metriche composite possono essere affrontate interamente tramite una conversazione in linguaggio naturale. In un ambiente in cui operano oltre 3.500 utenti interni su più di 70.000 set di dati, questo cambiamento ha un impatto diretto sulla velocità decisionale e sulla riduzione degli errori.
Uno dei problemi principali che OpenAI ha dovuto affrontare è legato alla frammentazione e alla somiglianza dei dati. Molte tabelle hanno nomi simili, definizioni leggermente diverse e ambiti di utilizzo non sempre evidenti. Senza un contesto adeguato, anche un modello molto potente rischia di produrre risultati fuorvianti, come stime errate sul numero di utenti o l’uso improprio di terminologia interna. Per questo motivo, l’agente dati è stato costruito su una struttura contestuale multistrato, pensata per fornire una comprensione profonda e affidabile delle informazioni.
Il primo livello di questo contesto è rappresentato dai metadati di utilizzo delle tabelle. Qui rientrano lo schema dei dati, i nomi e i tipi delle colonne e le relazioni tra le tabelle, comprese le informazioni sulla loro discendenza. Analizzando anche la cronologia delle query precedenti, l’agente apprende quali tabelle vengono comunemente unite tra loro, riducendo il rischio di associazioni errate. A questo si affianca un secondo livello, costruito grazie all’intervento di esperti umani. Gli specialisti di dominio annotano tabelle e colonne spiegandone il significato reale, il contesto aziendale e le avvertenze, colmando lacune che non possono essere dedotte dalla sola struttura tecnica dei dati.
Il terzo livello è legato al codice. Analizzando direttamente il codice che genera le tabelle, l’agente comprende come i dati vengono creati, con quale frequenza si aggiornano, quali sono i loro limiti e in che modo possono essere interpretati. Questo consente di distinguere dataset che, a prima vista, sembrano identici ma che in realtà rispondono a logiche molto diverse. A questi strati si aggiunge la conoscenza organizzativa, che integra informazioni distribuite su strumenti come Slack, Google Docs e Notion, includendo cronologie di rilascio, nomi in codice interni e definizioni ufficiali degli indicatori chiave, sempre nel rispetto dei permessi di accesso.
Un ulteriore elemento fondamentale è il sistema di memoria. L’agente conserva i vincoli e le condizioni di filtro emersi durante le analisi precedenti, creando una base più accurata per le domande successive. Questa memoria è sia condivisa, per migliorare il lavoro collettivo, sia personale, per adattarsi allo stile e alle esigenze del singolo utente. Quando le informazioni disponibili risultano incomplete o obsolete, entra in gioco il contesto in tempo reale, che consente all’agente di interrogare direttamente il data warehouse e aggiornare immediatamente la propria comprensione dello schema e dei dati.
Tutto questo patrimonio informativo viene normalizzato e trasformato in embedding tramite una pipeline offline. Durante l’analisi, l’agente utilizza tecniche di retrieval-augmented generation per recuperare solo le informazioni più rilevanti, riuscendo così a operare anche in ambienti estremamente complessi senza perdersi tra migliaia di tabelle simili. Questo approccio riduce in modo significativo gli errori causati da filtri sbagliati o interpretazioni ambigue.
Un aspetto distintivo dell’agente dati di OpenAI è il suo metodo di inferenza. Non segue un percorso rigido e predefinito, ma è in grado di adattarsi durante l’analisi. Se un risultato intermedio appare anomalo, l’agente ne indaga autonomamente le cause, modifica l’approccio e incorpora quanto appreso nelle fasi successive e nelle conversazioni future. Delegando all’intelligenza artificiale il ciclo ripetitivo di tentativi ed errori, OpenAI riesce a migliorare allo stesso tempo la qualità e la rapidità delle analisi.
L’agente è integrato in diversi ambienti di lavoro, dalle interfacce web agli IDE, fino agli strumenti di comunicazione interna come Slack. Gli utenti possono cambiare direzione, porre domande aggiuntive o chiarire le proprie richieste in corso d’opera, mentre l’agente mantiene il contesto della conversazione. In caso di istruzioni poco chiare, è lui stesso a fare domande di chiarimento o ad applicare impostazioni predefinite ragionevoli per proseguire l’analisi.
Per garantire affidabilità nel tempo, OpenAI utilizza un sistema di valutazione continua basato sull’API Evals. Le domande in linguaggio naturale vengono abbinate a query SQL considerate corrette e i risultati vengono confrontati, tenendo conto delle differenze sintattiche ma valutando l’accuratezza effettiva dei dati. Questo meccanismo funziona come una sorta di test unitario per l’analisi dei dati, capace di individuare rapidamente eventuali regressioni di qualità man mano che il sistema evolve.
Anche sicurezza e controllo degli accessi restano centrali. L’agente rispetta le autorizzazioni esistenti, consentendo a ciascun utente di accedere solo ai dati permessi, e riassume in modo trasparente tutti i passaggi dell’analisi e le ipotesi adottate. Ogni risultato è collegato ai dati originali, rendendo possibile la verifica e il controllo umano.
Secondo OpenAI, questo agente non va visto come un semplice strumento di automazione, ma come un vero e proprio membro del team, capace di ragionare, coordinarsi e supportare le decisioni quotidiane. È un esempio concreto di come l’intelligenza artificiale, se progettata con attenzione al contesto, alla qualità e alla governance, possa creare valore reale nelle attività di analisi e nel processo decisionale aziendale.
