C’è qualcosa di affascinante nel modo in cui la storia dell’intelligenza artificiale d’impresa evolve: non sempre le alleanze più evidenti segnano le svolte più profonde. Prendiamo il recente accordo da 100 milioni di dollari tra Databricks e OpenAI — una mossa che ha attirato molti titoli, l’attenzione dei mercati e un gruppo nutrito di entusiasmi e scetticismi. Ma al di là del clamore, ciò che potrebbe cambiare davvero le regole del gioco è una tecnologia meno “visibile”, sviluppata da Databricks: Agent Bricks, con il suo modulo di ottimizzazione dei prompt chiamato GEPA.
L’accordo con OpenAI è importante, ma la vera “breccia” — quella che potrebbe rendere l’AI d’impresa molto più accessibile, efficiente e sostenibile — è l’ottimizzazione intelligente dei prompt.
L’intesa da 100 milioni di dollari è stimolante per il messaggio che lancia: Databricks e OpenAI uniscono risorse e reputazioni, e ne beneficiano entrambe le parti. Per Databricks, significa rendere i modelli GPT-5 “nativamente” accessibili ai propri clienti — senza che ogni azienda debba gestire separatamente chiavi API o accordi esterni. È una carta forte: apre spazi nuovi per l’adozione dell’AI in contesti aziendali già “alimentati” da Databricks, puntando su integrazioni più semplici, minori costi di onboarding e compenetrazioni tra ambienti di dati e modelli.
Eppure, come spesso accade, il vero cambiamento non si misura tanto dall’annuncio quanto dal risultato concreto — da quanto un’innovazione migliora le performance, abbassa le soglie economiche, rende praticabile ciò che prima era troppo costoso o complesso.
L’elemento centrale, in questo scenario, è GEPA — Generative Evolutionary Prompt Adaptation — una tecnica che non tocca i pesi del modello sottostante, ma “manipola” il prompt, ovvero il modo in cui poniamo le domande (o istruzioni) al modello.
L’idea è suggestiva: spesso l’arte (e la scienza) nell’uso dei modelli consiste nel porre la domanda giusta, nel formulare il prompt che consente al modello di tirare fuori la miglior risposta con le risorse disponibili. GEPA automatizza qualcosa che spesso è manuale e creativo: riflette sui risultati, li “critica” e li riscrive, in un processo evolutivo che migliora progressivamente le prestazioni del sistema su compiti specifici.
Ne consegue una promessa molto potente: modelli meno sofisticati — o meno costosi — possono avvicinarsi in qualità ai modelli top, grazie a prompt raffinati. In certi scenari, GEPA consente di rendere l’operatività del modello fino a 90 volte più economica rispetto a soluzioni più “pesanti” come Claude Opus 4.1, nel contesto delle richieste ad alto volume.
Non è solo un guadagno in costi: è un cambio di paradigma. Se puoi ottimizzare come chiedi piuttosto che cambiare il motore, apri una porta a modelli più snelli e contesti prima proibitivi.
Qui emerge un contrasto che merita attenzione: tradizionalmente, l’idea era “modello più grande = migliori prestazioni, maggior costo”. Con tecniche come GEPA, si può “far lavorare meglio” un modello più piccolo, grazie a prompt intelligenti. Così, in contesti su larga scala, la “leggerezza intelligente” può superare l’approccio “più grande sempre meglio”.
Inoltre, GEPA si propone (secondo Databricks) di superare la personalizzazione tradizionale (fine-tuning supervisionato) in efficienza, costo e prestazioni. Un prompt ben adattato, dicono, offre migliori risultati con minor sforzo di ingegneria.
L’analogia che viene in mente è quella della scrittura creativa: quando impari a porre domande efficaci, a dare contesto, a guidare il modello, ottieni risposte migliori. GEPA vuole automatizzare questo processo creativo e adattativo.
L’accordo con OpenAI amplifica il potenziale di GEPA in modo esponenziale. Se i modelli GPT-5 sono resi “nativi” all’interno della piattaforma Databricks, l’ottimizzazione dei prompt può essere applicata in modo più fluido, integrato e scalabile, senza quegli strati di complessità che altrimenti rallentano l’adozione.
Un cliente Databricks potrà invocare GPT-5 direttamente dalle query SQL, senza dover esternalizzare chiamate API o gestire relazioni contrattuali separate. Il prompt ottimizzato entra nel flusso operativo dell’azienda, dentro l’infrastruttura dati, con meno attriti.
Questa integrazione riduce “attriti cognitivi” e tecnici: se l’AI diventa un’estensione fluida del sistema dati esistente, diventa più semplice sperimentare, ridurre i tempi di adozione, scalare gli utilizzi.
Nessuna innovazione è priva di lasciare questioni aperte. Da una parte, l’ottimizzazione via prompt rischia di generare dipendenza da motori NLU (natural language understanding) “intelligenti” ma meno trasparenti: come capire perché un prompt ottimizzato funziona così — e se sta facendo “magie oscure”?
C’è anche il rischio che, nel cercare ottimizzazione, si induca instabilità: prompt che funzionano bene oggi potrebbero degradare con dati nuovi, cambi di dominio o drift degli incameramenti. Serve quindi un sistema di valutazione robusto, adattivo, in grado di monitorare e correggere nel tempo.
Inoltre, alcune aziende potrebbero resistere a spostare troppo potere immaginativo e creativo in una “scatola nera” ottimizzatrice: per chi preferisce controllo diretto, intervenire sul prompt manualmente è parte del mestiere. Un sistema che “decide da sé” può risultare poco prevedibile.
Infine, benché GEPA prometta un abbattimento dei costi fino a 90× in certi scenari, bisogna vedere come si comporta in domini verticali (sanità, legale, finanza) con requisiti stretti e vincoli normativi. Le performance “generali” non sempre si traducono direttamente in casi specializzati.
L’intesa OpenAI–Databricks è una delle grandi mosse visibili dell’arena AI aziendale: un passo nel consolidare la disponibilità dei modelli all’interno di ecosistemi dati già adottati. Ma è nella ricerca sull’ottimizzazione intelligente, come quella di GEPA e Agent Bricks, che potrebbe esserci il vero salto evolutivo: rendere l’AI potente, ma anche efficiente, pratica, meno costosa e più accessibile.
Se riuscissimo a spostare il baricentro dell’innovazione da “modelli sempre più grandi” a “modelli più intelligenti e ottimizzati”, l’adozione dell’AI cambierebbe scala. Aziende di medie dimensioni, startup, servizi che oggi esitano per motivi di costo potrebbero entrare nel gioco con progetti che oggi appaiono riservati solo ai “giganti”.
In fondo, l’elemento decisivo non è sempre “quanto potente è la macchina”, ma “quanto bene la usi”. E se l’ottimizzazione del prompt diventa arte – e scienza – automatizzabile, ciò che sembrava un lusso potrebbe diventare il nuovo standard.