Nonostante l’enorme attenzione che circonda gli strumenti di sviluppo assistiti dall’intelligenza artificiale, dai sistemi di autocompletamento ai generatori di interi repository, il dibattito sulla produttività nel settore del software rimane ancorato al concetto di velocità. Si parla incessantemente di scaffolding più rapido, prototipazione accelerata e code generation istantanea. I team di prodotto celebrano la capacità di trasformare descrizioni in linguaggio naturale in funzioni o API nel giro di pochi minuti. Questi miglioramenti, pur essendo indubbiamente significativi, operano ancora all’interno dello stesso paradigma software tradizionale: il codice viene scritto, compilato, distribuito, testato e mantenuto. Il ciclo accelera, ma la sua struttura fondamentale resta immutata.
A un livello più profondo, tuttavia, sta emergendo una svolta che indica la vera e propria prossima frontiera della produttività. Per ottenere un balzo in avanti realmente epocale, non basta un codice più veloce, ma serve una quantità di codice notevolmente inferiore, o, in ultima analisi, nessuno. Invece di usare l’intelligenza artificiale come strato di traduzione per trasformare le regole aziendali in programmi che le macchine eseguiranno in seguito, la logica di business sarà espressa direttamente in linguaggio naturale e portata a esecuzione da sistemi intelligenti. In questa visione, il modello stesso si trasforma nell’ambiente di runtime, eliminando la necessità degli strati di traduzione intermedi.
Questa evoluzione non è una mera questione di convenienza; essa ridisegna radicalmente il modo in cui le organizzazioni operano. Altera la modalità con cui una politica si trasforma in software, una regolamentazione in azione e un’azienda si adatta alle pressioni esterne. Introduce la possibilità concreta di ridurre i cicli di ingegneria, che oggi richiedono mesi, a rapidi aggiornamenti guidati dalla politica, con una velocità pari a quella delle istituzioni che li governano.
Il percorso dell’adozione dell’AI nello sviluppo software può essere suddiviso in tre grandi fasi. Le prime due, su cui si concentra la maggior parte del dibattito, sono il coding assistito dall’AI (dove la macchina aiuta a generare frammenti o funzioni) e i sistemi generati dall’AI (dove componenti estesi o architetture sono prodotti a partire da istruzioni in linguaggio naturale). Entrambe producono efficienze, ma lasciano intatta la struttura profonda del software: logica condizionale, pipeline di deployment, regression testing e gestione degli ambienti persistono. Così come persistono il debito tecnico, il dependency drift e la necessità di team capaci di navigare strati complessi di traduzione tra policy, requisiti e codice.
L’opportunità più significativa risiede nella terza fase: la logica eseguita dall’AI. In questo scenario, gli sviluppatori non scrivono affatto il codice. Forniscono, invece, la politica, le regole o l’intento aziendale. Il sistema interpreta queste istruzioni e agisce direttamente su di esse. Quando l’istruzione di business diventa la fonte unica di verità, le organizzazioni passano dai cicli di rilascio del software a un’esecuzione guidata dai prompt. Aggiornare una regola di conformità, modificare una soglia per il punteggio di frode o cambiare la logica di rimborso specifica per una giurisdizione si riducono a una singola istruzione. Queste modifiche non finiscono in un backlog, ma entrano direttamente in esecuzione controllata, attraverso flussi di simulazione, convalida e approvazione.
Il codice generato dall’AI, infatti, eredita gli stessi oneri del codice scritto dall’uomo. I sistemi richiedono manutenzione costante, le dipendenze cambiano e il refactoring si rende inevitabile con l’evoluzione della logica. I cicli di testing e regressione persistono perché la correttezza dipende ancora da istruzioni statiche scritte in un linguaggio deterministico. Molte di queste restrizioni non dipendono da chi ha scritto il codice, ma da ciò che il codice è fondamentalmente: uno strato di traduzione tra l’intento aziendale e l’esecuzione della macchina. Rimuovere del tutto questo strato di traduzione è, perciò, l’unico percorso verso un aumento di produttività a scatto.
Questo cambiamento è destinato a essere avvertito per primo nel settore finanziario, dove i servizi bancari e di pagamento operano in condizioni che premiano l’adattabilità. I panorami normativi evolvono di continuo, e le linee guida in materia di autenticazione, rimborso delle frodi e protezione dei consumatori sono in costante mutamento. Le istituzioni finanziarie spendono spesso mesi interi per tradurre i cambiamenti normativi in comportamenti di sistema, un ritardo che rappresenta un grave svantaggio strategico. Un modello di esecuzione guidato dai prompt potrebbe cambiare radicalmente il ritmo. Invece di codificare le regole in sistemi multipli, le istituzioni potrebbero aggiornare le politiche direttamente in linguaggio naturale, lasciando che lo strato di esecuzione le interpreti, simuli e generi proposte di deployment. Ciò ridurrebbe i costi di sviluppo e, soprattutto, il rischio di interpretazioni errate, diminuendo drasticamente la distanza tra la regolamentazione e la sua implementazione operativa.
Tuttavia, sostituire il codice con l’esecuzione guidata da modelli introduce anche nuove forme di rischio che i leader devono considerare attentamente. Il determinismo diventa un imperativo, specialmente nei pagamenti dove la prevedibilità e l’auditabilità sono obbligatorie. L’esplicabilità (explainability) è cruciale ai fini della conformità e delle revisioni normative. La governance necessita di linee di responsabilità chiare. Qualsiasi strato di esecuzione guidato dai prompt dovrà quindi includere controlli rigorosi, come modelli di protezione (guardrail), procedure di convalida, ambienti di simulazione e versioni tracciate di prompt e modelli, al fine di garantire correttezza, riproducibilità e osservabilità.
Una potenziale architettura futura per i sistemi di esecuzione in ambienti regolamentati vedrebbe la politica diventare la fonte primaria di verità operativa. Questo processo potrebbe svolgersi attraverso diversi livelli: le regole aziendali o di conformità espresse in linguaggio naturale; una “libreria di prompt controllata” che conserva, revisiona e approva queste regole con tracciabilità completa; sistemi di interpretazione e simulazione AI che testano la politica ed identificano le incoerenze prima del deployment; raccomandazioni di distribuzione che richiedono approvazione umana; e infine, l’esecuzione vera e propria tramite API strutturate. In questo modello, lo strato di AI interpreta l’intento, mentre lo strato di esecuzione lo applica utilizzando meccanismi deterministici esistenti, senza generare nuovo codice. Questo approccio non solo mantiene la supervisione umana, ma riduce anche la distanza tecnica tra la politica e il comportamento operativo, creando un ambiente controllato in cui l’interpretazione probabilistica e l’applicazione deterministica possono coesistere in sicurezza.
Gli strumenti di coding basati sull’AI continueranno a migliorare, accelerando lo sviluppo software e riducendo lo sforzo. Ma non risolveranno i limiti intrinseci della traduzione dell’intento aziendale in codice deterministico. Il prossimo grande salto di produttività deriverà dalla rimozione totale di questo strato di traduzione. Le organizzazioni che inizieranno a prepararsi per l’esecuzione guidata dai prompt otterranno un vantaggio strategico in termini di velocità, resilienza e chiarezza, costruendo al contempo l’infrastruttura necessaria per flussi di lavoro autonomi e guidati dalle macchine. Chi si limiterà a concentrarsi sulla sola generazione di codice otterrà efficienza; chi andrà oltre il codice otterrà un vantaggio strategico decisivo.