C’è un contrasto forte tra le previsioni accademiche e la realtà che emerge dalle imprese: mentre studi recenti suggerivano che i progetti di intelligenza artificiale falliscano in misura schiacciante, i dati più freschi di G2 raccontano un’altra storia — una storia di adozioni attive, benefici concreti e “stickiness” degli agenti IA.
Il punto di partenza è una critica rivolta a uno studio del MIT che era stato citato da molti media con la versione semplificata: “il 95% dei progetti IA fallisce”. L’autore dell’articolo — tramite il contributo dei dati di G2 — sostiene che quell’analisi fosse limitata nel suo ambito: si concentrava sui progetti generativi personalizzati, basandosi su annunci pubblici piuttosto che dati interni reali, e considerava “falliti” quei progetti che non avevano resi pubblici gli impatti di profitto e perdita. In altre parole, molti progetti che funzionavano, o che avevano un certo valore, sarebbero stati ignorati nella statistica. Il risultato è una fotografia forse fuorviante, che è stata interpretata troppo in senso generale.
I numeri che emergono dal rapporto G2 2025 AI Agents Insights raccontano una storia alquanto diversa. Circa il 57% delle aziende intervistate ha già agenti IA in produzione, e in più il 70 % li considera “centrali per le proprie operazioni”. Il grado di soddisfazione è alto: l’83% degli intervistati afferma che le prestazioni degli agenti siano soddisfacenti. E non è solo un fatto qualitativo: sul piano economico, molte organizzazioni segnalano risparmi dei costi dell’ordine del 40%, flussi di lavoro accelerati del 23%, e in un caso su tre un aumento della velocità del 50% in settori come marketing e vendite. A questi benefici si somma un effetto collaterale positivo: in quasi il 90% dei casi, i dipendenti nei reparti dove sono stati adottati agenti riportano un incremento della soddisfazione lavorativa.
Quando guardiamo ai campi d’uso, emergono tre ambiti privilegiati: il servizio clienti, l’intelligence aziendale (BI, business intelligence) e lo sviluppo di software. In questi contesti, gli agenti IA vengono impiegati per compiti che vanno dalla raccolta e analisi dei dati fino all’automatizzazione di parti dei processi, lasciando agli esseri umani il compito decisivo e finale. Un esempio calzante citato nell’articolo è quello delle pratiche di prestito: l’agente compie tutte le operazioni di raccolta e valutazione preliminare, ma non “firma” nulla: è il decisore umano che, alla fine, valuta e approva. In questo modo l’algoritmo resta “sotto controllo” e il grado di fiducia si costruisce progressivamente.
Tuttavia, non tutte le aziende adottano lo stesso modello operativo: esiste una polarizzazione tra chi adotta l’approccio “let it rip” (ovvero lascia l’agente operare liberamente, intervenendo solo quando si realizzano azioni negative) e chi inserisce gate umani più frequenti per controllare le decisioni critiche. E sorprendentemente, le aziende che mantengono un livello di supervisione umana tendono a ottenere risparmi più alti (75 % o più), rispetto a quelle che puntano sull’autonomia totale. Ciò suggerisce che, almeno per ora, una “cooperazione” tra agenti IA e persone sembra essere la strategia migliore.
Un altro elemento interessante emerso dal rapporto è la fiducia: nonostante la spinta verso l’autonomia, quasi la metà degli acquirenti IT è disposta a concedere piena autonomia agli agenti in contesti a basso rischio, come la gestione dei dati o la manutenzione delle pipeline di dati. In parallelo, l’uso dell’agente dietro le quinte — raccogliendo informazioni, preparando contesti, supportando le decisioni — è già ben diffuso. Importante però è che non “agisca” direttamente senza un filtro quando il rischio è alto, almeno finché gli utenti non hanno piena fiducia.
Dietro i numeri affascinanti si nascondono pericoli reali: secondo il sondaggio, il 39 % delle aziende ha subito almeno un incidente di sicurezza dopo aver implementato soluzioni IA; nel 25 % dei casi, l’incidente è stato considerato grave. Ciò impone una riflessione su come progettare sistemi di retraining rapido, monitoraggio continuo e strategie che evitino che un agente ripeta un’azione dannosa. In questa prospettiva, la capacità di spiegare (explainability) diventa centrale: molti intervistati affermano chiaramente che se un fornitore non è in grado di spiegare le azioni dell’agente, non potrà essere pienamente adottato.
Un’altra raccomandazione lanciata da Tim Sanders, responsabile della ricerca di G2, è partire sempre dal problema aziendale concreto e non dalla tecnologia: non bisogna acquistare un agente IA sperando di sperimentare, ma ragionare su quale dolore aziendale risolvere, e poi progettare l’introduzione dell’agente. Se il beneficio è evidente e tangibile, gli utenti saranno più “perdonanti” nei confronti di errori iniziali e più disponibili a iterare e migliorare. Insomma, si vince con gradualità, con raffinatezza, non con scommesse drastiche.
Mentre la strada percorsa finora è stata caratterizzata da esperimenti e pilot, oggi si assiste a transizioni verso implementazioni “sticky”, stabili e rilevanti all’interno dei processi aziendali. L’agente IA — pur senza tratti di magia — diventa strumento operativo, non decorativo. E con la giusta governance — controllo umano, trasparenza, metriche chiare di rischio e affidabilità — può dare risultati concreti.