Nell’esplosione dell’intelligenza artificiale generativa, gran parte dell’attenzione si concentra sulla capacità dei Large Language Model (LLM) di produrre risposte fluide, coese e apparentemente definitive. Tuttavia, quando si applica l’IA a domini critici e complessi come la fiscalità, l’obiettivo non è la mera fluidità verbale, ma l’assoluta affidabilità. È in questo contesto che l’approccio adottato da Deloitte nello sviluppo della sua IA fiscale segna un cambio di paradigma: l’azienda ha intenzionalmente ingegnerizzato un sistema che è in grado di riconoscere e comunicare i propri limiti, rispondendo con un prudente “Non lo so” quando l’incertezza è troppo elevata.
Il problema fondamentale che Deloitte ha cercato di risolvere è la famigerata “allucinazione” dell’IA. Nei servizi finanziari e fiscali, un errore di calcolo o un’interpretazione normativa errata non è un semplice inconveniente, ma può avere ripercussioni legali e finanziarie significative per i clienti. I modelli generativi standard, spinti a fornire una risposta completa a tutti i costi, spesso “inventano” dettagli o citano fonti inesistenti pur di colmare le lacune informative. Questa tendenza è inaccettabile in un campo che richiede precisione millimetrica e aderenza rigorosa alla legge.
Per contrastare questo rischio, Deloitte ha intrapreso un percorso di sviluppo che va oltre la semplice integrazione di un LLM con dati proprietari. L’azienda ha capito che la vera innovazione non stava solo nel rendere l’IA più intelligente, ma nel renderla più consapevole della propria ignoranza. Ciò è stato ottenuto attraverso l’impiego di una tecnica di Recupero di Informazioni Aumentato (RAG) e sistemi di classificazione avanzati, progettati per valutare la qualità e la pertinenza delle fonti interne prima di generare una risposta.
Il sistema RAG di Deloitte non si limita a recuperare documenti pertinenti al quesito fiscale; esso valuta il livello di fiducia (confidence score) associato a tali informazioni. Ad esempio, il sistema analizza i dati di addestramento e il contesto recuperato, assegnando un punteggio che quantifica quanto sia robusto e univoco il supporto per una potenziale risposta. Se le fonti recuperate sono troppo frammentate, ambigue o contraddittorie, il punteggio di fiducia scende al di sotto di una soglia predeterminata. Quando questo accade, il sistema fiscale AI non tenterà di mascherare l’incertezza con una risposta congetturale. Al contrario, segnalerà che l’informazione è incompleta, ambigua o che il quesito richiede l’intervento di un esperto umano.
Questa strategia di auto-consapevolezza dell’IA ha diversi benefici cruciali. In primo luogo, mitiga il rischio di allucinazioni in un dominio ad alto rischio. In secondo luogo, preserva la fiducia dei professionisti che utilizzano lo strumento. Gli esperti fiscali, sapendo che l’IA non fornirà una risposta falsa solo per sembrare competente, sono più propensi a integrarla nel loro flusso di lavoro come un assistente affidabile. Infine, ottimizza l’efficienza: invece di sprecare tempo a verificare risposte potenzialmente errate, il professionista viene immediatamente indirizzato a concentrare la propria attenzione sui casi complessi e non standard, dove il giudizio umano e l’interpretazione esperta sono insostituibili.
L’IA fiscale di Deloitte non è stata costruita per sostituire l’esperto umano, ma per amplificarne la capacità, fornendo risposte chiare sui casi di routine e, crucialmente, riconoscendo quando il limite di competenza del modello è stato raggiunto. Il valore non sta nella sua onniscienza, ma nella sua onestà: l’abilità di dire “Non lo so” in un campo dove la precisione è l’unica moneta di scambio è, paradossalmente, la sua caratteristica più intelligente.
