La crescente diffusione degli strumenti di intelligenza artificiale generativa nel lavoro professionale sta aprendo nuove opportunità di automazione e supporto alle attività intellettuali, ma allo stesso tempo solleva interrogativi rilevanti sulla responsabilità nell’utilizzo di queste tecnologie. Nel settore legale, dove la precisione delle fonti e la correttezza delle citazioni rappresentano elementi fondamentali della pratica professionale, l’impiego di modelli linguistici per la redazione di atti giudiziari ha già prodotto alcuni casi controversi. Un esempio significativo proviene da una recente decisione del Tribunale di Siracusa, che ha affrontato il problema delle cosiddette “citazioni allucinate” generate da sistemi di intelligenza artificiale e utilizzate senza verifica all’interno di un atto difensivo.
Il caso riguarda un procedimento in cui un avvocato aveva inserito nel proprio atto giudiziario alcune citazioni di precedenti giurisprudenziali che in realtà non esistevano. Le sentenze citate erano state generate da uno strumento di intelligenza artificiale utilizzato come supporto alla ricerca giuridica, ma non erano state sottoposte a un controllo accurato prima della loro inclusione nel documento processuale. Nel corso dell’analisi del fascicolo, il giudice ha rilevato l’inesistenza delle decisioni citate e ha ritenuto che l’uso non verificato dell’AI rappresentasse una violazione degli obblighi di diligenza professionale richiesti nella redazione degli atti giudiziari.
La pronuncia del tribunale, indicata come sentenza n. 338/2026, ha avuto conseguenze economiche rilevanti per la parte che aveva presentato l’atto difensivo. Il giudice ha infatti stabilito una condanna al pagamento di circa 30.000 euro tra spese legali e responsabilità aggravata, sottolineando che l’utilizzo di strumenti di intelligenza artificiale non può esonerare il professionista dall’obbligo di verificare la correttezza delle fonti citate negli atti processuali.
Questo episodio mette in evidenza uno dei limiti più discussi dei modelli linguistici generativi, ossia il fenomeno delle allucinazioni dell’intelligenza artificiale. Con questa espressione si indicano situazioni in cui un modello di AI produce informazioni plausibili ma non corrispondenti alla realtà. Nel caso dei sistemi linguistici basati su architetture di deep learning, il modello non possiede una conoscenza verificata delle fonti, ma genera testi sulla base di correlazioni statistiche apprese durante l’addestramento. Quando viene richiesto di citare precedenti giuridici o riferimenti bibliografici, il sistema può quindi costruire citazioni verosimili ma inesistenti.
Dal punto di vista tecnico, questo comportamento deriva dal modo in cui funzionano i Large Language Models (LLM). Questi sistemi sono addestrati su grandi quantità di testi e imparano a prevedere la sequenza di parole più probabile in un determinato contesto linguistico. Quando l’utente chiede, ad esempio, di individuare precedenti giurisprudenziali a sostegno di una tesi legale, il modello può generare nomi di sentenze, numeri di provvedimenti o riferimenti a tribunali che sembrano coerenti con il contesto ma che non corrispondono a decisioni realmente esistenti. In altre parole, l’AI non interroga automaticamente una banca dati giuridica certificata, ma produce una risposta generata statisticamente sulla base delle informazioni presenti nei dati di addestramento.
Proprio su questo punto il Tribunale di Siracusa ha formulato una precisazione significativa nella motivazione della sentenza. Il giudice ha ricordato che i modelli linguistici generativi non possono essere considerati banche dati giurisprudenziali affidabili, né strumenti sostitutivi delle piattaforme professionali di ricerca legale. La funzione di tali sistemi può essere quella di supportare la redazione dei testi o facilitare l’organizzazione delle informazioni, ma la verifica dell’esistenza e della correttezza delle fonti citate resta una responsabilità diretta del professionista.
Il caso di Siracusa non rappresenta un episodio isolato, ma si inserisce in una serie di vicende simili emerse negli ultimi anni in diversi ordinamenti giuridici. Negli Stati Uniti, ad esempio, alcuni avvocati sono stati sanzionati per aver presentato atti difensivi contenenti citazioni di precedenti giurisprudenziali generati da modelli linguistici e successivamente risultati inesistenti. Questi episodi hanno portato molti ordini professionali e tribunali a pubblicare linee guida sull’uso responsabile dell’intelligenza artificiale nel lavoro legale.
Dal punto di vista della pratica professionale, la decisione del tribunale italiano sottolinea l’importanza della verifica umana dei contenuti generati dall’intelligenza artificiale. Anche quando l’AI viene utilizzata come strumento di supporto alla ricerca o alla redazione dei documenti, il professionista resta responsabile della correttezza delle informazioni utilizzate. Questo principio è particolarmente rilevante nel contesto del processo civile e penale, dove la validità delle citazioni giurisprudenziali può influenzare direttamente l’esito della controversia.
La vicenda evidenzia anche un problema più generale legato all’integrazione dell’intelligenza artificiale nelle professioni regolamentate. Settori come quello legale, medico o finanziario richiedono livelli elevati di accuratezza e affidabilità delle informazioni. L’uso di strumenti di AI generativa in questi contesti può offrire vantaggi in termini di efficienza e velocità, ma comporta anche il rischio di introdurre errori difficili da individuare se non viene mantenuto un adeguato controllo umano.
Per questo motivo molti esperti suggeriscono di adottare un approccio di “AI assistita”, in cui i sistemi generativi vengono utilizzati come strumenti di supporto ma non come fonti autonome di conoscenza. In questo modello l’intelligenza artificiale può contribuire a sintetizzare informazioni, suggerire argomenti o organizzare materiali giuridici, ma la validazione finale delle fonti deve sempre essere effettuata attraverso banche dati ufficiali e verifiche manuali.
La decisione del Tribunale di Siracusa rappresenta quindi un precedente significativo nel dibattito sull’uso dell’intelligenza artificiale nel diritto. Il provvedimento ribadisce che l’innovazione tecnologica non elimina le responsabilità professionali e che l’impiego di strumenti automatizzati deve essere accompagnato da procedure di controllo adeguate. In un contesto in cui l’intelligenza artificiale diventa sempre più presente nelle attività professionali, la capacità di distinguere tra supporto tecnologico e responsabilità umana diventa uno degli elementi centrali per garantire la qualità e l’affidabilità delle decisioni giuridiche.