Una recente vicenda riportata da OrizzonteScuola racconta che una madre ha fatto ricorso contro la decisione di bocciare la figlia in seconda liceo presso il TAR Lombardia; l’avvocato incaricato, per redigere l’atto, ha invece utilizzato un generatore di testo basato su intelligenza artificiale. Il risultato è stato sorprendente: il ricorso è stato rigettato perché conteneva numerose citazioni di sentenze che non esistevano o che nulla avevano a che fare con la materia del contenzioso.

La questione fa riflettere sul ruolo reale che l’IA può (e non può) assumere in contesti professionali delicati, sulla responsabilità umana che vi è sempre dietro e sulle conseguenze quando questo binomio si disgrega.

Da un lato, l’uso dell’intelligenza artificiale negli studi legali appare come naturale evoluzione: può accelerare la redazione, suggerire argomentazioni, aiutare nella ricerca normativa o giurisprudenziale, alleggerire il carico di lavoro. Ma dall’altro lato, il caso in esame evidenzia i limiti concreti – e talvolta dannosi – se l’utilizzo avviene senza supervisione, senza controllo rigoroso delle fonti e senza verifica delle affermazioni. L’avvocato, pur affidandosi allo strumento digitale, ha finito per proporre un atto pieno di errori, che ha generato perdita di tempo, rigetto e persino una segnalazione all’ordine professionale.

È qui che l’IA, pur chiamata in causa in prima persona, deve essere vista non come protagonista autonoma ma come strumento: un aiuto che necessita di gestione, revisione, responsabilità umana. Non basta “avere l’IA che scrive” per considerare l’atto valido, perché il mondo del diritto – come molti altri settori – richiede precisione, verifica, contestualizzazione. Quando lo strumento genera contenuti che sembrano plausibili ma sono falsi o fuori contesto (fenomeno che comunemente viene chiamato “allucinazione” nel linguaggio IA), ne derivano gravi rischi operativi e reputazionali.

La vicenda insegna anche che dietro l’uso dell’IA non si può ignorare il controllo delle fonti, delle citazioni, della coerenza argomentativa: nel diritto, citare una sentenza inesistente o estranea significa indebolire la credibilità dell’atto e rischiare sanzioni. Lo strumento IA non ha “coscienza” della verità giuridica: genera sulla base di modelli statistici, pattern e probabilità. Senza un avvocato che legga, verifichi, contestualizzi, il risultato può essere il rigetto, la segnalazione, il danno per la parte che l’ha incaricato.

Da una prospettiva più ampia, questo episodio suggerisce che la diffusione dell’IA nelle professioni richiede un’educazione digitale e giuridica parallela: gli operatori devono conoscere non solo come usare gli strumenti, ma quali sono i loro limiti, come interpretare i risultati, come garantire che il prodotto finale sia affidabile. In mancanza di questo, l’IA rischia di diventare un pacchetto di automazione che trasferisce il rischio anziché ridurlo.

Infine, è opportuno sottolineare che questa dinamica non riguarda solo il diritto: ovunque si utilizzi l’IA per generare testi, report, analisi, esiste il pericolo di “falsa autorità” — di contenuti che appaiono ben costruiti e completi ma che al loro interno contengono errori, omissioni, fonti inventate. Ecco perché in ogni ambito l’operatore umano rimane insostituibile: chi decide di affidarsi all’IA deve farlo consapevolmente, assumendosi il compito di revisione, verifica e responsabilità.

Di Fantasy