Immagine AI

L’impiego dell’intelligenza artificiale nella redazione degli atti giudiziari sta introducendo nuove opportunità operative, ma al tempo stesso solleva questioni rilevanti sul piano della responsabilità professionale. Una recente decisione del Tribunale di Mantova rappresenta un caso emblematico di queste criticità, evidenziando i rischi connessi all’utilizzo non verificato di strumenti generativi nella predisposizione delle difese processuali. La pronuncia ha affrontato direttamente il problema delle citazioni giurisprudenziali errate o inconferenti inserite in una memoria difensiva, ritenute dal giudice riconducibili a un uso improprio dell’intelligenza artificiale.

Il caso nasce da un procedimento civile in cui la parte attrice aveva depositato una memoria contenente numerosi riferimenti a precedenti della Corte di Cassazione. Tali citazioni erano state utilizzate per sostenere il punto centrale della controversia, relativo alla dimostrazione del pregiudizio richiesto per l’azione revocatoria. Il giudice ha però rilevato che i richiami giurisprudenziali risultavano estranei alla materia trattata e, in alcuni casi, attribuivano principi giuridici non presenti nelle decisioni citate. La verifica puntuale effettuata attraverso il CED della Cassazione ha dimostrato che le pronunce richiamate riguardavano ambiti completamente diversi, come pubblico impiego, previdenza, tributi o responsabilità civile, senza alcuna connessione con la questione oggetto di causa.

L’analisi del tribunale non si è limitata a constatare l’incoerenza dei precedenti, ma ha valutato la condotta processuale nel suo complesso. Il giudice ha osservato che i riferimenti errati non avevano carattere marginale, ma costituivano elementi decisivi dell’argomentazione difensiva. Inoltre, la parte non aveva corretto né chiarito le citazioni nemmeno dopo le contestazioni della controparte. Questo comportamento ha indotto il tribunale a ritenere configurabile una responsabilità aggravata, evidenziando che l’anomalia poteva spiegarsi soltanto ipotizzando l’uso dell’intelligenza artificiale senza la necessaria verifica delle fonti.

Sulla base di tali elementi, la decisione ha applicato l’articolo 96 del codice di procedura civile, riconoscendo la colpa grave nella predisposizione dell’atto difensivo. Il tribunale ha condannato la parte al pagamento di circa duemila euro a favore della controparte e di un’ulteriore somma analoga alla Cassa delle ammende, evidenziando il rilievo processuale della condotta. La motivazione sottolinea che l’utilizzo di strumenti di intelligenza artificiale non esonera il difensore dall’obbligo di controllo della correttezza delle fonti e della pertinenza delle citazioni giurisprudenziali.

Il caso evidenzia anche un aspetto metodologico rilevante: l’intelligenza artificiale, pur essendo uno strumento utile per la ricerca giuridica e la redazione degli atti, richiede protocolli di validazione rigorosi. Il giudice ha infatti sottolineato che la formazione sull’uso dell’AI non può limitarsi alla velocità di redazione, ma deve includere procedure di controllo delle fonti e verifica dell’attendibilità dei risultati. L’obbligo di diligenza professionale rimane quindi invariato, anche in presenza di strumenti tecnologici avanzati.

Questo episodio mette in luce una trasformazione più ampia del lavoro legale. L’intelligenza artificiale consente di accelerare la ricerca giurisprudenziale e la stesura degli atti, ma introduce nuove responsabilità legate alla supervisione dei contenuti generati. Il rischio non deriva dall’uso della tecnologia in sé, ma dall’affidamento acritico ai risultati prodotti, senza il controllo delle fonti ufficiali. In un contesto processuale, dove l’accuratezza delle citazioni costituisce elemento essenziale dell’argomentazione, l’errore può incidere direttamente sull’esito della causa e sulla responsabilità professionale.

Di Fantasy