Il recente ammanco procedurale che ha coinvolto Sullivan & Cromwell presso il Tribunale fallimentare federale di New York rappresenta un caso di studio fondamentale per l’analisi dei rischi operativi legati all’integrazione dell’intelligenza artificiale generativa nell’attività forense d’alto profilo. L’incidente, scaturito dal deposito di documenti contenenti citazioni di precedenti inesistenti e interpretazioni distorte del Codice Fallimentare statunitense, evidenzia una frattura critica tra l’efficienza degli strumenti automatizzati e i protocolli di verifica umana. Nonostante l’adozione di politiche interne rigorose, il fallimento della “seconda fase di revisione” presso uno degli studi legali più prestigiosi al mondo dimostra come la natura probabilistica dei Large Language Models possa eludere anche i sistemi di controllo qualità più stratificati, trasformando un supporto tecnologico in un rischio reputazionale e deontologico.
Il cuore tecnico della controversia risiede nel fenomeno della “allucinazione” dell’intelligenza artificiale, un processo in cui il modello, nel tentativo di soddisfare una richiesta di ricerca giuridica, genera stringhe di testo che imitano perfettamente lo stile e la struttura dei precedenti legali senza però corrispondere a fatti o leggi reali. Nel contesto del caso relativo al conglomerato cambogiano Prince Group, l’IA ha prodotto riferimenti normativi errati che sono stati incorporati nelle memorie depositate il 9 aprile. La gravità del problema è stata amplificata dalla fiducia riposta nell’output algoritmico, che non è stato sottoposto a una validazione incrociata con le banche dati ufficiali. Questo errore sistemico sottolinea la necessità per i professionisti legali di trattare l’output dell’IA non come un prodotto finito, ma come una bozza ipotetica soggetta a rigoroso fact-checking.
La scoperta dell’errore da parte della controparte, rappresentata dallo studio Boies Schiller Flexner, ha attivato una serie di risposte correttive che spaziano dalle scuse formali al giudice federale alla ripresentazione di atti emendati. Il responsabile delle operazioni globali di Sullivan & Cromwell, Andrew Dietderich, ha ammesso che le linee guida interne non sono state rispettate, rivelando una vulnerabilità nel fattore umano della catena di comando legale. Questo episodio riaccende il dibattito sulla responsabilità ultima dell’avvocato, il quale, secondo i canoni etici e le recenti sanzioni irrogate in casi analoghi negli Stati Uniti, rimane l’unico garante della veridicità e della correttezza degli atti depositati, indipendentemente dal grado di automazione utilizzato nella loro stesura.
L’incidente funge da monito per l’intero settore legale, spingendo le istituzioni a riconsiderare i framework di governance sull’uso dell’intelligenza artificiale. Sebbene l’IA offra vantaggi innegabili nella sintesi di grandi volumi di dati, come quelli richiesti nella gestione dei fallimenti transfrontalieri complessi che coinvolgono accuse di frode e riciclaggio di denaro, la sua applicazione richiede nuovi standard di revisione tecnica. Le misure di rafforzamento della formazione interna annunciate da Sullivan & Cromwell suggeriscono una transizione verso modelli di “Human-in-the-loop” più stringenti, dove ogni citazione generata deve essere associata a un link di verifica verificabile e ogni interpretazione giuridica deve essere validata da un esperto di materia prima del deposito, garantendo che la velocità della tecnologia non comprometta l’integrità del processo giudiziario.