L’integrazione dell’intelligenza artificiale (IA) in vari settori professionali ha portato a innovazioni significative, ma ha anche sollevato nuove sfide etiche e operative. Un caso recente al Tribunale di Firenze ha evidenziato i rischi associati all’uso non verificato di strumenti come ChatGPT nel campo legale.
Durante un procedimento relativo alla tutela dei marchi e del diritto d’autore, un avvocato ha presentato una memoria difensiva contenente riferimenti a sentenze della Corte di Cassazione. Tuttavia, alcune di queste sentenze sono state successivamente scoperte come inesistenti, probabilmente a causa di “allucinazioni” generate dall’IA.
L’avvocato ha spiegato che i documenti erano stati preparati da una collaboratrice utilizzando ChatGPT, senza che lui fosse a conoscenza dell’uso dell’IA. Ha riconosciuto la mancanza di verifica sui riferimenti e ha richiesto l’esclusione delle citazioni errate, sottolineando che la difesa si basava su altri argomenti solidi. Il Tribunale ha respinto la richiesta di condanna per lite temeraria, ritenendo che non ci fosse prova di mala fede e che i riferimenti inesistenti non avessero causato danni concreti alla parte avversa.
Il termine “allucinazioni” in IA si riferisce a situazioni in cui il sistema genera informazioni inesistenti presentate come reali. Nel caso in questione, ChatGPT ha prodotto numeri di sentenze non corrispondenti a casi reali, portando a una situazione imbarazzante in aula.
Questo incidente sottolinea la necessità di un controllo umano rigoroso quando si utilizzano strumenti di IA in ambito professionale. La trasparenza nell’uso dell’IA è essenziale, soprattutto quando le informazioni generate possono influenzare decisioni legali e professionali. L’adozione di politiche chiare sull’uso dell’IA e la formazione adeguata degli utenti sono passi fondamentali per prevenire errori simili.