Immagine AI

L’ascesa dei grandi modelli linguistici (LLM) come ChatGPT ha scatenato un’ondata di entusiasmo e, inevitabilmente, di aspettative spropositate sulla loro applicabilità in ogni ambito della vita umana. Nonostante le impressionanti capacità di generare testo coerente e informativo, le Intelligenze Artificiali non sono esenti da errori e, soprattutto, non possiedono le qualifiche o le responsabilità legali per operare in campi professionali ad alto rischio. È in questo contesto di crescente consapevolezza sui limiti e le implicazioni etiche dell’AI che OpenAI, l’azienda dietro ChatGPT, ha deciso di intervenire con un aggiornamento significativo delle sue politiche d’uso, tracciando una linea netta in settori cruciali: la consulenza medica e legale.

L’aggiornamento alle Policies di Utilizzo di OpenAI non è un’azione restrittiva, ma piuttosto un atto di responsabilità e un chiarimento sul ruolo appropriato che la sua tecnologia deve rivestire. La nuova dicitura è inequivocabile: i servizi dell’azienda non possono essere impiegati per offrire “consulenze personalizzate che richiedono un’abilitazione professionale, come consulenze legali o mediche, senza l’opportuno coinvolgimento di un professionista abilitato”.

Questo cambiamento non significa che l’AI smetterà di parlare di diritto o di salute, ma ne ridefinisce la funzione. ChatGPT potrà ancora fornire informazioni generali su una patologia, spiegare un principio legale o illustrare i termini di un contratto, fungendo da potente strumento educativo e di ricerca. Tuttavia, non dovrà più posizionarsi come un sostituto del professionista abilitato, fornendo consigli “su misura” che potrebbero avere un impatto diretto e potenzialmente dannoso sulla vita dell’utente.

La motivazione dietro questa mossa è duplice. Da un lato, c’è il problema della sicurezza intrinseca e dell’accuratezza dei modelli AI. È risaputo che gli LLM sono soggetti a “allucinazioni,” ovvero la capacità di generare informazioni false o fuorvianti presentandole come fatti accertati. In settori come la medicina o la giurisprudenza, un’allucinazione può portare a diagnosi errate, a trattamenti inappropriati o a decisioni legali catastrofiche. Un medico o un avvocato, invece, è vincolato da un codice etico, da anni di formazione e da responsabilità legali che l’AI semplicemente non può replicare.

Dall’altro lato, la decisione riflette l’aumento della pressione normativa e legale. L’Europa, con l’AI Act, sta definendo un quadro normativo rigoroso per le applicazioni di intelligenza artificiale ad “alto rischio”, categoria che include chiaramente i campi della sanità e della giustizia. Evitando di assumersi la responsabilità di fornire consulenze professionali dirette, OpenAI cerca di mitigare i rischi legali e di conformarsi a un panorama regolatorio globale in rapida evoluzione.

L’impatto di questa politica è profondo: essa formalizza la distinzione tra l’AI come strumento di supporto e l’AI come sostituto professionale. Nel campo medico, l’AI può continuare a essere preziosa per l’analisi di dati medici anonimi, la gestione amministrativa degli studi o l’assistenza nella documentazione, ma il compito di diagnosi e trattamento personalizzato resta saldamente nelle mani dei professionisti sanitari.

Similmente, nel campo legale, l’AI può eccellere nella ricerca di precedenti, nella redazione di bozze iniziali di documenti o nell’analisi di voluminosi fascicoli, ma la consulenza fiduciaria e la strategia legale richiedono la comprensione del contesto umano, delle sfumature etiche e della giurisprudenza locale che solo un avvocato abilitato può fornire.

L’aggiornamento di OpenAI non segna un passo indietro nella tecnologia, ma un passo avanti nella maturità etica del suo utilizzo. L’azienda sta spingendo gli utenti a riconoscere che, per decisioni che hanno un peso significativo sulla loro vita e sul loro benessere, la risposta non può e non deve provenire da un algoritmo, ma da una persona con l’abilitazione, la formazione e la responsabilità necessarie. L’AI è e rimane un copilota eccezionale, ma per i percorsi più delicati, il timone deve essere in mano a un capitano umano.

Di Fantasy