La responsabilità per gli errori dell’IA nel campo sanitario, che causano incidenti, infortuni o peggio, è una questione complessa. A seconda della situazione, potrebbe essere attribuita al programmatore dell’IA, all’operatore sanitario o persino al paziente stesso. Con l’aumento dell’uso dell’IA nel settore sanitario, la responsabilità è diventata una preoccupazione sempre più seria e complessa. Chi è responsabile quando l’IA va male e come possono essere prevenuti gli incidenti?
Ci sono numerosi vantaggi nell’utilizzo dell’IA nel settore sanitario, come una maggiore precisione, accuratezza e tempi di recupero più rapidi. L’IA aiuta i medici nella diagnosi, nei interventi chirurgici e nella fornitura della migliore assistenza ai pazienti. Tuttavia, gli errori dell’IA sono sempre una possibilità.
Esistono diversi scenari in cui l’IA può fallire nel settore sanitario. L’IA può essere utilizzata come uno strumento decisionale basato esclusivamente su software da parte di medici e pazienti, oppure può essere il cervello di dispositivi fisici come robot. Entrambe queste categorie presentano rischi.
Ad esempio, se durante una procedura un robot chirurgico basato sull’IA non funziona correttamente, potrebbe causare danni gravi o addirittura la morte del paziente. Allo stesso modo, se un algoritmo di diagnosi farmacologica suggerisce il farmaco sbagliato e il paziente subisce effetti collaterali negativi, la colpa potrebbe essere dell’algoritmo. Anche se il farmaco in sé non ha causato danni al paziente, una diagnosi errata potrebbe ritardare un trattamento adeguato.
Alla base di tali errori dell’IA si trova la natura dei modelli di intelligenza artificiale stessi. Molte IA attuali sono basate su un approccio di “scatola nera”, il che significa che non è possibile comprendere appieno come l’algoritmo prende le decisioni. Questa mancanza di trasparenza dell’IA può portare a rischi come il pregiudizio, la discriminazione e risultati imprecisi. Purtroppo, è difficile rilevare questi fattori di rischio fino a quando non si verificano problemi.
Quando si verifica un incidente durante una procedura medica basata sull’IA, c’è sempre la possibilità che l’IA abbia avuto un ruolo nel fallimento. Tuttavia, è importante ricordare che l’IA è semplicemente un programma informatico avanzato. Anche se può sembrare complesso, rimane comunque un codice, simile a qualsiasi altro software. Poiché l’IA non è un essere senziente o indipendente come un essere umano, non può essere considerata responsabile per gli incidenti. Un’IA non può essere portata in tribunale o condannata a una pena detentiva.
Gli errori dell’IA nel settore sanitario sono molto probabilmente attribuibili al programmatore dell’IA o all’operatore sanitario che sovraintende alla procedura. La responsabilità può variare da caso a caso.
Ad esempio, il programmatore potrebbe essere ritenuto responsabile se un’intelligenza artificiale fornisce decisioni o trattamenti ingiusti, imprecisi o discriminatori a causa di una distorsione dei dati. È responsabilità del programmatore assicurarsi che l’IA funzioni come promesso e fornisca a tutti i pazienti il miglior trattamento possibile. Se l’IA non funziona correttamente a causa di negligenza, errori o omissioni da parte del programmatore, l’operatore sanitario non sarà ritenuto responsabile.
Tuttavia, è ancora possibile che l’operatore sanitario o persino il paziente siano responsabili dell’errore dell’IA. Ad esempio, se il programmatore ha fatto tutto correttamente, fornendo al medico istruzioni dettagliate e delineando tutti i possibili rischi, ma durante la procedura il medico è distratto, stanco o commette una negligenza, allora la colpa potrebbe ricadere sul medico.
Studi dimostrano che oltre il 40% dei medici soffre di esaurimento sul lavoro, il che può portare a distrazione, tempi di reazione lenti e scarsa memoria. Se l’incidente è causato dalla mancanza di attenzione del medico ai propri bisogni fisici e psicologici, la responsabilità ricade sul medico stesso.
A seconda delle circostanze, si potrebbe anche attribuire la responsabilità all’ente datore di lavoro del medico per gli errori dell’IA nel settore sanitario. Ad esempio, se un dirigente ospedaliero minaccia di negare una promozione a un medico a meno che non accetti di lavorare straordinari e ciò porta al burnout, l’ente datore di lavoro potrebbe essere ritenuto responsabile. Questo tipo di situazione unica potrebbe comportare una responsabilità condivisa tra lo sviluppatore dell’IA, il medico e l’ente datore di lavoro.
E se sia il programmatore dell’IA che il medico facessero tutto correttamente? In tal caso, se il paziente utilizza in modo indipendente uno strumento di intelligenza artificiale e si verifica un incidente, la colpa potrebbe ricadere sul paziente stesso. Gli errori dell’IA non sono sempre dovuti a problemi tecnici, ma possono essere causati da un uso scorretto o improprio.
Ad esempio, il medico potrebbe spiegare accuratamente al paziente come utilizzare uno strumento di intelligenza artificiale, ma se il paziente ignora le istruzioni di sicurezza o fornisce dati errati, allora la colpa sarebbe del paziente stesso. In questo caso, il paziente sarebbe responsabile dell’uso corretto dell’IA o della fornitura di dati accurati e ha trascurato di farlo.
Anche quando i pazienti conoscono le loro esigenze mediche, potrebbero non seguire le istruzioni del medico per vari motivi. Ad esempio, il 24% degli americani che assumono farmaci prescritti riferisce difficoltà nel pagarli. Un paziente potrebbe saltare una dose di farmaco o mentire all’IA sull’assunzione di un farmaco perché è imbarazzato dall’incapacità di pagare la prescrizione.
Se l’uso improprio del paziente è dovuto a una mancanza di orientamento da parte del medico o del programmatore dell’IA, la responsabilità potrebbe ricadere altrove. Alla fine, la determinazione della responsabilità dipenderà da dove si è verificato l’errore alla radice dell’incidente.
È possibile prevenire gli errori dell’IA nel settore sanitario? Sebbene nessuna procedura medica sia priva di rischi, ci sono modi per ridurre la probabilità di esiti avversi.
La regolamentazione dell’uso dell’IA nel settore sanitario può proteggere i pazienti da strumenti e procedure ad alto rischio basati sull’IA. Ad esempio, la FDA dispone già di linee guida normative per i dispositivi medici basati sull’IA, che stabiliscono requisiti di test, sicurezza e processo di revisione. Le principali organizzazioni di supervisione medica possono anche intervenire per regolamentare l’uso dei dati dei pazienti negli algoritmi di intelligenza artificiale nei prossimi anni.
Oltre a normative rigorose, gli sviluppatori dovrebbero adottare misure per prevenire scenari di malfunzionamento dell’IA. L’IA spiegabile, conosciuta anche come “scatola bianca”, può affrontare le problematiche di trasparenza e distorsione dei dati. Gli algoritmi Explainable AI stanno emergendo come soluzione che consente agli sviluppatori e agli utenti di comprendere la logica del modello.
Quando sviluppatori e operatori sanitari possono vedere come l’IA arriva alle sue conclusioni, diventa più facile identificare distorsioni dei dati e inesattezze. Gli operatori sanitari possono rilevare più rapidamente informazioni mancanti o inesattezze factuali. L’utilizzo di intelligenza artificiale spiegabile, anziché di modelli “scatola nera”, consente di aumentare l’affidabilità e l’efficacia dell’IA medica.
L’IA può compiere cose straordinarie nel campo medico, potenzialmente salvando vite umane. Anche se rimarrà sempre un certo grado di incertezza associata all’IA, gli sviluppatori e le organizzazioni sanitarie possono intervenire per ridurre al minimo tali rischi. Quando si verificano errori dell’IA nel settore sanitario, gli avvocati probabilmente determineranno la responsabilità in base all’errore fondamentale dell’incidente.