L’OMS ha rilasciato una guida riguardante le linee guida normative sull’intelligenza artificiale (IA) in ambito sanitario, evidenziando la necessità di garantire la sicurezza e l’efficacia dei sistemi IA e promuovendo il dialogo tra tutte le parti coinvolte.
Con l’avanzare delle tecnologie e l’aumento dei dati sanitari, l’IA ha il potenziale di rivoluzionare la sanità, dall’ottimizzazione degli studi clinici alla personalizzazione delle cure. Esempi concreti sono l’uso dell’IA in situazioni con carenza di specialisti, come nell’analisi di immagini mediche.
Tuttavia, l’adozione rapida di queste tecnologie, spesso senza una comprensione completa, può portare a sfide. Ci sono preoccupazioni sulla privacy e sulla sicurezza dei dati, oltre al rischio di amplificazione di pregiudizi o disinformazione. Dr. Tedros Adhanom Ghebreyesus, direttore generale dell’OMS, ha sottolineato l’importanza di sfruttare l’IA responsabilmente per trarre vantaggio, riducendo al contempo i rischi associati.
La guida dell’OMS propone sei pilastri chiave per la regolamentazione dell’IA in sanità:
- Trasparenza e Documentazione: Tenere traccia dell’intero ciclo di vita dell’IA.
- Gestione del Rischio: Indirizzare temi come l’uso previsto dell’IA, l’apprendimento continuo, la sicurezza e i modelli di formazione.
- Validazione dei Dati: Assicurare che l’IA sia sicura e conforme alle normative.
- Qualità dei Dati: Garantire una valutazione rigorosa prima della messa in opera per evitare pregiudizi e errori.
- Adesione a Normative Important: Ad esempio, il GDPR in Europa e l’HIPAA negli USA, enfatizzando la comprensione dei requisiti giuridici e di consenso.
- Collaborazione: Coinvolgimento di regolatori, pazienti, professionisti sanitari e altri stakeholder per garantire la conformità.
È essenziale riconoscere che l’IA è influenzata non solo dal codice, ma anche dai dati su cui viene formata. Una regolamentazione efficace può prevenire pregiudizi nei dati e garantire che l’IA sia rappresentativa e precisa per tutte le popolazioni.