Quando si parla di intelligenza artificiale applicata alla sanità, molti immaginano modelli enormi (LLM, Large Language Models) in grado di rispondere a ogni domanda medica, diagnosticare immagini radiografiche, assistere nelle decisioni cliniche come un ospedale virtuale. È una visione affascinante — ma, come spiega Analytics India Magazine, è anche in gran parte illusoria se pensiamo che un modello generico possa risolvere da solo le sfide più gravose del settore healthtech. La realtà, con tutte le sue complessità, richiede qualcosa di molto più calibrato.

Innanzitutto, non si può ignorare l’enormità delle aspettative: si prevede che il mercato globale dell’AI in sanità raggiungerà $46,6 miliardi entro il 2035, con applicazioni che spaziano da cartelle cliniche elettroniche (EMR) alla diagnostica, dai reclami assicurativi ai servizi di wellness. L’AI c’è già, in sperimentazione, in molti ambiti — ma è qui che emerge la prima criticità: il mondo sanitario non è come un’app consumer o un servizio di enterprise generico. La posta in gioco è ben più alta. Un errore non è solo un piccolo bug, ma può avere conseguenze gravi, anche su vite umane.

I modelli generici, quelli che vengono addestrati su tantissimi tipi di testo, dati misti, magari anche su immagini, codice, conversazioni di ogni tipo, spesso eccellono in sperimentazione, in scenari controllati. Ma la sanità richiede alcune proprietà che questi modelli tendono a non garantire sufficientemente:

  • Determinismo e affidabilità: non va bene che un sistema “decida diversamente” ogni volta o produca risposte che variano troppo, soprattutto quando si tratta di diagnosi, dosaggi, indicazioni terapeutiche. Serve che il sistema segua regole, controlli, verifiche.
  • Tracciabilità e auditabilità: se un sistema sbaglia, bisogna risalire a come ha preso quella decisione. Quali dati ha usato? Quale versione del modello? Quali criteri? Questo è essenziale non solo per migliorare, ma anche per motivi legali e di fiducia.
  • Compliance normativa: privacy dei dati sanitari, sicurezza, normative specifiche dei paesi, requisiti per dispositivi medici, regolamentazioni sulle responsabilità in caso di danni. Un modello generico difficilmente è progettato con tutti questi vincoli in mente fin dall’inizio.

Insomma, la sanità richiede un approccio verticale, su misura, che tenga conto del contesto, dei dati specifici, delle variabili cliniche, etiche, regolatorie.

Il futuro in healthtech sarà dominato da piattaforme che non puntano solo sulla potenza dei modelli di base, ma sull’integrazione con le pratiche cliniche, normativi, legali, etiche, di sicurezza. Serve che le aziende che sviluppano soluzioni di AI per sanità costruiscano sistemi che non siano solo “veloci e intelligenti”, ma “responsabili e certificabili”.

In particolare, si stanno facendo strada modelli che sono “verticalizzati”: adattati per specifiche branche della medica, per tipi di dati precisi (immagini radiografiche, dati genomici, dati clinici longitudinali), per requisiti regolatori locali. Queste soluzioni sono pensate fin dall’inizio per rispettare le normative, per permettere verifiche, audit, per essere trasparenti sulle fonti dei dati e le assunzioni fatte.

Costruire modelli verticalizzati non è semplice. Ci sono difficoltà significative:

  • Reperire dati clinici di alta qualità, ben etichettati, con sufficienti esempi e variabilità, e al contempo rispettare la privacy del paziente.
  • Gestire la variabilità nei sistemi sanitari: un ospedale in India avrà risorse, infrastrutture, flussi di lavoro diversi da uno in Nord America o Europa. Un modello deve potersi adattare, o almeno essere personalizzato.
  • Garantire che gli strumenti di AI si integrino nei processi clinici, che i medici e il personale sanitario possano fidarsi, che non vengano usati come “scorciatoie” in assenza delle competenze necessarie.
  • Affrontare la regolamentazione in modo proattivo: ottenere certificazioni, controlli, responsabilità. Non basta “funziona bene nei test”, serve dimostrare che è sicuro in contesti reali, che esiste supervisione umana, che ci sono procedure per gestire gli errori.

Anche se un modello generico non può essere il rimedio definitivo, non significa che non abbia un ruolo importante. Serve come terreno di sperimentazione, per capire cosa funziona, cosa no, per proporre innovazioni. Serve per costruire una base su cui poi crescere verso soluzioni più robuste.

In questo senso, chi lavora nel settore sanitario, nei governi, nelle aziende tecnologiche deve iniziare fin da ora a integrare principi di sicurezza, trasparenza, responsabilità nelle proprie soluzioni AI. Non si può costruire “alla buona” e poi sperare di metterci rimedio dopo. I rischi sono troppo alti, le conseguenze troppo serie.

Di Fantasy