Nessuna etichetta? Nessun problema!
Il nuovo strumento supera i principali ostacoli nella progettazione clinica dell’IA

 

Gli scienziati e i colleghi della Harvard Medical School della Stanford University hanno sviluppato uno strumento diagnostico di intelligenza artificiale in grado di rilevare le malattie sui raggi X del torace direttamente dalle descrizioni in linguaggio naturale contenute nei rapporti clinici di accompagnamento.

Il passaggio è considerato un importante progresso nella progettazione clinica dell’IA perché la maggior parte degli attuali modelli di intelligenza artificiale richiede una laboriosa annotazione umana di vaste risme di dati prima che i dati etichettati vengano inseriti nel modello per addestrarlo. 

Un rapporto sul lavoro, pubblicato il 15 settembre su Nature Biomedical Engineering ,  mostra che il modello, chiamato CheXzero, ha funzionato alla pari con i radiologi umani nella sua capacità di rilevare patologie ai raggi X del torace. 

Il team ha reso pubblicamente disponibile il codice per il modello   per altri ricercatori.

La maggior parte dei modelli di intelligenza artificiale richiede set di dati etichettati durante il loro “allenamento” in modo che possano imparare a identificare correttamente le patologie. Questo processo è particolarmente oneroso per le attività di interpretazione delle immagini mediche poiché comporta annotazioni su larga scala da parte di medici umani, che spesso sono costose e richiedono tempo. Ad esempio, per etichettare un set di dati di raggi X del torace, i radiologi esperti dovrebbero esaminare centinaia di migliaia di immagini a raggi X una per una e annotare esplicitamente ciascuna di esse con le condizioni rilevate. Sebbene i modelli di intelligenza artificiale più recenti abbiano cercato di affrontare questo ostacolo all’etichettatura imparando dai dati non etichettati in una fase di “pre-formazione”, alla fine richiedono una messa a punto dei dati etichettati per ottenere prestazioni elevate.

Al contrario, il nuovo modello è autocontrollato, nel senso che apprende in modo più indipendente, senza la necessità di dati etichettati manualmente prima o dopo l’allenamento. Il modello si basa esclusivamente sulle radiografie del torace e sulle note in lingua inglese che si trovano nei referti radiografici di accompagnamento. 

“Stiamo vivendo i primi giorni dei modelli di IA medica di prossima generazione che sono in grado di svolgere compiti flessibili imparando direttamente dal testo”, ha affermato  Pranav Rajpurkar , ricercatore capo dello studio , assistente professore di informatica biomedica presso il Blavatnik Institute presso HMS. “Finora, la maggior parte dei modelli di intelligenza artificiale si basava sull’annotazione manuale di enormi quantità di dati, per un totale di 100.000 immagini, per ottenere prestazioni elevate. Il nostro metodo non ha bisogno di tali annotazioni specifiche per la malattia.

“Con CheXzero, si può semplicemente alimentare il modello con una radiografia del torace e il corrispondente referto radiologico, e imparerà che l’immagine e il testo nel referto dovrebbero essere considerati simili, in altre parole, impara a corrispondere all’X-torace raggi con il loro rapporto di accompagnamento”,  ha aggiunto Rajpurkar  . “Il modello è in grado di apprendere alla fine come i concetti nel testo non strutturato corrispondono ai modelli visivi nell’immagine”.

Il modello è stato “addestrato” su un set di dati pubblicamente disponibile contenente più di 377.000 radiografie del torace e più di 227.000 note cliniche corrispondenti. Le sue prestazioni sono state quindi testate su due set di dati separati di radiografie del torace e note corrispondenti raccolte da due diverse istituzioni, una delle quali si trovava in un paese diverso. Questa diversità di set di dati aveva lo scopo di garantire che il modello funzionasse ugualmente bene quando esposto a note cliniche che potrebbero utilizzare una terminologia diversa per descrivere lo stesso risultato.

Dopo il test, CheXzero ha identificato con successo patologie che non sono state annotate in modo esplicito dai medici umani. Ha superato gli altri strumenti di intelligenza artificiale autocontrollati e ha funzionato con una precisione simile a quella dei radiologi umani.

L’approccio, hanno affermato i ricercatori, potrebbe eventualmente essere applicato a modalità di imaging ben oltre i raggi X, comprese le scansioni TC, la risonanza magnetica e gli ecocardiogrammi.

“CheXzero mostra che l’accuratezza della complessa interpretazione di immagini mediche non ha più bisogno di rimanere alla mercé di grandi set di dati etichettati”, ha affermato il co-primo autore dello studio Ekin Tiu, uno studente universitario a Stanford e ricercatore in visita presso HMS. “Utilizziamo i raggi X del torace come esempio guida, ma in realtà la capacità di CheXzero è generalizzabile a una vasta gamma di contesti medici in cui i dati non strutturati sono la norma e incarna esattamente la promessa di aggirare il collo di bottiglia dell’etichettatura su larga scala che ha afflitto il campo dell’apprendimento automatico medico”.

Tiu, Ellie Talius e Pujan Patel, tutti di Stanford, sono stati i primi co-autori dell’articolo e ricercatori in visita nel  laboratorio Rajpurkar . Altri autori dello studio includevano Curtis Langlotz e Andrew Ng, entrambi a Stanford.

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi