Recenti studi hanno evidenziato che i chatbot dotati di intelligenza artificiale (AI) in grado di diagnosticare malattie attraverso interviste possono avere un’efficacia paragonabile a quella dei medici, risultando talvolta anche superiori.

Il 12, Nature ha riportato che Google ha impiegato il chatbot “AMIE”, basato su un Large Language Model (LLM), per la diagnosi di patologie respiratorie e cardiovascolari. La precisione di AMIE si è rivelata leggermente inferiore a quella dei medici generalisti, ma un articolo pubblicato nell’archivio dimostra che in alcuni casi è stata superiore.

Secondo lo studio, AMIE ha raccolto un volume di informazioni comparabile a quello dei medici nelle interviste mediche e ha ottenuto punteggi più elevati in termini di empatia.

Tuttavia, AMIE è attualmente un prototipo sperimentale e non è stato testato su pazienti reali, ma su attori.

Alan Katikesalingham, ricercatore clinico presso Google Health, ha sottolineato che i risultati dovrebbero essere interpretati con prudenza. Ha evidenziato che, sebbene il chatbot non sia ancora pronto per l’uso clinico, potrebbe contribuire a democratizzare l’assistenza sanitaria.

Per affinare il LLM, i ricercatori hanno utilizzato set di dati reali, come cartelle cliniche elettroniche e dialoghi medici. Hanno incoraggiato il sistema a comportarsi come un medico empatico, capace di comprendere le specifiche condizioni mediche e le storie personali dei pazienti, suggerendo possibili diagnosi. Hanno anche analizzato le interazioni medico-paziente, fornendo feedback per migliorare i dialoghi del LLM.

Per testare AMIE, sono stati reclutati 20 partecipanti che si sono finti pazienti, confrontando poi i consigli forniti dal chatbot e da medici veri attraverso chat testuali. I partecipanti, ignari dell’identità del loro interlocutore, hanno partecipato a simulazioni basate su 149 scenari clinici, valutando poi le loro esperienze. Un gruppo di esperti ha valutato le prestazioni sia dei medici che del chatbot.

I risultati hanno mostrato che AMIE ha eguagliato o superato la precisione diagnostica dei medici in sei specialità mediche. In particolare, il chatbot ha superato i medici umani in 14 dei 26 criteri relativi all’empatia, come gentilezza, chiarimenti sulle condizioni e trattamenti, cura e attenzione.

Katikesalingham ha chiarito che ciò non implica che i chatbot siano superiori ai medici tradizionali, ma ha sottolineato che i medici potrebbero non essere abituati a interagire con i pazienti tramite chat testuali. Ha inoltre evidenziato che i

LLM hanno il vantaggio di poter formulare rapidamente risposte dettagliate e approfondite, creando comunicazioni che appaiono premurose senza causare stanchezza.

È stato già pubblicato un articolo che dimostra come l’intelligenza artificiale possa superare i medici nella precisione di lettura delle immagini mediche. È plausibile che un chatbot, essendo privo di emozioni, possa manifestare un comportamento più cortese rispetto a un medico che deve affrontare numerosi pazienti.

I ricercatori hanno annunciato di essere al lavoro su uno studio di follow-up per valutare potenziali bias e assicurare equità nel sistema tra i diversi gruppi etnici. Sono inoltre in corso studi relativi agli aspetti etici dell’impiego di questi sistemi su pazienti con reali problemi di salute.

Di Fantasy