Un recente sviluppo nel campo dell’intelligenza artificiale ha portato alla creazione di un modello linguistico di grandi dimensioni (LLM), denominato “Health-LLM”, che è stato progettato per analizzare dati provenienti da sensori indossabili e fare previsioni sulla salute. Questo progetto è il risultato della collaborazione tra i ricercatori del MIT e di Google.

Un articolo pubblicato da Mark Tech Post il 24 (ora locale) ha riferito che i ricercatori hanno testato le capacità di previsione sanitaria di otto diversi LLM, tra cui GPT-3.5 e GPT-4, utilizzando dati raccolti da sensori indossabili. Questi dati includono informazioni come la frequenza cardiaca, i modelli di sonno e l’attività fisica.

I ricercatori hanno valutato gli otto LLM nell’ambito del framework “Health-LLM”, focalizzandosi su 13 compiti di previsione della salute in cinque aree: salute mentale, monitoraggio delle attività, metabolismo, sonno e malattie cardiache.

La valutazione dei modelli è stata effettuata in quattro modi: suggerimento zero-shot, suggerimento pochi colpi (few-shot), messa a punto (fine-tuning) e rafforzamento del contesto in un ambiente zero-shot. I test zero-shot hanno esplorato le capacità intrinseche del modello senza un addestramento specifico, mentre i test few-shot hanno utilizzato pochi esempi per guidare l’apprendimento. La messa a punto ha riguardato l’adattamento del modello ai dati specifici di previsione della salute.

Tra i modelli testati, il “Salute-Alpaca”, che utilizza un approccio di messa a punto basato sull’alpaca, ha ottenuto le migliori prestazioni in cinque dei tredici compiti di previsione. Questo risultato è particolarmente notevole considerando che il modello Health-Alpaca è significativamente più piccolo di modelli più grandi come GPT-3.5 e GPT-4.

Interessante è il fatto che, nell’anno precedente, Alpaca ha completato un allenamento su 52.000 dati utilizzando un modello linguistico più piccolo (sLM) con 7 miliardi di parametri, sviluppato dai ricercatori dell’Università di Stanford e basato sul LLM “Rama” di Meta. Questo allenamento è stato effettuato in sole 3 ore su 8 computer forniti da un servizio cloud.

È stato inoltre rilevato che l’arricchimento del contesto, includendo il profilo utente, la conoscenza sanitaria e il contesto temporale, può migliorare le prestazioni fino al 23,8%. Ciò dimostra che le informazioni contestuali sono cruciali per ottimizzare le prestazioni di previsione sanitaria di LLM.

In conclusione, l’integrazione di LLM con dati provenienti da sensori indossabili si è dimostrata efficace nella previsione della salute. Questo sottolinea l’importanza del contesto nel migliorare le prestazioni dei modelli di previsione sanitaria. In particolare, il successo del modello Health-Alpaca apre la strada all’uso di modelli più piccoli ed efficienti nei compiti di previsione della salute, potenzialmente rendendo l’analisi medica avanzata più accessibile e scalabile, e contribuendo all’obiettivo più ampio della medicina personalizzata.

Di Fantasy