Immagine AI

Un nuovo studio ha riacceso il dibattito sull’affidabilità delle informazioni sanitarie generate dall’intelligenza artificiale, mettendo sotto accusa le AI Overviews, i riepiloghi automatici che compaiono in cima ai risultati di ricerca di Google. Secondo un’inchiesta riportata da The Guardian, questa funzionalità, pensata per offrire risposte rapide e sintetiche, può in alcuni casi fornire informazioni mediche imprecise, fuorvianti o addirittura pericolose, con il rischio concreto di influenzare negativamente le decisioni delle persone sulla propria salute.

L’indagine ha analizzato diversi esempi in cui le panoramiche generate dall’IA di Google hanno restituito indicazioni errate su malattie, esami diagnostici e condizioni cliniche complesse. Il problema non risiede soltanto nella presenza di singoli errori, ma nel fatto che queste informazioni vengono mostrate in una posizione privilegiata, prima ancora dei link alle fonti tradizionali. Questo conferisce loro un’autorità implicita, soprattutto agli occhi di utenti che cercano risposte rapide in momenti di preoccupazione o ansia.

Uno dei casi più allarmanti riguarda il cancro al pancreas. In una ricerca, l’AI Overview ha consigliato a un paziente di evitare cibi ricchi di grassi. Esperti del settore hanno definito questo suggerimento l’esatto contrario delle raccomandazioni cliniche corrette. Nei pazienti affetti da questo tipo di tumore, infatti, mantenere un adeguato apporto calorico è fondamentale. Pancreatic Cancer UK ha sottolineato come seguire un consiglio simile potrebbe portare a una grave perdita di peso, compromettendo la possibilità di affrontare trattamenti come la chemioterapia o interventi chirurgici potenzialmente salvavita. In questo caso, un’informazione errata non è solo teoricamente sbagliata, ma può avere conseguenze dirette sulla sopravvivenza.

Problemi simili sono stati riscontrati anche nelle informazioni relative agli esami del sangue per la funzionalità epatica. Le panoramiche dell’IA hanno fornito elenchi di valori considerati “normali” senza alcun contesto clinico, ignorando variabili fondamentali come età, sesso, etnia e condizioni individuali. British Liver Foundation ha espresso forte preoccupazione, evidenziando che gli intervalli suggeriti dall’intelligenza artificiale possono differire in modo significativo da quelli utilizzati nella pratica medica. Il rischio, in questi casi, è che persone con patologie epatiche serie possano convincersi di essere in buona salute e rinunciare a ulteriori controlli o cure.

Anche il campo della salute mentale emerge come particolarmente sensibile. L’organizzazione benefica Mind ha segnalato che alcune panoramiche basate sull’IA, relative a disturbi mentali e alimentari, contengono consigli potenzialmente pericolosi. Secondo gli esperti, questi riassunti possono perdere il contesto necessario, indirizzare verso risorse inadeguate o rafforzare pregiudizi e stigmatizzazioni già presenti. In un ambito in cui il linguaggio e le sfumature contano enormemente, una sintesi imprecisa può scoraggiare le persone dal cercare aiuto proprio quando ne hanno più bisogno.

Le critiche non arrivano solo dal mondo clinico, ma anche da chi si occupa di informazione sanitaria. Patient Information Forum ha definito le AI Overviews un rischio concreto per la salute pubblica, proprio perché mostrano informazioni inaccurate in una posizione di massimo rilievo. Una preoccupazione condivisa anche da Marie Curie, che lavora con pazienti terminali e famiglie in situazioni di grande fragilità. In questi contesti, molte persone si affidano a Internet nei momenti di crisi, e informazioni errate o prive di contesto possono amplificare paure, generare decisioni sbagliate e causare danni reali.

Dal canto suo, Google ha difeso la propria tecnologia, affermando che la maggior parte delle AI Overviews è accurata e utile e che la qualità complessiva è in costante miglioramento. L’azienda ha spiegato che alcuni degli esempi citati derivano da screenshot incompleti e ha ribadito l’importanza di fare riferimento a fonti affidabili e di consultare professionisti qualificati. Secondo Google, il livello di accuratezza delle panoramiche dell’IA sarebbe paragonabile a quello delle raccomandazioni già presenti nei risultati di ricerca tradizionali.

Nonostante queste rassicurazioni, molti esperti invitano alla massima cautela. Il problema non è solo l’errore in sé, ma il contesto in cui avviene: quando un’informazione sanitaria generata dall’IA viene presentata come sintesi autorevole, il margine di interpretazione critica da parte dell’utente si riduce drasticamente. In particolare, affidarsi esclusivamente a queste panoramiche per questioni mediche viene fortemente sconsigliato. Il controllo incrociato con fonti riconosciute e il confronto diretto con un medico restano passaggi indispensabili.

Il caso delle AI Overviews di Google mette in luce una questione più ampia, che va oltre un singolo prodotto. Mostra quanto sia delicato l’uso dell’intelligenza artificiale in ambiti ad alto impatto come la salute e quanto sia complesso bilanciare accessibilità, velocità e accuratezza. Finché questi sistemi non saranno in grado di gestire il contesto clinico con un livello di affidabilità paragonabile a quello umano, il rischio è che strumenti nati per aiutare finiscano, in alcuni casi, per fare più danni che benefici.

Di Fantasy