Immagine AI

L’intelligenza artificiale generativa, con la sua capacità di elaborare e sintetizzare in pochi istanti immense quantità di testo, si è rapidamente affermata come uno strumento potentissimo, specialmente nel campo della ricerca scientifica e dell’informazione. Tuttavia, dietro la rassicurante fluidità delle risposte dei chatbot si nasconde un problema etico e fattuale di notevole gravità: l’AI non è in grado di riconoscere in modo affidabile gli articoli scientifici ritirati o ritrattati, trattandoli spesso al pari di studi validi e affidabili. Questa incapacità algoritmica non solo alimenta la disinformazione, ma solleva profondi dubbi sulla reale utilità e sicurezza dell’AI, in particolare in contesti che richiedono rigore assoluto.

Il problema ha radici nella natura stessa del processo di ritrattazione e nel funzionamento dei modelli linguistici. Quando uno studio viene ritirato – a causa di errori metodologici, pratiche scorrette o frodi – esso non scompare dalla letteratura; resta accessibile online, accompagnato però da un avviso che ne decreta l’invalidità scientifica. Questo meccanismo, volto a tutelare la trasparenza della ricerca, viene però frainteso dai Large Language Model (LLM). Essendo sistemi probabilistici addestrati su enormi dataset, gli algoritmi interpretano la persistenza del testo come un dato valido da citare, ignorando o non pesando correttamente l’avviso di ritrattazione.

Questo bug etico si amplifica a causa dell’illusione di autorevolezza che i chatbot sono abili a generare. Esperimenti hanno dimostrato che i motori di ricerca basati sull’AI forniscono risposte non corrette in una percentuale allarmante dei casi, spesso attribuendo citazioni a fonti sbagliate o inventate, ma lo fanno con un tono di assoluta sicurezza. È proprio questo linguaggio perentorio a mascherare la fallibilità del modello e a rendere il contenuto, per quanto errato o basato su studi invalidati, immediatamente plausibile e convincente agli occhi dell’utente non specializzato.

Le conseguenze di questa falla sono particolarmente pericolose quando l’AI viene interpellata su questioni delicate, come la salute. Sebbene si scherzi sulla pericolosità delle autodiagnosi fatte su Internet, oggi la minaccia è amplificata dalla crescente tendenza a utilizzare chatbot per ottenere indicazioni su sintomi, trattamenti o evidenze mediche. Un’indagine specifica sull’imaging del cancro ha rivelato che ChatGPT di OpenAI citava articoli ritirati sul tema in almeno il dieci per cento dei casi quando rispondeva a domande cliniche, senza alcuna indicazione sul fatto che si trattasse di pubblicazioni scientificamente non attendibili.

Il problema non risparmia nemmeno gli strumenti dedicati ai ricercatori, come software pensati appositamente per l’analisi della letteratura scientifica. Ciò dimostra che la soluzione non è semplice né immediata. A complicare il quadro contribuiscono fattori esterni, come l’assenza di un sistema uniforme di segnalazione delle ritrattazioni – si contano oltre un centinaio di espressioni e motivazioni diverse – che rende estremamente difficile per gli sviluppatori di AI automatizzare il processo di identificazione e filtraggio. A questo si aggiunge un paradosso etico: mentre le tech company spendono ingenti somme per ottenere l’accesso ai database accademici per addestrare i loro modelli (talvolta senza il consenso degli autori), l’AI finisce poi per minare la credibilità di quello stesso corpus scientifico.

La diffusione dell’AI nei processi informativi è un dato di fatto e il suo potenziale come strumento di supporto è innegabile. Tuttavia, il caso dei paper ritirati ribadisce con forza che la supervisione umana e il pensiero critico restano irrinunciabili, specialmente in settori ad alto rischio come la medicina. Delegare il giudizio a uno strumento artificiale, senza consultare e confrontare criticamente le fonti originali, espone al pericolo di consolidare false credenze o di prendere decisioni basate su dati scientificamente defunti.

Per evitare che i modelli linguistici diventino amplificatori di errori su larga scala, è indispensabile un nuovo patto di trasparenza tra la tecnologia e il mondo della ricerca. Ciò richiede un impegno su due fronti: da un lato, gli sviluppatori dei modelli IA devono integrare in modo proattivo liste aggiornate di materiali non più affidabili (come il database Retraction Watch) e adottare un linguaggio meno perentorio e più cauto nelle risposte generate; dall’altro, la comunità scientifica dovrebbe muoversi verso una standardizzazione più rigorosa delle notifiche di ritrattazione. Solo attraverso questa sinergia, l’AI potrà diventare una risorsa al servizio della ricerca della verità, capace di sostenere la scienza nella sua essenza più profonda: non l’infallibilità, ma la capacità di riconoscere, correggere e imparare dai propri errori.

Di Fantasy