A novembre, Meta, il gigante tecnologico, ha presentato con grande enfasi un nuovo e imponente modello linguistico chiamato Galactica, destinato ad assistere gli scienziati. Tuttavia, anziché fare un ingresso trionfale nel mondo dell’intelligenza artificiale, Galactica è stato accoltellato da intense critiche e si è eclissato in soli tre giorni.

Un anno dopo, la questione dell’affidabilità delle conversazioni con l’intelligenza artificiale rimane fondamentale, soprattutto nel contesto della ricerca scientifica.

In un recente articolo pubblicato su Nature Human Behavior, i ricercatori del Oxford Internet Institute hanno sollevato importanti preoccupazioni riguardo alla possibile minaccia rappresentata dai modelli linguistici di grande linguaggio (LLM) per l’integrità scientifica. Brent Mittelstadt, Chris Russell e Sandra Wachter sostengono che LLM come quelli basati sull’architettura GPT-3.5 non possono essere considerati fonti infallibili di verità e possono produrre ciò che definiscono “allucinazioni”, ovvero risposte non veritiere.

Gli autori propongono un nuovo approccio all’utilizzo dei LLM, suggerendo di trattarli come “traduttori a colpo zero”. Invece di considerarli come fonti di conoscenza, gli utenti dovrebbero fornire informazioni rilevanti e istruzioni al modello per ottenere l’output desiderato. Questo approccio facilita una verifica più accurata dell’accuratezza dei risultati e della loro coerenza con l’input fornito.

Il problema centrale, evidenziato nel documento, è la natura dei dati utilizzati per addestrare questi modelli. I modelli linguistici progettati per fornire risposte utili e convincenti non offrono garanzie riguardo alla loro accuratezza o allineamento con i fatti. L’addestramento su vasti set di dati provenienti da contenuti online, che possono contenere affermazioni false, opinioni e creatività letteraria, espone gli LLM a informazioni non veritiere.

Il professore Mittelstadt ha messo in guardia sul rischio che gli utenti possano considerare gli LLM come fonti affidabili di informazioni, simili agli esperti umani. A causa della loro progettazione per sembrare agenti umani, gli utenti potrebbero essere ingannati a credere che le risposte siano accurate, anche quando non sono basate sui fatti o presentano una versione distorta della verità.

Per proteggere la verità scientifica e l’educazione dalla diffusione di informazioni imprecise e distorte, gli autori raccomandano l’adozione di chiare aspettative sull’uso responsabile degli LLM. Il documento suggerisce che gli utenti, specialmente in contesti dove la precisione è essenziale, dovrebbero fornire suggerimenti di traduzione che contengano informazioni concrete.

La professoressa Wachter ha sottolineato l’importanza dell’uso responsabile degli LLM nella comunità scientifica e la necessità di poter fidarsi delle informazioni basate sui fatti. Gli autori mettono in guardia contro i potenziali danni gravi che potrebbero derivare dall’uso indiscriminato degli LLM nella generazione e diffusione di articoli scientifici.

Il professor Russell enfatizza la necessità di una riflessione approfondita prima di abbracciare le opportunità offerte dagli LLM e suggerisce di valutare attentamente se dovremmo concedere certe opportunità alla tecnologia solo perché può offrirle.

Di Fantasy