Immagine AI

In un’epoca in cui la crisi climatica è sempre più evidente e le persone cercano risposte chiare sui cambiamenti ambientali, emerge un paradosso inquietante: gli stessi strumenti di intelligenza artificiale che promettono di aiutare a comprendere il mondo rischiano di contribuire alla diffusione di disinformazione sul clima. In un’analisi recente si evidenzia come sempre più utenti si rivolgano a chatbot basati su IA per informarsi su questioni legate al riscaldamento globale, alle emissioni di gas serra o alle politiche di decarbonizzazione, nella speranza di ricevere spiegazioni rapide, chiare e neutrali. Tuttavia, proprio la natura di questi modelli e i dati su cui sono addestrati possono produrre risposte ambigue, fuorvianti o addirittura allineate a narrazioni negazioniste, con effetti potenzialmente profondi sulla percezione pubblica della crisi climatica.

Il cuore del problema non risiede nella “malizia” dell’IA, ma nel modo in cui questi modelli linguistici generativi vengono costruiti. Essi apprendono dai vasti dataset raccolti sul web, che includono non solo informazioni scientifiche e fonti affidabili, ma anche contenuti storicamente influenzati da campagne di disinformazione, pseudo-dibattiti e operazioni di greenwashing. Per decenni, argomentazioni che negano il cambiamento climatico antropogenico o che minimizzano il consenso scientifico sono state diffuse in rete, e questo “rumore informativo” finisce per essere assimilato insieme ai fatti reali. Quando un utente pone una domanda controversa, un chatbot tende a restituire una risposta che sembra equilibrata o prudente, spesso mescolando elementi fondati con affermazioni marginali o scorrette, creando l’illusione di una controversia laddove il consenso scientifico è ormai consolidato.

Un fenomeno simile è stato osservato anche al di fuori dell’Italia. Alcuni modelli di IA, in diverse versioni di assistenti conversazionali, hanno fornito risposte che rispecchiano posizioni estreme o minoritarie sul cambiamento climatico, persino suggerendo che la realtà o la gravità del problema dipendano da interpretazioni soggettive piuttosto che da evidenze scientifiche consolidate. Questo comportamento non solo diffonde informazioni inesatte, ma normalizza il dubbio e contribuisce a erodere la fiducia nella scienza proprio in un momento in cui la società ha bisogno di basi conoscitive salde per prendere decisioni informate.

Il ruolo dell’IA nella diffusione di contenuti ingannevoli non si limita alle risposte testuali: gli stessi strumenti di generazione automatica possono essere usati deliberatamente per creare articoli, post e messaggi che sembrano credibili ma che in realtà distorcono i fatti climatologici. Il rapido calo dei costi di produzione di contenuti generati dall’IA ha abbassato le barriere di accesso alla manipolazione informativa, consentendo a chiunque di generare narrazioni fuorvianti con apparente autorevolezza e diffusione virale. In altri casi, sono stati riportati esempi in cui tali testi pseudo-scientifici vengono usati per mettere in dubbio l’origine antropica del riscaldamento globale, sfruttando la “patina” di neutralità linguistica fornita dai modelli generativi.

La diffusione di disinformazione climatica tramite IA ha implicazioni profonde perché tocca non solo la qualità delle informazioni disponibili, ma anche le dinamiche stesse della fiducia pubblica nelle istituzioni scientifiche e nei media. Studi condotti negli ultimi anni mostrano che l’esposizione a contenuti erronei, anche quando offerti con tono neutro o scientifico, può creare confusione, polarizzare le opinioni e ostacolare l’adozione di politiche efficaci per la riduzione delle emissioni. La problematica non riguarda solo le piattaforme social, ma si estende ai sistemi automatizzati che consultiamo quotidianamente per orientare le nostre opinioni su temi complessi come il clima.

Nonostante queste criticità, vale la pena sottolineare che l’intelligenza artificiale non è intrinsecamente “cattiva” o irreversibilmente dannosa per la comunicazione scientifica: esistono anche strumenti basati su IA progettati appositamente per identificare e contrastare la disinformazione climatica. Ricerche accademiche e progetti tecnologici utilizzano modelli di analisi semantica, classificazione del sentiment e rilevazione automatizzata di contenuti falsi per valutare la qualità dei contenuti online e segnalare narrazioni fuorvianti. Questi approcci possono contribuire a migliorare il panorama informativo, purché siano integrati con politiche di moderazione più forti e trasparenti da parte delle piattaforme digitali.

In risposta al problema crescente della disinformazione, iniziative internazionali e normative emergenti stanno cercando di colmare le lacune presenti. In Europa, ad esempio, la Digital Services Act rappresenta un passo verso una maggiore responsabilità da parte delle grandi piattaforme nel monitorare e gestire contenuti dannosi, anche se la disinformazione climatica non è ancora riconosciuta formalmente come un rischio sistemico da affrontare con priorità nelle valutazioni di impatto delle piattaforme. Questo limite normativo evidenzia la necessità di aggiornare i quadri regolatori per includere specificamente la lotta alla disinformazione su questioni ambientali cruciali.

Infine, la comunità internazionale ha iniziato ad affrontare la questione su scala globale. Organizzazioni come la Global Initiative for Information Integrity on Climate Change, sostenuta da UNESCO e da numerosi governi, lavorano per promuovere l’integrità dell’informazione climatica e per sviluppare strategie coordinate che includano l’uso responsabile dell’IA, la formazione dei cittadini e la cooperazione tra istituzioni, media e società civile. Questi sforzi mirano a garantire che la tecnologia non diventi un ostacolo alla comprensione dei problemi climatici, ma piuttosto uno strumento utile per migliorare l’accesso a informazioni accurate e affidabili.

Di Fantasy