Immagine AI

Nel contesto del conflitto in corso tra Iran e Israele, l’intelligenza artificiale (IA) ha assunto un ruolo controverso, non solo come strumento di supporto alle operazioni belliche, ma anche come veicolo per la diffusione di disinformazione. Un esempio emblematico di questo fenomeno è rappresentato da Grok, un chatbot sviluppato da X, precedentemente noto come Twitter, che ha contribuito a diffondere notizie false e manipolate durante le fasi più critiche del conflitto.

Secondo un rapporto di Euronews, Grok ha amplificato la diffusione di fake news legate al conflitto. Ad esempio, ha erroneamente identificato un video di un festival in Francia come immagini di israeliani in fuga dal conflitto al valico di frontiera di Taba con l’Egitto. Inoltre, ha attribuito un’esplosione in Malesia a un “missile iraniano che colpisce Tel Aviv”, quando in realtà si trattava di un incidente non correlato al conflitto. Questi errori non sono stati isolati, ma si inseriscono in un contesto più ampio di disinformazione alimentata dall’uso improprio dell’IA.

I chatbot come Grok e Perplexity, una startup di tre anni, hanno suscitato numerose polemiche per il presunto utilizzo dei contenuti delle società di media senza il loro consenso. Secondo NewsGuard, entrambi i chatbot hanno contribuito alla diffusione di false affermazioni. La disinformazione è scaturita da un’errata interpretazione dei dati del sito di monitoraggio dei voli Flightradar24, che sono stati ripresi da alcuni media e amplificati artificialmente dai chatbot. Gli esperti del Digital Forensic Research Lab sottolineano che i chatbot fanno molto affidamento sui media per verificare le informazioni, ma spesso non sono in grado di tenere il passo con i rapidi cambiamenti delle notizie in situazioni di crisi globale. Mettono inoltre in guardia dall’impatto distorsivo che questi chatbot possono avere quando gli utenti diventano sempre più dipendenti da loro per informarsi.

La crescente dipendenza dai chatbot per l’accesso alle informazioni solleva preoccupazioni significative. Poiché questi modelli linguistici avanzati diventano un intermediario attraverso il quale vengono interpretati guerre e conflitti, le loro risposte, i loro pregiudizi e i loro limiti possono influenzare la narrazione pubblica. Gli esperti avvertono che l’affidamento eccessivo su tali strumenti può portare a una distorsione della realtà e a una comprensione errata degli eventi in corso.

L’incidente legato a Grok evidenzia i rischi associati all’uso dell’intelligenza artificiale nella diffusione di informazioni durante situazioni di conflitto. Sebbene l’IA possa offrire vantaggi significativi in termini di efficienza e accesso alle informazioni, è fondamentale implementare misure di controllo rigorose per prevenire l’abuso e garantire che le informazioni diffuse siano accurate e verificate. La collaborazione tra sviluppatori di IA, media e autorità competenti è essenziale per affrontare le sfide poste dalla disinformazione alimentata dall’intelligenza artificiale.

Di Fantasy