Meta ha pubblicato un rapporto intitolato “Cosa abbiamo osservato sulle nostre piattaforme durante le elezioni globali del 2024”, analizzando l’influenza dell’intelligenza artificiale (IA) sulle elezioni in paesi come Stati Uniti, India, Bangladesh, Indonesia, Pakistan, membri dell’Unione Europea, Francia, Regno Unito, Sudafrica, Messico e Brasile. Il rapporto conclude che l’impatto dell’IA, in particolare attraverso contenuti generati artificialmente, è stato minimo sulle sue piattaforme, tra cui Facebook, Instagram e Threads.

Nick Clegg, Vicepresidente degli Affari Globali di Meta, ha dichiarato: “Sebbene siano stati identificati o sospettati casi di abuso dell’IA, la loro quantità è rimasta bassa, e le nostre politiche e processi esistenti sono stati efficaci nel mitigare i rischi associati ai contenuti generati dall’IA”. Ha inoltre sottolineato che, durante le principali elezioni, i contenuti generati dall’IA relativi a temi politici o sociali rappresentavano meno dell’1% di tutte le informazioni errate verificate.

Meta ha implementato misure preventive per contrastare l’uso improprio dell’IA. Ad esempio, nel mese precedente alle elezioni presidenziali statunitensi, la sua tecnologia di generazione di immagini ha rifiutato 590.000 richieste di creazione di immagini di figure politiche come Donald Trump, Kamala Harris e Joe Biden. Questo numero è più del doppio delle 250.000 richieste respinte da OpenAI con il suo modello ChatGPT.

Inoltre, Meta ha smantellato 20 reti internazionali, provenienti da regioni come Medio Oriente, Asia ed Europa, che cercavano di diffondere disinformazione. Tuttavia, la maggior parte degli account coinvolti aveva una scarsa popolarità e un numero limitato di visitatori.

Un fattore chiave che ha contribuito al limitato impatto dell’IA sulle elezioni è la crescente consapevolezza degli utenti riguardo ai deepfake e alle fake news. Incidenti come la clonazione vocale del Presidente Biden all’inizio dell’anno hanno ricevuto ampia copertura mediatica, aumentando la vigilanza del pubblico. In risposta, aziende tecnologiche come Meta e Google hanno implementato misure per prevenire l’abuso dell’IA, mentre organizzazioni come OpenAI hanno configurato i loro chatbot per rifiutare domande relative a contenuti politici sensibili.

Meta ha anche evidenziato che piattaforme come X (precedentemente Twitter) e Telegram ospitano ancora domini web problematici, suggerendo che la sfida della disinformazione generata dall’IA persiste al di fuori del suo ecosistema.

Di Fantasy