L’uso dell’intelligenza artificiale generativa sta per rendere le elezioni americane del 2024 un vero “pasticcio caldo”, sia che provenga da chatbot o deepfake. Questa prospettiva è stata espressa da Nathan Lambert, un ricercatore di machine learning presso l’Allen Institute for AI e co-conduttore del podcast The Retort AI insieme a Thomas Krendl Gilbert.
Lambert ha dichiarato a VentureBeat: “Non mi aspetto che nel 2024 si arrivi a una regolamentazione dell’intelligenza artificiale negli Stati Uniti, dato che è un anno elettorale e il tema è molto controverso. Credo che le elezioni americane saranno il fattore chiave per capire quale posizione adotteranno i vari candidati e come le persone useranno i prodotti dell’intelligenza artificiale. Sarà interessante osservare come verrà attribuito l’uso di tali tecnologie e come i media gestiranno la situazione.”
Con l’uso diffuso di strumenti come ChatGPT e DALL-E per la creazione di contenuti per la campagna elettorale, Lambert ha aggiunto che “sarà una situazione complicata”, indipendentemente dal fatto che le persone attribuiscano l’uso di tali strumenti a campagne, attori malintenzionati o aziende come OpenAI.
Nonostante manchino ancora undici mesi alle elezioni presidenziali del 2024, l’uso dell’intelligenza artificiale nelle campagne politiche statunitensi sta già suscitando preoccupazione. Ad esempio, un rapporto di ABC News ha recentemente evidenziato gli sforzi del governatore della Florida, Ron DeSantis, che ha utilizzato immagini e audio generati dall’intelligenza artificiale di Donald Trump durante l’estate.
Inoltre, un sondaggio condotto dall’Associated Press-NORC Center for Public Affairs Research e dalla Harris School of Public Policy dell’Università di Chicago ha rivelato che quasi il 58% degli adulti ritiene che l’uso dell’intelligenza artificiale aumenterà la diffusione di informazioni false e fuorvianti nelle prossime elezioni.
Alcune grandi aziende tecnologiche stanno già cercando di affrontare queste preoccupazioni. Ad esempio, Google ha annunciato che limiterà i suggerimenti legati alle elezioni a cui risponderanno il suo chatbot Bard e l’esperienza generativa di ricerca nei mesi precedenti le elezioni presidenziali americane. Meta, proprietaria di Facebook, ha dichiarato che impedirà alle campagne politiche di utilizzare prodotti pubblicitari basati sull’intelligenza artificiale e introdurrà trasparenza riguardo all’uso di strumenti di intelligenza artificiale per creare annunci elettorali su Facebook e Instagram.
Inoltre, OpenAI sta rivedendo il modo in cui gestisce la disinformazione e i contenuti offensivi nei suoi prodotti, data l’escalation delle preoccupazioni in vista delle elezioni.
Tuttavia, ci sono ancora sfide significative da affrontare. Come ha affermato Lambert, potrebbe essere “impossibile mantenere le informazioni generate dall’IA così pulite come sarebbe necessario” quando si tratta della narrativa elettorale.
Alicia Solow-Niederman, professore associato di diritto presso la George Washington University Law School, ha sottolineato che gli strumenti di intelligenza artificiale generativa, sia attraverso la disinformazione che attraverso campagne di disinformazione aperte, rappresentano una minaccia seria per la democrazia. Citando gli studiosi di diritto Danielle Citron e Robert Chesney, ha menzionato il concetto del “dividendo del bugiardo”, sottolineando come la mancanza di chiarezza sulla verità possa minare l’autogoverno e il sistema elettorale nel suo complesso.