Le elezioni presidenziali americane del 2016 hanno dimostrato il potere della tecnologia nella manipolazione dell’opinione pubblica e nel risultato delle elezioni. La campagna di disinformazione condotta dal governo russo ha utilizzato attacchi informatici per offuscare l’immagine del candidato democratico e favorire Trump. Oggi, con la crescente pervasività dei chatbot, la politica sta affrontando una delle sue più grandi minacce.
Sebbene i politici e i partiti politici indiani stiano utilizzando ChatGPT per pianificare orari, piani di marketing e per scrivere discorsi politici, ci sono crescenti preoccupazioni sulla sua affidabilità. ChatGPT è noto per le allucinazioni e la disinformazione agitata, e le discussioni sull’inclinazione politica del chatbot e le sue opinioni distorte hanno sollevato preoccupazioni sul fatto che possa essere utilizzato per contaminare o glorificare un certo leader.
L’addestramento di un modello di intelligenza artificiale comporta molte variabili soggettive, e ChatGPT e altre piattaforme basate su chat verranno addestrate su grandi set di dati provenienti da diverse fonti su Internet. Ciò significa che ChatGPT potrebbe riflettere il pregiudizio politico della maggior parte delle testate giornalistiche.
Con le elezioni del 2024 in vista, l’esperto di intelligenza artificiale Gary Marcus ha espresso preoccupazioni sul fatto che la facilità di produrre notizie false assomiglianti a “pubblicazioni autentiche” potrebbe causare un disastro e un’onda di disinformazione che le persone non saranno in grado di distinguere. Ci sono crescenti preoccupazioni sulla sicurezza dell’IA, e alcuni paesi stanno valutando l’introduzione di politiche rigorose per controllare strumenti simili a ChatGPT a causa delle preoccupazioni sulla tecnologia utilizzata per “discriminare e diffondere informazioni dannose”.
Se i partiti politici desiderano utilizzare le informazioni generate dai chatbot nei loro manifesti o campagne, è necessario un ampio processo di controllo per affrontare la diffusione della disinformazione. Tuttavia, le informazioni generate tramite il chatbot che provengono dall’esterno della sfera di competenza del partito non possono essere regolamentate, e le relative implicazioni sono ancora sconosciute.
L’azienda OpenAI, che ha sviluppato ChatGPT, si attiene alla sua posizione di dare priorità alla sicurezza dell’IA senza affrontare i pregiudizi e le allucinazioni del chatbot. Tuttavia, l’amministrazione Biden sta cercando di introdurre controlli su strumenti simili a ChatGPT a causa delle crescenti preoccupazioni sulla tecnologia utilizzata per “discriminare e diffondere informazioni dannose”.
In conclusione, i chatbot come ChatGPT stanno diventando sempre più diffusi nel mondo della politica, ma ci sono crescenti preoccupazioni sulla loro affidabilità e sulla loro capacità di diffondere disinformazione. È necessario un ampio processo di controllo per regolare l’uso dei chatbot nei processi politici, ma resta da vedere se sarà sufficiente per prevenire la diffusione di informazioni false e manipolate durante le elezioni future.