OpenAI ha recentemente intrapreso azioni decisive contro l’uso malevolo della sua tecnologia di intelligenza artificiale, ChatGPT, chiudendo account associati a utenti in Cina e Corea del Nord. Questi account sono stati coinvolti in attività come manipolazione dell’opinione pubblica e creazione di curriculum falsi, sollevando preoccupazioni sull’uso etico dell’IA.
Nel suo rapporto di febbraio, OpenAI ha rivelato che alcuni utenti cinesi hanno utilizzato ChatGPT per generare articoli di notizie in spagnolo contenenti disinformazione contro gli Stati Uniti. Questi articoli sono stati poi pubblicati su importanti piattaforme di notizie in America Latina sotto il nome di aziende cinesi, evidenziando un tentativo orchestrato di influenzare l’opinione pubblica internazionale.
Inoltre, è emersa evidenza dello sviluppo di strumenti di sorveglianza basati sull’IA in Cina, progettati per monitorare e riferire in tempo reale post anti-cinesi sui social media occidentali. Questo strumento, denominato “Peer Review”, è stato creato utilizzando la tecnologia di OpenAI per il debugging del codice, rappresentando la prima volta che l’azienda ha scoperto un tale uso della sua IA per scopi di sorveglianza. È importante notare che questo strumento è stato sviluppato utilizzando “LLaMA”, un modello open-source di Meta.
OpenAI ha anche identificato attività sospette legate alla Corea del Nord, dove individui hanno sfruttato ChatGPT per creare curriculum vitae e profili online falsi. L’obiettivo era ottenere posizioni lavorative in aziende estere attraverso informazioni ingannevoli, rappresentando una minaccia significativa per l’integrità dei processi di assunzione a livello globale.
Un altro caso ha coinvolto un’organizzazione di frode finanziaria con sede in Cambogia, sospettata di utilizzare ChatGPT per tradurre e generare commenti su piattaforme di social media come X (precedentemente Twitter) e Facebook. Questa pratica, nota come “pig butchering”, implica che i truffatori instaurino relazioni di fiducia con le vittime, per poi coinvolgerle in schemi fraudolenti legati alle criptovalute.
Ben Nimmo, ricercatore senior di OpenAI, ha sottolineato l’importanza di queste scoperte, affermando che le capacità investigative basate sull’IA di OpenAI sono fondamentali per prevenire l’uso di strumenti di intelligenza artificiale da parte di regimi autoritari per consolidare il potere, controllare i cittadini o minacciare altre nazioni.
Questi incidenti mettono in luce le sfide etiche e pratiche nell’implementazione e nella diffusione di tecnologie avanzate come ChatGPT. Mentre l’IA offre potenziali benefici in numerosi settori, è cruciale che le aziende sviluppatrici implementino misure di sicurezza rigorose per prevenire abusi e garantire un utilizzo responsabile delle loro tecnologie.
In risposta a queste minacce, OpenAI continua a monitorare attentamente l’uso delle sue piattaforme e a collaborare con le autorità internazionali per identificare e neutralizzare attività malevole, riaffermando il suo impegno per un’IA etica e sicura.