Questa settimana, figure di spicco di varie aziende leader nel campo dell’intelligenza artificiale, tra cui Sam Altman di OpenAI, Jensen Huang di NVIDIA e Satya Nadella di Microsoft, hanno aderito al nuovo comitato governativo degli Stati Uniti per la sicurezza e la protezione dell’intelligenza artificiale.
Questa mossa è una risposta a diversi casi di “deepfake” utilizzati per danneggiare politici, celebrità e persino minori. Recentemente, in Florida, un diciottenne è stato arrestato per aver creato immagini sessualmente esplicite di donne senza il loro consenso.
L’uso diffuso di strumenti per la creazione di deepfake come forma di ricatto o di molestia è diventato un problema diffuso, soprattutto nelle scuole americane.
La formazione di questo comitato federale, che include figure di spicco del settore, è considerata un passo positivo verso una maggiore sicurezza. Tuttavia, c’è stata controversia su alcuni nomi mancanti, in particolare Mark Zuckerberg di Meta e Elon Musk di Tesla.
Alcuni ritengono che Zuckerberg e Musk siano stati esclusi a causa delle questioni di sicurezza legate ai loro siti di social media. Meta, in particolare, è stata coinvolta in controversie riguardanti la diffusione di disinformazione e abusi sui suoi servizi.
Tuttavia, il ministro per la Sicurezza nazionale Alejandro Mayorkas ha chiarito che l’esclusione di Zuckerberg e Musk è dovuta a considerazioni legate ai social media. Alcuni sono rimasti scettici su questa spiegazione.
Nonostante queste controversie, le aziende coinvolte nel comitato hanno dimostrato un impegno per la sicurezza. Ad esempio, OpenAI ha un approccio chiaro alla sicurezza dell’intelligenza artificiale e sta lavorando per migliorare i suoi modelli e i suoi sistemi di monitoraggio.
Tuttavia, ci sono sfide significative da affrontare, come l’uso di set di dati contaminati utilizzati per addestrare modelli AI e i tentativi di aggirare i sistemi di sicurezza esistenti.
Sono state proposte varie soluzioni, come l’uso di watermarking per identificare le immagini generate dall’IA e la creazione di un database per addestrare i modelli AI a rilevare contenuti dannosi.