OpenAI potrebbe acquisire il nome di dominio “AI”, il che, ovviamente, gli darebbe un certo potere nell’influenzare i detentori del potere a promulgare leggi a suo favore. L’EU AI Act, pubblicizzato come la legislazione sull’IA più rigorosa al mondo, sembra ora essere stato strumentalizzato. Secondo un articolo di TIME, sembra che OpenAI abbia esercitato pressioni sull’Unione Europea (UE) per indebolire l’atteso atto sull’IA, al fine di ridurre il carico normativo per l’azienda.
A capo dell’impegno per la regolamentazione dell’IA in tutto il mondo si trova Sam Altman di OpenAI. Attraverso audizioni al Senato sull’IA, tour globali e molti altri forum, Altman ha ampiamente sostenuto la necessità di regolamentare l’IA per mitigare i potenziali danni ad essa associati. Ciò che sorprende è l’approccio proattivo di Altman nel proporre regolamentazioni molto prima che qualsiasi ente governativo lo richiedesse. Tuttavia, le recenti accuse di lobbying dell’UE gettano un’ombra di dubbio su come OpenAI abbia cercato di influenzare le parti interessate con potere decisionale a proprio vantaggio.
OpenAI ha cercato di evitare la classificazione dei sistemi di intelligenza artificiale generativa, come ChatGPT e Dall-E, come “ad alto rischio” nel caso in cui producano contenuti che sembrano generati dall’uomo. Invece, l’azienda ha suggerito l’etichettatura dei contenuti e la trasparenza per gli utenti. Hanno anche affermato che, sebbene GPT-3 non sia ad alto rischio, possiede capacità che possono essere utilizzate in applicazioni ad alto rischio.
In una strana ironia, il mese scorso Altman aveva minacciato di abbandonare l’UE se avesse ritenuto che le regolamentazioni fossero eccessive, suscitando diverse reazioni da parte dei legislatori. Il membro rumeno del Parlamento europeo Dragos Tudorache si è mostrato aperto al dialogo con Altman, mentre il capo dell’industria dell’UE Thierry Breton ha ribadito che il progetto di regolamento non era negoziabile. Alla fine, la bozza dell’UE ha accolto le richieste di Altman.
Grazie agli sforzi di lobbying di OpenAI, l’ultima versione della bozza di legislazione dell’UE non classifica i sistemi di intelligenza artificiale generativa come intrinsecamente ad alto rischio. Invece, l’attenzione si è concentrata su modelli di base e restrizioni per i fornitori. La proposta di legge dell’UE è stata approvata il 14 giugno e si prevede che diventi legge entro gennaio.
Mentre l’UE si dimostra incerta riguardo alle regolamentazioni sull’IA, coinvolgendo persino la persona che ha contribuito all’ascesa della rivoluzione dell’IA, l’India ha mantenuto una posizione severa in materia di regolamentazione. Il ministro dell’Unione Rajeev Chandrasekhar ha recentemente definito Altman un “uomo intelligente” e ha sottolineato che, sebbene possa avere le sue idee sulla regolamentazione dell’IA, l’India dispone anche di “menti intelligenti” che hanno le proprie opinioni su come l’IA dovrebbe essere regolamentata.
Durante una visita in India, Altman ha incontrato importanti leader e funzionari governativi, tra cui il primo ministro Narendra Modi. Sebbene si affermi che ci siano state conversazioni fruttuose, non si è parlato di regolamentazione dell’IA o di incorporazione di un organismo di regolamentazione.
OpenAI non è stata l’unica azienda a cercare di influenzare la bozza di legge sull’IA dell’UE. Anche Google e Microsoft hanno esercitato pressioni contro la proposta di regolamentazione, sostenendo che i sistemi di intelligenza artificiale generativa non sono intrinsecamente ad alto rischio e che i potenziali pericoli sorgono quando piccole aziende utilizzano tali sistemi per casi ad alto rischio.
Dalla sua partecipazione alle udienze al Senato sull’IA, Altman ha cercato di promuovere un modello di democratizzazione. Attraverso sovvenzioni milionarie per la creazione di quadri normativi sull’intelligenza artificiale e risoluzione di problemi di sicurezza informatica, OpenAI cerca di presentarsi come un’azienda che lavora per il bene delle persone. Tuttavia, il fatto che stiano spingendo affinché gli organismi di regolamentazione controllino l’IA in tutti i paesi e che abbiano influenzato la creazione di quadri favorevoli a OpenAI, nel caso dell’UE, fa sorgere dubbi sulla loro agenda. Con ambiziosi piani di espansione, il loro percorso rimane ancora oscuro.
Nonostante i risultati incerti delle normative sull’IA, i problemi legati al chatbot continuano. ChatGPT continua ad avere problemi di privacy dei dati e diverse aziende vietano ancora ai propri dipendenti di utilizzare ChatGPT. Ieri, più di 100.000 account utente ChatGPT sono stati esposti e venduti sul dark web. Senza affrontare adeguatamente le minacce per i dati, OpenAI sembra concentrarsi sulla conformità attraverso le normative, probabilmente nel tentativo di ottenere un vantaggio in future versioni del prodotto. Inoltre, l’azienda sta considerando la possibilità di creare un mercato di software AI modellato in qualche modo.