Il legislatore della California sta per votare un importante disegno di legge sulla regolamentazione dell’intelligenza artificiale (IA) alla fine di questo mese. Le aziende della Silicon Valley stanno protestando, sostenendo che questa legge potrebbe avere effetti negativi sul settore.
Il Comitato per il Bilancio della Camera della California ha proposto degli emendamenti al “Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act” (SB 1047), che sono stati approvati. Ora, il disegno di legge dovrà affrontare il voto finale del Senato statale a fine mese.
Il disegno di legge SB 1047 punta a prevenire danni significativi, come l’uso di IA per creare armi di distruzione di massa o per attacchi informatici gravi. Le aziende che sviluppano modelli avanzati di IA dovranno implementare protocolli di sicurezza e introdurre un “kill switch” per spegnere il modello in caso di emergenza.
La legge si applica ai modelli di IA di frontiera, che costano almeno 100 milioni di dollari e utilizzano enormi capacità di elaborazione. Anche le aziende straniere che operano in California dovranno rispettare queste normative. Alcuni dei principali sviluppatori di IA, come OpenAI, Google e Meta, potrebbero rientrare in questa categoria, dato il costo elevato per addestrare modelli avanzati.
Il disegno di legge include anche regolamenti per i modelli open source e stabilisce la creazione della “Frontier Model Division (FMD)” per supervisionare l’attuazione delle norme. La mancata osservanza delle norme potrebbe portare a cause civili da parte del procuratore generale della California.
Il senatore Scott Wiener ha dichiarato che il disegno di legge cerca di prevenire danni prima che si verifichino, ispirandosi ai fallimenti passati nella protezione della privacy. Alcuni sostenitori della sicurezza dell’IA, come Jeffrey Hinton e Joshua Bengio, supportano la legge.
Tuttavia, molte aziende e esperti della Silicon Valley si oppongono, temendo che la legge possa ostacolare l’innovazione. Andreessen Horowitz e diversi professori, tra cui Pei Fei Lee e Andrew Ng, hanno criticato il disegno di legge, sostenendo che potrebbe danneggiare l’ecosistema dell’IA e limitare l’open source.
Nonostante le critiche, il disegno di legge ha ottenuto ampio sostegno dai legislatori e potrebbe essere approvato. Se approvato, entrerà in vigore nel 2026, ma potrebbe affrontare sfide legali da parte dei gruppi contrari.