Yann LeCun, capo scienziato dell’intelligenza artificiale di Meta, ha criticato aspramente il controverso disegno di legge sulla sicurezza dell’intelligenza artificiale della California, SB 1047. LeCun ha espresso le sue preoccupazioni pubblicamente proprio il giorno dopo che Geoffrey Hinton, considerato il “padrino dell’IA”, aveva invece sostenuto la legislazione. Questo contrasto tra due esperti di IA mette in luce le divisioni interne alla comunità scientifica riguardo alla regolamentazione futura dell’IA.
Il disegno di legge SB 1047, approvato dalla legislatura della California e in attesa della firma del governatore Gavin Newsom, stabilisce che gli sviluppatori di modelli di IA di grandi dimensioni, che costano almeno 100 milioni di dollari, devono adottare misure di sicurezza per evitare danni gravi. Questo provvedimento è diventato il centro di un acceso dibattito sulla regolazione dell’IA.
LeCun, noto per il suo lavoro nel deep learning, ha criticato il disegno di legge definendo la visione di molti sostenitori come “distorta”. Secondo lui, questi sostenitori sopravvalutano le capacità attuali dell’IA e sottovalutano le difficoltà future. LeCun ha espresso le sue preoccupazioni su Twitter (ora X), contestando l’idea che l’IA possa rapidamente raggiungere i livelli di rischio descritti dai sostenitori della legge.
In contrasto, Geoffrey Hinton ha approvato una lettera aperta firmata da oltre 100 ricercatori di grandi aziende di IA, come OpenAI e Google DeepMind, che chiede al governatore Newsom di firmare il disegno di legge. La lettera avverte dei “gravi rischi” associati a modelli di IA avanzati, come la minaccia di accessi non autorizzati a armi biologiche e attacchi informatici a infrastrutture critiche.
Il dibattito su SB 1047 ha diviso le alleanze politiche. Sostenitori come Elon Musk, nonostante le sue precedenti critiche al senatore Scott Wiener, autore del disegno di legge, contrastano con oppositori come Nancy Pelosi e il sindaco di San Francisco, London Breed. Alcune aziende tecnologiche e investitori sono scettici, temendo che la legge possa frenare l’innovazione e penalizzare le piccole imprese e i progetti open source. Andrew Ng, fondatore di DeepLearning.AI, ha criticato la legge per il suo approccio generico alla regolamentazione, suggerendo che dovrebbe concentrarsi sulle applicazioni dell’IA piuttosto che sulla tecnologia in sé.
La decisione del governatore Newsom su SB 1047 potrebbe avere un impatto significativo non solo in California, ma anche a livello nazionale. Con l’Unione Europea già in fase di attuazione del proprio AI Act, la scelta della California potrebbe influenzare il futuro della regolamentazione dell’IA negli Stati Uniti.
Il conflitto tra LeCun e Hinton riflette il dibattito più ampio su come bilanciare la sicurezza con l’innovazione nel campo dell’IA. Mentre la tecnologia avanza rapidamente, l’esito di questa battaglia legislativa potrebbe stabilire un importante precedente per la regolazione delle intelligenze artificiali sempre più potenti. Il mondo della tecnologia e il pubblico attendono con interesse la decisione finale di Newsom nelle prossime settimane.