L’EU AI Act, una legislazione completa sull’IA in fase di sviluppo, è in una fase critica a causa di dispute sulla regolamentazione dei cosiddetti “modelli fondamentali”, ovvero i modelli di intelligenza artificiale addestrati su larga scala come GPT-4, Claude e Llama.
Recentemente, i governi francese, tedesco e italiano hanno sostenuto una regolamentazione limitata per questi modelli fondamentali, che molti ritengono sia il risultato di intense attività di lobbying da parte delle Big Tech e di società open source come Mistral, che è consigliata da Cédric O, ex ministro digitale del governo francese. Questo ha portato alcuni a definire questa mossa come una “presa di potere” che potrebbe minare l’intero EU AI Act.
Dall’altra parte, coloro che sostengono l’inclusione dei modelli fondamentali nella legislazione dell’UE si sono opposti a questa decisione. Recentemente, un gruppo di esperti internazionali nel campo dell’intelligenza artificiale e leader provenienti da business, società civile e accademici ha pubblicato una lettera aperta in cui invitava il governo tedesco a non esentare i modelli fondamentali dalla legge sull’intelligenza artificiale dell’UE, sostenendo che ciò potrebbe danneggiare la sicurezza pubblica e le imprese europee. Tra i firmatari figurano rinomati ricercatori sull’intelligenza artificiale come Geoffrey Hinton e Yoshua Bengio, che hanno recentemente espresso preoccupazione per i rischi esistenziali dell’IA, oltre al critico dell’intelligenza artificiale Gary Marcus.
Inoltre, esperti francesi, tra cui Bengio, hanno pubblicato un editoriale congiunto su Le Monde, esprimendo preoccupazione “contro i tentativi in corso delle Big Tech di indebolire questo importante atto legislativo nella sua fase finale”, secondo un portavoce del Future of Life Institute.
Ma perché la legislazione sta affrontando quest’ostacolo nella sua fase finale? Dopo due anni e mezzo dalla proposta di bozza delle norme e numerosi mesi di negoziati, l’EU AI Act, che si concentra su sistemi di IA ad alto rischio, trasparenza nell’IA che interagisce con gli esseri umani e sistemi di IA nei prodotti regolamentati, è giunto alla fase finale dei negoziati nota come “trilogo”, in cui i legislatori dell’UE e gli Stati membri negoziano i dettagli finali del progetto di legge. La Commissione europea mira a votare l’AI Act entro la fine del 2023, prima delle elezioni del Parlamento europeo nel 2024.
Tuttavia, il recente dramma legato a OpenAI, in cui il CEO Sam Altman è stato licenziato dal consiglio di amministrazione senza scopo di lucro dell’azienda e poi reintegrato, offre alcune indicazioni su ciò che sta accadendo nell’Unione Europea.
Come a OpenAI, i dibattiti sull’EU AI Act ruotano attorno alle questioni legate al profitto commerciale potenziale dell’IA e alle preoccupazioni sulle conseguenze della limitazione delle opportunità di innovazione aperta, così come sulle credenze sui rischi esistenziali legati all’IA.
Dalla vicenda OpenAI, emerge che il CEO Sam Altman e il presidente Greg Brockman, entrambi membri del consiglio di amministrazione senza scopo di lucro dell’azienda, erano favorevoli a cercare opportunità di profitto commerciale per finanziare la missione di sviluppare un’intelligenza artificiale generale, o AGI. Tuttavia, altri tre membri non dipendenti del consiglio – Adam D’Angelo, Tasha McCauley e Helen Toner – erano più preoccupati per la “sicurezza” dell’intelligenza artificiale e erano disposti a chiudere l’azienda anziché sfruttare il potenziale di ciò che consideravano un’IA ad alto rischio simile all’AGI. Dopo l’intervento del capo scienziato Ilya Sutskever, Altman è stato rimosso.
I tre membri non dipendenti avevano legami con il movimento dell’Altruismo Efficace, e ciò si riflette nelle attività di lobbying legate all’EU AI Act. Max Tegmark, presidente del Future of Life Institute, è associato all’Altruismo Efficace. Il Wall Street Journal ha riportato che la comunità dell’Altruismo Efficace ha speso ingenti risorse per promuovere l’idea che l’intelligenza artificiale rappresenti un rischio esistenziale.
Tuttavia, anche le grandi aziende tecnologiche, tra cui OpenAI, hanno esercitato notevoli pressioni. Sam Altman, il CEO di OpenAI, ha offerto messaggi contrastanti sulla regolamentazione dell’IA, in particolare nell’UE. In giugno, una indagine di TIME ha rivelato che mentre Altman promuoveva la necessità di una regolamentazione globale dell’IA in tutto il mondo, OpenAI stava lavorando per influenzare significativamente la legislazione sull’IA dell’UE in modo da ridurre l’onere normativo per l’azienda, secondo documenti ottenuti da TIME dalla Commissione Europea attraverso richieste di libertà di informazione.
Gary Marcus ha recentemente sottolineato che il caos di OpenAI è una ragione per cui i regolatori dell’UE devono assicurarsi che le Big Tech non abbiano la possibilità di autoregolamentarsi.
Un fallimento dell’EU AI Act, secondo il consulente tedesco Benedikt Kohn, potrebbe avere gravi conseguenze poiché l’UE è stata a lungo un pioniere globale nel regolamentare l’intelligenza artificiale. Ha sottolineato l’urgenza di raggiungere un accordo, poiché il prossimo trilogo è previsto per il 6 dicembre e il tempo stringe, con le elezioni europee previste nel giugno 2024. Quindi, l’UE sta attualmente affrontando importanti decisioni che influenzeranno il futuro della regolamentazione dell’IA nel continente.