Una coalizione composta da una mezza dozzina di attori impegnati nell’IA open source, tra cui Hugging Face, GitHub, EleutherAI, Creative Commons, LAION e Open Future, ha recentemente chiesto ai responsabili politici dell’Unione Europea di tutelare l’innovazione nell’ambito dell’open source mentre finalizzano l’EU AI Act, che sarà la prima legge globale sull’IA al mondo.
In un documento politico pubblicato oggi, intitolato “Supporting Open Source and Open Science in the EU AI Act”, i leader dell’IA open source hanno presentato raccomandazioni volte a garantire che l’AI Act supporti adeguatamente l’open source. L’obiettivo principale è assicurare che le pratiche di sviluppo dell’IA open source non siano ostacolate da obblighi eccessivi o controproducenti.
Secondo il documento, l’eccessiva enfasi sullo sviluppo di IA chiuso e proprietario, come praticato da grandi società come OpenAI, Anthropic e Google, rappresenta una minaccia per l’ecosistema dell’IA aperto.
Il documento è stato pubblicato durante le discussioni tra la Commissione Europea, il Consiglio e il Parlamento europeo riguardo l’EU AI Act, noto come “trilogo”, avviato dopo l’approvazione della versione preliminare del disegno di legge da parte del Parlamento europeo il 14 giugno. L’obiettivo è approvare la legge sull’IA entro la fine del 2023, prima delle prossime elezioni del Parlamento europeo.
Yacine Jernite, uno dei leader di Hugging Face, una rinomata piattaforma per codice e modelli open source, ha sottolineato che il documento politico è dettagliato, ma il punto principale della coalizione riguarda l’innovazione. Essi credono sia essenziale per le persone poter scegliere tra modelli di base e componenti da combinare secondo le necessità.
La coalizione vuole sottolineare che l’IA open source è fondamentale e che la regolamentazione non dovrebbe ostacolare il progresso nell’ambito dell’IA open source. Yacine Jernite ha spiegato che l’apertura in sé non garantisce uno sviluppo responsabile, ma è un elemento essenziale per una governance adeguata. Pertanto, le richieste normative non dovrebbero ostacolare lo sviluppo nell’ambito dell’open source.
Fin dall’aprile 2021, quando la Commissione europea ha proposto il primo quadro normativo dell’UE sull’IA, il focus è stato posto sull’analisi e la classificazione dei sistemi di IA in base al rischio che presentano per gli utenti. Maggiore è il rischio, maggiore è il livello di regolamentazione applicato.
Peter Cihon, senior policy manager di GitHub, ha sottolineato che durante lo sviluppo delle bozze dell’AI Act da parte del Consiglio dell’UE e successivamente del Parlamento europeo, i responsabili politici hanno cercato di valutare la catena del valore per mitigare i rischi già nella fase iniziale dello sviluppo dell’IA. Ciò è stato fatto per evitare di imporre aspettative inutili sugli sviluppatori open source, che spesso sono individui, organizzazioni no-profit o studenti che potrebbero non avere le stesse risorse delle grandi aziende.
Cihon ha mostrato ottimismo riguardo alla trasparenza riguardo all’approccio open source allo sviluppo durante il processo del trilogo, iniziato a giugno. Ha sottolineato che le disposizioni riguardanti l’open source nella legge non sono ancora state completamente discusse.
L’Unione Europea è stata storicamente una pioniera nella regolamentazione tecnologica, come dimostrato dal GDPR, e il suo approccio potrebbe influenzare altre nazioni, compresi gli Stati Uniti. Cihon ha affermato che questa legge potrebbe avviare una discussione sulla regolamentazione globale e si è mostrato ottimista riguardo al coinvolgimento degli sviluppatori open source nel processo decisionale.