L’Unione Europea (UE) è a un bivio critico che potrebbe determinare il suo futuro nel campo dell’intelligenza artificiale (AI). Secondo l’accordo “AI Law” recentemente proposto, il “GPT-4” di Open AI, noto per le sue avanzate capacità, si trova a fronteggiare il livello più alto di regolamentazione. Questo rafforzamento normativo, nonostante l’esenzione concessa ai modelli open source, solleva preoccupazioni significative, specialmente per quanto riguarda la necessità di divulgare i dataset utilizzati per l’apprendimento. Bloomberg e Reuters hanno evidenziato che le implicazioni future di queste normative potrebbero alterare drasticamente il paesaggio dell’AI.
L’UE ha classificato i modelli di IA generativa in quattro categorie di rischio: inaccettabile, elevato, generativo, e limitato. Nonostante l’assenza di dettagli specifici sul livello di regolamentazione per ciascuna categoria, si prevede che GPT-4 subirà le sanzioni più severe. In caso di violazione della legge sull’IA verranno inflitte multe che vanno da 7,5 milioni di euro o l’1,5% delle vendite a 35 milioni di euro o il 7% delle vendite globali.
Questa normativa impone severi requisiti di trasparenza e divulgazione per l’AI generale (GPAI). I modelli avanzati, considerati ad alto rischio, dovranno adempiere a requisiti specifici e rigorosi. Le norme includono la divulgazione dei metodi di addestramento, dettagli sui dataset e una politica che rispetti la legge sul copyright.
Tuttavia, l’enfasi sulla divulgazione dei dataset di addestramento rappresenta un punto critico, anche per i modelli open source. La mancanza di chiarezza nelle norme e la potenziale rigidità della regolamentazione sollevano dubbi sulla capacità dell’UE di rimanere competitiva nel settore AI. L’esperto legale IT Fritz-July Pieper di Taylor Wessing sottolinea l’incertezza riguardo all’accordo finale e i dettagli del testo legislativo.
Inoltre, l’UE intende applicare regole aggiuntive e più rigorose ai modelli avanzati, considerati un “rischio sistemico”. La soglia di rischio è legata alla potenza di calcolo impiegata per addestrare il modello, con GPT-4 segnalato come unico modello che attualmente supera tale limite.
L’eventuale approvazione di questa legislazione potrebbe significare enormi difficoltà per le aziende nell’ambito dell’AI, specialmente per quanto riguarda la divulgazione dei dati. La difficoltà tecnica e le potenziali implicazioni legali di questa divulgazione potrebbero porre ostacoli significativi al progresso e all’innovazione.
La risposta delle grandi aziende tecnologiche è sotto osservazione, con la possibilità che l’UE possa ritrovarsi a perdere il treno dell’AI a causa di un eccesso di regolamentazione. Se l’UE non riesce a bilanciare efficacemente l’innovazione e la regolamentazione, potrebbe rischiare di rimanere indietro rispetto ad altre regioni in questo campo in rapida evoluzione.