L’accordo provvisorio raggiunto dall’Unione europea sull’AI Act, che mira a essere il primo quadro normativo globale sull’intelligenza artificiale, risveglia sentimenti contrastanti. Questa mossa, ritenuta storica, segna un importante passo avanti nel controllo normativo della tecnologia AI, ma non è priva di preoccupazioni e conseguenze.
Da un lato, l’esenzione concessa ai modelli open source e al riconoscimento facciale, benché possa sembrare un progresso, solleva questioni etiche e di privacy. La decisione di non imporre restrizioni stringenti su questi ambiti potrebbe aprire la strada a potenziali abusi e sfruttamenti.
Inoltre, il mandato di trasparenza per modelli di AI general-purpose come ChatGPT, con la necessità di condividere dettagli di documentazione e conformità alle leggi sul copyright, impone oneri significativi alle aziende. Questo potrebbe rallentare l’innovazione e soffocare la creatività nel campo dell’IA.
La sorveglianza biometrica, con le sue eccezioni riconosciute per la sicurezza pubblica, presenta un dilemma. Se da una parte può aumentare la sicurezza, dall’altra minaccia la libertà individuale, creando una società più sorvegliata e meno libera.
Le pesanti sanzioni previste per le violazioni della legge sull’IA pongono un ulteriore onere finanziario sulle imprese (in caso di violazione della legge sull’IA verranno inflitte multe che vanno da 7,5 milioni di euro o l’1,5% delle vendite a 35 milioni di euro o il 7% delle vendite globali). Questo potrebbe disincentivare le piccole e medie imprese dal partecipare al mercato dell’IA, creando un ambiente dominato dai grandi attori.
Infine, l’accordo sottolinea il ruolo dell’Europa come normatore globale, ma la reazione mista degli stakeholder e la lentezza nel raggiungere un consenso suggeriscono che l’equilibrio tra innovazione e regolamentazione rimane un terreno scivoloso. La strada verso un’implementazione efficace è ancora lunga e incerta.