Quasi tre anni dopo la proposta della bozza di norme, i legislatori del Parlamento europeo hanno approvato oggi la legge sull’IA . L’approvazione, arrivata un mese prima del previsto, rappresenta l’approvazione finale del primo regolamento completo sui sistemi di intelligenza artificiale ad alto rischio, sulla trasparenza per l’intelligenza artificiale che interagisce con gli esseri umani e sui sistemi di intelligenza artificiale nei prodotti regolamentati.
La legge, che richiedeva l’approvazione definitiva del Parlamento europeo, entrerà molto probabilmente in vigore a maggio. Il legislatore italiano Brando Benifei, co-responsabile della legge sull’AI, lo ha descritto come “ un giorno storico ” in una conferenza stampa.
Le aziende statunitensi devono prepararsi alla regolamentazione dell’EU AI Act
La notizia è importante per le aziende statunitensi, affermano gli esperti, che devono assicurarsi di rispettare l’EU AI Act pur continuando ad andare avanti con i piani di adozione dell’IA. Steve Chase, vicepresidente di AI e innovazione digitale presso la società di consulenza KPMG US, ha dichiarato: “L’EU AI Act” avrà implicazioni di vasta portata non solo per il mercato europeo, ma anche per il panorama globale dell’IA e per le imprese statunitensi”, aggiungendo che “le aziende statunitensi devono garantire di disporre dei giusti guardrail per conformarsi alla legge UE sull’intelligenza artificiale e alla futura regolamentazione, senza intralciare il percorso verso il valore con l’intelligenza artificiale generativa”.
Enza Iannopollo, Principal Analyst di Forrester, ha aggiunto: “Piaccia o no, con questo regolamento, l’UE stabilisce lo standard ‘de facto’ per un’IA affidabile, una mitigazione del rischio legata all’IA e un’IA responsabile. Tutte le altre regioni possono solo recuperare terreno”. Il fatto che l’UE abbia anticipato il voto di un mese dimostra anche il riconoscimento dello spazio in rapida evoluzione, ha affermato.
L’effetto extraterritoriale delle regole, le multe “pesanti” e la pervasività dei requisiti lungo tutta la catena del valore dell’intelligenza artificiale significano che la maggior parte delle organizzazioni globali che utilizzano l’intelligenza artificiale devono conformarsi alla legge, con alcuni dei suoi requisiti pronti per essere applicati entro la fine dell’anno.
“C’è molto da fare e poco tempo per farlo”, ha spiegato. “Le organizzazioni devono riunire il proprio ‘team di conformità AI’ per iniziare. Soddisfare i requisiti in modo efficace richiederà una forte collaborazione tra i team, dall’IT e dalla scienza dei dati alla gestione legale e del rischio, e uno stretto supporto da parte dei dirigenti.”
Mentre le società modello di fondazione come OpenAI, Google e Anthropic non hanno rilasciato commenti sull’approvazione dell’EU AI Act da parte del Parlamento europeo, altri leader tecnologici hanno espresso sostegno.
In una dichiarazione, Christina Montgomery, vicepresidente e responsabile della privacy e della fiducia di IBM, ha elogiato l’UE. “L’approccio basato sul rischio è in linea con l’impegno di IBM verso pratiche etiche di intelligenza artificiale e contribuirà alla costruzione di ecosistemi di intelligenza artificiale aperti e affidabili”, ha affermato. “IBM è pronta a mettere a disposizione la propria tecnologia e competenza – compreso il nostro prodotto watsonx.governance – per aiutare i nostri clienti e gli altri stakeholder a conformarsi all’EU AI Act e alle future normative a livello mondiale in modo che tutti noi possiamo sbloccare l’incredibile potenziale dell’IA responsabile”.
Ed Eric Loeb, vicepresidente esecutivo per gli affari governativi globali presso Salesforce, ha dichiarato in un post sul blog che “Crediamo che creando quadri basati sul rischio come l’EU AI Act, spingendo per impegni verso un’IA etica e affidabile e convocando più parti interessate gruppi, le autorità di regolamentazione possono avere un impatto sostanzialmente positivo. Salesforce applaude le istituzioni dell’UE per aver assunto la leadership in questo settore”.