La Commissione europea ha pubblicato un Libro bianco sull’intelligenza artificiale (“AI”) che definisce le proposte della Commissione per promuovere lo sviluppo dell’IA in Europa, garantendo nel contempo il rispetto dei diritti umani fondamentali attraverso un adeguato quadro normativo. Il Libro bianco è caratterizzato da un approccio basato sul rischio nell’affrontare i rischi di sfruttare i vantaggi dell’IA.
Secondo il Libro bianco della Commissione, la futura crescita economica sostenibile e il benessere sociale dell’Europa stanno diventando sempre più dipendenti dal valore creato dai dati e l’IA è una delle applicazioni più importanti di tale economia dei dati. Come conseguenza dei punti di forza tecnologici dell’Europa e dell’abbondanza di dati disponibili, la Commissione ritiene che l’Unione europea possa diventare un leader globale nell’innovazione, nello sviluppo e nella diffusione di applicazioni per l’economia dei dati, compresa l’IA. Al fine di raggiungere tale obiettivo, il Libro bianco presenta opzioni strategiche per consentire lo sviluppo affidabile e sicuro dell’intelligenza artificiale in Europa, in equilibrio tra principi e pilastri di eccellenza e fiducia.
Per raggiungere un ecosistema di eccellenza, la Commissione propone di semplificare la ricerca, favorire la collaborazione tra gli Stati membri e tra i settori pubblico e privato e aumentare gli investimenti nello sviluppo e nella diffusione dell’IA. A questo proposito, la Commissione si sta impegnando per creare i giusti incentivi per accelerare l’adozione di soluzioni basate sull’IA, in particolare da parte delle piccole e medie imprese.
Il modello normativo presentato nel Libro bianco delinea un approccio normativo basato sul rischio, che affronta i principali aspetti dei dati di formazione, conservazione dei dati e dei dati, trasparenza e fornitura di informazioni, solidità e accuratezza, controllo umano, nonché requisiti specifici per identificazione biometrica remota. Il quadro normativo richiederebbe la modifica delle leggi e dei regolamenti esistenti, nonché l’adozione di nuovi.
Secondo il Libro bianco, le autorità dovrebbero essere in grado di testare e certificare i dati utilizzati dagli algoritmi e sono necessari dati imparziali per addestrare i sistemi ad alto rischio al fine di funzionare correttamente e garantire il rispetto dei diritti fondamentali, al fine di prevenire risultati discriminatori ingiusti. I sistemi di intelligenza artificiale ad alto rischio devono essere certificati, testati e controllati. Un’applicazione AI deve essere considerata ad alto rischio se soddisfa due criteri cumulativi: (i) l’applicazione è impiegata in un settore in cui è prevedibile che si verifichino rischi significativi (sanità, trasporti ed energia); e (ii) l’applicazione è utilizzata in modo tale che possano sorgere rischi significativi. Questo approccio riconosce che non tutti gli usi dell’IA nei settori soggetti a rischio comportano rischi significativi.
Nello stesso contesto, abbiamo recentemente riferito sulla proposta della Casa Bianca per la regolamentazione dell’intelligenza artificiale nel settore privato americano e sul rapporto pubblicato dalla Task Force sulle decisioni automatizzate di New York.