Immagine AI

Dopo un percorso parlamentare intenso, l’Italia ha finalmente una legge che regola l’intelligenza artificiale (IA). Il Senato ha dato il via libera definitivo al disegno di legge delega al governo: 77 voti favorevoli, 55 contrari e 2 astenuti. Con questa approvazione si apre una nuova fase, quella dell’attuazione concreta delle norme, con un’attenzione forte ai diritti fondamentali, alla trasparenza, all’uso responsabile dell’IA e alla tutela del lavoro e della salute.

La legge si compone di 28 articoli che stabiliscono princìpi e finalità: non solo l’adozione dell’IA, ma la sua promozione sotto una luce “antropocentrica”, ovvero ponendo l’essere umano al centro. Serve cioè un uso che sia corretto, trasparente e responsabile.

Si mira a “cogliere le opportunità” offerte dall’IA, ma anche a vigilare sui rischi: quelli economici, sociali, ma soprattutto quelli che toccano i diritti fondamentali, come la privacy, la libertà di espressione, il rispetto della dignità umana.

Un punto centrale è che la legge delega al governo italiano il compito, entro un anno, di adeguare la normativa nazionale all’AI Act europeo, e di definire regole organiche sull’uso dei dati, sugli algoritmi, sull’addestramento dei sistemi di IA. In pratica, si gettano le basi per un quadro regolatorio coerente con l’Unione Europea.

La legge non rimane astratta ma prevede applicazioni pratiche in settori dove l’IA può fare la differenza ma anche creare rischi, se usata senza precauzioni:

  • Sanità: l’IA potrà essere utilizzata come supporto per diagnosi e terapie, ma la decisione finale resta in capo ai medici. E soprattutto, i pazienti devono essere informati su quando l’IA viene utilizzata, come supporto, e quali sono i limiti.
  • Lavoro: qui la legge prevede la creazione di un Osservatorio nazionale, con l’obiettivo di capire, prevenire e mitigare i rischi dell’IA nel mondo del lavoro, ma anche di valorizzarne i potenziali benefici. Viene stabilito che il datore di lavoro o chi commissiona l’uso di IA deve informare i lavoratori che quest’ultima è usata, così come i professionisti devono informare i clienti quando l’IA entra in gioco.
  • Giustizia, responsabilità, contenuti illeciti: la legge introduce il reato di «illecita diffusione di contenuti generati o manipolati con sistemi di IA», punito con pene da 1 a 5 anni se deriva un danno ingiusto. Ci sono aggravanti se l’uso dell’IA è stato insidioso, e la legge prevede anche strumenti cautelari per rimuovere o bloccare contenuti illeciti. Nel processo, le decisioni interpretative e applicative della legge restano sempre nelle mani di magistrati umani.

Uno dei punti che ricorrono più spesso nel testo è quello dell’informazione: non solo trasparenza tecnica (come funzionano gli algoritmi, quali dati vengono usati, ecc.), ma anche informazione verso i cittadini che vengono coinvolti—spesso inconsapevolmente—in sistemi che funzionano grazie all’IA.

Il cittadino-paziente, il lavoratore, il cliente, hanno il diritto di sapere se e come l’IA è utilizzata, quali sono i limiti, chi è responsabile per eventuali errori, quali garanzie ci sono. È un punto importante: serve a mitigare la distanza che spesso esiste fra chi progetta e applica l’IA, e chi ne subisce gli effetti.

Approvare la legge è solo il primo passo. Adesso si apre una fase complessa: come applicare concretamente queste norme? Alcune delle principali sfide:

  • Adeguamento al livello europeo: l’AI Act dell’UE è uno strumento forte, con regolamentazioni precise su prodotti e sistemi ad alto rischio, obblighi di trasparenza, audit, sicurezza. La legge italiana dovrà allinearsi, tradurre quelle direttive in prassi, e coordinare le autorità nazionali.
  • Controllo e vigilanza: serve un sistema efficace di controllo, per evitare abusi, discriminazioni, manipolazioni. Non basta scrivere le norme: servono risorse, competenze, enti che possano svolgere controlli veri, anche sanzionatori.
  • Equilibrio tra innovazione e tutela: non bloccare l’innovazione ma non lasciare che la fretta, l’interesse economico o la mancanza di conoscenza portino a rischi per le persone.
  • Educazione e cultura: far crescere la consapevolezza su cosa significhi usare l’IA: limiti, potenzialità, responsabilità. Non è solo un tema tecnico, è un tema sociale e culturale.

Avere una legge nazionale significa avere un riferimento stabile, un impegno politico concreto, una traccia che resta, anche se cambia il governo o cambiano le mode. Inoltre, con l’Europa che ha già definito politiche su IA, privacy, responsabilità algoritmica, è importante che l’Italia non resti indietro: essere allineati ai requisiti europei significa anche non ritardare progetti, investimenti, ricerca, collaborazione internazionale. C’è anche un aspetto competitivo: chi regola bene può attrarre fiducia, investimenti, eccellenza.

Di Fantasy