Il confronto tra Stati membri e Parlamento europeo sulla revisione della normativa comunitaria sull’intelligenza artificiale si è concluso senza un accordo dopo una sessione negoziale durata dodici ore, confermando la profondità delle divergenze politiche e tecniche che stanno emergendo attorno all’evoluzione del quadro regolatorio europeo. Il negoziato si inserisce nel più ampio pacchetto di semplificazione normativa noto come Digital Omnibus, un’iniziativa concepita per ridurre gli oneri regolatori e migliorare la competitività industriale dell’Unione, ma che nel caso dell’AI sta incontrando resistenze significative.

Al centro dello scontro vi è la possibile revisione delle disposizioni contenute nell’AI Act, entrato in vigore nel 2024 e attualmente nella fase di implementazione progressiva. La discussione riguarda in particolare il trattamento dei modelli di intelligenza artificiale per uso generale, noti come GPAI, che costituiscono l’infrastruttura tecnologica alla base di molte applicazioni avanzate, dai sistemi conversazionali agli strumenti di automazione cognitiva. La regolazione di questi modelli rappresenta uno degli aspetti più complessi dell’intero impianto normativo, perché coinvolge questioni di trasparenza, responsabilità e sicurezza in un contesto tecnologico in rapida evoluzione.

Alcuni Stati membri, tra cui Francia e Germania, hanno sostenuto la necessità di un alleggerimento delle regole, evidenziando il rischio che requisiti troppo stringenti possano penalizzare le startup europee rispetto ai concorrenti internazionali, in particolare statunitensi e cinesi. La proposta avanzata da questi Paesi si concentra sulla riduzione degli obblighi di trasparenza per i modelli principali e sull’introduzione di criteri più flessibili nella gestione dei requisiti informativi, con l’obiettivo di favorire l’innovazione e attrarre investimenti. Questa posizione riflette una lettura economico-industriale della normativa, in cui la regolazione viene vista come un fattore che può incidere direttamente sulla capacità competitiva del sistema europeo. In un mercato globale caratterizzato da forti economie di scala e da una concentrazione crescente delle risorse computazionali, anche piccoli differenziali regolatori possono tradursi in vantaggi o svantaggi significativi per gli operatori.

Sul fronte opposto, il Parlamento europeo ha mantenuto una linea più rigorosa, sottolineando come la riduzione dei requisiti di trasparenza possa compromettere la sicurezza e i diritti fondamentali dei cittadini. In particolare, i legislatori hanno insistito sulla necessità di garantire la tracciabilità dei dati utilizzati per l’addestramento dei modelli e la comprensibilità dei meccanismi decisionali, ritenuti elementi essenziali per prevenire abusi e discriminazioni. Questa impostazione si basa su un principio di responsabilità ex ante, che mira a prevenire i rischi prima che si manifestino, piuttosto che intervenire successivamente.

Il mancato accordo evidenzia quindi una frattura tra due approcci regolatori distinti: da un lato, una visione orientata alla competitività e alla flessibilità normativa, dall’altro una prospettiva centrata sulla tutela dei diritti e sulla gestione preventiva dei rischi tecnologici. La difficoltà nel conciliare queste due esigenze emerge chiaramente dalle dichiarazioni rilasciate al termine dei negoziati, tra cui quella di un funzionario della Consiglio dell’Unione europea sotto presidenza cipriota, che ha riconosciuto l’impossibilità di raggiungere un compromesso nel corso dell’incontro.

Le reazioni politiche e industriali riflettono l’incertezza generata da questa situazione. Alcuni osservatori hanno sottolineato come lo stallo possa favorire indirettamente le grandi aziende tecnologiche globali, che dispongono delle risorse necessarie per adattarsi a contesti normativi complessi, mentre le imprese europee più piccole rischiano di trovarsi in una posizione di svantaggio. Allo stesso tempo, organizzazioni della società civile e gruppi per la tutela della privacy continuano a esprimere preoccupazioni per un possibile indebolimento delle garanzie previste dalla normativa.

Dal punto di vista tecnico-regolatorio, il nodo principale resta la definizione del livello di trasparenza richiesto ai modelli GPAI. Questo include la divulgazione delle fonti dei dati, la documentazione delle architetture e dei processi di addestramento, nonché la capacità di spiegare il funzionamento interno dei sistemi. Tuttavia, tali requisiti si scontrano con la natura stessa dei modelli avanzati, caratterizzati da una complessità elevata e da un’evoluzione continua, che rende difficile stabilire standard uniformi e facilmente applicabili.

La fase attuale è ulteriormente complicata dal fatto che l’AI Act prevede un’implementazione graduale delle sue disposizioni principali, con un periodo di transizione che dovrebbe portare all’entrata in vigore completa delle norme nei prossimi anni. Intervenire su questo impianto durante la fase di rollout introduce un ulteriore livello di complessità, perché implica la revisione di obblighi già pianificati e, in alcuni casi, già in fase di applicazione.

Il rinvio dei negoziati al mese successivo indica che il processo decisionale è tutt’altro che concluso, ma anche che il margine per un compromesso potrebbe essere limitato. La questione non riguarda soltanto il contenuto delle norme, ma il modello stesso di regolazione che l’Europa intende adottare in un settore strategico come l’intelligenza artificiale.

Di Fantasy