La decisione assunta dal Parlamento europeo nei primi mesi del 2026 di disattivare funzionalità di intelligenza artificiale integrate nei dispositivi ufficiali utilizzati da eurodeputati e dallo staff rappresenta un caso emblematico di come le istituzioni europee stiano affrontando i limiti tecnologici, giuridici e strategici dell’AI nella pratica quotidiana. L’intervento, motivato ufficialmente da rischi di cybersecurity e tutela dei dati sensibili, non può essere interpretato come un semplice passo amministrativo: mette in luce, piuttosto, questioni strutturali sull’architettura tecnologica dell’UE, sulla sua dipendenza da infrastrutture esterne e sulle difficoltà di coniugare innovazione con sovranità digitale.
Il provvedimento riguarda principalmente le tecnologie di intelligenza artificiale “assistiva” già presenti, ad esempio, negli assistenti alla scrittura automatica, negli strumenti di riassunto di documenti o nelle funzionalità integrate in suite di produttività che «inviano informazioni a servizi cloud esterni». Queste funzioni, per operare, trasferiscono dati non solo all’interno di confini nazionali ma verso infrastrutture di cloud provider globali per l’elaborazione tramite modelli AI, e non sempre è chiaramente definito dove risiedano i server o sotto quali giurisdizioni essi ricadano. Per questo motivo, finché non sarà possibile garantire il pieno controllo e la sicurezza dei flussi di dati, il Parlamento ha scelto di disattivarle.
Da una prospettiva puramente tecnica, le funzionalità di AI integrate nei dispositivi istituzionali non sono entità locali autonome; esse operano attraverso pipeline di elaborazione che coinvolgono modelli di linguaggio e infrastrutture di calcolo esterne, spesso non europee, per fornire analisi, generazione di contenuti e sintesi. Quando un documento o una email istituzionale viene analizzato da un algoritmo GPT-like o da un assistente intelligente, questi sistemi tipicamente inviano porzioni di testo e metadati a server remoti per processare la richiesta e restituire il risultato. Questo processo di inferenza “in cloud” crea un problema di governance dei dati: non è solo questione di cifratura o di protezione locale, ma di chi ha effettivo accesso ai dati e dove essi transitano o vengono memorizzati. Senza controllo diretto su questi elementi, qualsiasi istituzione rischia non solo fughe involontarie di informazioni, ma anche esposizione a leggi extraterritoriali come il Cloud Act statunitense, che può permettere a governi stranieri di richiedere dati ospitati su server di provider operanti all’estero.
La reazione del Parlamento europeo è comprensibile all’interno di un quadro normativo molto stringente: l’Unione ha infatti adottato normative come il General Data Protection Regulation (GDPR) e, più recentemente, l’AI Act, che impongono obblighi di trasparenza, tutela e responsabilità nella progettazione e gestione dei sistemi di intelligenza artificiale. L’AI Act, approvato nel 2024, istituisce requisiti rigorosi per le applicazioni AI a vari livelli di rischio, con l’intento di proteggere i diritti fondamentali e promuovere un uso sicuro e affidabile di tali tecnologie. Tuttavia, tali regolamenti si concentrano soprattutto sull’uso e l’impatto dei sistemi di IA, e non sempre affrontano in modo diretto questioni infrastrutturali come la dipendenza da fornitori cloud esterni o il controllo diretto sulle GPU, sui modelli e sui flussi di inferenza.
La scelta di disattivare le funzioni AI nei dispositivi istituzionali può quindi essere letta come un sintomo di una dipendenza tecnologica europea da infrastrutture e fornitori esterni, in particolare statunitensi o di altri grandi mercati tecnologici. In un contesto in cui paesi come gli Stati Uniti o la Cina dispongono di hyperscaler globali e di modelli linguistici di elevata capacità, l’Unione europea si trova ad essere regolatrice di standard globali ma non necessariamente proprietaria delle infrastrutture che rendono possibile l’intelligenza artificiale su larga scala. Questa asimmetria strategica è al centro del dibattito sulla sovranità digitale europea: la capacità di controllare non solo le regole ma anche le tecnologie che vengono utilizzate sotto tali regole.
Le conseguenze operative di questa decisione non sono marginali. I tool AI integrati nei dispositivi istituzionali rappresentano oggi strumenti avanzati per risparmiare tempo e migliorare l’efficienza operativa: consentono di sintetizzare documenti lunghi, tradurre testi in più lingue, generare appunti da lunghi discorsi e automatizzare attività ripetitive. In un Parlamento europeo caratterizzato da multilinguismo e da un carico enorme di documentazione legislativa, la rinuncia temporanea a queste tecnologie significa accettare un aumento dei costi operativi e un ritorno a processi più tradizionali di gestione delle informazioni.
Ma la questione è anche politica e strategica: spegnere l’AI per motivi di sicurezza equivale a riconoscere, implicitamente, che oggi l’Europa non controlla pienamente la filiera di calcolo ad alte prestazioni che sostiene le moderne applicazioni di AI. Qui emergono domande più ampie: chi controlla i modelli e le relative infrastrutture? Chi detiene la capacità computazionale per addestrare e aggiornare modelli avanzati? Quali sono i rischi di affidare ad attori esterni funzioni che implicano l’elaborazione di informazioni legislative sensibili? Finché queste risposte non saranno soddisfacenti, ogni scelta europea rischia di essere governata dalla difensiva più che dalla costruzione di capacità interne.
La decisione del Parlamento europeo non va quindi interpretata come un rigetto dell’intelligenza artificiale in sé, né come un ostacolo definitivo all’innovazione. Piuttosto, essa rappresenta un punto di frizione tra l’ambizione normativa europea e la realtà tecnologica internazionale: l’UE potrebbe essere in grado di dettare standard globali attraverso regolamenti come l’AI Act, ma resta ancora indietro nel controllo delle infrastrutture e delle tecnologie di base che rendono possibile l’AI moderna. È questa frattura tra regolazione e capacità industriale che, secondo molti osservatori, dovrà essere colmata se l’Europa intende non solo regolare ma guidare l’evoluzione tecnologica nei prossimi anni, trasformando prudenza e cautela in autonomia strategica.

