L’Unione Europea ha avviato un ambizioso progetto per sviluppare un modello di Intelligenza Artificiale (IA) denominato OpenEuroLLM. Questo modello sarà open source, multilingue e progettato per rispettare le rigorose normative europee in materia di privacy e sicurezza dei dati. L’iniziativa mira a creare un’alternativa europea ai modelli di IA sviluppati da colossi tecnologici extraeuropei, promuovendo al contempo l’innovazione e la sovranità digitale del continente.

OpenEuroLLM è concepito per supportare tutte le lingue ufficiali dell’UE, garantendo così un’ampia accessibilità e inclusività. Il progetto è guidato da un consorzio di istituti di ricerca e università europee, tra cui il centro di supercalcolo italiano Cineca, che fornirà la potenza computazionale necessaria per l’addestramento del modello.

Nonostante l’importanza dell’iniziativa, sono emerse preoccupazioni riguardo ai fondi stanziati per il progetto, ritenuti da alcuni osservatori insufficienti per competere con le risorse investite da aziende tecnologiche globali. Tuttavia, l’UE è determinata a portare avanti lo sviluppo di OpenEuroLLM, sottolineando l’importanza di un modello di IA che rispecchi i valori europei e garantisca la protezione dei dati dei cittadini.

Questo progetto si inserisce in un contesto più ampio di regolamentazione dell’IA da parte dell’UE. L’AI Act, entrato in vigore il 1° agosto 2024, rappresenta la prima legge al mondo per la regolamentazione dell’intelligenza artificiale. La normativa introduce una serie di obblighi per fornitori e sviluppatori di sistemi di IA, classificando i rischi associati e stabilendo restrizioni su pratiche considerate inaccettabili, come l’uso di sistemi di IA in grado di condizionare il comportamento delle persone in modo subliminale o la classificazione dei cittadini in base al loro comportamento o alle loro opinioni.

L’AI Act prevede anche limiti rigorosi sull’uso del riconoscimento facciale e sull’analisi delle espressioni facciali in contesti come scuole o luoghi di lavoro. Le aziende dovranno mantenere un registro dettagliato dei test e dello sviluppo delle loro IA entro il 2 agosto 2025, seguendo protocolli di sicurezza specifici. Le violazioni delle norme possono comportare multe fino al 7% del fatturato.

Di Fantasy