È emersa un’analisi secondo cui sia il modello di intelligenza artificiale generativa “GPT-4” di OpenAI che “Farm 2” di Google saranno soggetti alla regolamentazione dell’Unione europea (UE) in base alla legge sull’IA.
Secondo quanto riportato da Euronews, il Basic Model Research Center della Stanford University ha annunciato i risultati di un’indagine condotta per valutare se i modelli di base di 10 aziende soddisfano i requisiti dell’Artificial Intelligence Act (AIA).
I ricercatori si sono concentrati su 12 dei 22 elementi richiesti dall’AIA, valutando la conformità di ciascun modello su questi aspetti normativi, basandosi sulle informazioni pubblicamente disponibili. Gli elementi analizzati riguardano la trasparenza dei dati, la marcatura dei diritti d’autore, la divulgazione e la gestione del consumo energetico, la preparazione per la divulgazione dei rischi e le misure di adeguamento, nonché la marcatura dei contenuti generati dall’intelligenza artificiale.
Dalla valutazione è emerso che nessun modello soddisfa tutti i requisiti dell’AIA. “Bloom”, un modello di linguaggio open source sviluppato da Hugging Face, ha ottenuto il punteggio più alto (36 punti su 48), corrispondente al 75 su 100.
“Palm 2” e “GPT-4” di OpenAI, il modello di linguaggio “GPT-NeoX” di Eleuther AI, il modello di generazione di testo “Command” di Coher, il modello di generazione di immagini “Stable Diffusion” di Stability AI e il modello di linguaggio “Rama” di Meta hanno ottenuto una valutazione di circa 50 punti.
Inoltre, il chatbot AI “Claude” di Antropic, il modello linguistico “Jurasic-2” della startup israeliana AI21 Lab e il modello AI “Luminous” della startup tedesca Aleph Alpha hanno ottenuto meno di 25 punti.
Dopo la valutazione, il centro di ricerca ha evidenziato che solo i modelli open source come “Bloom” e “GPT-NeoX” forniscono informazioni sul copyright dei dati di formazione. Più della metà dei modelli non rivela il consumo di energia, mentre la legge richiede la divulgazione e la spiegazione dei rischi dei modelli che non possono essere mitigati, ma nessuno dei modelli analizzati lo fa.
Il centro di ricerca ha concluso che la trasparenza dei modelli di base dell’IA è generalmente scarsa e ha previsto che l’attuazione e l’implementazione dell’AIA comporteranno cambiamenti positivi.
Attualmente, l’AIA sta finalizzando il disegno di legge attraverso negoziati trilaterali tra la Commissione europea, il Parlamento e il Consiglio dei ministri. Durante questo processo di negoziazione, che è previsto si concluda entro la fine di quest’anno, alcuni contenuti del disegno di legge potrebbero subire modifiche. Pertanto, il centro di ricerca ha consigliato ai responsabili politici e ai fornitori di modelli di intelligenza artificiale di impegnarsi per garantire la trasparenza.
È emerso in particolare che i modelli di IA ritengono di poter soddisfare fino al 90% dei requisiti dell’AIA se viene migliorata la trasparenza.