Il tentativo dell’UE di regolamentare l’IA open source è controproducente
La regolamentazione dell’IA generica (GPAI) è attualmente oggetto di dibattito da parte degli organi legislativi dell’Unione Europea mentre lavorano sull’Artificial Intelligence Act (AIA). Una modifica proposta dal Consiglio dell’UE (il Consiglio) farebbe il passo insolito e dannoso di regolamentare la GPAI open source. Sebbene sia intesa a consentire un uso più sicuro di questi strumenti, la proposta creerebbe responsabilità legale per i modelli GPAI open source, minandone lo sviluppo. Ciò potrebbe concentrare ulteriormente il potere sul futuro dell’IA nelle grandi aziende tecnologiche e impedire la ricerca che è fondamentale per la comprensione dell’IA da parte del pubblico.
COS’È IL GPAI?
L’ approccio del Consiglio consiste nel definire un sottoinsieme di sistemi di intelligenza artificiale come uso generale, quindi richiedere agli sviluppatori GPAI di soddisfare i requisiti per la gestione del rischio, la governance dei dati, la documentazione tecnica, le istruzioni di trasparenza, nonché gli standard di accuratezza e sicurezza informatica. Il Consiglio definisce GPAI come un’IA che svolge “funzioni generalmente applicabili” e può essere utilizzata in una “pluralità di contesti”, ma tale definizione è ancora piuttosto vaga. Sebbene non esista una definizione ampiamente utilizzata di GPAI, l’attuale generazione di GPAI è caratterizzata dall’addestramento di modelli di deep learning su set di dati di grandi dimensioni, utilizzando un calcolo relativamente intensivo, per eseguire molte o addirittura centinaia di attività. Queste attività possono includere la generazione di immagini, la traduzione di lingue, lo spostamento di un braccio robotico, la riproduzione di videogiochi o tutto quanto sopra.
Il Consiglio ha motivi per prendere in considerazione la regolamentazione dei modelli GPAI. Le capacità di questi modelli stanno aumentando rapidamente e, di conseguenza, vengono utilizzati in nuove applicazioni, come assistenti di scrittura o strumenti di modifica delle foto. Ci sono anche preoccupazioni sul loro uso per generare disinformazione e deepfake, anche se questo è meno comune.
Il Consiglio sembra anche preoccupato per l’opacità di questi modelli: la formazione di modelli di apprendimento profondo su enormi set di dati ha portato a comportamenti più complessi e difficili da comprendere. Inoltre, alcune aziende stanno rendendo GPAI disponibile solo tramite interfacce di programmazione delle applicazioni o API. Ciò significa che gli utenti possono solo inviare dati al sistema GPAI e quindi ottenere una risposta: non possono interrogare o valutare direttamente il modello, il che porta a sfide reali nello sviluppo di sistemi di intelligenza artificiale a valle che soddisfino i requisiti AIA. Questi sono alcuni dei motivi per cui il Consiglio sta valutando i requisiti sui modelli GPAI.
LA GPAI OPEN SOURCE CONTRIBUISCE ALLO SVILUPPO RESPONSABILE DELLA GPAI
Sebbene gli obiettivi dell’approccio del Consiglio alla GPAI siano comprensibili, l’inclusione esplicita dell’open-source La GPAI mina le ambizioni del Consiglio. I modelli GPAI open source sono liberamente disponibili per l’uso da parte di chiunque, anziché essere venduti o commercializzati in altro modo. Il progetto di AIA proposto creerà responsabilità legali, e quindi un effetto agghiacciante, sullo sviluppo di GPAI open source. Regolamentare il rilascio open source dei modelli GPAI non è sostanzialmente necessario perché, come qualsiasi altro modello, sarebbero già regolamentati dall’AI Act se venissero utilizzati per applicazioni coperte, ad esempio nell’assunzione o in prodotti pericolosi. Inoltre, i progetti GPAI open source svolgono due ruoli chiave nel futuro di GPAI: in primo luogo, diffondono il potere sulla direzione dell’IA dalle società tecnologiche con risorse adeguate a un gruppo più diversificato di parti interessate. In secondo luogo, consentono la ricerca critica, e quindi la conoscenza pubblica, sulla funzione e sui limiti dei modelli GPAI.
Pochissime istituzioni hanno le risorse per formare modelli GPAI all’avanguardia ed è ragionevole stimare che lo sviluppo di un singolo modello GPAI potrebbe costare molti milioni di dollari, sebbene ogni modello aggiuntivo creato da un’istituzione dovrebbe costare molto meno. Mentre alcune delle principali aziende tecnologiche rendono open source i loro modelli, come BERT di Google o GPT-2 di Open AI, gli incentivi aziendali a rilasciare questi modelli diminuiranno nel tempo man mano che diventeranno più commercializzati.
Esistono già pochissimi modelli open source da iniziative senza scopo di lucro, lasciando il campo dipendente dalle grandi aziende tecnologiche. L’Istituto Allen per l’IAha rilasciato ELMo nel 2019, ma l’organizzazione ha annunciato all’inizio di luglio che potrebbero esserlorifocalizzarsi lontano dallo sviluppo di modelli linguistici. Dalla metà del 2020, un gruppo collaborativo di ricercatori chiamato EleutherAI è riuscito a creare open sourceversioni di modelli linguistici di grandi dimensioni e modelli di IA scientifica. La cosa più promettente è il recente rilascio diBloom , un grande modello linguistico sviluppato da un’ampia collaborazione di oltre 900 ricercatori di scienze aperte e organizzato dalla società HuggingFace. Questi sforzi consentono a un insieme molto più diversificato di parti interessate al futuro di GPAI, forse meglio esemplificato da Bloom’ssupporto di 46 lingue umane . In particolare, Bloom è stato sviluppato utilizzando aSupercomputer del governo francese , rendendolo più esposto alle nuove normative.
Oltre a plasmare l’ampia direzione della ricerca GPAI, la conoscenza specifica dei modelli GPAI open source contribuisce notevolmente all’interesse pubblico. In un precedente articolo di Brookings , ho analizzato come il software di intelligenza artificiale open source velocizza l’adozione dell’IA, consente un’IA più equa e affidabile e fa avanzare le scienze che utilizzano l’IA, questo è in gran parte vero anche per GPAI.
Senza GPAI open source, il pubblico ne saprà di meno e le grandi aziende tecnologiche avranno maggiore influenza sulla progettazione e l’esecuzione di questi modelli.
Inoltre, la disponibilità pubblica dei modelli GPAI aiuta a identificare i problemi e far avanzare soluzioni nell’interesse della società. Ad esempio, i modelli di linguaggio di grandi dimensioni open source hanno mostrato come il pregiudizio si manifesti nelle associazioni del modello conspecifico parole e dimostrare come potrebbero essereintenzionalmente manipolato . Altri documenti utilizzano modelli GPAI open source perconfrontare la loro affidabilità nella generazione di codice o costruirenuovi parametri di riferimento per valutare la loro comprensione della lingua, omisurare il costo del carbonio dello sviluppo dell’IA. Soprattutto quando i modelli GPAI diventano più comuni in applicazioni di grande impatto come motori di ricerca e feed di notizie, nonché nell’uso in fabbriche o servizi pubblici, comprendere i loro limiti sarà fondamentale.
Questa ricerca non solo porta a progressi scientifici, ma anche a critiche più appropriate al loro utilizzo da parte delle grandi aziende tecnologiche. Ad esempio, capire come funzionano in generale i modelli GPAI può aiutareaudit algoritmici in crowdsourcing , in cui gruppi di individui collaborano per testare dall’esterno il funzionamento di un sistema algoritmico aziendale. Un gruppo di creatori di contenuti ha recentemente utilizzato questo approccio per dimostrare che YouTube lo erademonetizzare ingiustamente i contenuti LGBTQ .
Consentire più GPAI open source offre maggiore trasparenza nel loro sviluppo. Senza GPAI open source, il pubblico ne saprà di meno e le grandi aziende tecnologiche avranno maggiore influenza sulla progettazione e l’esecuzione di questi modelli. In particolare, i ricercatori di queste aziende non hanno mano libera: ricordiamo che le critiche ai grandi modelli linguistici di Google sono state al centro del conflitto che ha portato alla cessazione di uno dei ricercatori più famosi dell’azienda, il dottor Timnit Gebru.
Inoltre, disincentivando la GPAI open source, potrebbe esserci una maggiore dipendenza dai modelli GPAI aziendali che si nascondono dietro le API. Poiché le API limitano il modo in cui un utente può interagire con un modello GPAI, anche un modello GPAI ben documentato disponibile solo tramite un’API può essere molto più difficile da usare in modo sicuro rispetto a un modello GPAI open source.
REGOLAMENTA LE APPLICAZIONI RISCHIOSE E DANNOSE, NON I MODELLI DI INTELLIGENZA ARTIFICIALE OPEN SOURCE
In rete, i modelli di IA open source offrono un enorme valore per la società, ma il trattamento da parte del Consiglio della GPAI (open source e altro) è anche un degno allontanamento dalla prospettiva più ampia dell’AIA, denominata approccio “basato sul rischio”. Nella proposta originale della Commissione Europea, i requisiti normativi venivano applicati solo ad alcune applicazioni rischiose dell’IA (come assunzioni, riconoscimento facciale o chatbot), piuttosto che all’esistenza di un modello. Pertanto, i modelli GPAI sarebbero stati esenti fino a quando non fossero stati utilizzati per un’applicazione coperta dall’approccio basato sul rischio.
La bozza dell’AIA del Consiglio include due esenzioni che si applicano circostanzialmente ai modelli GPAI open source, ma entrambe presentano seri problemi. La prima esenzione esclude dalla totalità dell’AIA tutti i modelli di IA utilizzati solo per la ricerca e lo sviluppo. Tuttavia, gli sviluppatori open source sono maggiormente motivati dall’idea di costruire cose che le persone usano, il che significa che questa restrizione diminuisce l’incentivo a contribuire all’IA open source. La seconda esenzione consente ai modelli GPAI di essere esentati se i suoi sviluppatori vietano e riescono a prevenire l’uso improprio del modello. Tuttavia, è del tutto impossibile per gli sviluppatori open source monitorare e prevenire in modo realistico l’uso improprio una volta rilasciato un modello. Queste esenzioni non solleveranno sufficientemente gli sviluppatori di IA open source dalle responsabilità normative o legali.
Di conseguenza, gli sviluppatori open source avrebbero ragione a preoccuparsi di come i vari regolatori degli Stati membri dell’UE interpretano l’AIA. Inoltre, non è difficile immaginare che, a seguito dell’esito disastroso di qualche applicazione di un modello GPAI, l’azienda responsabile tenti di deviare colpe e responsabilità legali citando in giudizio gli sviluppatori open source su cui hanno costruito il loro lavoro. Queste due fonti di potenziale responsabilità creerebbero un incentivo significativo a non rilasciare modelli OSS GPAI, o eventualmente qualsiasi software che contenga un modello GPAI.
Alla fine, il tentativo del Consiglio di regolamentare l’open source potrebbe creare una serie contorta di requisiti che mettono in pericolo i contributori dell’IA open source, probabilmente senza migliorare l’uso della GPAI. I modelli di intelligenza artificiale open source offrono un enorme valore per la società sfidando il dominio della GPAI da parte delle grandi aziende tecnologiche e consentendo al pubblico la conoscenza della funzione dell’IA. Il precedente approccio del Consiglio europeo, esentare l’IA open source fino a quando non viene utilizzata per un’applicazione ad alto rischio, porterebbe a risultati di gran lunga migliori per il futuro dell’IA.
Alex Engler da https://www.brookings.edu/blog/techtank/2022/08/24/the-eus-attempt-to-regulate-open-source-ai-is-counterproductive/