Home / Intelligenza artificiale pericolo / Financial Times perché alcune ricerche sull’IA possono essere troppo pericolose da condividere

Financial Times perché alcune ricerche sull’IA possono essere troppo pericolose da condividere

Perché alcune ricerche sull’IA possono essere troppo pericolose da condividere
L’apprendimento automatico può essere utilizzato per creare armi, “deepfake” e sistemi distorti

Un recente articolo della FT Weekend Magazine sull’agenzia di spionaggio britannica GCHQ mi ha rivelato un titolo particolarmente sorprendente: l’agenzia era stata ispirata a creare un sistema di sorveglianza su Internet dalla società di proprietà intellettuale di Google DeepMind, basata su un documento accademico su un artificiale gran maestro degli scacchi.
Secondo un funzionario di GCHQ: “Le persone che hanno fatto questo a DeepMind, hanno pubblicato tutto il lavoro, è là fuori, chiunque può accedervi. Quindi dovremmo farne uso. “
Questo tocca una domanda spinosa che ha suscitato molto dibattito tra gli esperti di intelligenza artificiale: lo sviluppo dell’intelligenza artificiale dovrebbe essere completamente aperto o ci sono ragioni etiche per limitarne l’accessibilità?
L’argomento è incentrato sul fatto che il codice alla base degli algoritmi di apprendimento automatico debba essere rilasciato integralmente di dominio pubblico per motivi di trasparenza accademica, o cancellato a causa del potenziale uso improprio.
I due campi sono polarizzati. La prassi predefinita finora nel mondo accademico è stata quella di rilasciare pubblicamente modelli di apprendimento automatico in modo che altri possano riprodursi e basarsi sui risultati.
All’inizio di quest’anno, tuttavia, il gruppo di ricerca AI OpenAI ha creato GPT-2 , un algoritmo in grado di scrivere testi realistici e coerenti in una varietà di stili (una notizia, diciamo, o un tweet o un romanzo) basati su un breve prompt o titolo.
Sebbene l’algoritmo fosse uno sforzo accademico benigno, OpenAI decise che sarebbe stato “troppo pericoloso” rilasciare pubblicamente il suo codice sorgente. Il ragionamento era che i criminali o altri attori malintenzionati potevano cooptarlo per generare false notizie, spam o abusi. La decisione causò un tumulto nella comunità accademica; i ricercatori hanno preso su Twitter per esprimere il loro disprezzo.
Nel frattempo, DeepMind ha affermato di non aver rilasciato pubblicamente il codice sorgente di AlphaZero, la sua intelligenza artificiale che gioca a scacchi; anche lui ha ricevuto critiche per non aver aperto tutto ciò che crea.
La società mi ha detto che le sue ragioni per non pubblicare l’algoritmo non avevano a che fare con problemi di sicurezza, ma ha riconosciuto che la comunità accademica dell’IA sta lentamente iniziando a considerare quale sia la “pubblicazione responsabile” in un’era in cui l’apprendimento automatico può essere usato per creare armi , deepfake (immagini o video iperrealistici ma totalmente falsi) e sistemi decisionali distorti.
“La comunità dell’apprendimento automatico deve davvero iniziare a parlare apertamente dei nostri standard per il rilascio di ricerche etiche. Abbiamo bisogno di un luogo che non sia Twitter ”, ha scritto Ryan Lowe, uno studente di dottorato alla McGill University, sulla scia della controversia OpenAI.
Gli specialisti hanno sottolineato diversi motivi per murare gli algoritmi. Ricercatori tra cui Michael Veale presso Alan Turing Institute e Robert Munro della società di traduzione AI Lilt hanno scritto su come i modelli possono essere retroingegnerizzati per estrarre i dati utilizzati per addestrarli. Veale descrive il fenomeno come “algoritmi che ricordano”, suggerendo che gli algoritmi di riconoscimento facciale scritti senza adeguate garanzie potrebbero ricordare e riconoscere i volti delle persone le cui foto sono state utilizzate per addestrarli.
Nick Bostrom, un filosofo dell’università di Oxford che scrive sui rischi dei sistemi superintelligenti, sostiene che l’apertura può accelerare lo sviluppo dell’IA a medio termine, ma rendere l’area troppo competitiva offre anche al mercato meno tempo e incentivi per mettere in atto controlli di sicurezza. “L’apertura parziale che consente agli estranei di contribuire al lavoro di sicurezza di un progetto di intelligenza artificiale e di supervisionare piani e obiettivi organizzativi sembra auspicabile”, scrive.
L’apprendimento automatico viene già applicato in settori diversi come le domande di prestito e le attività di polizia, in cui gli esperti riconoscono che è imperfetto. Applicazioni come il riconoscimento facciale possono essere imprecise e distorte. Gli algoritmi di assunzione o di valutazione del credito possono esacerbare le disuguaglianze sociali a causa di dati distorti. I deepfakes possono causare caos politico.
L’intelligenza artificiale diventerà solo più potente e onnipresente. Ora è il momento per gli accademici di uscire dalla bolla della ricerca e riconoscere che il software che scrivono sta cambiando la vita delle persone. Il tempo per trattare l’IA come una scienza teorica è finito.

Madhumita Murgia da ft.com

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi