Con il boom dell’intelligenza artificiale, ridurre i rischi dei sistemi algoritmici è un must, afferma il nuovo brief di ACM
L’ intelligenza artificiale potrebbe essere in forte espansione, ma un nuovo brief del Technology Policy Council globale dell’Association for Computing Machinery (ACM) rileva che l’ubiquità dei sistemi algoritmici “crea seri rischi che non vengono adeguatamente affrontati”.
Secondo il brief di ACM, che secondo l’organizzazione è il primo di una serie su sistemi e fiducia, non sono possibili sistemi algoritmici perfettamente sicuri. Tuttavia, è possibile adottare misure realizzabili per renderle più sicure e dovrebbero essere un’alta priorità politica e di ricerca dei governi e di tutte le parti interessate.
Le principali conclusioni del brief:
Per promuovere sistemi algoritmici più sicuri, è necessaria la ricerca su metodi di sviluppo del software sia incentrati sull’uomo che tecnici, test migliorati, percorsi di controllo e meccanismi di monitoraggio, nonché formazione e governance.
Costruire una cultura della sicurezza organizzativa richiede leadership dirigenziale, attenzione alle assunzioni e alla formazione, adozione di pratiche relative alla sicurezza e attenzione continua.
Meccanismi di supervisione interni e indipendenti incentrati sull’uomo, sia all’interno del governo che delle organizzazioni, sono necessari per promuovere sistemi algoritmici più sicuri.
I sistemi di intelligenza artificiale hanno bisogno di salvaguardie e di una revisione rigorosa
L’informatico Ben Shneiderman, professore emerito presso l’Università del Maryland e autore di Human – Centered AI , è stato l’autore principale del brief, che è l’ultimo di una serie di brevi bollettini tecnici sull’impatto e le implicazioni politiche di specifici sviluppi tecnologici.
Sebbene i sistemi algoritmici, che vanno oltre la tecnologia AI e ML e coinvolgano persone, organizzazioni e strutture di gestione, abbiano migliorato un numero immenso di prodotti e processi, ha osservato, i sistemi non sicuri possono causare gravi danni (si pensi alle auto a guida autonoma o al riconoscimento facciale).
I governi e le parti interessate, ha spiegato, devono stabilire le priorità e implementare le misure di salvaguardia nello stesso modo in cui un nuovo prodotto alimentare o farmaceutico deve passare attraverso un rigoroso processo di revisione prima di essere reso disponibile al pubblico.
Confronto tra AI e modello di aviazione civile
Shneiderman ha paragonato la creazione di sistemi algoritmici più sicuri all’aviazione civile, che presenta ancora dei rischi ma è generalmente riconosciuta come sicura.
“Questo è ciò che vogliamo per l’IA”, ha spiegato in un’intervista a VentureBeat. “È difficile da fare. Ci vuole un po’ per arrivarci. Ci vogliono risorse, impegno e attenzione, ma questo è ciò che renderà le aziende delle persone competitive e le renderà durevoli. Altrimenti, soccomberanno a un fallimento che potenzialmente minaccerà la loro esistenza”.
Lo sforzo verso sistemi algoritmici più sicuri è uno spostamento dal concentrarsi sull’etica dell’IA, ha aggiunto.
“L’etica va bene, tutti noi la vogliamo come una buona base, ma lo spostamento è verso cosa facciamo?” Egli ha detto. “Come rendiamo pratiche queste cose?”
Ciò è particolarmente importante quando si ha a che fare con applicazioni di intelligenza artificiale che non sono leggere, ovvero decisioni consequenziali come operazioni finanziarie, questioni legali, assunzioni e licenziamenti, nonché applicazioni mediche, di trasporto o militari critiche per la vita.
“Vogliamo evitare la Chernobyl dell’IA o la Three Mile Island dell’IA”, ha detto Shneiderman. Il grado di impegno che dedichiamo alla sicurezza deve aumentare con l’aumentare dei rischi”.
Sviluppare una cultura organizzativa della sicurezza
Secondo il brief di ACM, le organizzazioni devono sviluppare una “cultura della sicurezza che abbracci l’ingegneria dei fattori umani” – ovvero come funzionano i sistemi nella pratica reale, con gli esseri umani ai comandi – che deve essere “intrecciata” nella progettazione di sistemi algoritmici.
Il brief ha anche rilevato che i metodi che si sono dimostrati efficaci per la sicurezza informatica , compresi i test contraddittori della “squadra rossa” in cui utenti esperti tentano di violare il sistema e l’offerta di “ricompense bug” agli utenti che segnalano omissioni ed errori che potrebbero portare a gravi guasti — potrebbe essere utile per rendere più sicuri i sistemi algoritmici.
Molti governi sono già al lavoro su questi temi, come gli Stati Uniti con il loro Blueprint for an AI Bill of Rights e l’Unione Europea con l’ EU AI Act . Ma per le imprese, questi sforzi potrebbero offrire un vantaggio competitivo, ha sottolineato Shneiderman.
“Questa non è solo roba da bravi ragazzi”, ha detto. “Questa è una buona decisione aziendale da prendere e una buona decisione su cui investire, nella nozione di sicurezza e nella nozione più ampia di una cultura della sicurezza”.