La strada per l’IA futura è lastricata di fiducia
Il posto dell’intelligenza artificiale, l’IA, nella nostra vita quotidiana è in aumento e molti ricercatori ritengono che ciò che abbiamo visto finora sia solo l’inizio. Tuttavia, l’IA deve essere affidabile in tutte le situazioni. L’Università di Linköping sta coordinando TAILOR, un progetto dell’UE che ha elaborato una tabella di marcia basata sulla ricerca intesa a guidare gli organismi di finanziamento della ricerca e i decisori verso l’affidabile IA del futuro.
“Lo sviluppo dell’intelligenza artificiale è agli albori. Quando guardiamo indietro a ciò che stiamo facendo oggi tra 50 anni, lo troveremo piuttosto primitivo. In altre parole, la maggior parte del campo resta da scoprire. Ecco perché è importante gettare le basi di un’IA affidabile ora”, afferma Fredrik Heintz, professore di intelligenza artificiale presso LiU e coordinatore del progetto TAILOR.
TAILOR è una delle sei reti di ricerca istituite dall’UE per rafforzare la capacità di ricerca e sviluppare l’IA del futuro. Le basi di un’IA affidabile vengono gettate da TAILOR, elaborando un quadro, linee guida e una specificazione delle esigenze della comunità di ricerca sull’IA. “TAILOR” è l’abbreviazione di Foundations of Trustworthy AI: integrazione, apprendimento, ottimizzazione e ragionamento.
La tabella di marcia ora presentata da TAILOR è il primo passo verso la standardizzazione, in cui l’idea è che i decisori e gli organismi di finanziamento della ricerca possano ottenere informazioni dettagliate su ciò che è necessario per sviluppare un’IA affidabile. Fredrik Heintz ritiene che sia una buona idea mostrare che molti problemi di ricerca devono essere risolti prima che ciò possa essere raggiunto.
I ricercatori hanno definito tre criteri per un’IA affidabile: deve essere conforme a leggi e regolamenti, deve soddisfare diversi principi etici e la sua attuazione deve essere solida e sicura. Fredrik Heintz sottolinea che questi criteri pongono sfide importanti, in particolare l’attuazione dei principi etici.
“Prendete giustizia, per esempio. Questo significa un’equa distribuzione delle risorse o che tutti gli attori ricevono le risorse necessarie per portarli tutti allo stesso livello? Siamo di fronte a importanti domande a lungo termine e ci vorrà del tempo prima che abbiano una risposta. Ricorda: la definizione di giustizia è stata dibattuta da filosofi e studiosi per centinaia di anni”, afferma Fredrik Heintz.
Il progetto si concentrerà su grandi domande di ricerca complete e tenterà di trovare standard che tutti coloro che lavorano con l’IA possono adottare. Ma Fredrik Heintz è convinto che possiamo raggiungere questo obiettivo solo se viene data la priorità alla ricerca di base sull’IA.
“Le persone spesso considerano l’IA come un problema tecnologico, ma ciò che è veramente importante è se ne traiamo beneficio per la società. Se vogliamo ottenere un’intelligenza artificiale affidabile e che funzioni bene nella società, dobbiamo assicurarci che sia centrata sulle persone”, afferma Fredrik Heintz.
Molte delle proposte legali scritte all’interno dell’UE e dei suoi stati membri sono scritte da specialisti legali. Ma Fredrik Heintz ritiene che manchino di conoscenze specialistiche nell’ambito dell’IA, il che è un problema.
“Legislazione e standard devono essere basati sulla conoscenza. È qui che noi ricercatori possiamo contribuire, fornendo informazioni sull’attuale avanguardia della ricerca e rendendo possibili decisioni fondate. È importante che gli esperti abbiano l’opportunità di influenzare questioni di questo tipo”, afferma Fredrik Heintz.