Lo scorso settembre, una riunione di alto livello ha avuto luogo a Washington DC, coinvolgendo personalità di spicco come Elon Musk, Mark Zuckerberg e Sam Altman, CEO di OpenAI. L’agenda si concentrava su due questioni cruciali nell’arena dell’intelligenza artificiale: il potenziamento della collaborazione tra i settori pubblico e privato per massimizzare il beneficio sociale della tecnologia e, parallelamente, la definizione di normative che regolamentino il suo utilizzo.
Le discussioni hanno rivelato che entrambi i temi conducono a un terreno comune, evidenziando la necessità crescente di forgiare un’intelligenza artificiale che sia non solo avanzata, ma anche eticamente responsabile. DeepMind, il rinomato laboratorio di ricerca sotto l’egida di Google, ha proposto un nuovo framework che contempla tre ambiti di rischio dell’IA: le sue capacità intrinseche, la sua interazione con gli umani e l’impatto sistemico che può avere. Questo approccio evidenzia che il contesto è essenziale per determinare la sicurezza di un sistema di IA.
ChatGPT, nonostante il suo incredibile successo e una base di oltre 100 milioni di utenti, non è esente da controversie, avendo incontrato il bando in quindici nazioni, alcuni dei quali sono stati in seguito revocati. Le accuse di bias—tendenze di parzialità razziale, di genere o politica—sono state una sfida persistente per il modello e un ostacolo nell’esplorazione piena del suo potenziale.
Recenti ricerche condotte dall’Università di Stanford hanno sottolineato una tendenza preoccupante: una diminuzione nell’affidabilità e imparzialità delle risposte fornite da LLM come ChatGPT. Al cuore di questa problematica vi è la trasmissione di pregiudizi umani all’intelligenza artificiale, radicati nei dati che formano la base dell’apprendimento dei modelli.
La genesi di questi pregiudizi risiede nei dati stessi, spesso impregnati di stereotipi e distorsioni. Il compito si complica ulteriormente quando si considerano i tentativi di rendere l’IA più etica e sicura, che talvolta possono involontariamente indurla a sviluppare nuovi tipi di bias o comportamenti imprevisti a causa dei complessi sistemi multiparametrici che la compongono.
Il dibattito su un’IA etica affronta un’ulteriore sfida: non si può semplicemente valutare l’etica di un modello di IA come se avesse una coscienza o una morale. L’importanza del contesto, sottolineata dallo studio di DeepMind, riflette più l’etica dell’operatore umano piuttosto che del sistema IA stesso.
Quindi, l’idea di un modello matematico che guidi l’IA verso decisioni etiche rimane ancora un concetto astratto e altamente soggettivo. Il Baseline Model Transparency Index, introdotto da Stanford HAI, è un passo verso la trasparenza, valutando la condivisione delle informazioni da parte degli sviluppatori dei modelli di IA. Curiosamente, i risultati mostrano che c’è ancora molto da fare in questo ambito.
In conclusione, la chiave sembra essere la trasparenza e un approccio di sviluppo open-source. Questo permetterà collaborazioni aperte e una maggiore comprensione degli LLM, aprendo la strada a scoperte che possono veramente beneficiare l’umanità in tutti i campi scientifici. Solo con una piena trasparenza possiamo aspirare a modellare un’intelligenza artificiale che sia al servizio dell’umanità, capendo le possibili ripercussioni e mitigando i danni potenziali di un utilizzo improprio.