Dopo il “Doomsday Clock”, che segnala il pericolo di una guerra nucleare, è stato introdotto l'”AI Safety Clock”, un nuovo strumento che misura il rischio associato all’emergere dell’intelligenza artificiale generale (AGI) al di fuori del controllo umano. Attualmente, l’orologio segna le 11:31, ovvero 29 minuti rimasti all’apocalisse.
Michael Wade, professore presso l’International Institute for Management Development (IMD) e direttore del TONOMUS Global Center, ha presentato l’AI Safety Clock attraverso il settimanale Time il 13 ottobre. In questa occasione, ha messo in guardia sui pericoli dell’IA che sfugge al controllo umano.
L’orologio classifica i rischi dell’IA in quattro livelli:
- Dalle 11:00 alle 11:15: rischio basso
- Dalle 11:16 alle 11:30: rischio medio
- Dalle 11:31 alle 11:45: rischio alto
- Dalle 11:46 a mezzanotte: rischio critico.
Attualmente, il segnale delle 11:31 indica che il rischio ha superato il livello medio ed è appena entrato in quello alto.
Il professor Wade ha sottolineato che l’AI Safety Clock non è semplicemente una misura di allerta, ma il risultato di un’analisi di dati reali. Ha monitorato informazioni in tempo reale provenienti da oltre 1.000 siti web, 3.470 feed di notizie e rapporti di esperti, combinando indicatori quantitativi, approfondimenti qualitativi e opinioni di esperti.
Per stabilire il tempo, il laboratorio tiene traccia di tre fattori principali:
- Maggiore sofisticazione della tecnologia IA
- Maggiore autonomia
- Integrazione con i sistemi fisici.
Wade ha evidenziato che il cambiamento più significativo si sta verificando nella sofisticazione della tecnologia IA, in particolare nell’apprendimento automatico e nelle reti neurali. Attualmente, l’IA sta superando gli esseri umani in alcune aree, come il riconoscimento di immagini e voce, nei giochi complessi come il Go, negli esami di business school e nella programmazione.
Per quanto riguarda l’autonomia dell’IA, inizialmente si credeva che fosse sotto controllo umano, progettata per eseguire compiti ben definiti in base ai dati e alle istruzioni ricevute. Tuttavia, Wade ha avvertito che l’autonomia dell’IA sta già emergendo in diversi ambiti. Ad esempio, le applicazioni di autonomia dell’IA stanno aumentando nel settore privato, come nei droni militari, nell’ottimizzazione del consumo energetico e nel supporto alle transazioni finanziarie. Ha avvertito che se l’IA si combina con sistemi fisici, in particolare infrastrutture critiche, possono verificarsi eventi imprevedibili.
Tuttavia, non sono solo scenari apocalittici da temere. Uno dei maggiori problemi legati all’IA è il potenziale inganno dell’opinione pubblica e la destabilizzazione della democrazia, come nel caso di deepfake e fake news. Wade ha affermato che questa non è un’ipotesi, ma una realtà attuale.
Ha sottolineato che “mentre l’intelligenza artificiale avanza rapidamente, la regolamentazione è in ritardo”, in particolare negli Stati Uniti, dove non è ancora emerso un quadro normativo nazionale nonostante la presenza di numerosi modelli avanzati.
Il professor Wade ha chiesto la creazione di un organismo internazionale per monitorare lo sviluppo dell’AGI, simile all’Agenzia Internazionale per l’Energia Atomica (AIEA) nel campo della tecnologia nucleare. Poiché l’intelligenza artificiale è una tecnologia senza confini, ha spiegato, se anche solo un paese sviluppasse l’AGI senza misure di sicurezza adeguate, i risultati potrebbero avere ripercussioni globali.
Inoltre, Wade ha affermato che aziende come Google, Microsoft e OpenAI, che sono leader nello sviluppo dell’IA, non possono ignorare queste problematiche. Ha espresso preoccupazione per la crescente competizione e pressione commerciale, citando il tentativo di OpenAI di trasformarsi in una società commerciale.
Una possibile soluzione proposta è l’implementazione di un “kill switch”, un dispositivo integrato che interromperebbe forzatamente il funzionamento dell’IA in caso di necessità.
Wade ha concluso affermando: “Non si può negare che il rischio sia reale. Potremmo trovarci a condividere il pianeta con macchine in grado di eguagliare o addirittura superare l’intelligenza umana, in un anno o in dieci anni”. Tuttavia, ha aggiunto: “Non siamo impotenti. Abbiamo ancora l’opportunità di orientare lo sviluppo dell’intelligenza artificiale nella giusta direzione. Possiamo garantire un futuro in cui l’IA rappresenti una forza positiva”.
Infine, ha ricordato che “l’orologio continua a ticchettare verso mezzanotte”.