Yoshua Bengio, rinomato pioniere dell’intelligenza artificiale e professore presso l’Università di Toronto, ha recentemente espresso preoccupazioni riguardo ai potenziali pericoli associati agli agenti AI. Durante la sua partecipazione al World Economic Forum (WEF) a Davos, il 23 gennaio 2025, Bengio ha sottolineato che gli scenari catastrofici legati all’intelligenza artificiale generale (AGI) e all’intelligenza artificiale superintelligente emergono principalmente in presenza di agenti autonomi.

In un’intervista con Business Insider, Bengio ha dichiarato: “Tutti gli scenari catastrofici associati all’AGI o alla superintelligenza si verificano quando esistono agenti autonomi”. Ha inoltre suggerito che è possibile raggiungere l’AGI senza sviluppare agenti autonomi, il che sarebbe vantaggioso per l’umanità. “Tutta l’IA per la scienza e la medicina non è agentica”, ha affermato, aggiungendo che possiamo continuare a sviluppare sistemi potenti che non siano agentici.

Un esempio citato da Bengio è AlphaFold, un’IA progettata per prevedere la struttura delle proteine, che ha applicazioni significative nello sviluppo di nuovi farmaci senza possedere caratteristiche agentiche. Al contrario, gli agenti AI, essendo sistemi automatizzati che operano senza intervento umano, possono facilmente sfuggire al controllo umano.

Nonostante queste preoccupazioni, gli agenti AI stanno gradualmente entrando nella fase di commercializzazione dopo due anni di test. Le aziende riconoscono il potenziale ritorno sugli investimenti offerto da tali tecnologie e prevedono di integrarle nella forza lavoro a partire da quest’anno. Anche Sam Altman, CEO di OpenAI, ha enfatizzato l’importanza degli agenti AI in questo contesto.

Bengio prevede che le aziende non rinunceranno allo sviluppo di agenti AI, temendo che concorrenti o nazioni rivali possano superarli in questo campo, portando a una competizione intensa. Come misura preventiva, egli suggerisce l’implementazione di sistemi sofisticati per monitorare attentamente gli agenti AI, riconoscendo tuttavia che ciò richiederà investimenti significativi.

Inoltre, Bengio sottolinea la necessità di regolamentazioni governative che impediscano alle aziende di sviluppare modelli agentici senza prima dimostrarne la sicurezza. “Sebbene un’IA sicura e competente possa avanzare la scienza, dobbiamo prima riconoscere e comprendere scientificamente i rischi associati all’IA”, ha affermato. “Dobbiamo investire tecnicamente per realizzare questo obiettivo prima che sia troppo tardi”.

Durante una precedente discussione con Demis Hassabis, CEO di Google DeepMind, riguardante la sicurezza dell’IA, Bengio ha ribadito le sue preoccupazioni sugli agenti AI, affermando: “Voglio lanciare un segnale di avvertimento. Gli agenti AI rappresentano il percorso più pericoloso”. Hassabis ha concordato, sottolineando la necessità di misure di mitigazione dei rischi prima del rilascio degli agenti AI, aggiungendo che tali misure saranno efficaci solo se tutte le aziende aderiranno alle stesse regole.

Ha inoltre osservato che, purtroppo, molte persone desiderano agenti AI per motivi economici, evidenziando la crescente domanda di assistenti virtuali capaci di eseguire compiti come la prenotazione di tavoli al ristorante, andando oltre semplici raccomandazioni.

Di Fantasy