Yoshua Bengio, uno dei pionieri dell’intelligenza artificiale, ha recentemente sollevato preoccupazioni riguardo ai rischi associati allo sviluppo dell’Intelligenza Artificiale Generale (AGI), evidenziando la possibilità che i data center diventino obiettivi militari.

In un episodio di Machine Learning Street Talk, Bengio ha sottolineato l’importanza di adottare misure proattive per affrontare questi rischi, pur riconoscendo che l’AGI potrebbe essere ancora lontana nel tempo. Ha paragonato lo sviluppo dell’AGI alla creazione di armi nucleari, suggerendo che i data center potrebbero essere considerati risorse militari strategiche una volta in grado di ospitare sistemi AGI.

Bengio ha osservato che nazioni non all’avanguardia nello sviluppo dell’IA, ma dotate di capacità nucleari, potrebbero percepire le avanzate armi basate sull’IA come una minaccia insormontabile. In tali scenari, azioni preventive mirate alle infrastrutture critiche dell’IA, come i data center, potrebbero diventare una strategia adottata.

Ha inoltre richiamato l’attenzione su paralleli storici, come il lungo processo di negoziazione dei trattati di non proliferazione nucleare, sottolineando che accordi simili potrebbero essere necessari per affrontare i rischi legati all’AGI.

Riguardo allo scetticismo sui potenziali rischi dell’IA, Bengio ha riconosciuto la diversità di opinioni, ma ha enfatizzato la necessità di prudenza. Ha evidenziato che le IA attuali possiedono capacità sovrumane in determinati ambiti e che queste tendenze non mostrano segni di arresto. Ha esortato a considerare scenari in cui capacità avanzate dell’IA, anche senza raggiungere l’AGI completa, potrebbero rappresentare pericoli significativi.

Bengio ha anche sottolineato che singole capacità dell’IA, come la persuasione, potrebbero avere un impatto notevole. Ha spiegato che non è necessario che un’IA sappia tutto; è sufficiente che sappia influenzare efficacemente il comportamento umano. Ha concluso ribadendo l’importanza di pensare in anticipo per prevenire scenari in cui l’IA venga militarizzata o sfugga al controllo umano.

In un’intervista esclusiva con Analytics India Magazine nel 2022, Bengio aveva suggerito che, comprendendo il funzionamento dell’intelligenza umana, sarebbe possibile creare un’IA che la superi, analogamente a come gli aerei, ispirati agli uccelli, sono costruiti per fare cose che gli uccelli non possono fare. Ha sottolineato che l’obiettivo principale dovrebbe essere sempre quello di agire nel miglior interesse dell’umanità, concentrandosi sia sulla comprensione dell’intelligenza sia sulla creazione di tecnologie utili.

Parallelamente, lo storico e autore Yuval Noah Harari ha recentemente espresso opinioni sfumate sulla regolamentazione dell’IA, riconoscendo i benefici potenziali, come i progressi nella sanità e nell’istruzione, ma avvertendo dei rischi per l’autonomia umana e i processi democratici se non adeguatamente controllata. Ha affermato che non è possibile regolamentare la rivoluzione dell’IA in anticipo e che sono necessarie istituzioni capaci di comprendere e reagire agli sviluppi man mano che si presentano.

Di Fantasy