Recenti studi di Google DeepMind hanno sollevato preoccupazioni riguardo allo sviluppo imminente dell’Intelligenza Artificiale Generale (AGI), previsto entro la fine del decennio. L’AGI rappresenta un sistema in grado di eseguire una vasta gamma di compiti cognitivi, raggiungendo o superando le capacità umane. Tuttavia, l’auto-miglioramento ricorsivo dell’IA, in cui i sistemi IA sviluppano autonomamente versioni più avanzate di se stessi, potrebbe portare a una crescita esponenziale incontrollata dell’intelligenza artificiale, creando sfide significative per la sicurezza globale.
Il 2 aprile, Google DeepMind ha pubblicato un documento di 145 pagine intitolato “Un approccio alla sicurezza e protezione tecnica dell’AGI”, redatto da 30 ricercatori, tra cui il co-fondatore Shane Legg. Il team prevede lo sviluppo di un’AGI “eccezionale” entro il 2030, definita come un sistema con capacità equivalenti almeno al 99% degli adulti qualificati in una vasta gamma di compiti non fisici, inclusi quelli metacognitivi come l’apprendimento di nuove competenze. Tuttavia, avvertono che tale sviluppo potrebbe comportare “gravi danni”, descrivendoli come una “minaccia esistenziale che minaccia di distruggere l’umanità in modo permanente”.
Uno degli aspetti più discussi è l’auto-miglioramento ricorsivo dell’IA, un ciclo di feedback in cui un’intelligenza artificiale conduce autonomamente ricerche e sviluppa sistemi più sofisticati. Questo processo potrebbe portare a una crescita esponenziale delle capacità dell’IA in breve tempo, sollevando preoccupazioni simili a quelle rappresentate nel film “Terminator”, dove le macchine diventano indipendenti dall’intenzione umana.
In risposta a queste preoccupazioni, il documento di Google sottolinea la necessità di sviluppare tecnologie che limitino l’accesso dannoso alle intelligenze artificiali, migliorando la comprensione del comportamento dei sistemi IA e rafforzando gli ambienti in cui l’IA può operare. Riconoscono che questa ricerca è nelle sue fasi iniziali e che ci sono ampi margini di miglioramento. Gli autori affermano che “per costruire un’intelligenza artificiale intelligente in modo responsabile, è fondamentale che gli sviluppatori di intelligenza artificiale avanzata pianifichino in anticipo per mitigare i danni gravi”.
Tuttavia, alcuni esperti sollevano dubbi sulle previsioni di Google. Heidi Klaf, capo scienziato dell’intelligenza artificiale presso l’istituto no-profit AI Now, ha dichiarato che il concetto di AGI di Google è “troppo vago per essere valutato scientificamente”. Matthew Guzdial, professore presso l’Università di Alberta, ha affermato che, allo stato attuale della tecnologia, l’auto-miglioramento ricorsivo dell’intelligenza artificiale non è realistico. “Il miglioramento ricorsivo è la logica di base dietro l’argomento della singolarità dell’intelligenza artificiale”, ha affermato, “ma devo ancora vedere prove che un tale sistema funzioni”.