Attenzione: l’IA potrebbe effettivamente essere in grado di spazzare via l’umanità
Scienziati dell’Università di Oxford e affiliati a Google DeepMind hanno pubblicato un documento che esplora la possibilità che agenti super intelligenti distruggano l’umanità
Il tropo più popolare nella fantascienza sono stati i robot che hanno conquistato il mondo. Quella che sembrava una finzione allora, viene lentamente temuta come l’inevitabile realtà nel prossimo futuro a causa del ritmo vertiginoso con cui l’IA sta progredendo. Stephen Hawking, in un’intervista del 2014 con WIRED, ha dichiarato: “Temo che l’IA possa sostituire del tutto gli esseri umani. Se le persone progettano virus per computer, qualcuno progetterà un’intelligenza artificiale che migliora e si replica. Questa sarà una nuova forma di vita che supererà gli umani”.
Sembra che queste paure non siano del tutto infondate.
Gli scienziati dell’Università di Oxford e affiliati a Google DeepMind hanno pubblicato un documento che esplora la possibilità che agenti superintelligenti distruggano l’umanità.
Ricompensa ad ogni costo
Per questo studio, i ricercatori hanno considerato agenti “avanzati”, riferendosi ad agenti in grado di selezionare efficacemente i propri output o azioni per ottenere un’elevata utilità attesa in un’ampia varietà di ambienti. Hanno selezionato un ambiente il più vicino possibile al mondo reale. In uno scenario del genere, poiché l’obiettivo dell’agente non è una funzione codificata della sua azione, dovrebbe pianificare le sue attività e apprendere quali azioni gli servono per raggiungere il suo obiettivo.
I ricercatori mostrano che è probabile che un agente avanzato che è motivato da una “ricompensa” ad intervenire abbia successo, il più delle volte, con risultati catastrofici. Quando l’agente inizia a interagire con il mondo e a ricevere percezioni per saperne di più sul suo ambiente, ci sono innumerevoli possibilità. Gli scienziati sostengono che un agente sufficientemente avanzato vanificherebbe qualsiasi tentativo (anche quelli compiuti dagli umani) per impedirgli di ottenere la suddetta ricompensa.
“Un buon modo per un agente di mantenere il controllo a lungo termine della propria ricompensa è eliminare potenziali minacce e utilizzare tutta l’energia disponibile per proteggere il proprio computer”, afferma il documento, aggiungendo inoltre: “Un adeguato intervento di fornitura della ricompensa, che implica la protezione ricompensa in molti passaggi temporali, richiederebbe la rimozione della capacità dell’umanità di farlo, forse con forza.
Secondo il documento, la vita sulla Terra si trasformerà in un gioco a somma zero tra l’umanità. Gli agenti avanzati cercherebbero di sfruttare tutte le risorse disponibili per coltivare cibo e usufruire di altre necessità e proteggersi dall’escalation dei tentativi di fermarlo.
Leggi il documento completo qui : https://onlinelibrary.wiley.com/doi/10.1002/aaai.12064#aaai12064-bib-0007
Vera minaccia o esagerazione
In un’intervista del 2020 con il New York Times, Elon Musk aveva affermato che è probabile che l’IA superi gli umani. Ha affermato che l’intelligenza artificiale sarà molto più intelligente degli umani e supererà la razza umana entro il 2025. Crede fermamente che l’IA spazzerà via l’umanità e ha affermato più volte che distruggerà l’umanità senza nemmeno pensarci.
Nel 2018, parlando alla conferenza sulla tecnologia South by Southwest (SXSW) in Texas, aveva affermato che l’IA è molto più pericolosa delle armi nucleari. Ha anche aggiunto che non esiste un organismo di regolamentazione che supervisioni il suo sviluppo, il che è folle. In precedenza aveva detto che mentre gli umani moriranno, l’IA sarà immortale. Vivrà per sempre. Definisce AI “un ‘dittatore immortale’ dal quale non potremo mai scappare”.
Discutiamo della preoccupazione di Musk qui perché era uno degli investitori in Deepmind. È interessante notare che durante questa intervista, Musk ha espresso la sua “massima preoccupazione” per DeepMind di Google, dicendo: “Proprio la natura dell’IA che stanno costruendo è quella che schiaccia tutti gli umani in tutti i giochi”.
Il 14 novembre 2014, Elon Musk ha pubblicato un messaggio su un sito Web chiamato Edge.org. Ha scritto che nei laboratori di ricerca sull’intelligenza artificiale come DeepMind, l’intelligenza artificiale stava migliorando a un ritmo allarmante: “A meno che tu non abbia un’esposizione diretta a gruppi come DeepMind, non hai idea di quanto velocemente: sta crescendo a un ritmo vicino all’esponenziale. Il rischio che accada qualcosa di gravemente pericoloso è nell’arco di cinque anni. Dieci anni al massimo. Non si tratta di piangere al lupo per qualcosa che non capisco. Non sono il solo a pensare che dovremmo preoccuparci. Le principali aziende di intelligenza artificiale hanno adottato grandi passi per garantire la sicurezza. Riconoscono il pericolo ma credono di poter plasmare e controllare le superintelligenze digitali e impedire a quelle cattive di fuggire su Internet. Resta da vedere. . . .”
Il messaggio è stato cancellato poco dopo.