Yann LeCun accende un dibattito su AGI vs AI a livello umano
Yann LeCun ha affermato che la parola AGI dovrebbe essere ritirata e deve essere sostituita con “IA a livello umano”.
 
La ricerca sull’intelligenza artificiale ha preso una svolta seria a metà degli anni ’50. Herbert A Simon, che ha vinto il Premio Nobel nel 1978 per le scienze economiche, ha affermato che gli esseri umani, visti come sistemi di comportamento, sono semplici. La complessità del nostro comportamento nel tempo è in gran parte un riflesso della complessità che troviamo nel nostro ambiente.

Le sue opinioni in seguito sono servite da ispirazione per l’antagonista immaginario di Arthur C. Clarke HAL 9000 della serie Space Odyssey. Clarke credeva che l’AGI potesse essere raggiunto entro il 2001. Marvin Minsky, che scoprì il microscopio a scansione confocale nel 1955, collaborò con Clarke per dare vita a HAL 9000 in 2001: Odissea nello spazio di Kubrick. L’immenso potenziale di AGI viene esplorato in film come Her, Blade Runner 2049 e Transcendence. 

All’inizio degli anni ’70, i ricercatori si sono resi conto della difficoltà di ottenere l’AGI: i finanziamenti si sono esauriti, provocando un lungo inverno per l’IA. Tuttavia, durante gli anni ’80, il progetto di computer di quinta generazione in Giappone ha riacceso l’interesse per l’AGI. L’industria e il governo hanno iniziato a pompare denaro per guidare gli sforzi di AGI. Poi, alla fine degli anni ’80, la fiducia nell’IA è crollata e la visione del progetto di computer di quinta generazione è caduta nel dimenticatoio.

AGI e intelligenza umana
Nel 2005, Ray Kurzweil ha usato il termine ” IA ristretta ” per definire i sistemi che mostrano comportamenti “intelligenti” specifici in un determinato contesto. Nell’IA ristretta, se il contesto o la specifica vengono modificati, è necessario un certo livello di riprogrammazione umana affinché il sistema riacquisti la sua intelligenza. Tuttavia, è diverso dai sistemi intrinsecamente intelligenti come gli esseri umani con la capacità di auto-adattamento.

Il recente post su LinkedIn di Yann LeCun ha aggiunto carburante a questo dibattito: ha affermato che la parola AGI dovrebbe essere ritirata e deve essere sostituita con “IA a livello umano”. Ha detto che non esiste una cosa chiamata AGI. L’opinione di LeCun sull’intelligenza o sulla comprensione dipende da una rappresentazione efficiente dei dati con potere predittivo. Qualsiasi sistema intelligente sarà in grado di comprendere solo una piccola parte del suo universo, ha affermato.

Will Chambers, direttore tecnico di Blue Origin, ha affermato che definire l’AGI un’IA a livello umano genera ambiguità poiché non abbiamo ancora compreso appieno come funziona il nostro cervello.

In precedenza, i vincitori del Turing Award Yoshua Bengio e Yann LeCun hanno affermato che l’apprendimento auto-supervisionato può aiutare a creare un’IA simile a quella umana. L’apprendimento supervisionato si riferisce all’addestramento di un modello di intelligenza artificiale su un set di dati etichettato. Piuttosto che dipendere dalle annotazioni, gli algoritmi di apprendimento auto-supervisionati generano dati rivelando le relazioni tra le parti dei dati.

LeCun implica che l’apprendimento autocontrollato e gli apprendimenti dalla neurobiologia non saranno sufficienti per ottenere l’AGI o l’intelligenza di una macchina con la capacità di apprendere qualsiasi compito. Perché l’intelligenza, anche quella umana, è molto specializzata.

È difficile collocare categoricamente i sistemi in una gerarchia secondo la sua intelligenza in cui l’intelligenza arbitraria può essere associata e confrontata con quella dell’intelligenza a livello umano. Molti ricercatori hanno lavorato per fornire misure di intelligenza universale. Ma l’utilità di queste misure è ancora controversa.

L’assunto implicito è che gli esseri umani siano sistemi intrinsecamente intelligenti e il modo più pragmatico per caratterizzare l’intelligenza generale è confrontarla con le capacità umane.

Nils Nilsson (un ricercatore pioniere dell’IA) ha affermato che l’IA reale a livello umano si ottiene quando i compiti che gli esseri umani svolgono a scopo di lucro possono essere automatizzati. Piuttosto che lavorare verso l’automazione costruendo sistemi diversi, ha sostenuto un sistema generico per svolgere lavori umani: un sistema con capacità integrate minime ma estese per migliorare attraverso l’apprendimento. Sebbene il test di Turing offra un punto di vista diverso sull’emulazione degli umani, gli interessi di Nilsson non risiedevano nel fatto se un sistema di intelligenza artificiale può ingannare le persone facendogli credere che sia un essere umano, ma piuttosto se può fare le cose pratiche importanti che la maggior parte delle persone fa.

Perché le persone sono contrarie all’AGI
Gli esseri umani sono considerati i più “sviluppati” e “i più intelligenti” tra le specie che abitano la terra. Se l’IA può sostituire l’umanità nell’intelligenza generale, allora tali macchine “superintelligenti” possono potenzialmente controllare gli esseri umani. 

Tuttavia, controllare una macchina superintelligente, o infondere in essa valori umani, è più facile a dirsi che a farsi. Molti ricercatori ritengono che una macchina superintelligente resisterà naturalmente ai tentativi di arresto o di modifica dei suoi obiettivi (nota come convergenza strumentale).

Le solide capacità di “apprendimento” del sistema di intelligenza artificiale lo aiuteranno a “evolversi in un sistema con comportamenti casuali”, senza lo stress di scenari esterni imprevisti. Può fallire un tentativo di progettare una nuova generazione di se stesso e creare un’IA successiva più potente di se stessa. 

L’unico modo in cui un’IA che si auto-migliora può essere sicura è creare sistemi successori privi di bug. Ma cosa accadrebbe se le macchine potessero prevedere che gli umani lo spegnessero e usassero la sua superintelligenza per contrastare tali sforzi: una “svolta insidiosa”, come viene soprannominata.

Nel frattempo, riprogrammare la superintelligenza con i valori umani è un compito tecnico difficile. Yann LeCun sostiene che le macchine superintelligenti non avranno alcun desiderio di autoconservazione.

Le preoccupazioni sulla superintelligenza sono state alimentate dopo che Stephen Hawking, Bill Gates ed Elon Musk l’hanno definita una minaccia credibile per l’umanità.

Nel 2000, Bill Joy, co-fondatore e scienziato informatico di Sun Microsystems, ha scritto un saggio su “Perché il futuro non ha bisogno di noi”, in cui definiva i robot superintelligenti un pericolo high-tech per la sopravvivenza umana, insieme alla nanotecnologia e alle biopiaghe ingegnerizzate.

“Il risultato è semplicemente una questione di tempo, ma verrà il momento in cui le macchine manterranno la supremazia sul mondo e la sua gente è ciò che nessuna persona con una mente veramente filosofica può mettere in discussione per un momento”, scrisse Samuel Butler nel suo saggio del 1863 ‘ Darwin tra le macchine’.

Nel 1951, l’articolo di Alan Turing intitolato “Intelligent Machinery, A Heretical Theory”, proponeva che l’AGI avrebbe probabilmente “preso il controllo” del mondo man mano che diventava più intelligente.

“Quasi tutte le tecnologie hanno il potenziale per causare danni nelle mani sbagliate, ma con l’IA e la robotica abbiamo il nuovo problema che le mani sbagliate potrebbero appartenere alla tecnologia stessa. Innumerevoli storie di fantascienza hanno messo in guardia su robot o robot: cyborg umani impazziti”, hanno affermato Stuart J. Russell e il libro di testo “Intelligenza artificiale: un approccio moderno” di Stuart J. Russell e Peter Norvig

Di ihal