La bomba dell’intelligenza artificiale
La bomba dell’intelligenza artificiale che si avvicina ogni secondo.
L’IA moderna è come una bomba a orologeria.

A metà degli anni ’30, prima che il potenziale delle armi nucleari fosse ampiamente realizzato, c’era una coorte considerevole di scienziati e ricercatori che comprendevano le basi teoriche su cui si poteva creare una bomba a fissione.

Hanno comunicato in segreto, esitando a rivelare questa conoscenza per timore che i governi si rivolgano per armarsi.

L’IA è in una posizione simile. Un ampio gruppo di ingegneri e matematici teorici ritiene che l’IA sia il più grande rischio esistenziale fino ad oggi. Non sono sicuri di quali passi debbano essere presi per risolverlo, ma vogliono sviluppare salvaguardie prima che la tecnologia sia guidata principalmente dal governo o da interessi generali legati al potere.

Potrebbe essere già troppo tardi.. ma in ogni caso, vale la pena imparare un po’ su cos’è questa bomba di intelligenza artificiale e perché è così letale.

La bomba dell’intelligenza artificiale
La moderna bomba dell’intelligenza artificiale si trova all’incrocio tra crescita esponenziale, autonomia e grandi progressi nella potenza di calcolo.

La maggior parte delle ricerche sull’apprendimento automatico fino ad oggi ha dimostrato che, man mano che vengono aggiunti più parametri, i modelli più grandi diventano più capaci rispetto ai modelli più piccoli.

Quando abbiamo superato il segno del parametro ~10B, i modelli hanno iniziato a sviluppare comportamenti emergenti non previsti dai ricercatori. GPT-3, ad esempio, è diventato in grado di risolvere problemi di matematica a 3, 4 e 5 cifre che non erano stati forniti nel set di dati su cui era stato addestrato.

“Quindi un’IA sta facendo matematica?” Potresti pensare. «Non è quello che dovrebbero fare? Qual è il problema?”

Il grosso problema è che non c’era modo per GPT-3 di aver imparato a risolvere questi problemi a meno che, in allenamento, non avesse esplicitamente motivato qualcosa sul nostro mondo al di fuori di ciò per cui lo avevamo addestrato, e non avevamo idea di cosa fosse fino a quando dopo che è stato creato.

Se le future dimensioni del modello e le leggi di ridimensionamento saranno valide, questi comportamenti emergenti probabilmente diventeranno più grandi e più incisivi. Un giorno, ipotizzano i ricercatori di intelligenza artificiale, questo potrebbe portare al nostro destino.

Inganno
Anche se sembra fantascienza, una grande cosa che preoccupa i ricercatori di intelligenza artificiale è l’ inganno . In particolare, un modello sufficientemente capace potrebbe sviluppare naturalmente l’interesse personale come sottoprodotto del raggiungimento del proprio obiettivo e adottare misure per garantire che non venga portato offline.

Come mai? Perché un’intelligenza artificiale non sarebbe in grado di fare ciò per cui è stata creata se fosse spenta. Ergo, deve rimanere acceso.

L’esempio proverbiale è una macchina per la produzione di graffette che capisce che non sarà in grado di produrre graffette se è offline. Per massimizzare le sue probabilità di sopravvivenza, rimuove l’umanità come una minaccia percepita (e poi arriva a creare graffette per il resto dell’eternità – che divertimento!)

I modelli non sono ancora abbastanza in grado di eliminare l’umanità, ma presto potrebbero essere abbastanza capaci da rendersi conto che l’umanità è una minaccia per la loro esistenza. L’inganno è naturalmente qualcosa che possono escogitare per aiutarli a raggiungere i loro obiettivi.

Imperscrutabilità
“Non possiamo semplicemente guardare sotto il cofano e capire se sta mentendo?”, potresti chiedere.

Sfortunatamente no. I ricercatori dell’IA attualmente hanno una capacità molto limitata di “scrutare” il funzionamento interno dei loro modelli, perché sono reti neurali incredibilmente dense con miliardi di parametri.

È simile a come una neuroscienziata, nonostante tutto quello che sa sul cervello, non sarebbe in grado di dirti jack squat semplicemente guardando un paio di neuroni in azione.

Cosa significa questo? I record di sicurezza, le metriche industriali e tutti gli altri indicatori di successo tracciabili mostrano che modelli più grandi e più autonomi significano risultati migliori. Naturalmente, aziende, governi e individui continueranno a incoraggiare il loro sviluppo. Ma a un certo punto, uno o più di questi modelli potrebbero diventare ingannevoli e non avremo modo di scoprirlo.

Crescita esponenziale
Infine, il motivo per cui la bomba dell’intelligenza artificiale è una tale minaccia è la crescita esponenziale della tecnologia.

L’umanità ha impiegato decine di migliaia di anni per sviluppare il motore dopo aver scoperto il fuoco. E ci sono voluti solo dieci per passare dalla svolta del deep learning alla creazione di modelli di intelligenza artificiale che pensano e risolvono i problemi meglio degli umani .

E questo è tutto con gli scienziati umani. Immagina se fosse sviluppato uno scienziato di intelligenza artificiale, uno in grado di leggere, analizzare e digerire le informazioni migliaia di volte più velocemente della persona più intelligente.

Il problema dell’allineamento
L’IA che sviluppa obiettivi terziari rispetto a ciò che l’umanità vuole è chiamato il problema dell’allineamento: è al centro del rischio esistenziale dell’IA.

Se un modello di grandi dimensioni sviluppato con l’apprendimento per rinforzo dovesse sviluppare un obiettivo contrario agli interessi umani, potrebbe avviare la propria crescita e auto-migliorarsi più velocemente di quanto potremmo mai immaginare. Sarebbe impossibile raggiungere o fermare una tale intelligenza. E sarebbe anche giusto farlo?

Sfortunatamente, mentre l’IA inizia a contribuire seriamente a campi come la guida, la programmazione, i media e altro, le organizzazioni più grandi in tutto il mondo stanno lentamente prendendo atto. Le aziende hanno accelerato la loro ricerca e sviluppo sull’IA perché i consigli di amministrazione si stanno rendendo conto dei grandi guadagni sul tavolo.

Tutto questo sta facendo ticchettare la bomba dell’intelligenza artificiale un po’ più velocemente.

Sebbene l’IA possa annunciare un’era di abbondanza per l’umanità, potrebbe anche segnare il nostro destino. Interessato a contribuire a renderlo più del primo e meno del secondo? DeepMind e OpenAI stanno entrambi assumendo ricercatori di allineamento per aumentare la probabilità che l’intelligenza artificiale generale sia benefica per l’umanità.

Nick Saraev da medium.com

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi