La ricerca mostra che l’IA superintelligente è impossibile da controllare
Gli autori citano che l’implementazione di una regola per l’intelligenza artificiale per “non causare danni agli esseri umani” non sarebbe un’opzione se gli esseri umani non sono in grado di prevedere gli scenari che un’IA potrebbe presentare.
 
Un gruppo di ricercatori è giunto alla terrificante conclusione che contenere l’IA della superintelligenza potrebbe non essere possibile. Affermano che il controllo dell’IA andrebbe oltre la comprensione umana. 

Secondo il Journal of Artificial Intelligence Research , nell’articolo intitolato “La superintelligenza non può essere contenuta: lezioni dalla teoria della computabilità” , i ricercatori hanno affermato che il contenimento totale (in linea di principio) sarebbe impossibile a causa dei limiti fondamentali inerenti all’informatica. Afferma inoltre che è matematicamente impossibile per gli esseri umani calcolare i piani di un’IA, rendendola così incontenibile. 

 
Gli autori citano che l’implementazione di una regola per l’intelligenza artificiale per “non causare danni agli esseri umani” non sarebbe un’opzione se gli esseri umani non sono in grado di prevedere gli scenari che un’IA potrebbe presentare. Credono che mentre un sistema informatico funziona a un livello indipendente, gli esseri umani non possono più porre limiti. Il ragionamento del team è stato in parte ispirato dalla formulazione di Alan Turing del problema dell’arresto nel 1936. Il problema è incentrato sul sapere se un programma per computer raggiungerà una conclusione o una risposta; facendolo fermare o semplicemente in loop per sempre cercando di trovarne uno.

Un estratto del documento recita: “Questo perché una superintelligenza è sfaccettata e quindi potenzialmente in grado di mobilitare una diversità di risorse al fine di raggiungere obiettivi potenzialmente incomprensibili per gli esseri umani, per non parlare controllabili”.

 
L’informatico, Iyad Rahwan , dell’Istituto Max-Planck per lo sviluppo umano , in Germania, ha affermato: “In effetti, questo rende inutilizzabile l’algoritmo di contenimento”. Ciò significa che le macchine svolgono alcuni compiti importanti in modo indipendente, senza che i programmatori comprendano appieno come l’hanno appreso. 

Tuttavia, i ricercatori hanno suggerito alternative sull’insegnamento dell’etica all’IA. Limitare il potenziale della superintelligenza potrebbe impedire alle IA di annientare il mondo, anche se rimangono imprevedibili.

Di ihal