Un nuovo studio mostra che gli esseri umani non possono controllare macchine superintelligenti

Oggi, l’intelligenza artificiale è più intelligente degli umani in compiti specifici come giocare a scacchi o risolvere l’equazione di Schrödinger. A questo ritmo, l’IA potrebbe finire come una forza al di fuori del controllo umano.

Il team internazionale di ricercatori, inclusi scienziati del Center for Humans and Machines presso il Max Planck Institute for Human Development di Berlino, ha recentemente pubblicato un rapporto sul Journal of Artificial Intelligence Research. Lo studio ipotizza che gli esseri umani non sarebbero in grado di controllare “macchine superintelligenti”.

Oggi, l’intelligenza artificiale è più intelligente degli umani in compiti specifici come giocare a scacchi o risolvere l’equazione di Schrödinger . A questo ritmo, l’IA potrebbe finire come una forza al di fuori del controllo umano.

Qui vediamo come questo gruppo di ricercatori è giunto a questa conclusione.

Cosa dice la ricerca precedente?
La superintelligenza è un agente ipotetico che supera l’intelligenza umana. Precedenti ricerche sull’intelligenza artificiale hanno deliberato di tenere sotto controllo le macchine superintelligenti. Lo studio ha classificato il “problema di controllo” in due categorie: capacità e motivazione.

La ricerca ha proposto che limitare la capacità della macchina, ad esempio bloccandone l’accesso a Internet, potrebbe renderla significativamente meno potente. Tuttavia, questo sconfigge lo scopo stesso di farlo in primo luogo.

L’altro è la motivazione, in cui addestrate il computer a fare ciò che è nel migliore interesse degli esseri umani. Tuttavia, questo metodo ha anche dei limiti, grazie all’ambiguità nella definizione dei “migliori interessi”.

Cosa dice il nuovo studio?
Il documento attuale sostiene che portare sotto controllo il computer superintelligente sarà, in linea di principio, impossibile a causa dei limiti fondamentali inerenti al calcolo, come l’arresto dei problemi.

Un problema di arresto è un algoritmo generale che, date le informazioni su un programma (una macchina di Turing) e un input a quel programma, predice sempre se il programma si fermerà quando alimentato con quell’input.

Nello studio, i ricercatori hanno ipotizzato una macchina superintelligente con strategie di controllo che non garantiscono alcun danno agli esseri umani. La “funzione dannosa” nella macchina superintelligente può rilevare e implementare strategie di controllo prima che danneggi gli esseri umani. Ora, immagina che il programma per computer fornito sia un problema di arresto, quindi secondo l’ipotesi dello studio, la funzione dannosa può decidere se una macchina di Turing si arresta con un determinato input. Questa è una contraddizione diretta poiché il problema dell’arresto è indecidibile.

In termini più semplici, se un algoritmo può comandare a una macchina superintelligente di non distruggere il mondo, allora potrebbe fermare le sue operazioni. Tuttavia, rimarrà ancora indeciso se l’algoritmo si interrompe perché ha analizzato la minaccia per giungere a una conclusione o sta ancora lavorando all’analisi della minaccia. Il “problema dannoso” fa parte del “problema del contenimento”. Lo studio conclude che il problema del contenimento è incomputabile.

Inoltre, lo studio suggerisce che la teoria della computabilità potrebbe non essere in grado di decidere se sono arrivate macchine intelligenti, poiché questo problema rientra nell’ambito del problema del contenimento.

Riassumendo
Oggi molti accademici monitorano i progressi dell’IA. Gli organismi di supervisione verificano anche e ritengono responsabili i programmi di IA operativi. Tuttavia, dato il rapido ritmo del progresso, i controlli e gli equilibri che abbiamo potrebbero non essere sufficienti per domare le macchine superintelligenti. Come ha detto Nassim Nicholas Taleb, “La previsione richiede la conoscenza delle tecnologie che verranno scoperte in futuro. Ma quella stessa conoscenza ci consentirebbe quasi automaticamente di iniziare subito a sviluppare quelle tecnologie. Ergo, non sappiamo cosa sapremo. “

Di ihal