I ricercatori affermano che gli esseri umani non sarebbero in grado di controllare l’IA superintelligente
Chiunque sia a conoscenza dell’intelligenza artificiale (AI) ha probabilmente sentito qualche versione al riguardo, alla fine liberandosi dal controllo umano. Questo non è solo un tema dei film di fantascienza, ma piuttosto una possibilità molto forte che ha molti esperti del settore interessato. Molti di questi esperti, compresi gli scienziati, sostengono che iniziamo a prepararci per questa possibilità e ad evitarla in tutti i modi possibili.
Ora, un team internazionale di ricercatori ha preso questa idea e l’ha sostenuta con calcoli teorici. Il team, che comprendeva scienziati del Center for Humans and Machines presso il Max Planck Institute for Human Development, ha utilizzato questi calcoli per dimostrare come non sarebbe stato possibile controllare un’IA superintelligente.
La ricerca è stata recentemente pubblicata sul Journal of Artificial Intelligence Research .
La paura per un sistema di intelligenza artificiale superintelligente ha a che fare con il fatto che un tale sistema sarebbe di gran lunga superiore agli umani. Sarebbe in grado non solo di apprendere in modo indipendente, ma potrebbe anche accedere a tutti i dati esistenti ed elaborarli in modo estremamente veloce.
Un tale evento potrebbe portare l’IA superintelligente a superare tutte le macchine esistenti online, e mentre potrebbe e farebbe cose come curare le malattie e risolvere altri importanti problemi che l’umanità deve affrontare, anche il rischio che le cose vadano fuori controllo è alto.
Manuel Cebrian è coautore dello studio e Leader del Digital Mobilization Group presso il Center for Humans and Machines, Max Planck Institute for Human Development.
“Una macchina super intelligente che controlla il mondo sembra fantascienza. Ma esistono già macchine che eseguono determinati compiti importanti in modo indipendente senza che i programmatori comprendano appieno come l’hanno imparato. Sorge quindi la domanda se questo potrebbe a un certo punto diventare incontrollabile e pericoloso per l’umanità “, dice Cebrian.
Controllo del sistema
Ci sono due principali scuole di pensiero quando si tratta di controllare un tale sistema. In primo luogo, gli esseri umani potrebbero limitare le capacità di un’IA superintelligente limitando il suo accesso ad alcune fonti di dati, come l’intera Internet. Il sistema potrebbe funzionare anche senza entrare in contatto con il mondo esterno. Tuttavia, il problema con questo è che limiterebbe drasticamente il potenziale dell’IA.
Il sistema verrebbe controllato solo consentendogli di perseguire risultati che andrebbero a beneficio dell’umanità, e questo potrebbe essere fatto programmando principi etici in esso.
Lo studio ha coinvolto il team nello sviluppo di un algoritmo di contenimento teorico che impedisce all’IA superintelligente di danneggiare gli esseri umani in qualsiasi circostanza. Ciò può essere ottenuto creando prima una simulazione del comportamento dell’IA e rilevando qualsiasi comportamento che potrebbe essere dannoso. Nonostante questa promettente teoria, l’attuale analisi mostra che un tale algoritmo non può essere sviluppato.
Iyad Rahwan è Direttore del Center for Humans and Machines.
“Se si scompone il problema in regole di base dell’informatica teorica, si scopre che un algoritmo che comanderebbe a un’intelligenza artificiale di non distruggere il mondo potrebbe inavvertitamente interrompere le proprie operazioni. Se ciò accadesse, non sapresti se l’algoritmo di contenimento sta ancora analizzando la minaccia o se ha smesso di contenere l’IA dannosa. In effetti, questo rende inutilizzabile l’algoritmo di contenimento “, afferma Rahwan.
Un altro problema è che gli esperti potrebbero anche non rendersi conto quando una macchina superintelligente raggiunge quello stato, principalmente a causa del fatto che sarebbe più intelligente degli umani.