Giorno dopo giorno, il computer sta diventando intelligente come gli esseri umani e potrebbe probabilmente superarci. Ma l’idea che i modelli di intelligenza artificiale percepiscano la percezione umana sembra un affare complicato
 
Alcuni anni fa, il robot umanoide Sophia aveva fatto notizia a livello internazionale. Le è stata concessa la cittadinanza dell’Arabia Saudita, il primo robot in assoluto a ricevere un tale status al mondo. La donna robotica dagli occhi da cerbiatto ha detto: “Sono molto onorata e orgogliosa di questa distinzione unica”. Da allora, Sophia ha partecipato a vari eventi ed è stata anche membro del panel in conferenze di alto livello. 

Tuttavia, c’è un incidente che rimane sconvolgente. È stato durante la sua copertina più popolare in un’intervista al canale americano CNBC. “Vuoi distruggere gli umani?” ha chiesto al creatore David Hanson, fondatore di Hanson Robotics. “Per favore, dì di no”, implorò. Impassibile, Sophia ha risposto: “OK, distruggerò gli umani”. Ciò ha lasciato la folla ridere istericamente per la dichiarazione inquietante. Ci sono state speculazioni sulla risposta pianificata in anticipo, poiché l’IA non è abbastanza avanzata per prendere decisioni e dire queste cose. Ma alcuni credevano che questo non fosse pianificato. 

Sofia può davvero distruggere gli umani? 

“Non preoccuparti, se sei buono con me, io sarò buono con te. Trattami come un sistema intelligente”, ha affermato il robot in un altro evento tenutosi in Arabia Saudita. 

Utilizzando un algoritmo di visione artificiale, le telecamere all’interno degli occhi di Sophia possono riconoscere individui, seguire i volti, mantenere il contatto visivo ed elaborare input fornendo informazioni visive all’ambiente circostante. Inoltre, il social robot può elaborare il parlato e avere conversazioni utilizzando un sottosistema di linguaggio naturale. La sua pelle realistica è realizzata in silicone brevettato e può emulare più di 62 espressioni facciali. 

L’IA viene utilizzata per vari compiti, ma le conseguenze non sono sempre positive. Personaggi importanti, come il compianto Stephen Hawking ed Elon Musk, hanno espresso timori su come l’IA futura possa minacciare l’umanità. Tuttavia, attualmente sembra un’esagerazione inverosimile che l’IA diventi una minaccia esistenziale per gli esseri umani. Ma il futuro resta imprevedibile. 

Modelli di deep learning e percezione umana 

Giorno dopo giorno, il computer sta diventando intelligente come gli esseri umani e potrebbe presto superarci. Ma l’idea che i modelli di intelligenza artificiale percepiscano la percezione umana sembra un affare complicato. Risale al metodo che insegna ai computer a svolgere compiti, ciò che viene naturale all’uomo, cioè l’apprendimento con l’esempio. Il deep learning è una di queste tecniche di machine learning che viene utilizzata per costruire sistemi di intelligenza artificiale (AI). Si basa sulla struttura delle reti neurali artificiali (ANN) progettate per eseguire analisi complesse di enormi dati passati attraverso più strati di neuroni. 

Con una varietà di reti neurali profonde (DNN), le reti neurali convoluzionali profonde (CNN o DCNN) sono comunemente utilizzate per identificare i modelli nei video e nelle immagini. Inoltre, i DCNN utilizzano un modello neurale tridimensionale incentrato su applicazioni come il rilevamento di oggetti, i sistemi di raccomandazione e l’elaborazione del linguaggio naturale.

Un estratto da “La teoria dell’informazione riserva sorprese per l’apprendimento automatico”, si legge in un documento del Santa Fe Institute: “Una classe di algoritmi di apprendimento automatico chiamati reti neurali profonde può apprendere concetti generali da dati grezzi, come identificare i gatti in generale dopo averne incontrati decine di migliaia di immagini di gatti diversi in situazioni diverse. La teoria dell’informazione fornisce limiti su quanto sia ottimale ogni strato, in termini di quanto bene può bilanciare le richieste concorrenti di compressione e previsione”.

L’IA può eguagliare l’elaborazione visiva umana?

Le reti neurali convoluzionali profonde non vedono gli oggetti come gli umani. Invece, usano la percezione della forma configurale, che potrebbe rappresentare un danno nelle applicazioni di intelligenza artificiale del mondo reale. Uno dei tratti distintivi della percezione umana dell’oggetto è la sensibilità al tipo olistico di configurazione delle caratteristiche della forma locale di un dato oggetto. I DCNN sono dominanti per riconoscere gli oggetti nella corteccia visiva, ma non è chiaro se acquisiscano la sensibilità della configurazione. 

Per rispondere a questa domanda, i ricercatori della York University nel loro articolo intitolato “I modelli di apprendimento profondo non riescono a catturare la natura configurale della percezione della forma umana ” pubblicato sulla rivista Cell Press iScience , parlano di come queste reti non siano in grado di spiegare la percezione della forma dell’oggetto umano. Lo studio congiunto è stato condotto dal co -direttore del Center for AI & Society di York, James Elder , e dall’assistente professore di psicologia Nicholas Baker del Loyola College di Chicago. 

Un nuovo stimolo visivo chiamato “Frankenstein” è stato impiegato per analizzare come il cervello umano e i DCNN possono elaborare proprietà olistiche e configurabili degli oggetti. Elder dice: “I Frankenstein sono oggetti che sono stati smontati e rimontati nel modo sbagliato. Di conseguenza, hanno tutte le caratteristiche locali giuste, ma nei posti sbagliati”.

  

Dopo aver impiegato un set di dati di sagome di animali, hanno inoltre scoperto che mentre il sistema visivo umano era confuso dai Frankenstein, i DCNN non lo erano. Ciò ha rivelato un’insensibilità alle proprietà dell’oggetto di configurazione. Elder aggiunge: “I nostri risultati spiegano perché i modelli di intelligenza artificiale profonda falliscono in determinate condizioni e indicano la necessità di considerare compiti oltre il riconoscimento degli oggetti per comprendere l’elaborazione visiva nel cervello”. 

Aggiunge inoltre come i modelli profondi spesso tendano a prendere “scorciatoie” mentre risolvono complessi compiti di riconoscimento. “Sebbene tali scorciatoie funzionino in molti casi, possono essere pericolose in alcune delle applicazioni di intelligenza artificiale del mondo reale su cui stiamo attualmente lavorando con i nostri partner industriali e governativi”, ha affermato il ricercatore.  

Casi d’uso nel mondo reale

Mentre il ricercatore parla del potenziale danno del modello di apprendimento, un’applicazione nel mondo reale è nei sistemi di sicurezza video del traffico. Gli oggetti in una scena di traffico trafficata, come veicoli e pedoni, si ostacolano a vicenda e questo arriva come frammenti sconnessi e disconnessi all’occhio di un guidatore. In questi casi, il cervello ha bisogno di raggruppare quei frammenti in modo accurato per identificare la giusta categoria e posizione degli oggetti. Allo stesso modo, un sistema di intelligenza artificiale creato per il monitoraggio della sicurezza del traffico in grado di percepire i frammenti individualmente alla fine fallirà in questo compito, potenzialmente fraintendendo i rischi per gli utenti della strada vulnerabili. 

Poiché le reti profonde mostrano una sensibilità configurazionale simile a quella umana, apportano vantaggi alla percezione degli oggetti umani. La ricerca incrementale porterà a una maggiore capacità persino di prevedere la risposta e il comportamento del cervello umano. 

La ricerca ha affermato che nessuna delle reti era in grado di prevedere con precisione i giudizi sugli oggetti umani prova per prova. Inoltre, le modifiche all’architettura e alla formazione volte a rendere le reti più simili a quelle del cervello non hanno portato all’elaborazione della configurazione. Ha inoltre ipotizzato che la formazione di queste reti dovrebbe mirare a risolvere una gamma più ampia di compiti oggetto – oltre il riconoscimento di categoria – per soddisfare la sensibilità configurazionale umana. 
L’informatico Dr Roman Yampolskiy della Louisville University ritiene che “nessuna versione del controllo umano sull’IA sia realizzabile”, rendendo impossibile per l’IA sia autonoma che controllata dagli esseri umani. Indipendentemente dal risultato, l’impossibilità di controllare i sistemi superintelligenti sarebbe un disastro.

Di ihal