Home / Filosofia e IA / L’intelligenza artificiale è un buon giudice di causa ed effetto?

L’intelligenza artificiale è un buon giudice di causa ed effetto?


 
I ricercatori di Stanford hanno sviluppato un modello computazionale per capire come gli esseri umani giudicano la causalità in situazioni fisiche dinamiche.
 
“Il ragionamento causale è una componente indispensabile del pensiero umano che dovrebbe essere formalizzato e algoritmizzato per raggiungere l’intelligenza della macchina a livello umano”.

Perla della Giudea
Incorporare le intuizioni della ricerca psicologica negli algoritmi è complicato poiché il primo non è esattamente una metrica quantificabile. Ma può essere molto utile in quanto gli algoritmi si stanno avventurando in un mondo pieno di “problemi di carrelli” sotto forma di auto a guida autonoma e diagnosi mediche. 

Tobias Gerstenbeg, assistente professore di psicologia a Stanford, crede che fornendo una caratterizzazione più quantitativa di una teoria del comportamento umano e istanziandola in un programma per computer, possiamo rendere più facile per un informatico incorporare tali intuizioni in un sistema di intelligenza artificiale. Gerstenbeg e i suoi colleghi di Stanford hanno sviluppato un modello computazionale per capire come gli esseri umani giudicano la causalità in situazioni fisiche dinamiche.

Registrati al nostro prossimo webinar sulle piattaforme dati

Informazioni sul modello
 

Nel loro articolo sul modello di simulazione controfattuale (CSM) del giudizio causale, i ricercatori iniziano a fare tre ipotesi chiave:

I giudizi causali riguardano il fare la differenza.
La creazione di differenze per eventi particolari si esprime al meglio in termini di contrasti controfattuali rispetto ai modelli causali.
Esistono molteplici aspetti della causalità che corrispondono a diversi modi di fare la differenza nell’esito che determinano congiuntamente i giudizi causali delle persone. 
Come caso di studio, i ricercatori hanno prima applicato il CSM per spiegare i giudizi causali delle persone sugli eventi di collisione dinamica. Hanno considerato una palla da biliardo simulata B come mostrato sopra che entra da destra, diretta verso un cancello aperto nella parete opposta. Bloccando il percorso, hanno messo un mattone. La palla A sarebbe quindi entrata dall’angolo in alto a destra e si sarebbe scontrata con la palla B, che rimbalza sulla parete inferiore e risale attraverso il cancello.

Quindi, ora la domanda è: la palla A ha fatto passare la palla B attraverso il cancello? È ovvio che senza la palla A, la palla B sarebbe andata a sbattere contro il mattone invece di attraversare il cancello. 

 

Senza il mattone nel percorso della palla B, sarebbe comunque passato attraverso il cancello senza l’assistenza della palla A. La relazione di causalità tra la palla A e la palla B in presenza e assenza di un fattore esterno viene qui verificata. Gerstenberg e i suoi colleghi hanno eseguito tali scenari attraverso un modello al computer progettato per prevedere come un essere umano valuta la causalità. L’idea qui è che le persone giudichino la causalità confrontando ciò che è realmente accaduto con ciò che sarebbe accaduto in situazioni controfattuali rilevanti. In effetti, come dimostra l’esempio del biliardo sopra, il senso di causalità dell’essere umano differisce quando i controfattuali sono diversi, anche quando gli eventi reali sono immutati.

Estendere CSM ad AI
Ora i ricercatori stanno lavorando per estendere la stessa teoria del modello di simulazione controfattuale della causalità sui sistemi di intelligenza artificiale. L’obiettivo qui è sviluppare sistemi di intelligenza artificiale che comprendano le spiegazioni causali come fanno gli umani. E, essere in grado di dimostrare scenari in cui i sistemi di intelligenza artificiale sono realizzati per analizzare una partita di calcio e individuare gli eventi chiave causalmente rilevanti per il risultato finale; se sono i goal che hanno causato la vittoria o controfattuali come se le parate del portiere abbiano contribuito di più. Questo è un compito che richiederebbe al sistema di intelligenza artificiale di imitare il più intelligente dei team manager. Tuttavia, Gerstenberg ammette che la loro ricerca è ancora in una fase nascente. “Non possiamo ancora farlo, ma almeno in linea di principio, il tipo di analisi che proponiamo dovrebbe essere applicabile a questo tipo di situazioni”, ha aggiunto. 

Nel progetto SEE (la scienza e l’ingegneria della spiegazione), finanziato da Stanford HAI, i ricercatori stanno utilizzando l’elaborazione del linguaggio naturale per sviluppare una comprensione linguistica più raffinata di come gli esseri umani pensano alla causalità. Attraverso il loro studio sul CSM, i ricercatori hanno provato per rispondere alla domanda fondamentale: come fanno le persone a formulare giudizi causali? I risultati hanno rivelato che i giudizi delle persone sono influenzati da diversi aspetti della causalità, come se la causa candidata fosse necessaria e sufficiente perché si verificasse l’esito, nonché se influenzasse il modo in cui si è verificato l’esito. Modellando questi aspetti in termini di contrasti controfattuali, il CSM cattura accuratamente i giudizi dei partecipanti in un’ampia varietà di scene fisiche che coinvolgono cause singole e multiple.

 

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi