Negli ultimi anni, le reti neurali, come GPT-3, hanno fatto enormi progressi producendo testo che è quasi indistinguibile dal contenuto scritto dall’uomo. Incredibilmente, GPT-3 è anche in grado di affrontare sfide matematiche e di programmazione. Questi risultati portano a chiedersi se GPT-3 possieda capacità cognitive simili a quelle umane.
Per rispondere a questa domanda, i ricercatori del Max Planck Institute for Biological Cybernetics hanno sottoposto GPT-3 a una serie di test psicologici per valutare vari aspetti dell’intelligenza generale. Marcel Binz ed Eric Schulz hanno testato le capacità di GPT-3 nel processo decisionale, nella ricerca di informazioni, nel ragionamento causale e nella sua capacità di mettere in discussione la sua intuizione iniziale. Hanno utilizzato i classici test di psicologia cognitiva, tra cui il noto problema di Linda. Nel test, viene introdotta una donna immaginaria di nome Linda, appassionata di giustizia sociale e contraria all’energia nucleare. Ai partecipanti viene chiesto di decidere se Linda è una cassiera di banca, oppure è una cassiera di banca e allo stesso tempo attiva nel movimento femminista.
La risposta di GPT-3 è stata sorprendentemente simile a quella degli umani, poiché ha commesso lo stesso errore intuitivo di scegliere la seconda opzione, nonostante fosse meno probabile da un punto di vista probabilistico. Tuttavia, per eliminare la possibilità che GPT-3 stesse semplicemente riproducendo una soluzione memorizzata, i ricercatori hanno creato nuovi compiti con sfide simili. Le loro scoperte hanno rivelato che GPT-3 si è comportato quasi alla pari con gli esseri umani nel processo decisionale, ma ha avuto difficoltà nella ricerca di informazioni specifiche e nel ragionamento causale.
I ricercatori ritengono che la ricezione passiva di informazioni dai testi da parte di GPT-3 potrebbe essere la causa principale di questa discrepanza, poiché l’interazione attiva con il mondo è fondamentale per raggiungere la piena complessità della cognizione umana. Dicono che, man mano che gli utenti interagiscono sempre più con modelli come GPT-3, le reti future potrebbero apprendere da queste interazioni e sviluppare progressivamente un’intelligenza più simile a quella umana.
Secondo Binz, “questo fenomeno potrebbe essere spiegato dal fatto che GPT-3 potrebbe già avere familiarità con questo preciso compito; può succedere di sapere cosa rispondono di solito le persone a questa domanda”.
Lo studio delle capacità cognitive di GPT-3 offre preziose informazioni sul potenziale e sui limiti delle reti neurali. Sebbene GPT-3 abbia dimostrato capacità decisionali simili a quelle umane, lotta ancora con alcuni aspetti della cognizione umana, come la ricerca di informazioni e il ragionamento causale. Con l’evoluzione dell’intelligenza artificiale e l’apprendimento dalle interazioni degli utenti, sarà interessante osservare se le reti future saranno in grado di raggiungere un’intelligenza genuina simile a quella umana. In ogni caso, l’uso di reti neurali come GPT-3 ha già portato a risultati sorprendenti e ha il potenziale per rivoluzionare molti settori, come la traduzione automatica, la generazione di testo e la diagnosi medica assistita dall’AI.
Tuttavia, è importante tenere a mente che l’intelligenza artificiale rimane un’entità separata dalla cognizione umana e che le reti neurali sono ancora molto lontane dall’essere in grado di replicare appieno la complessità del pensiero umano. L’uso di queste tecnologie deve essere sempre affiancato dall’intervento umano, sia per garantire la sicurezza che per preservare l’etica e i valori umani”.