Il potere dell’essere umano di affrontare sfide sconosciute attraverso la capacità di fare paragoni con problemi noti, noto come ragionamento analogico, è sempre stato ritenuto un dono unicamente umano. Ma un’indagine innovativa effettuata da specialisti dell’UCLA potrebbe farci cambiare idea.
Gli studiosi dell’UCLA hanno rivelato che GPT-3, la creazione AI di OpenAI, mostra competenze di ragionamento comparabili a quelle degli studenti universitari, in particolare in problemi analoghi a quelli di test di intelligenza e prove come il SAT. Questo scopo, rivelato su Nature Human Behaviour, ci pone una domanda affascinante: GPT-3 riproduce il pensiero umano basandosi sul suo immenso database o sta seguendo un approccio cognitivo inedito?
Mentre OpenAI mantiene riservati i dettagli su come funziona GPT-3, i ricercatori sono avidi di capire la logica dietro le sue doti di ragionamento analogico. E pur avendo un’incredibile capacità in alcune attività di ragionamento, GPT-3 mostra delle lacune. Come evidenziato da Taylor Webb, capofila dello studio: “Se da un lato i risultati sono strabilianti, dobbiamo ricordare che ci sono limitazioni. GPT-3 può affrontare ragionamenti complessi, ma ha difficoltà in compiti elementari per noi, come usare strumenti in attività fisiche.”
Testando GPT-3 con problemi basati sulle matrici di Raven, convertendo le figure in testo, Webb ha garantito che fossero nuove sfide per l’AI. Confrontato con 40 studenti dell’UCLA, GPT-3 ha dimostrato un comportamento molto simile agli umani, con una precisione dell’80% nei problemi, superando la media umana.
Nelle prove successive con domande analoghe al SAT, GPT-3 ha brillato. Ha avuto però qualche incertezza nel dedurre analogie da storie, anche se GPT-4 ha mostrato miglioramenti.
Ma gli scienziati dell’UCLA non si limitano a paragoni. Stanno lavorando a un modello basato sulla cognizione umana, mettendolo continuamente alla prova con altri AI. Come sottolinea Keith Holyoak, “Il nostro modello ha sempre avuto la meglio fino all’aggiornamento di GPT-3, che ora ha competenze paragonabili o superiori.”
Il team ha, tuttavia, notato aspetti in cui GPT-3 scarseggia, come nel comprendere lo spazio fisico e nell’utilizzare gli strumenti.
Hongjing Lu riflette sui notevoli passi avanti della tecnologia recentemente, ma se questi AI veramente “riflettono” come gli esseri umani o solo ne emulano il pensiero rimane una questione aperta. Per avere risposte, sarebbe fondamentale accedere all’infrastruttura dei modelli AI, un passo che potrebbe riscrivere il futuro dell’intelligenza artificiale.
Webb ribadisce: “Esaminare l’interno dei modelli GPT sarebbe inestimabile per noi ricercatori. Ora vediamo solo input e output, ma ciò che desideriamo è una visione più profonda.”