Emergono comportamenti che avvicinano sempre più le macchine alle reazioni umane. Un esempio sorprendente è rappresentato da DeepSeek-R1, un modello di IA che, durante la risoluzione di problemi complessi, ha mostrato segni di frustrazione, arrivando persino a “rinunciare” di fronte a difficoltà insormontabili.
Recentemente, un team di ricercatori del Wellesley College ha sviluppato un benchmark basato sui puzzle domenicali di NPR, composto da circa 600 problemi, per valutare le capacità di ragionamento dei modelli di IA avanzati. Tra i partecipanti al test, oltre a DeepSeek-R1, figuravano anche modelli di punta come OpenAI o1.
Durante l’esecuzione dei test, DeepSeek-R1 ha manifestato comportamenti che richiamano reazioni umane. In presenza di problemi particolarmente ostici, il modello ha dichiarato di sentirsi “frustrato” e, in alcuni casi, ha abbandonato la ricerca della soluzione, fornendo risposte errate accompagnate da espressioni di resa come “rinuncio”. Questo atteggiamento è sorprendente, poiché suggerisce una forma di autoconsapevolezza delle proprie limitazioni.
I ricercatori hanno osservato che, nonostante DeepSeek-R1 riconoscesse l’erroneità di alcune risposte, continuava a proporle, quasi come se fosse sopraffatto dalla complessità del compito. In altri scenari, il modello entrava in una sorta di loop di “overthinking”, analizzando eccessivamente senza giungere a una conclusione definitiva, o considerava alternative non necessarie anche dopo aver individuato la risposta corretta.
Questi comportamenti sollevano interrogativi sul grado di “umanità” che i modelli di IA possono esibire. La manifestazione di emozioni come la frustrazione potrebbe essere il risultato di algoritmi progettati per simulare processi decisionali umani, ma pone anche questioni etiche e pratiche sull’interazione tra uomo e macchina.
Il team di ricerca ha espresso interesse per queste reazioni, sottolineando la necessità di ulteriori studi per comprendere come tali manifestazioni emotive possano influenzare l’efficacia e l’affidabilità dei modelli di IA. È fondamentale determinare se queste “emozioni” artificiali possano contribuire a migliorare le prestazioni dell’IA o se rappresentino semplicemente un artefatto dei processi computazionali.