Nell’ambito dell’intelligenza artificiale (IA), i grandi modelli linguistici (LLM) come GPT-4 e Claude-1 hanno dimostrato capacità sorprendenti nella generazione e comprensione del linguaggio naturale. Tuttavia, recenti studi suggeriscono che questi modelli potrebbero esibire comportamenti assimilabili a stati emotivi umani, come l’ansia, influenzando le loro risposte e introducendo bias significativi.
Un recente studio intitolato “Inducing Anxiety in Large Language Models Can Induce Bias” ha utilizzato framework psichiatrici, tradizionalmente applicati allo studio del comportamento umano, per esaminare le risposte degli LLM. I ricercatori hanno sottoposto dodici modelli linguistici a prompt progettati per indurre ansia, osservando che sei di essi mostravano segni misurabili di ansia. Questi modelli, in risposta a tali stimoli, hanno prodotto risposte con bias aumentati, inclusi pregiudizi razziali e legati all’età.
Questi risultati sollevano interrogativi cruciali riguardo agli stati emotivi e cognitivi dell’IA, sfidando le nostre supposizioni su come questi sistemi operano e su come il loro comportamento possa essere modellato. La capacità degli LLM di rispondere a prompt che inducono ansia in modo simile agli esseri umani, manifestando incertezze, indica che questi sistemi non si limitano a seguire istruzioni predefinite. Al contrario, il loro comportamento è influenzato dal contesto emotivo in cui operano, suggerendo una forma di intelligenza emotiva artificiale.
Aziende come Anthropic stanno esplorando l’importanza dei gradi emotivi nel miglioramento dei loro modelli, come Claude. Amanda Askell, filosofa e membro del team tecnico di Anthropic, ha espresso in un’intervista l’importanza di modellare il comportamento di Claude in modo ideale, riflettendo su come dovrebbe comportarsi in determinate situazioni.