Un recente studio del Computer Science and Artificial Intelligence Laboratory (CSAIL) del Massachusetts Institute of Technology (MIT) ha evidenziato l’incoerenza nelle risposte dei modelli di intelligenza artificiale (IA), sollevando interrogativi sulla loro capacità di sviluppare una personalità o preferenze stabili.
I ricercatori hanno analizzato modelli di IA come Rama 3.1 405B, Claude 3.5 Sonnet, GPT-4o, Gemini 2.0 Flash e Mistral Large, valutando la coerenza delle loro risposte a diverse formulazioni delle stesse domande.
I risultati hanno mostrato che le risposte variavano significativamente a seconda della formulazione della domanda, indicando una mancanza di preferenze stabili nei modelli. Questo suggerisce che l’IA non possiede credenze o valori propri, ma riflette le informazioni con cui è stata addestrata.
Questi risultati sfidano l’idea che l’IA possa sviluppare una personalità autonoma o preferenze proprie, sottolineando la necessità di un’attenta progettazione e supervisione nell’uso dell’IA, specialmente in contesti sensibili come l’assistenza sanitaria mentale.