Nell’ambito dell’intelligenza artificiale, uno degli aspetti più sfidanti è la capacità dei modelli di apprendere e applicare il “pensiero eccezionale” umano, ovvero la capacità di prendere decisioni ponderate anche in situazioni che richiedono flessibilità e adattamento. Un recente studio condotto dalla MIT Sloan School of Management ha affrontato questa tematica, esplorando come i modelli linguistici di grandi dimensioni (LLM) possano essere addestrati per gestire le eccezioni in modo più simile agli esseri umani.
I LLM, come GPT-4, sono progettati per seguire rigide linee guida e politiche predefinite. Tuttavia, gli esseri umani spesso prendono decisioni che vanno oltre le regole, considerando contesti, valori e priorità. Ad esempio, se un agente di IA è incaricato di acquistare della farina per una torta di compleanno con un budget di 10 dollari, potrebbe rifiutarsi di acquistare anche se il prezzo è solo leggermente superiore, ignorando il valore emotivo dell’atto. Gli esseri umani, invece, tendono a considerare l’importanza dell’evento e possono decidere di spendere un po’ di più per rendere speciale l’occasione.
Per colmare questa lacuna, i ricercatori hanno esplorato tre metodi per addestrare i LLM a gestire le eccezioni:
- Prompting con framework etici: Fornire linee guida morali per guidare le decisioni.
- Ragionamento a catena di pensieri (CoT): Incoraggiare il modello a spiegare il processo decisionale passo dopo passo.
- Fine-tuning supervisionato (SFT) con spiegazioni umane: Addestrare il modello utilizzando esempi di decisioni umane reali, accompagnati da spiegazioni dettagliate.
Tra questi, il fine-tuning supervisionato con spiegazioni umane si è rivelato il più efficace. Questo approccio ha permesso ai modelli di generalizzare il pensiero umano a nuove situazioni, migliorando la loro capacità di prendere decisioni in contesti complessi e non previsti.
Questi risultati suggeriscono che, per sviluppare modelli di IA che riflettano il giudizio umano, è fondamentale non solo insegnare loro quali decisioni prendere, ma anche come prenderle. L’integrazione di spiegazioni umane nel processo di addestramento consente ai modelli di adattarsi meglio a situazioni nuove e di prendere decisioni più allineate ai valori e alle priorità umane.