Recentemente, è stata messa in evidenza l’importanza dell’intelligenza artificiale spiegabile (XAI). In questo contesto, è stato sviluppato un nuovo metodo per rendere comprensibile il funzionamento dell’IA: l’utilizzo di un modello linguistico (LM) per generare linguaggio naturale o codice, facilitando così la comprensione umana dei processi operativi dell’IA.
Mark Tech Post ha riferito il 13 (ora locale) di un’innovativa IA, creata dai ricercatori del MIT CSAIL (Computer Science and Artificial Intelligence Laboratory), che esplora e spiega autonomamente il comportamento delle reti neurali. Questo metodo, noto come AIA (Automatic Interpretation Agent), è basato su un modello linguistico pre-addestrato.
L’interpretazione del funzionamento delle reti neurali complesse è sempre stata una sfida cruciale in IA, specialmente con l’aumento delle dimensioni dei modelli. Tradizionalmente, gli esseri umani dovevano analizzare manualmente e uno per uno i processi delle reti neurali, un’attività che richiedeva molto tempo e risorse, soprattutto per i modelli più complessi.
I ricercatori del MIT hanno presentato il modello linguistico come una sorta di “interprete”. L’AIA, seguendo un processo simile a quello degli scienziati umani, formula ipotesi, conduce esperimenti e apprende iterativamente per interpretare le reti neurali. Questo permette di trasformare il processo operativo, dai singoli neuroni all’intero modello, in formati comprensibili agli esseri umani, come linguaggio naturale o codice eseguibile.
Un aspetto significativo di questo approccio è l’automazione della spiegazione delle reti neurali, che consente di processare in batch i calcoli complessi eseguiti da modelli come “GPT-4”. L’AIA ha dimostrato un’eccezionale capacità nel generare e verificare ipotesi in modo indipendente, scoprendo modelli sottili che potrebbero sfuggire agli scienziati umani.
È stato anche introdotto un benchmark denominato “Function Interpretation and Explanation (FIND)” per valutare l’accuratezza della descrizione dei componenti dei sistemi di IA. Questo benchmark è stato progettato per integrare vari processi complessi delle reti neurali, come la generazione di parole, il ragionamento matematico e la manipolazione dei simboli, al fine di comprendere meglio ciò che accade all’interno dell’IA.
I ricercatori hanno evidenziato che l’AIA ha superato le prestazioni degli approcci esistenti, agendo talvolta come uno scienziato nel dedurre le funzioni delle reti neurali, formando ipotesi, proponendo esperimenti e aggiornando le spiegazioni in base a nuovi dati.
Tuttavia, rimangono sfide da superare, soprattutto quando i dati sono disomogenei, rendendo l’interpretazione più complessa. Sono quindi necessarie ulteriori ricerche per migliorare la precisione e l’efficacia dei metodi di interpretazione.
Mark Tech Post ha sottolineato che, nonostante la necessità di ulteriori miglioramenti nei metodi di ricerca, questo studio rappresenta un importante passo avanti nell’interpretazione dei sistemi di intelligenza artificiale, evidenziando gli sforzi continui per migliorare la comprensione e l’affidabilità dell’IA.
Questo studio è stato presentato a “NeurIPS 2023”, la più grande conferenza mondiale di apprendimento automatico, che
si è tenuta nell’ottobre dello scorso anno. Questa ricerca rappresenta un notevole progresso nel campo dell’IA, mettendo in luce l’importanza dell’intelligenza artificiale spiegabile e dei metodi per rendere i processi dell’IA più accessibili e comprensibili.