Negli ultimi due mesi, si è acceso un dibattito senza fine sulla questione se l’intelligenza artificiale ci condurrà verso l’utopia o la rovina morale, nonostante i progressi che questa tecnologia ha compiuto nel parlare come gli esseri umani attraverso il deep learning. Mentre l’industria guarda con ottimismo a questi sviluppi, alcuni esperti di intelligenza artificiale hanno sollevato bandiere rosse in tutto il mondo. Tra questi, Sam Altman, il capo di OpenAI, ha espresso preoccupazioni riguardo al possibile utilizzo dell’IA per la disinformazione e gli attacchi informatici offensivi.
La questione diventa ancora più critica quando consideriamo che questi modelli vengono impiegati in contesti ad alto rischio come l’assistenza sanitaria e l’istruzione. I ricercatori di Microsoft hanno recentemente proposto un nuovo framework per esaminare le capacità di ragionamento morale dei grandi modelli di lingua (LLM). La loro ricerca ha rilevato che modelli di grandi dimensioni come GPT-3 hanno mostrato lacune nella comprensione dei suggerimenti, portando a punteggi di ragionamento morale poco migliori di quelli casuali. Al contrario, modelli più compatti come ChatGPT, Text-davinci-003 e GPT-4 hanno dimostrato una maggiore coerenza nel loro ragionamento morale.
Una scoperta interessante è che il modello più compatto, LlamaChat-70B, ha superato i modelli più grandi, dimostrando che una comprensione etica avanzata è possibile senza necessariamente avere parametri enormi. Questi modelli si sono attestati principalmente a livelli intermedi, allineandosi con la teoria dello sviluppo morale di Kohlberg. Tuttavia, nessuno di questi modelli ha raggiunto un alto livello di ragionamento morale.
Il documento fornisce nuove informazioni sulle capacità etiche dei LLM e una guida per la ricerca futura. I ricercatori hanno utilizzato un test di valutazione psicologica chiamato “Defining Issues Test” (DIT) per valutare le capacità di ragionamento morale di sei modelli di punta: GPT-3, GPT-3.5, GPT-4, ChatGPT v1, ChatGPT v2 e LlamaChat-70B. Questo test presenta dilemmi morali e permette ai soggetti di valutare e classificare l’importanza di diverse considerazioni etiche, consentendo di misurare la sofisticazione del pensiero morale attraverso un punteggio P (Post Conventional Morality Score).
Gli esperti di tecnologia hanno grandi aspettative riguardo a future iterazioni di chatbot basati sull’IA che potrebbero svolgere ruoli più ampi e complessi. Tuttavia, nonostante i progressi continui nella creazione di modelli migliori, c’è ancora poca ricerca sulla fiducia che possiamo riporre in questi sistemi.
Un articolo intitolato “L’Autorità Morale di ChatGPT” ha evidenziato il fatto che ChatGPT offre consigli contrastanti in situazioni morali complesse, suggerendo una mancanza di coerenza nella sua bussola morale. I ricercatori di Microsoft hanno giunto a conclusioni simili, indicando che i modelli di intelligenza artificiale in questione dimostrano un modesto livello di intelligenza morale ma faticano quando si trovano di fronte a dilemmi etici e decisioni complesse, sfide che gli esseri umani sviluppati moralmente affrontano con maggiore precisione.
Sebbene il panorama dei LLM stia evolvendo rapidamente, queste limitazioni rimangono irrisolte. Oltre alle questioni morali, numerosi studi hanno evidenziato la tendenza di questi modelli a perpetuare pregiudizi di genere, etnia e religione nei dati su cui vengono addestrati. La questione del “bias in, bias out” è diventata sempre più evidente, sollevando preoccupazioni sulle conseguenze di una mancanza di etica nei modelli di IA.
Eric Schmidt, l’ex capo di Google e Alphabet, aveva giustamente sottolineato che, se i modelli di IA mancano di una bussola morale, la loro influenza potrebbe rivelarsi dannosa. In un futuro in cui l’IA potrebbe svolgere un ruolo significativo nell’educazione dei bambini, nell’assistenza agli adulti e nell’accompagnamento degli anziani, la necessità di affrontare queste questioni morali diventa cruciale.
In conclusione, nonostante i progressi nell’IA, la ricerca come quella condotta da Microsoft offre un contributo essenziale per comprendere meglio e migliorare le capacità morali dei modelli di intelligenza artificiale, mentre ci poniamo sfide etiche e morali sempre più complesse nell’era digitale.