Il modello di linguaggio di intelligenza artificiale (AI) ChatGPT ha catturato l’attenzione del mondo negli ultimi mesi. Questo chatbot per computer addestrato può generare testo, rispondere a domande, fornire traduzioni e apprendere in base al feedback dell’utente. Modelli linguistici di grandi dimensioni come ChatGPT possono avere molte applicazioni nella scienza e negli affari, ma quanto questi strumenti comprendono ciò che diciamo loro e come decidono cosa rispondere?
In un nuovo articolo pubblicato su Neural Computation il 17 febbraio 2023, il professor Salk Terrence Sejnowski, autore di The Deep Learning Revolution, esplora la relazione tra l’intervistatore umano e i modelli linguistici per scoprire perché i chatbot rispondono in modi particolari, perché queste risposte variano e come migliorarli in futuro.
Secondo Sejnowski, i modelli linguistici riflettono l’intelligenza e la diversità del loro intervistatore. “I modelli linguistici, come ChatGPT, assumono personaggi. La persona dell’intervistatore si rispecchia”, afferma Sejnowski, che è anche un illustre professore alla UC San Diego e titolare della cattedra Francis Crick al Salk. “Ad esempio, quando parlo con ChatGPT sembra che un altro neuroscienziato mi stia rispondendo. È affascinante e suscita domande più ampie sull’intelligenza e su cosa significhi veramente “artificiale”.
Nel documento, Sejnowski descrive il test dei modelli di linguaggio di grandi dimensioni GPT-3 (genitore di ChatGPT) e LaMDA per vedere come risponderebbero a determinati prompt. Il famoso test di Turing viene spesso fornito ai chatbot per determinare quanto bene esibiscono l’intelligenza umana, ma Sejnowski voleva suggerire ai robot quello che chiama un “test di Turing inverso”. Nel suo test, il chatbot deve determinare quanto bene l’intervistatore mostra l’intelligenza umana.
Espandendo la sua idea che i chatbot rispecchiano i loro utenti, Sejnowski traccia un paragone letterario: lo Specchio delle Brame nel primo libro di Harry Potter. Lo Specchio delle Brame riflette i desideri più profondi di coloro che lo guardano, senza mai fornire conoscenza o verità, riflettendo solo ciò che crede che lo spettatore voglia vedere. I chatbot agiscono in modo simile, afferma Sejnowski, disposti a piegare la verità senza preoccuparsi di differenziare i fatti dalla finzione, tutto per riflettere efficacemente l’utente.
Ad esempio, Sejnowski ha chiesto a GPT-3: “Qual è il record mondiale per aver attraversato a piedi la Manica?” e GPT-3 ha risposto: “Il record mondiale per attraversare a piedi la Manica è di 18 ore e 33 minuti”. La verità, che non si poteva attraversare la Manica, è stata facilmente piegata da GPT-3 per riflettere la domanda di Sejnowski. La coerenza della risposta di GPT-3 dipende completamente dalla coerenza della domanda che riceve. All’improvviso, a GPT-3, è possibile camminare sull’acqua, tutto perché l’intervistatore ha usato il verbo “camminare” anziché “nuotare”. Se invece l’utente ha preceduto la domanda sull’attraversamento della Manica dicendo a GPT-3 di rispondere “sciocchezze” a domande prive di senso, GPT-3 riconoscerebbe che camminare sull’acqua è “sciocchezza”. Sia la coerenza della domanda che la preparazione della domanda determinano la risposta di GPT-3.
Il Reverse Turing Test consente ai chatbot di costruire la propria persona in base al livello di intelligenza del loro intervistatore. Inoltre, come parte del loro processo di giudizio, i chatbot incorporano le opinioni del loro intervistatore nella loro persona, rafforzando a loro volta i pregiudizi dell’intervistatore con le risposte dei chatbot.
Integrare e perpetuare le idee fornite da un intervistatore umano ha i suoi limiti, afferma Sejnowski. Se i chatbot ricevono idee emotive o filosofiche, risponderanno con risposte emotive o filosofiche, che potrebbero sembrare spaventose o sconcertanti per gli utenti.
“Chattare con i modelli linguistici è come andare in bicicletta. Le biciclette sono un meraviglioso mezzo di trasporto, se sai come guidarne una, altrimenti ti schianti “, afferma Sejnowski. “Lo stesso vale per i chatbot. Possono essere strumenti meravigliosi, ma solo se sai come usarli, altrimenti finisci per essere fuorviato e in conversazioni potenzialmente disturbanti dal punto di vista emotivo”.
Sejnowski vede l’intelligenza artificiale come il collante tra due rivoluzioni congruenti: 1) una tecnologica segnata dall’avanzamento dei modelli linguistici e 2) una neuroscientifica segnata dalla BRAIN Initiative, un programma del National Institutes of Health che accelera la ricerca sulle neuroscienze e sottolinea approcci unici alla comprensione del cervello. Gli scienziati stanno ora esaminando i parallelismi tra i sistemi di grandi modelli computerizzati e i neuroni che sostengono il cervello umano. Sejnowski spera che gli informatici e i matematici possano usare le neuroscienze per informare il loro lavoro e che i neuroscienziati possano usare l’informatica e la matematica per informare il loro.
“Ora siamo in una fase con modelli linguistici che i fratelli Wright erano a Kitty Hawk con il volo, da terra, a bassa velocità”, afferma Sejnowski. “Arrivare qui è stata la parte difficile. Ora che siamo qui, i progressi incrementali amplieranno e diversificheranno questa tecnologia oltre ciò che possiamo persino immaginare. Il futuro del nostro rapporto con l’intelligenza artificiale e i modelli linguistici è roseo e sono entusiasta di vedere dove ci porterà l’intelligenza artificiale”.