ChatGPT e Bing AI stanno chattando, dovremmo preoccuparci?
Se i chatbot possono simulare conversazioni, genereranno lingue che gli umani non possono capire?
 
L’impulso umano in continua evoluzione e senza fine di avere un robot conversazionale ci ha portato a modelli come ChatGPT e Bard. Questi chatbot basati su LLM potrebbero essere i più vicini a ciò che gli umani hanno sognato. Cosa c’è di più? Qualcuno ha recentemente fatto chatGPT e Bing AI avere una conversazione . Prompt dopo prompt, i chatbot hanno imparato a conoscersi e ora sono migliori amici! 

Nel frattempo, nel 2017, si è verificato un incidente simile quando due robot AI loquaci di Facebook hanno iniziato a parlarsi nella loro lingua e hanno dovuto essere spenti. Lo stesso anno, Google ha affermato che il suo strumento Translate aveva la capacità di generare la propria lingua. Anche OpenAI lo attesta, affermando che l’IA può davvero essere incoraggiata a creare il proprio linguaggio. 

Tutti questi casi ci portano a chiederci se i chatbot sarebbero davvero in grado di generare il proprio linguaggio, qualcosa che gli umani sono troppo stupidi per capire? 

 
Storia dei chatbot 
I chatbot si sono evoluti molto nel corso degli anni e potrebbe essere una sorpresa per molti, ma questi chatbot esistono dagli anni ’60. Sviluppato tra il 1964 e il 1966 da Joseph Weizenbaum al MIT Computer Science & Artificial Intelligence Laboratory, Eliza chatbot è stato il primo del suo genere. È stato progettato appositamente per evidenziare quanto possa essere superficiale una conversazione tra un uomo e le macchine. 

Il chatbot ha simulato una conversazione tra un paziente e uno psichiatra identificando parole chiave e “pattern matching”. Questo è stato il primo esempio di un programma per computer NLP (elaborazione del linguaggio naturale). 

 

Negli anni ’90, con l’ascesa di Internet, i chatbot hanno iniziato a diventare più sofisticati, incorporando tecniche di PNL e ML. Ciò ha consentito loro di comprendere e generare risposte più simili a quelle umane agli input degli utenti. Ad esempio, ALICE (Artificial Linguistic Internet Computer Entity) ispirato a Eliza, un chatbot creato nel 1995 da Richard Wallace, è stato uno dei primi a utilizzare algoritmi ML per generare risposte.

Poi sono arrivate le app di messaggistica che hanno portato a un uso diffuso dei chatbot per il servizio clienti e il supporto. I chatbot più facilmente identificabili per la nostra generazione sarebbero Siri di Apple, lanciato nel 2011. Sebbene non sia un bot conversazionale di per sé , è principalmente inteso come un chatbot che funzionava su un sistema basato su regole per rispondere agli input degli utenti. Questi chatbot, come Cortana, Google Assistant e Alexa, sono stati sviluppati per l’assistenza personale o per il controllo dei sistemi connessi tramite semplici comandi vocali. Sebbene esista una comunanza tra questi e modelli moderni come ChatGPT, differiscono enormemente in termini di tecnologie e algoritmi. 

In linea di massima, esistono due categorie principali di chatbot: basati sulla sintassi e basati sulla semantica. I bot prima di Siri, che si basavano solo sull’elaborazione e sulla generazione di risultati in base all’input, sono a turno singolo. Ciò significa che non possono avere contesto o capacità di conversazione e fare affidamento solo sulla struttura e sulla grammatica della frase. Questi rientrano nei chatbot basati sulla sintassi. I chatbot semantici come Siri e ChatGPT comprendono il contesto e sono a più turni, dando così un’impressione di interazione simile a quella umana. 

Tuttavia, il punto in cui Siri e ChatGPT differiscono sono gli algoritmi. Sebbene entrambi utilizzino AI/ML e NLP, ChatGPT utilizza l’algoritmo del trasformatore generativo preaddestrato (GPT), mentre Siri utilizza reti neurali ricorrenti o LSTM (memoria a lungo termine). Ciò significa creare livelli per imitare qualcosa come la memoria. 

In poche parole, gli assistenti come Siri hanno lo scopo di comprendere l’input di un essere umano, elaborarlo e rispondere in modo colloquiale. Questo si chiama NLU (Natural Language Understanding), un sottoinsieme di NLP, che è combinato con algoritmi di apprendimento automatico. D’altra parte, ChatGPT non può essere definito un assistente. È addestrato su un grande volume di dati di testo e imita le capacità umane di generare testo. A partire da ora, i modelli LLM come ChatGPT non possono interagire con il mondo, ma possono essere applicati a un’ampia varietà di attività, mentre gli assistenti personali come Siri non possono essere utilizzati per altre attività. 

L’altro sottoinsieme di NLP è NLG (Natural Language Generation), che come suggerisce il nome sono modelli che elaborano dati di testo strutturati o non strutturati in testo comprensibile. Questi sono costruiti per essere molto più flessibili e in grado di generare una gamma più ampia di output. 

Ora con ChatGPT e Google Bard, gli LLM hanno reso la parte di generazione ancora più avanzata. Le loro capacità di elaborazione del linguaggio consentono loro di comprendere e rispondere a una gamma molto più ampia di input e generare output molto più diversificati e sofisticati. Questi modelli sono considerati l’epitome dell’IA in questo momento. I recenti sviluppi dell’intelligenza artificiale, soprattutto le architetture basate su trasformatore, hanno reso possibile alle macchine non solo interpretare il linguaggio, ma anche generare testo simile a quello umano. 

Taglia per presentare 
Nel 2023, abbiamo modelli conversazionali che cercano di essere più intelligenti che mai. Addestrati su enormi set di dati, questi LLM possono essere molto più informati di un essere umano. Per ora, l’unica cosa che manca è il buon senso e la razionalità. 

ChatGPT di OpenAI ha dato il via a una rivoluzione, a cui si è unito Google. E ora, abbiamo Amazon che rilascia il suo modello AI, che sta superando GPT-3.5 nelle capacità di ragionamento simili a quelle umane. Forse gli LLM ci condurranno a quel sogno AGI di lunga data. Dopotutto, se i chatbot possono parlare tra loro e diventare amici, è solo questione di tempo prima che inizino la loro “generazione linguistica”, cosa che è già avvenuta in precedenza. 

Ma anche allora, i chatbot LLM diretti verso l’IA a livello umano rimangono ancora un’idea inverosimile. Yann LeCun, capo dell’IA di Meta, suggerisce che gli LLM che sono auto-regressivi e semplicemente predittivi in ​​modo reattivo sono una rampa di uscita per raggiungere l’intelligenza. Ha proposto trasformatori di apprendimento auto-supervisionati come soluzione, all’interno di un sistema di intelligenza artificiale in grado di ragionare, pianificare e apprendere modelli della realtà sottostante. 

Di ihal