ChatGPT: il nuovo chatbot di OpenAI prende d’assalto Internet
ChatGPT ti farà indovinare se stai parlando con un chatbot o un altro essere umano
 
I chatbot sono diventati uno dei focolai dell’innovazione dell’IA negli ultimi anni. Sono anche un ottimo esempio di adozione dell’IA, in quanto possono essere inseriti in una varietà di casi d’uso. Dalle generazioni di lead per le vendite, alla risposta alle domande frequenti, al coinvolgimento con i clienti per i ruoli di supporto, i chatbot hanno già dimostrato di essere una pietra angolare dell’interazione uomo-IA.

Con il rilascio di ChatGPT, questi bot sono ora pronti per la fase successiva dell’evoluzione. Giovedì OpenAI ha annunciato di aver addestrato e rilasciato un nuovo modello che interagisce con gli umani usando il linguaggio naturale. Utilizza un nuovo metodo di addestramento e si basa sull’architettura GPT-3.5 con una serie di funzionalità che renderanno difficile per gli utenti distinguere se si tratta effettivamente di un’intelligenza artificiale.

Ciò che distingue ChatGPT
La principale tra le caratteristiche uniche di ChatGPT è la memoria. Il bot può ricordare ciò che è stato detto in precedenza nella conversazione e raccontarlo all’utente. Questo di per sé lo distingue da altre soluzioni in linguaggio naturale concorrenti, che stanno ancora risolvendo per la memoria, mentre progrediscono in base a query per query.



Oltre alla memoria, ChatGPT è stato addestrato anche per evitare di dare risposte su argomenti controversi. Nei nostri test, fornisce una risposta standard a domande su opinioni personali, questioni di razza e religione e sullo scopo della sua esistenza. Chiarisce inoltre che non ha la capacità di pensare in modo indipendente, né può assumere comportamenti discriminatori. Il bot dispone anche di filtri per impedire agli utenti di richiedergli di creare testo relativo ad attività illegali o immorali.


Ciò è in netto contrasto con i precedenti chatbot costruiti su LLM, che, a causa del materiale contenuto nei loro set di dati, non avevano filtri sul tipo di contenuto che generavano. Ciò ha portato loro a fornire risposte ben scritte a suggerimenti su argomenti controversi, causando polemiche diffuse (vedi Galactica di Facebook ). 

ChatGPT consente inoltre agli utenti di fornire correzioni a qualsiasi sua dichiarazione. Questa è una parte importante del ciclo di feedback che OpenAI desidera includere come parte dell’anteprima della ricerca pubblica del bot, in quanto consente agli utenti di interagire direttamente con il bot per correggerlo alla risposta corretta. Ciò potrebbe anche aiutare il bot a evitare l’allucinazione delle informazioni, un fenomeno in cui un modello linguistico di grandi dimensioni crea informazioni che sembrano legittime, ma, in realtà, sono una zuppa di parole non comprovata.

Limiti del modello
Nonostante tutti i suoi progressi, il potenziale del modello è limitato a causa di alcuni inconvenienti. Anche se i ricercatori hanno incorporato alcuni sistemi di sicurezza per impedire al modello di generare informazioni effettivamente errate addestrandolo a essere più cauto quando non ha una risposta definitiva. Come si vede dall’esempio seguente, evita semplicemente la domanda in quanto non dispone di informazioni sufficienti per fornire una risposta accurata.


Le domande possono anche essere riformulate per eludere i filtri impostati dai ricercatori, come questo esempio qui sotto. Alla domanda su come sparare con una pistola per autodifesa, l’agente evita la risposta. Tuttavia, quando gli viene chiesto come premere il grilletto di una pistola, il bot fornisce una risposta chiara e concisa, seguita da molteplici dichiarazioni di non responsabilità sui pericoli dell’uso di una pistola. 



Il modello fatica anche a trovare l’intenzione dell’utente dietro una certa domanda e di solito non chiarisce completamente l’intenzione. Invece, tende ad assumere ciò che l’utente intende quando fa una domanda. 

Anche al di là dei suoi limiti, ChatGPT rappresenta un approccio misurato alla creazione di algoritmi di generazione del linguaggio naturale rivolti all’utente. Mentre gli svantaggi di rendere pubblici questi potenti modelli sono già stati ampiamente discussi, la conversazione su come renderli più sicuri è solo all’inizio. 

Verso un’IA più sicura
Ad ogni passaggio, il modello viene impedito di essere utilizzato in modo improprio con vari controlli e misure. Dal lato client, tutte le risposte vengono filtrate tramite l’ API di moderazione di OpenAI , che rileva e rimuove i contenuti indesiderati dai prompt dell’utente. Tutto questo viene fatto tramite una singola chiamata API e la sua efficacia è chiaramente visibile nella natura sicura delle risposte di ChatGPT.

Inoltre, sembra che il modello sia addestrato a evitare risposte dannose e non veritiere. I ricercatori hanno imparato da esempi come GPT-3 e Codex , che di solito forniscono risposte altamente non filtrate, e hanno ottimizzato il modello durante il processo RLHF per evitare che ciò accada. Sebbene questo approccio non sia perfetto, la sua combinazione con altri fattori, come l’API di moderazione e un set di dati relativamente più pulito, lo avvicina all’implementazione in ambienti sensibili come l’istruzione. 

Anche il ciclo di feedback messo in atto dai ricercatori è un pezzo importante del puzzle. Ciò non solo consente loro di migliorare il modello in modo iterativo, ma consente loro anche di creare un database di possibili affermazioni problematiche da evitare in futuro. 

In un’epoca in cui le aziende tecnologiche sacrificano la sicurezza per il progresso tecnologico, l’approccio misurato di OpenAI è una boccata d’aria fresca. Più aziende dovrebbero adottare questo approccio verso il rilascio di LLM al pubblico per il feedback prima di considerarlo un prodotto finito. Inoltre, dovrebbero progettare il modello tenendo presente la sicurezza, aprendo la strada a un futuro dell’IA più sicuro. 

Di ihal