ChatGPT: perché Stack Overflow ha bandito il celebre chatbot OpenAI
Da quando ChatGPT è entrato in scena, il sito ha visto un afflusso di risposte “dall’aspetto corretto” che in realtà non sono corrette
 
ChatGPT, l’ultima innovazione di OpenAI, è stato il discorso della città tecnologica nell’ultima settimana. Addestrato sull’innovativo GPT 3.5, le risposte simili a quelle umane e la natura sensibile al contesto di questo chatbot hanno conquistato il cuore dei netizen di tutto il mondo. Tuttavia, proprio come con qualsiasi altra innovazione AI, ChatGPT si è rapidamente trasformato in un’arma a doppio taglio.

Stack Overflow, il popolare forum di programmazione, ha vietato tutte le risposte create da ChatGPT, citando un alto grado di imprecisione nelle risposte del bot. Sebbene abbia chiarito che si trattava di una politica temporanea, ha ribadito che il problema non risiede solo nell’inesattezza delle risposte di ChatGPT, ma più in profondità nel modo in cui il bot esprime le sue risposte.

A causa del modo in cui funzionano gli LLM come GPT 3.5, i chatbot come ChatGPT possono generare rapidamente contenuti grammaticalmente corretti con un tono formale. Ciò rende le risposte autorevoli e supportate da prove, anche nei casi in cui potrebbero non esserlo. Stack Overflow lo ha sottolineato, affermando: “[Le risposte di ChatGPT] in genere sembrano buone e le risposte sono molto facili da produrre. Ci sono anche molte persone che provano ChatGPT per creare risposte, senza l’esperienza o la volontà di verificare che la risposta sia corretta prima della pubblicazione.

 
Questo fa solo più luce sul problema con modelli e risposte linguistiche di grandi dimensioni accettati come fatti. Anche i modelli addestrati su documenti di ricerca e riviste peer reviewed soffrono di simili insidie, come si è visto con Galactica di Meta. Anche se ChatGPT viene pubblicizzato come un killer di Google , sarà in grado di ridimensionare i problemi che affliggono oggi gli LLM?

Il divieto di Stack Overflow
Stack Overflow funziona principalmente come un sito di domande e risposte per sviluppatori, con risposte errate che in genere ricevono voti negativi e, per estensione, minore visibilità. Tuttavia, il sito si affida a una manciata di volontari esperti per intraprendere la cura dei contenuti, eliminare le risposte effettivamente errate e risolvere i problemi sollevati dagli sviluppatori. Il forum nel suo insieme sposta la questione verso la sua soluzione con l’interazione e la conversazione tra i poster.

Da quando ChatGPT è entrato in scena, il sito ha visto un afflusso di risposte “dall’aspetto corretto” che in realtà non sono corrette. Il divieto è stato messo in atto in modo che i moderatori potessero raggiungere il gigantesco volume di post creati utilizzando ChatGPT. 

ChatGPT cerca di formulare una soluzione con il set di dati su cui è stato addestrato. Oltre a non avere “esperienza del mondo reale” come i poster sui forum, non può nemmeno accedere a Internet per trovare soluzioni a problemi su cui non è stato addestrato.

Se stiamo entrando nell’era dei chatbot onniscienti che eseguono la scansione del Web alla ricerca di informazioni, è importante conoscere gli svantaggi che derivano dall’utilizzo di un LLM. Stack Overflow è solo la punta dell’iceberg quando si tratta di un possibile uso improprio dei chatbot basati su LLM. 

Il problema con gli LLM
I problemi con gli LLM sono molteplici. Innanzitutto, e soprattutto, gli LLM vengono addestrati su una quantità limitata di dati. Nessun singolo LLM ha tutte le informazioni disponibili sul web e anche quelli che hanno una grande quantità di dati non sono all’altezza quando si tratta della natura dei loro set di dati. Molti set di dati LLM sono pieni di pregiudizi, linguaggio esplicito e informazioni errate, tratti che possono essere facilmente trasmessi all’agente durante l’addestramento e l’inferenza.

In secondo luogo, gli LLM hanno la tendenza ad allucinare le informazioni . Durante l’addestramento dell’agente utilizzando l’apprendimento per rinforzo, non esiste un’unica fonte di verità. I sistemi di intelligenza artificiale hanno la soggettività incorporata in loro per progettazione, in quanto ciò consente all’utente di fare la scelta giusta. Tuttavia, poiché gli LLM e i chatbot diventano più abili nelle attività di linguaggio naturale, gli utenti dimenticano che è loro responsabilità identificare se l’intelligenza artificiale è effettivamente corretta o meno. 

Si dice che la mezza conoscenza sia più pericolosa dell’ignoranza, e questo è particolarmente applicabile quando si parla di LLM. Gli LLM sanno quanto basta per essere pericolosi e, sebbene contengano grandi quantità di dati, non ci si può fidare di loro per trarre le conclusioni corrette da questi punti dati. 

OpenAI ha messo in atto filtri di moderazione dei contenuti e addestrato il bot a rifiutare domande a cui non può rispondere correttamente. Tuttavia, la responsabilità finale spetta ancora all’utente per prendere la decisione giusta. 

Anche se OpenAI afferma di aver ridotto il numero di risposte non veritiere in base all’apprendimento dall’addestramento di GPT e Codex, il bot ha ancora modi per generare risposte imprecise. Questo considerando il fatto che OpenAI si dedica anche alla ricerca sull’IA responsabile, un sentimento che non trova riscontro in tutte le aziende. 

Abbiamo visto solo le comunità vacillare per l’impatto dell’IA dopo che sono state rilasciate al pubblico, come il divieto di arte dell’IA da parte di Getty Images o la controversia sullo scraping di DeviantArt . È importante, ora più che mai, che gli amministratori online adottino un approccio proattivo al possibile impatto dell’IA su varie comunità online. 
 

Di ihal