L’attenzione sull’intelligenza artificiale (IA) è sempre più presente in molti settori, dall’assistenza clienti alla medicina. Tuttavia, la comprensione tecnica di queste tecnologie rimane difficile.
I Large Language Models (LLM) non sono in grado di comprendere e riprodurre conversazioni umane in modo efficace. Sono addestrati con grandi quantità di dati per generare un output specifico in base all’input ricevuto, ma mancano della capacità di comprendere il vero significato dietro le parole. Ciò significa che qualsiasi risposta generata da un LLM mancherà di una comprensione di base del contesto.
Anche se gli LLM possono produrre pezzi di prosa e poesia, questi scritti sono spesso poco interessanti e noiosi. ChatGPT di OpenAI è un LLM che genera nuovo testo dopo l’addestramento con grandi quantità di dati. Sebbene gli insegnanti temano che la popolarità di ChatGPT possa sostituire i compiti e gli esami, una valutazione attenta dell’algoritmo di ChatGPT rivela la sua incapacità di produrre una prosa umana creativa e interessante. Ciò solleva una domanda fondamentale sull’utilità della tecnologia per risolvere questioni di business.
Il mercato dei chatbot dovrebbe crescere a un tasso del 23,5%, raggiungendo i 10,6 miliardi di dollari entro il 2026. ChatGPT è solo uno dei molti chatbot basati sull’IA sul mercato, ma la sua versione gratuita ha guadagnato slancio dopo aver ottenuto 1 milione di utenti in una sola settimana. Tuttavia, per migliorare le sue capacità, ChatGPT dipende da un gran numero di persone che gestiscono enormi volumi di dati per la classificazione, l’etichettatura, l’annotazione dei dati. Ci sono alcune speculazioni sul fatto che ChatGPT possa sostituire il motore di ricerca di Google, ma la probabilità di risposte inesatte costringe gli utenti a verificare le risposte utilizzando fonti esterne.
ChatGPT può scrivere prosa e poesia, rispondere a domande sofisticate e impegnarsi in conversazioni, ma alcuni difetti non possono essere trascurati. Ad esempio, ChatGPT può dare risposte imprecise poiché non ha subito una formazione sufficiente. Per questo motivo, Stackflow ha vietato le risposte da ChatGPT. Inoltre, ChatGPT soffre di limitazioni nei suoi dati di addestramento e potrebbe perpetuare rappresentazioni stereotipate.
Inoltre, ChatGPT è costoso da gestire, il che solleva interrogativi sulla sua sostenibilità nel lungo periodo. Anche se molti deterministi tecnologici hanno definito ChatGPT “codice rosso” per Google, la realtà è diversa: ChatGPT produce spesso risposte incoerenti e senza senso che rivelano che il sistema non comprende di cosa si sta parlando. Le allucinazioni sono un altro problema significativo di ChatGPT: mescola insieme informazioni correlate che non rispondono in modo corretto alla domanda, producendo risposte plausibili ma lontane dalla realtà.
Inoltre, a differenza dei chatbot tradizionali che utilizzano le parole chiave per riconoscere gli intenti, gli LLM come ChatGPT prevedono la relazione tra testo, parole e frasi per generare la risposta successiva. Ciò significa che ChatGPT richiede più tempo per generare una risposta rispetto alle ricerche su Google, che sono istantanee.
In sintesi, la discussione sugli LLM e su ChatGPT dimostra che l’hype intorno a queste tecnologie potrebbe essere esagerato. Sebbene le possibilità sembrino entusiasmanti, la realtà è che queste tecnologie hanno ancora molte limitazioni. I difetti di ChatGPT, tra cui la sua incapacità di comprendere il vero significato delle parole e di produrre risposte precise e coerenti, sollevano dubbi sull’effettiva utilità dell’IA per risolvere problemi di business.