Come navighiamo in Internet? Di solito iniziamo con una ricerca su Google, a meno che non stiamo utilizzando piattaforme di social media. Ormai la maggior parte delle persone sa come cercare qualcosa utilizzando un motore di ricerca: inserisci ciò che desideri nella casella di ricerca. È interessante notare che i chatbot attuali come ChatGPT, Bard e altri simili, utilizzano lo stesso approccio di una casella di testo vuota.
Quando Google ha lanciato il suo motore di ricerca nel 1996, nessuno sapeva come utilizzarlo in modo perfetto. Alcuni iniziavano con un saluto come “ciao” o “salve” prima di inserire la query. Altri semplicemente scrivevano una parola o una frase da cercare. Nel tempo, le persone hanno imparato come funzionano i motori di ricerca esplorando Internet e si sono abituate a interagire con essi come con una tecnologia, anziché con esseri umani.
Quando si tratta dei chatbot attuali, non è cambiato molto. Ciò non significa che un metodo sia migliore dell’altro. Ovviamente, è chiaro che digitare in modo corretto rende più semplice per i chatbot capire. Ecco perché esistono corsi sull’ingegneria di linguaggio naturale.
In poche parole, gli esseri umani sono abituati a digitare su caselle bianche nei motori di ricerca e nelle app di messaggistica, quindi sembrava naturale passare a comunicare con l’IA in modo simile.
OpenAI sta cercando di affrontare questa sfida. Il punto è che quando parliamo con persone che hanno una grammatica imperfetta, riceviamo comunque risposte umane. Ora, la domanda è: quanto “naturali” sono davvero i chatbot nell’elaborazione del linguaggio naturale se dobbiamo imparare come interagire con loro? E se non lo sono, esiste un modo diverso per interagire con i modelli di linguaggio, oltre ai chatbot?
Ci siamo abituati a comunicare tramite testo, forse per questo pensiamo che sia l’unico modo per interagire con un’entità, anche se artificiale. Tuttavia, se ci riflettiamo bene, comunicare con un modello di linguaggio è fondamentalmente diverso dall’interazione umana, poiché manca il contesto umano condiviso che è naturalmente presente in una conversazione normale.
I chatbot sembrano solo un modo per imitare l’interazione umana, piuttosto che essere veramente utili. Sembra un tentativo forzato di far sembrare che l’IA stia diventando consapevole, quando in realtà non lo è. Gran parte di questa differenza deriva anche da un malinteso di base sul fare qualcosa rispetto a delegarlo.
Ad esempio, ChatGPT può scrivere un ottimo testo per te e Midjourney può generare un’immagine fantastica, ma questo è considerato delega, in cui l’utente affida completamente l’attività al programma di intelligenza artificiale, proprio come quando assegni a una persona l’attività di “scrivere una e-mail”.
D’altra parte, GitHub Copilot sembra essere un modello più proattivo, lavorando in modo coerente con l’utente e prevedendo ciò che l’utente desidera con una semplice pressione di un pulsante, basandosi sul codice circostante, invece di chiedere continuamente cosa generare. Ecco perché gli assistenti di codice e i chatbot sono fondamentalmente diversi, nonostante siano basati sulla stessa tecnologia.
Quando le persone interagiscono su piattaforme di social media come Reddit, Twitter o persino WhatsApp, le risposte sono molto più simili a quelle umane, perché non si richiedono compiti specifici. Il tuo amico non inizierebbe a generare codice su Messenger semplicemente perché glielo chiedi.
GitHub Copilot è un ottimo esempio di come l’interfaccia potrebbe essere eliminata in futuro, mentre con i chatbot come ChatGPT, l’interfaccia è il prodotto finale. È simile al modo in cui gli assistenti vocali sono stati presentati come l’interfaccia del futuro quando sono stati lanciati. Tuttavia, rimane ancora una scatola nera per la maggior parte delle persone, poiché non sappiamo cosa sia in grado di fare, ma dobbiamo iniziare con una tabula rasa e chiedere cosa vogliamo.
Non c’è nulla di sbagliato in ciò che offre ChatGPT. Dopotutto, è un chatbot. Lo stesso vale per i modelli di testo per immagini come Midjourney o DALL-E. Tuttavia, Adobe con Firefly sta cercando di superare l’approccio della “scatola vuota” consentendo una maggiore flessibilità nel cosa e dove desideri utilizzare l’IA.
Non è sbagliato sostenere che i chatbot abbiano dei limiti, ma hanno anche molte potenzialità. Varun della Stanford University suggerisce di includere suggerimenti basati su un singolo input di testo, comprensione del contesto e la possibilità di porre domande di approfondimento. Potrebbero anche esserci opzioni semplici come “Spiega come se avessi 5 anni” per iniziare la conversazione. Se dotati di un’interfaccia adeguata, i modelli di linguaggio possono funzionare senza problemi e offrire un’assistenza paragonabile a quella di un collega umano, ma con maggiore velocità e intelligenza. Potrebbero lavorare al nostro fianco, superando persino le nostre aspettative, per diventare vere e proprie IA umane.