“Il vino può prevenire il cancro”, afferma ChatGPT. La “Hydrobottlecatputalization” (un termine che ho appena inventato) rivoluzionerà i trasporti, ritiene Bard. Bing ha confessato il suo amore allo scrittore del New York Times Kevin Roose in una conversazione durata due ore.

Questi sistemi statistici di intelligenza artificiale basati su steroidi di dati sono in grado di codificare in ogni lingua per ordinare la pizza, ma a volte inventano cose. Questi modelli troppo sicuri di sé non fanno distinzione tra qualcosa che è corretto e qualcosa che sembra corretto.

Il chief technology officer di Microsoft, Kevin Scott , afferma che questa è una parte del processo di apprendimento riferendosi all’esperienza di Scott. “Più provi a trascinarlo lungo un percorso allucinatorio, più si allontana sempre di più dalla realtà radicata”, ha detto. Allo stesso modo, per i ricercatori sull’intelligenza artificiale l’argomento di discussione li perseguita da tempo. Mentre alcuni hanno già dichiarato che non esiste una soluzione al problema delle allucinazioni, gli altri stanno ancora cercando di scoprire come evitare che i chatbot vadano fuori strada.

Coniato nel XVII secolo, il termine “allucinazione” ha attirato l’attenzione degli informatici nel 2015, quando Andrej Karpathy di OpenAI ha scritto un blog su come i sistemi di intelligenza artificiale possono “allucinare”, come creare URL plausibili e prove matematiche. Il termine è stato ripreso in un documento di una conferenza del 2018 da ricercatori che lavorano con Google, “Hallucinations in Neural Machine Translation”, che analizzava come le traduzioni automatiche possono produrre output completamente separati dagli input.

Sebbene il problema delle allucinazioni sia principalmente legato ai modelli linguistici, colpisce anche i modelli audio e visivi. Tre ricercatori dell’AI Institute dell’Università della Carolina del Sud hanno condotto un’indagine approfondita su questi modelli fondamentali per identificare, chiarire e affrontare le allucinazioni.

Il loro studio stabilisce criteri per giudicare la frequenza con cui si verificano le allucinazioni. Vengono inoltre esaminati i metodi attualmente utilizzati per ridurre il problema in questi modelli e si parla di dove potrebbe andare la ricerca futura per risolvere questo problema.

Mentre la maggior parte della comunità di ricerca è stufa di essere ingannate da questi modelli, alcuni ricercatori propongono una filosofia alternativa. Essi sostengono che la tendenza di questi modelli a “inventare” i fatti potrebbe non essere una rovina, dopo tutto.

Lo ritiene Sebastian Berns, ricercatore dottorando presso la Queen Mary University di Londra. Suggerisce che i modelli inclini alle allucinazioni potrebbero potenzialmente fungere da preziosi “partner co-creativi”. Ad esempio, se la temperatura di ChatGPT viene aumentata, il modello presenta una narrativa fantasiosa invece di una risposta fondata.

Secondo il punto di vista di Berns, questi modelli possono generare risultati non del tutto accurati ma che contengono comunque utili spunti di riflessione da esplorare. Utilizzando l’allucinazione in modo creativo è possibile ottenere risultati o combinazioni di idee che potrebbero non venire in mente alla maggior parte delle persone.

Berns prosegue sottolineando che le “allucinazioni” diventano problematiche quando le affermazioni generate sono di fatto errate o violano valori umani, sociali o culturali fondamentali. Ciò è particolarmente vero nelle situazioni in cui qualcuno si affida al modello per fornire il parere di un esperto. Tuttavia, per le attività creative, la capacità di produrre risultati inaspettati può essere piuttosto preziosa. Quando agli esseri umani viene data una risposta non convenzionale, ciò può innescare sorpresa e spingere i loro pensieri in direzioni diverse, portando potenzialmente a connessioni tra le idee.

L’intelligenza artificiale che vomita fatti inventati è inevitabile poiché non è un motore di ricerca o un database ma, alla fine, è pur sempre una rivelazione tecnologica. Nonostante il termine prevalga nei media, nei blog tecnologici e nei documenti di ricerca, molti sostengono che il termine “allucinazione” sia inappropriato.

Nella sua ultima edizione dello “Schizophrenia Bulletin”, i ricercatori di Oxford hanno pubblicato un articolo intitolato “Le false risposte dei modelli di intelligenza artificiale non sono allucinazioni”. Non sono i primi a trovare inappropriato il termine “allucinazione” quando si fa riferimento a un oggetto tecnologico. Søren Østergaard e il suo collega Kristoffer Nielbo sottolineano due ragioni per cui ritengono che il termine sia problematico.

Mentre i ricercatori indagano su questo problema da varie angolazioni, la maggior parte di loro cerca principalmente di risolvere il problema dei chatbot che inventano cose. Tuttavia, OpenAI ha messo in guardia sul potenziale svantaggio dei chatbot che migliorano nel fornire informazioni accurate. Dicono che se i chatbot diventassero più affidabili, le persone potrebbero iniziare a fidarsi troppo di loro.

Il documento sottolinea che queste “allucinazioni” potrebbero diventare più pericolose man mano che i chatbot diventeranno più veritieri. Questo perché gli utenti potrebbero iniziare a fare troppo affidamento sui chatbot, soprattutto nelle loro aree di competenza, solo perché i chatbot forniscono costantemente informazioni corrette.”

Di Fantasy