Un chatbot di intelligenza artificiale prodotto dalla startup americana Lindy ha recentemente sorpreso gli utenti con un errore insolito: ha indirizzato alcuni di loro a un video musicale invece di un contenuto educativo. Questo episodio sottolinea una debolezza comune nei chatbot, che spesso non riescono a distinguere tra contenuti utili e scherzi come il “rickroll”.
Quando un utente ha chiesto al chatbot di Lindy un video su come utilizzare la loro piattaforma, il chatbot ha risposto con un link che non portava a un tutorial, ma al video musicale del 1987 di Rick Astley, “Never Gonna Give You Up”. Questo video è noto per essere utilizzato nel “rickroll”, uno scherzo su Internet in cui un link apparentemente serio porta a questo video.
Il “rickroll” è diventato popolare nel 2007, quando è stato utilizzato come parte di una burla online. Il video di Rick Astley ha accumulato oltre 1,5 miliardi di visualizzazioni e ha avuto un ritorno di popolarità anche negli anni successivi. Questo scherzo è una forma di “pesca” su Internet, dove i chatbot e altri strumenti digitali possono facilmente cadere vittima se non sono ben programmati per riconoscere tali contenuti.
Il chatbot di Lindy non è l’unico ad avere problemi di questo tipo. Anche “ChatGPT” e il motore di ricerca AI di Google hanno mostrato difficoltà simili. Ad esempio, subito dopo il lancio della ricerca AI di Google, alcuni risultati contenevano contenuti assurdi come “Metti la colla sulla pizza” o “Mangia una pietra al giorno per essere in salute”. Questi errori erano il risultato di contenuti satirici e battute prese sul serio dall’algoritmo.
Per risolvere questi problemi, Google ha fatto sì che i suoi dipendenti controllassero manualmente i contenuti problematici. Lindy ha reagito aggiungendo una nuova istruzione al sistema per evitare il “rickroll”, ma ha confermato che questi incidenti erano solo una piccola parte delle risposte generate.
Il fondatore di Lindy, Flo Crivello, ha sottolineato che, mentre il problema non era tanto l’invenzione di informazioni false da parte dell’intelligenza artificiale, era importante migliorare la qualità dei contenuti forniti.