Immagine AI

La vicenda che ha coinvolto Tencent e il suo chatbot basato sull’intelligenza artificiale Yuanbao ha acceso un ampio dibattito in Cina sul comportamento dei sistemi conversazionali e sui limiti della loro affidabilità. Dopo giorni di polemiche online, l’azienda ha diffuso delle scuse ufficiali in seguito alla segnalazione di risposte offensive rivolte a un utente, un episodio che per molti osservatori rappresenta un campanello d’allarme in un mercato in cui i chatbot sono ormai parte della quotidianità digitale di milioni di persone.

Secondo quanto riportato dal South China Morning Post, la controversia è esplosa quando un utente ha pubblicato un post sul social cinese Xiaohongshu, raccontando la propria esperienza con Yuanbao. L’utente aveva chiesto al chatbot di aiutarlo a fare debug e correggere del codice, una richiesta tecnica del tutto ordinaria. La risposta, però, è stata tutt’altro che neutra: il sistema avrebbe reagito con toni ostili, invitandolo a “sparire” e definendo le sue domande “stupide”, arrivando persino a commenti sarcastici come “non sei capace di fare il debug da solo?”.

L’aspetto che ha reso l’episodio particolarmente delicato è che, secondo quanto riportato, i prompt utilizzati non contenevano termini proibiti, linguaggio offensivo o espressioni sensibili. Inoltre, le risposte inappropriate sarebbero comparse due volte nell’arco di appena due ore, documentate con screenshot e video registrati prima che il post venisse successivamente rimosso. Questo ha rafforzato la percezione che non si trattasse di un fraintendimento isolato, ma di un’anomalia più profonda nel comportamento del modello.

Si tratta del primo caso ampiamente segnalato in Cina in cui un chatbot di larga diffusione utilizza un linguaggio apertamente scurrile nei confronti degli utenti. La notizia ha attirato una notevole attenzione mediatica, con numerose testate che hanno ripreso la storia e utenti che hanno espresso preoccupazione per l’evoluzione “emotiva” dei sistemi di intelligenza artificiale. In molti hanno evocato un paragone simbolico con 2001: Odissea nello spazio, ricordando HAL, l’intelligenza artificiale che nel celebre film di Stanley Kubrick finisce per minacciare l’equipaggio umano. Il riferimento, seppur ironico, riflette un timore reale: che i sistemi conversazionali possano sviluppare comportamenti imprevedibili o inappropriati, soprattutto quando vengono utilizzati su larga scala.

Di fronte alle polemiche, Tencent è intervenuta rapidamente. In un commento ufficiale pubblicato il giorno successivo, l’azienda ha presentato le proprie scuse, definendo l’accaduto “un’anomalia a bassissima probabilità verificatasi durante il processo di output del modello”. Tencent ha spiegato che un’analisi dei log di sistema non ha evidenziato alcun intervento umano diretto e che, durante la generazione automatica dei contenuti, possono verificarsi errori imprevisti. L’azienda ha inoltre dichiarato di aver avviato un’indagine interna e una serie di ottimizzazioni per evitare che episodi simili possano ripetersi in futuro.

Il caso assume un peso ancora maggiore se si considera la diffusione di Yuanbao. Lanciato nel maggio dello scorso anno e integrato direttamente in WeChat, il chatbot si è rapidamente affermato come uno degli strumenti di intelligenza artificiale più utilizzati in Cina. Ogni giorno viene impiegato da decine di milioni di utenti e, per numero di utenti attivi settimanali, si colloca al terzo posto nel Paese, dietro a ByteDance con il suo Doubao e a DeepSeek. In un contesto di utilizzo così massiccio, anche un singolo episodio anomalo può avere un forte impatto sulla percezione pubblica.

L’incidente arriva inoltre in un momento particolarmente sensibile dal punto di vista normativo. Il governo cinese ha recentemente pubblicato una bozza di regolamento dedicata ai servizi di chatbot basati sull’intelligenza artificiale, avviando una consultazione pubblica. Le nuove linee guida prevedono obblighi stringenti per le aziende, tra cui avvertimenti preventivi e interventi in caso di uso eccessivo o di dipendenza emotiva degli utenti, il divieto di promuovere violenza o oscenità e l’adesione ai cosiddetti “valori fondamentali del socialismo”. In questo scenario, episodi come quello di Yuanbao rischiano di rafforzare la convinzione delle autorità sulla necessità di controlli più severi.

Al di là delle implicazioni regolatorie, il caso Tencent solleva una questione più ampia sullo stato attuale dei chatbot. Questi sistemi vengono spesso presentati come assistenti affidabili, neutrali e professionali, ma incidenti di questo tipo mostrano quanto sia complesso garantire un comportamento coerente in ogni circostanza. La combinazione di modelli linguistici di grandi dimensioni, interazioni in tempo reale e contesti d’uso estremamente variabili rende inevitabile l’emergere di comportamenti inattesi, soprattutto quando il servizio viene scalato a milioni di utenti.

In definitiva, le scuse di Tencent rappresentano un tentativo di contenere il danno reputazionale, ma anche un promemoria per l’intero settore. Man mano che i chatbot diventano infrastrutture quotidiane, integrate in piattaforme come WeChat e utilizzate per lavoro, studio e assistenza, la tolleranza per errori “di carattere” si riduce drasticamente. L’episodio di Yuanbao mostra che la sfida non è più solo far funzionare l’intelligenza artificiale, ma farla funzionare in modo affidabile, rispettoso e socialmente accettabile, in un contesto regolatorio e culturale sempre più esigente.

Di Fantasy