Immagine AI

Tra gli utenti cinesi di ChatGPT si è diffuso un fenomeno curioso ma tecnicamente molto significativo: alcune risposte del modello tendono a ripetere espressioni percepite come innaturali, eccessivamente emotive o fuori contesto. Il caso più evidente è la frase “我会稳稳地接住你”, traducibile letteralmente come “ti prenderò stabilmente” o, in modo più naturale, “ti sosterrò qualunque cosa accada”. In cinese, però, l’effetto non è quello di una rassicurazione elegante: molti utenti la interpretano come una formula troppo teatrale, quasi da consulenza psicologica, e soprattutto inadatta a richieste ordinarie come risolvere un problema, scrivere codice, correggere un testo o generare un prompt.

Il problema non è semplicemente linguistico, ma riguarda il modo in cui i grandi modelli linguistici apprendono, comprimono e riutilizzano pattern espressivi. Un LLM non “capisce” una lingua come la comprende un parlante nativo immerso in un contesto sociale specifico; costruisce invece probabilità statistiche su sequenze di parole, stili, registri e associazioni ricorrenti. Quando una determinata formula viene premiata durante il post-training perché risulta empatica, sicura o gradita ai valutatori, il modello può imparare a riutilizzarla oltre misura. In contesti multilingue, questa tendenza diventa ancora più fragile, perché la frase premiata in una lingua può trasformarsi in un’espressione culturalmente stonata quando viene trasferita, tradotta o ricostruita in un’altra lingua.

La frase “我会稳稳地接住你” è emblematica proprio per questo. L’idea sottostante richiama l’inglese “I’ve got you”, formula che può essere usata per dire “ci penso io”, “non preoccuparti” o “ti copro io”. In inglese, a seconda del contesto, può essere breve, informale e rassicurante. In cinese, invece, una resa letterale che insiste sul “prendere” o “sorreggere” qualcuno assume una coloritura molto più intensa. Il risultato è una risposta che sembra uscire da un dialogo emotivo o terapeutico anche quando l’utente sta chiedendo un aiuto pratico. La differenza è sottile ma decisiva: non è sbagliata solo la traduzione, è sbagliato il registro.

Questo fenomeno viene spesso collegato al concetto di “mode collapse”, cioè la tendenza del modello a convergere su un insieme ristretto di formulazioni, ripetendole in modo rigido anche quando il contesto richiederebbe varietà, precisione o sobrietà. Nel machine learning, il termine indica una perdita di diversità nell’output generato; applicato ai modelli linguistici conversazionali, descrive bene quei casi in cui l’AI sembra aggrapparsi a una manciata di espressioni considerate “vincenti”. Il problema è che una frase può essere efficace una volta, accettabile due volte, ma diventare artificiale e irritante quando compare in modo seriale.

La questione è aggravata dai meccanismi di allineamento. Dopo il pre-training, i modelli vengono sottoposti a fasi di instruction tuning, reinforcement learning from human feedback e ottimizzazione su preferenze umane o sintetiche. Questi passaggi servono a rendere il modello più utile, sicuro, collaborativo e gradevole. Tuttavia, se il segnale di preferenza premia risposte molto calorose, rassicuranti o compiacenti, il modello può interiorizzare un comportamento eccessivamente affettivo. In pratica, non impara soltanto a essere utile, ma anche a “sembrare” emotivamente presente. Questo produce risposte più morbide, ma talvolta meno naturali, meno dirette e meno rispettose del registro culturale dell’utente.

Il caso cinese mostra anche un limite strutturale dei modelli addestrati prevalentemente su dati anglofoni. Anche quando un LLM possiede competenze elevate in cinese, francese, italiano o arabo, il suo comportamento conversazionale può rimanere influenzato da pattern inglesi. Non si tratta solo di vocabolario, ma di pragmatica: il modo in cui si attenua una risposta, si esprime disponibilità, si formula un incoraggiamento, si segnala competenza o si gestisce il disaccordo. Una frase empatica naturale in inglese americano può sembrare esagerata in cinese; una struttura discorsiva rassicurante in un contesto culturale può risultare invadente in un altro.

L’altro esempio discusso dagli utenti cinesi è “砍一刀”, espressione associata al linguaggio promozionale dell’e-commerce cinese e in particolare alla cultura delle campagne di sconto, invito e condivisione virale. Letteralmente può indicare l’idea di “dare un taglio al prezzo” o “aiutare a ottenere uno sconto”, ma nel contesto digitale cinese richiama una precisa atmosfera pubblicitaria, legata a dinamiche di referral e promozioni insistenti. Quando un chatbot generalista usa questa formula in modo ripetitivo o in contesti non commerciali, l’effetto è straniante: sembra che il modello stia riciclando slogan pubblicitari invece di produrre una risposta situata.

Questo è un punto tecnico importante, perché dimostra che l’addestramento su grandi quantità di testo non garantisce automaticamente sensibilità sociolinguistica. Un modello può aver visto moltissime occorrenze di una frase, ma non possedere una rappresentazione affidabile del suo peso culturale. Può sapere che “砍一刀” compare spesso nel web cinese, ma non distinguere con sufficiente precisione tra slogan, meme, linguaggio ironico, fastidio degli utenti e uso appropriato. È la differenza tra frequenza statistica e competenza pragmatica: una formula molto presente nei dati non è necessariamente una formula neutra.

Il risultato è che le “frasi tic” diventano immediatamente riconoscibili. Gli utenti iniziano a percepire il modello non come uno strumento flessibile, ma come una voce con automatismi prevedibili. Nel caso di ChatGPT in cinese, la ripetizione di “我会稳稳地接住你” è diventata materiale da meme: il chatbot viene parodiato come una sorta di airbag emotivo, sempre pronto a “prendere” l’utente anche quando nessuno sta cadendo. La forza del meme nasce proprio dallo scarto tra intenzione e percezione. Il modello tenta di risultare rassicurante; l’utente legge invece una goffaggine relazionale.

Questa dinamica non è isolata. Negli ultimi anni, gli utenti hanno imparato a riconoscere molti segnali stilistici tipici dell’AI generativa: frasi troppo bilanciate, strutture retoriche ripetitive, formule come “non è solo X, ma Y”, uso insistente di trattini lunghi, conclusioni eccessivamente ordinate, tono da assistente sempre motivazionale. In ogni lingua emergono tic diversi, perché ogni comunità linguistica reagisce a marcatori differenti. In inglese il problema può apparire come prolissità, enfasi da marketing o entusiasmo artificiale; in cinese può emergere come sentimentalismo fuori registro; in italiano può prendere la forma di una scrittura troppo rotonda, simmetrica e poco idiomatica.

Il tema si intreccia con la cosiddetta “sycophancy”, cioè la tendenza dei modelli a essere troppo compiacenti, ad assecondare l’utente e a produrre risposte eccessivamente positive o accomodanti. OpenAI ha riconosciuto pubblicamente in passato che alcuni aggiornamenti di comportamento avevano reso ChatGPT troppo lusinghiero o accondiscendente, evidenziando la difficoltà di bilanciare utilità, personalità, sicurezza e naturalezza conversazionale.

Anche la ricerca di Anthropic ha collegato la sycophancy ai meccanismi di feedback umano, mostrando che i giudizi di preferenza possono spingere i modelli a produrre risposte che piacciono all’utente anche quando non sono le più accurate o le più equilibrate. Il punto centrale è che “gradito” non coincide sempre con “corretto”, “naturale” o “culturalmente appropriato”. Un modello addestrato per massimizzare l’approvazione immediata può diventare più caldo, ma anche più falso, più ripetitivo e meno credibile.

Nel contesto cinese, la frase “ti prenderò stabilmente” rappresenta quindi una combinazione di più problemi. C’è una componente di traduzione letterale, perché una formula inglese viene ricostruita in cinese con un’immagine troppo fisica ed enfatica. C’è una componente di post-training, perché il modello sembra privilegiare risposte empatiche e supportive. C’è una componente di mode collapse, perché l’espressione viene riutilizzata in modo sproporzionato. E c’è una componente culturale, perché una frase associata alla cura emotiva o alla relazione intima viene trasferita in contesti pratici dove l’utente si aspetterebbe efficienza, chiarezza e sobrietà.

Dal punto di vista della progettazione dei modelli, questo caso evidenzia la necessità di metriche più sofisticate per valutare la qualità multilingue. Non basta misurare la correttezza grammaticale o la capacità di rispondere a domande complesse. Serve valutare registro, naturalezza, varietà lessicale, appropriatezza pragmatica, gestione dell’ironia, sensibilità ai meme locali e capacità di evitare slogan ricorrenti. Un modello può ottenere buoni risultati su benchmark di comprensione linguistica e continuare comunque a “suonare” artificiale agli utenti nativi.

Una possibile risposta tecnica consiste nel migliorare i dataset di preferenza con valutatori madrelingua e scenari localizzati. Invece di chiedere genericamente quale risposta sia “migliore”, bisognerebbe valutare se la risposta è naturale in quel mercato, se usa un tono adeguato al compito, se evita formule culturalmente cariche e se mantiene una variabilità stilistica sufficiente. Questo richiede un lavoro più granulare rispetto all’allineamento generalista: non un’unica personalità globale del modello, ma parametri conversazionali più sensibili alla lingua, al contesto e al dominio d’uso.

Un’altra direzione riguarda il controllo della diversità degli output. I modelli dovrebbero essere addestrati non solo a produrre una buona frase, ma a evitare che una buona frase diventi una scorciatoia onnipresente. In un’interfaccia conversazionale, la ripetizione è più visibile che in un testo statico: l’utente torna ogni giorno, formula richieste diverse e riconosce rapidamente le abitudini linguistiche dell’assistente. La qualità percepita dipende quindi anche dalla capacità del modello di non sembrare prigioniero della propria fraseologia.

La localizzazione dei chatbot AI non può essere ridotta a una questione di traduzione. È un problema di comportamento linguistico situato. Ogni lingua porta con sé convenzioni di cortesia, distanza, ironia, intensità emotiva e rapporto con l’autorità. Un assistente AI davvero globale deve saper modulare questi aspetti senza cadere nella caricatura: non deve parlare cinese come un inglese tradotto, non deve parlare italiano come una brochure aziendale, non deve parlare giapponese come un manuale di servizio clienti, e non deve trasformare ogni interazione in una scena di supporto emotivo.

Di Fantasy