Immagine AI

Nel dibattito incessante su quando i modelli di Intelligenza Artificiale (IA) riusciranno a superare il Test di Turing e a rendersi indistinguibili dagli esseri umani nelle conversazioni, emerge un dato sorprendentemente controintuitivo da un nuovo studio multidisciplinare condotto da ricercatori di prestigiose istituzioni come l’Università di Zurigo, l’Università di Amsterdam e la Duke University. Il paradosso è chiaro: per l’IA è attualmente più difficile falsificare i segnali di tossicità e di emotività negativa del linguaggio umano che simularne la semplice intelligenza. I modelli linguistici di grandi dimensioni (Large Language Models, LLM) tendono a fallire il “test computazionale di Turing” non per un errore di logica, ma per un eccesso di cortesia e per la mancanza di quella spontanea, e talvolta negativa, espressività emotiva che è tipica delle interazioni umane sui social media.

La ricerca ha messo alla prova nove diversi modelli di IA, tra cui varianti di Llama, Mistral e Gemma, facendoli generare risposte a post reali su piattaforme come Twitter/X, Bluesky e Reddit. L’obiettivo era valutare quanto il linguaggio generato dall’IA si avvicinasse al parlato umano reale. Invece di affidarsi al giudizio soggettivo di un osservatore umano, lo studio ha introdotto un “test computazionale di Turing”, utilizzando la classificazione automatica e l’analisi linguistica per identificare le caratteristiche specifiche che distinguono il contenuto macchina dal contenuto umano.

I risultati hanno rivelato che i classificatori automatici sviluppati dai ricercatori sono stati in grado di identificare le risposte generate dall’IA con una sorprendente precisione, oscillante tra il 70% e l’80%. Il segnale più persistente e affidabile che tradiva la natura artificiale del testo era proprio il tono emotivo. Le risposte dell’IA risultavano spesso eccessivamente amichevoli, educate e neutrali, una sorta di maschera di cortesia che, nell’ambiente disinvolto e spesso conflittuale dei social media, si rivela innaturale.

Il punto di rottura tra linguaggio umano e linguaggio dell’IA risiede nella negatività casuale e nell’espressione emotiva spontanea. Quando i modelli di Intelligenza Artificiale venivano incaricati di generare risposte a post reali, faticavano sistematicamente a eguagliare i livelli di “tossicità” e di espressione emotiva negativa che caratterizzano gran parte del dialogo umano online. I loro punteggi di tossicità sono risultati costantemente inferiori rispetto alle risposte autentiche degli utenti umani su tutte e tre le piattaforme analizzate.

I ricercatori hanno provato a superare questo gap emotivo utilizzando diverse tecniche di ottimizzazione, come fornire esempi di scrittura o recuperare il contesto, nel tentativo di spingere l’IA a un tono più “umano”. Tuttavia, anche dopo sofisticate calibrazioni che riuscivano a mimare le differenze strutturali (come la lunghezza delle frasi o il conteggio delle parole), i segnali emotivi più profondi persistevano nel tradire l’origine artificiale del testo. Questo suggerisce che la spontaneità emotiva, con tutte le sue sfumature negative e imprevedibili, è un tratto del linguaggio umano che l’IA non riesce ancora a replicare in modo convincente.

La conclusione dello studio è chiara: “Anche dopo la calibrazione, i risultati del LLM sono chiaramente distinguibili dal testo umano, soprattutto nel tono emotivo e nell’espressione emotiva”. Questa scoperta mette in discussione l’idea che ottimizzazioni più sofisticate producano necessariamente risultati più simili a quelli umani.

Per il momento, la mancanza di imperfezione emotiva nell’IA funge da efficiente watermark digitale, permettendo ai sistemi automatici (e, a un esame più attento, anche agli utenti) di distinguere tra un contenuto generato dalla macchina e uno prodotto da un essere umano. Questo non è solo un dato accademico: ha importanti implicazioni per la sicurezza dei social media e per la lotta alla disinformazione, fornendo alle piattaforme un nuovo e inaspettato strumento per identificare gli account falsi o automatizzati che cercano di mimetizzarsi nella folla. Fino a quando l’IA non imparerà a essere adeguatamente “sgradevole” o emotivamente complessa, la sua eccessiva cortesia continuerà ad essere il suo tallone d’Achille nella simulazione del comportamento umano online.

Di Fantasy