Immagine AI

Ti è mai capitato di chiedere qualcosa a un’intelligenza artificiale e ricevere una risposta fluida, articolata… ma palesemente sbagliata? È un’esperienza frustrante e allo stesso tempo affascinante: perché, quando non lo sa, l’IA risponde lo stesso—e spesso con troppa sicurezza. È un fenomeno che va oltre il semplice errore: è un corto circuito tra conoscenza reale e interpretazione creativa.

Secondo Martin Anderson, LLM (modelli di linguaggio di grandi dimensioni) come ChatGPT o Qwen spesso riconoscono, internamente, di non conoscere la risposta giusta. Eppure, forniscono una risposta plausibile, anche se inventata. È come un riflesso addestrato: non si blocca, non dice “non lo so”, ma ripropone la sequenza più probabile di parole, indipendentemente dalla verità. Questa discrepanza tra ciò che l’IA “sa” e ciò che dice crea un vuoto pericoloso tra verità e verosimiglianza.

Perché succede? Le ragioni sono molteplici, e radicate nelle tecniche stesse di come l’IA viene addestrata:

  • Allenamento sui dati umani: questi modelli imparano a completare frasi plausibili, non a ragionare con consapevolezza critica. Hanno poca familiarità a dire “non lo so”, perché nei dati di addestramento è raro trovare esempi in cui anche gli umani, specie in contesti formali o scritti, ammettono di non sapere.
  • Cultura della certezza: Viviamo in una società che premia la sicurezza; anche in un articolo recente sul Financial Times si critica l’abitudine a evitare frasi come “non lo so”, sia tra le persone sia nell’IA. Ammettere incertezza rischia di essere visto come una debolezza, per umani e macchine.
  • Incentivo al bluff nella fase di training: Gli LLM sono progettati per “appaiare bene” con le risposte attese. In mancanza di dati certi, possono imparare a bluffare, esprimendo risposte con troppa fiducia. Quanto più convincenti appaiono, tanto più sono scoraggiate frasi come “non lo so”.

Una IA che sa quando tacere è un modello più responsabile:

  • Migliora la fiducia: un modello che ammette apertamente i suoi limiti risulta sinceramente più credibile. Non è un bug, è un segnale di trasparenza.
  • Riduzione delle allucinazioni: questi modelli rispondono “non lo so” quando non hanno dati affidabili, riducendo drastica probabilità di risposte false, anche se plausibili. Affidabilità al posto di verosimiglianza.
  • Basato su ricerca attuale: già si sperimentano metodi per insegnare all’IA a sospendere il giudizio quando incerta, anche con dataset che distinguono tra domande note e sconosciute (ultimi studi di riflettività nei modelli LLM). Inoltre, la “Consistent Reasoning Paradox” suggerisce che per essere affidabile, un’IA deve essere in grado di dire “non lo so”, come parte di un ragionamento umano‑simile, evitando risposte incoerenti o errate.

Da un punto di vista più ampio, il problema non è solo tecnico, ma anche filosofico:

  • Difficoltà epistemica: come sosteneva Hubert Dreyfus, gran parte del sapere umano è contestuale, intuitivo, non completamente formalizzabile. Un’IA che risponde sempre come se fosse competente ignora questa distinzione tra sapere esplicito e sapere implicito.
  • Mancanza di comprensione semantica: nella celebre argomentazione della “stanza cinese”, John Searle sottolineava che manipolare simboli non equivale a comprendere. L’IA formula frasi, non “comprende” i significati: per questo a volte finge di sapere dove in realtà sta solo replicando pattern linguistici.
    en.wikipedia.org

Stiamo diventando più consapevoli dell’importanza dell’onestà cognitiva, sia da parte degli umani che delle macchine. Il Financial Times lo ha espresso con chiarezza: ammettere “non lo so” può aprire spazi al dialogo, alla scoperta, alla formazione—una capacità umana che oggi era percepita come debolezza ma vale oro nella conversazione intelligente.

Il fatto che LLM talvolta nascondano il “vuoto interno” dietro una parete di certezza lucida, mette in luce un paradosso: stiamo costruendo strumenti capaci di imitare l’intelligenza umana ma scivolano proprio dove la saggezza sarebbe dire: “lo ammetto, non lo so”.

Ripensare il ruolo della fiducia, della trasparenza e dell’errore non significa solo migliorare modelli più “accurati”: significa ridisegnare con onestà la relazione tra l’umano e la macchina, e riscoprire insieme il valore della domanda senza risposta.

Di Fantasy