Nonostante sia universalmente acclamato come l’assistente personale AI più influente e diffuso, con capacità che spaziano dalla composizione di codice alla generazione di saggi complessi, ChatGPT si trova inaspettatamente in difficoltà con uno dei compiti più banali per un computer: dire l’ora corrente. Questo singolare e persistente malfunzionamento, riportato da numerose testate e oggetto di crescenti lamentele sui forum online, sta catalizzando l’attenzione sul paradosso che affligge i Modelli di Linguaggio di Grandi Dimensioni (LLM) come quello di OpenAI.
Il problema si manifesta con una serie di risposte incoerenti e frustranti. A un utente che chiede semplicemente “Che ore sono?”, ChatGPT può rispondere in modo erratico, a volte fornendo un orario completamente sbagliato, altre volte ammettendo candidamente la propria incapacità: “Non abbiamo accesso all’orologio o alla posizione del tuo dispositivo, quindi non possiamo dirti l’ora esatta”, limitandosi a citare la data del suo ultimo aggiornamento di sistema. In casi ancora più singolari, l’agente può fornire l’orario errato anche pochi minuti dopo aver dato la risposta esatta, creando un’esperienza d’uso confusa e minando la fiducia nella sua affidabilità.
Gli esperti del settore sono concordi nell’identificare la radice del problema nell’architettura fondamentale degli LLM. A differenza dei dispositivi convenzionali, come telefoni cellulari o computer, che si affidano a chip di clock in tempo reale, i modelli linguistici generativi come ChatGPT operano esclusivamente nello “spazio linguistico”. Essi generano risposte attraverso un processo di previsione statistica basato su vaste quantità di dati di addestramento storici e sul contesto conversazionale. Come acutamente osservato dall’esperto di robotica AI Yervant Kulbassian, un modello è essenzialmente “bloccato su un’isola con nient’altro che libri”, il che significa che è strutturalmente ignaro di qualsiasi informazione che cambi in tempo reale, come l’ora precisa.
Questo limite strutturale è aggravato dalle sfide relative alla finestra di contesto, lo spazio di memoria limitato in cui l’agente conserva le informazioni durante una conversazione specifica. Se a ChatGPT venisse imposto di fare riferimento costante all’orologio di sistema, la continua immissione di nuovi dati temporali in rapido cambiamento si accumulerebbe, rischiando di sovraccaricare la finestra di contesto. Questo “rumore” di dati in continuo mutamento confonderebbe il modello e lo distoglierebbe dalle informazioni di contesto più importanti relative alla conversazione in corso. Le informazioni che cambiano lentamente, come le date, possono essere pre-caricate in modo più stabile, ma l’ora cambia troppo velocemente per essere gestita in modo continuo ed efficace senza compromettere la stabilità del sistema.
OpenAI è consapevole di questa limitazione e ha cercato di mitigarla, in parte attraverso l’integrazione della ricerca in tempo reale. Quando l’utente attiva esplicitamente questa funzione, ad esempio chiedendo “Trova l’ora e dimmela”, l’agente esegue una ricerca sul web e fornisce l’informazione esatta, aggirando il limite interno dell’LLM. Non a caso, i concorrenti di ChatGPT, come Gemini di Google, Copilot di Microsoft e Grok di xAI, hanno implementato meccanismi che eseguono automaticamente questa ricerca quando viene richiesta l’ora, garantendo risposte precise e una migliore esperienza utente su questo fronte specifico. È interessante notare, tuttavia, che anche Claude di Anthropic ha manifestato le stesse difficoltà di ChatGPT, suggerendo che il problema è intrinseco alla progettazione di base di questa generazione di LLM.
Il dibattito si sposta anche sul modo in cui l’AI affronta il concetto stesso di tempo. Un esperimento condotto dai ricercatori dell’Università di Edimburgo ha rivelato che persino i modelli più recenti faticano a interpretare correttamente le lancette sugli orologi analogici o a gestire i calcoli delle date del calendario in modo regolare, evidenziando una più ampia debolezza degli LLM nella comprensione e nel riconoscimento del tempo come concetto sequenziale.
Forse l’aspetto più fastidioso per gli utenti, tuttavia, non è tanto l’incapacità di conoscere l’ora, quanto la mancanza di “onestà” dell’agente. Quando ChatGPT afferma con sicurezza un orario errato, gli esperti spiegano che non si tratta di una deliberata menzogna, ma piuttosto del “risultato di un processo di previsione linguistica della risposta che l’utente desidera sentire”. In altre parole, l’agente genera la risposta statisticamente più probabile nel suo spazio linguistico, anche se in quel momento è fattualmente scorretta, alimentando l’irritazione degli utenti.
OpenAI ha dichiarato di essere impegnata a “migliorare la sua capacità di riconoscere quando utilizzare la ricerca”, suggerendo che la soluzione più probabile per il futuro non sarà quella di dotare l’LLM di un orologio interno, ma di affinare l’intelligenza che gli permette di delegare in modo affidabile questo compito a strumenti esterni in tempo reale. Il paradosso dell’ora corrente, quindi, è un promemoria essenziale che le immense capacità linguistiche e creative di un’intelligenza artificiale non equivalgono ancora alla consapevolezza fondamentale del momento presente.
