Il 21 aprile 2025, la notizia della morte di Papa Francesco ha attraversato i confini del mondo, suscitando un’ondata di commozione tra milioni di persone. Un evento che avrebbe dovuto fermare il mondo per un momento, però, ha incontrato un ostacolo particolare: l’intelligenza artificiale di Meta. Nonostante le agenzie di stampa internazionali confermassero la triste realtà, l’assistente digitale di Meta ha continuato a rispondere, per ore, che il Papa era vivo e in piena salute, svolgendo ancora il suo ruolo di guida della Chiesa Cattolica. Questo episodio, che potrebbe sembrare un semplice errore, solleva riflessioni più profonde sull’affidabilità delle intelligenze artificiali nell’elaborare e comunicare eventi cruciali.
Il problema risiede principalmente nella natura dei modelli linguistici su cui si basano questi assistenti digitali. A differenza di un essere umano, che può facilmente comprendere il contesto di un evento in tempo reale, l’intelligenza artificiale non possiede una “coscienza” per interpretare immediatamente ciò che sta accadendo nel mondo. Gli algoritmi di AI, infatti, sono alimentati da enormi volumi di dati, ma questi non sono sempre aggiornati in tempo reale. Quando qualcuno chiede informazioni a un’assistente come quello di Meta, la risposta viene generata attingendo da un database vasto, ma non sempre completo o tempestivo. Se la notizia non è stata ancora verificata da fonti ufficiali, l’intelligenza artificiale non ha modo di “decidere” da sola che qualcosa è cambiato nel mondo. Questo ha portato all’assurdo scenario di un assistente che dichiarava, senza correzioni, che Papa Francesco stava ancora svolgendo il suo ruolo.
Questo errore è sintomatico di un altro fenomeno che emerge nel campo dell’intelligenza artificiale: il tentativo di evitare la disinformazione a tutti i costi. Le AI sono progettate per non dare risposte affrettate su eventi sensibili, come la morte di una figura pubblica, prima che siano verificate da fonti ufficiali. In teoria, questa precauzione dovrebbe proteggere contro notizie false o anticipazioni non confermate. Tuttavia, in questo caso, ha avuto l’effetto di mantenere un’apparente normalità, ignorando un evento cruciale come la morte del Papa, nonostante fosse ampiamente documentato e confermato. È come se la prudenza nel non rispondere senza certezza abbia generato una sorta di “dissociazione” dalla realtà, portando a risposte che non rispecchiavano l’effettiva situazione.
L’incidente di Papa Francesco non è isolato. L’intelligenza artificiale, seppur potente e incredibilmente capace di analizzare e restituire informazioni su milioni di argomenti, è ancora incapace di navigare la complessità dell’informazione in tempo reale. L’AI, infatti, non può avere una percezione autentica del mondo. È alimentata da dati e algoritmi, che possono facilmente diventare obsoleti o disallineati con gli sviluppi reali. Ciò significa che, in situazioni particolari e sensibili, l’AI può essere facilmente indotta a fare affermazioni erronee o a mancare di aggiornamenti tempestivi, come accaduto con il caso di Papa Francesco.
L’incidente mette in evidenza un’importante lezione sul ruolo dell’intelligenza artificiale nelle nostre vite. Man mano che queste tecnologie diventano parte integrante delle nostre interazioni quotidiane, è essenziale che gli sviluppatori si concentrino sul miglioramento della capacità dell’AI di adattarsi a eventi di portata mondiale in tempo reale. Bisogna costruire sistemi che non solo siano in grado di elaborare dati rapidamente, ma che possiedano anche un livello di “comprensione contestuale” capace di distinguere tra informazioni di routine e eventi significativi.
Inoltre, si pone il problema della trasparenza e della verifica dei dati. Se un’assistente digitale non è in grado di comprendere pienamente la realtà o di rispondere correttamente a un cambiamento critico, come la morte di una figura di spicco, deve esserci un meccanismo che permetta agli utenti di capire che l’AI sta facendo delle valutazioni basate su informazioni incomplete o obsolete.