Immagine AI

Nelle ultime settimane un episodio curioso e significativo ha catturato l’attenzione di chi segue gli sviluppi dell’intelligenza artificiale: un’errata pubblicazione online ha convinto decine di persone a partire dall’altra parte del mondo alla volta di una destinazione che, semplicemente, non esiste. La vicenda riguarda Weldborough, un piccolo villaggio rurale nell’estremo nord-est della Tasmania, circondato da foreste e attraversato dal freddo corso del Weld River, un luogo reale ma spesso trascurato nelle mappe turistiche tradizionali. Tuttavia, per qualche tempo, Weldborough è diventato protagonista di una narrazione completamente inventata da un’intelligenza artificiale, convincendo i viaggiatori di tutto il pianeta che lì si trovassero sorgenti termali suggestive e rinomate.

Tutto ha avuto origine da un post pubblicato sul sito di una compagnia australiana di tour, Tasmania Tours, che utilizzava contenuti e immagini generati dall’IA per arricchire il proprio materiale promozionale. In un articolo intitolato “Le migliori esperienze alle terme della Tasmania per il 2026”, Weldborough veniva descritto come sede di delle “Weldborough Hot Springs”, un rifugio naturale immerso nelle foreste, ricco di acque termali minerali e quiete paesaggistiche. La descrizione era tanto convincente da promuovere questo luogo immaginario alla stregua di altre attrazioni realmente esistenti, come le famose Hastings Caves and Thermal Springs nel sud dell’isola.

Il problema è che quelle sorgenti termali non sono mai esistite — né esistono ora né vi è alcuna documentazione geografica o storica che le attesti — e questo è emerso quando i turisti hanno cominciato a chiedere indicazioni o addirittura ad arrivare di persona nel villaggio per cercarle. Immaginate di partire per un viaggio dall’altro lato del mondo, destino Tasmania, con la certezza di immergervi in acque calde e rilassanti, per poi scoprire, una volta giunti a Weldborough, che l’unica acqua presente è quella gelida del fiume locale. Kristy Probert, proprietaria dell’hotel e pub del luogo, ha raccontato di aver ricevuto telefonate quotidiane e visite di gruppi di turisti che chiedevano indicazioni per queste “terme”, solo per ritrovarsi inutilmente in una regione remota senza la meta che avevano in mente.

Il proprietario della compagnia di tour, Scott Hennessy, ha ammesso che il contenuto era stato generato da un sistema di intelligenza artificiale tramite un fornitore esterno, e che l’articolo fosse stato pubblicato “per errore” mentre lui si trovava all’estero. Hennessy ha spiegato che la scelta di affidarsi all’IA per la creazione di contenuti era dettata dalla necessità di competere con operatori più grandi nel panorama turistico digitale, dove l’aggiornamento costante di testi e immagini sembra indispensabile per restare visibili sui motori di ricerca. Anche se l’azienda ha rimosso le pagine incriminate e ha assicurato che si tratta di un’operazione reale — con tour effettivi e personale umano — l’episodio ha scatenato un’onda di critiche e reazioni online, con alcuni visitatori arrabbiati per la delusione e altri più ironici sulla situazione.

Questo episodio, che il titolo dell’articolo di Huffington Post descrive come le “terme inesistenti di Weldborough”, è diventato emblematico di un fenomeno più ampio legato alle cosiddette AI hallucinations — ovvero i momenti in cui sistemi di intelligenza artificiale producono informazioni false o fuorvianti pur avendo un tono credibile e autorevole. Secondo alcuni studi citati dalla stampa, fino al 90% degli itinerari di viaggio generati automaticamente possono contenere errori o inesattezze, eppure sempre più turisti utilizzano strumenti basati su IA per pianificare le proprie vacanze, affidandosi alle loro proposte senza verificarle con fonti tradizionali.

Di Fantasy