Rome Times

The Eternal Voice of Italy
Wednesday, Feb 04, 2026

L'AI ha inventato "Sorgenti Calde" — I turisti sono arrivati e sono rimasti scioccati

Cento di visitatori in Tasmania sono stati ingannati dopo che un articolo di viaggio generato dall'IA ha promosso non esistenti "Weldborough Hot Springs", causando confusione, lamentele e la rimozione del contenuto falso.
Non c'è niente di più frustrante del momento in cui ci rendiamo conto che l'intelligenza artificiale ha semplicemente inventato informazioni su cui ci siamo basati — solo per scoprire che non ha alcuna connessione con la realtà.

E cosa è ancora più frustrante?

Non c'è nessuno da sgridare e nessuno da incolpare — tranne noi stessi (capirete perché più avanti nell'articolo).

Per centinaia di turisti in Tasmania, questa è diventata la deludente realtà della vacanza che avevano intrapreso.

Il sito di viaggi “Tasmania Tours” ha utilizzato l'intelligenza artificiale (AI) per generare contenuti e immagini per il suo sito, e ha erroneamente creato un'attrazione naturale che non esiste affatto: le “Weldborough Hot Springs.”

L'articolo problematico è stato pubblicato online nel luglio 2025 e da allora ha attirato un significativo traffico web.

Accanto a un'immagine accattivante, descriveva le sorgenti immaginarie come un “rifugio tranquillo nel cuore della foresta” e un luogo che offriva una “connessione autentica con la natura.” Il testo seducente prometteva ai visitatori un bagno in acque “ricche di minerali terapeutici,” e classificava persino la località come uno dei “sette migliori luoghi per sorgenti termali in Tasmania per il 2026.”

“Al culmine della follia, ricevevo circa cinque telefonate al giorno, e interi gruppi venivano in hotel a chiedere dove fossero le sorgenti,” ha detto il proprietario di un pub locale.

“Ho detto loro: ‘Se trovate le sorgenti termali, tornate e ditemi, e mi occuperò della vostra birra tutta la notte offerta dalla casa.’ Nessuno è mai tornato.”

Ciò che ha fatto cadere i turisti nella trappola è stato il fatto che l'AI era abbastanza sofisticata da mescolare verità e falsità: le sorgenti inventate apparivano in una lista accanto ad attrazioni completamente reali e ben conosciute, come le Hastings Caves, il che conferiva all'informazione un alto livello di credibilità.

L'articolo era accompagnato da immagini pastorali generate dall'AI di piscine fumanti nella natura selvaggia, che hanno infine convinto anche i più esitanti.

La realtà sul campo a Weldborough, una cittadina rurale nel nord-est dell'isola, era completamente diversa.

Non ci sono sorgenti termali lì, e non ci sono mai state.

Le uniche attrazioni nell'area sono foreste, un pub locale e un fiume le cui acque sono gelide.

Christie Probert, la proprietaria del pub locale, è stata costretta a gestire un'ondata di turisti impotenti.

“Al culmine, ricevevo circa cinque telefonate al giorno, e ogni giorno due o tre gruppi venivano in hotel a chiedere dove fossero le sorgenti,” ha detto Probert.

“Il Wild River che scorre qui è assolutamente gelido. Onestamente, hai più possibilità di trovare un diamante nel fiume che acqua calda.”

Secondo lei, l'errore dell'AI ha creato caos locale.

“Due giorni fa, un gruppo di ventiquattro conducenti è venuto dal continente, facendo una deviazione speciale dal loro percorso solo per raggiungere le sorgenti. Ho detto loro: ‘Se trovate le sorgenti termali, tornate e ditemi, e mi occuperò della vostra birra tutta la notte offerta dalla casa.’ Nessuno è tornato.”

A seguito delle innumerevoli richieste, la compagnia “Australian Tours and Cruises,” che gestisce il sito, ha rimosso il contenuto falso.

Il proprietario, Scott Hensy, ha ammesso il colossale fallimento e ha parlato del pesante costo personale.

“L'odio che abbiamo ricevuto online è stato devastante per l'anima,” ha detto Hensy in interviste con i media internazionali.

“Siamo solo una coppia sposata che cerca di andare avanti con la propria vita.”

Hensy ha spiegato che l'azienda ha esternalizzato la scrittura dei contenuti a causa di una “mancanza di personale” per produrre un numero sufficiente di materiali in modo indipendente, nel tentativo di “competere con i grandi attori su Google.” Ha detto che i materiali sono stati pubblicati senza un'adeguata supervisione umana mentre lui era all'estero.

“A volte funziona meravigliosamente, e altre volte fallisce in modo massiccio,” ha aggiunto Hensy.

“Ho visto il software generare animali che non avevo mai visto prima, come un wombat con tre gambe o creature che somigliavano a una strana combinazione di un coccodrillo.” L'azienda si è scusata e ha chiarito che è un'impresa legittima, e che una revisione manuale completa di tutto il contenuto del sito web è ora in corso. Il caso di Weldborough è un esempio estremo di un fenomeno più ampio conosciuto come “allucinazioni dell'AI,” in cui i generatori di testo inventano fatti con completa fiducia.

La professoressa Anne Hardy, esperta di turismo, avverte che la dipendenza cieca dalla tecnologia può rovinare le vacanze.

“Sappiamo che oggi circa il novanta percento degli itinerari di viaggio generati dall'intelligenza artificiale contiene almeno un errore,” afferma Hardy.

“Nonostante ciò, circa il trentasette percento dei viaggiatori si affida all'AI per pianificare i propri viaggi.” Il caso della Tasmania serve da doloroso promemoria: prima di preparare un costume da bagno basato su una raccomandazione online, vale la pena assicurarsi che un essere umano abbia verificato che la destinazione esista effettivamente.

Questo non è il primo caso nell'ultimo anno in cui l'intelligenza artificiale ha inviato le persone in missioni assurde o pericolose.

Alla fine del 2025, è stato segnalato che due turisti in Perù sono andati alla ricerca del “Canyon Sacro di Humantay” seguendo una raccomandazione di un chatbot.

Si sono trovati a scalare a un'altitudine di quattro mila metri senza ricezione cellulare, solo per scoprire che il luogo non esisteva e che erano in grave pericolo.

Un altro fenomeno che preoccupava i viaggiatori nel 2025 era Amazon, inondata di guide di viaggio false scritte dall'AI sotto nomi di autori fittizi.

Le guide, vendute a migliaia, contenevano raccomandazioni per ristoranti chiusi da anni e consigli privi di significato.

Anche la catena di fast food Taco Bell ha sperimentato la forza della tecnologia, quando il suo nuovo sistema di ordinazione vocale ha malfunzionato e ha effettuato un ordine per non meno di diciotto mila bicchieri d'acqua per un singolo cliente.
AI Disclaimer: An advanced artificial intelligence (AI) system generated the content of this page on its own. This innovative technology conducts extensive research from a variety of reliable sources, performs rigorous fact-checking and verification, cleans up and balances biased or manipulated content, and presents a minimal factual summary that is just enough yet essential for you to function as an informed and educated citizen. Please keep in mind, however, that this system is an evolving technology, and as a result, the article may contain accidental inaccuracies or errors. We urge you to help us improve our site by reporting any inaccuracies you find using the "Contact Us" link at the bottom of this page. Your helpful feedback helps us improve our system and deliver more precise content. When you find an article of interest here, please look for the full and extensive coverage of this topic in traditional news sources, as they are written by professional journalists that we try to support, not replace. We appreciate your understanding and assistance.
Newsletter

Related Articles

Rome Times
×