Berlin Today

Be Informed, Be Inspired, Be Berlin
Wednesday, Feb 04, 2026

KI erfand „Heißwasserquellen“ – Touristen kamen an und waren schockiert

Hunderte von Besuchern in Tasmanien wurden in die Irre geführt, nachdem ein KI-generierter Reiseartikel die nicht existierenden „Weldborough Hot Springs“ beworben hatte, was zu Verwirrung, Beschwerden und der Entfernung des falschen Inhalts führte.
Es gibt nichts Frustrierenderes als den Moment, in dem wir erkennen, dass künstliche Intelligenz einfach Informationen erfunden hat, auf die wir uns verlassen haben — nur um zu entdecken, dass sie keine Verbindung zur Realität hat.

Und was ist noch frustrierender?

Es gibt niemanden, den man ermahnen oder beschuldigen könnte — außer sich selbst (Sie werden später im Artikel verstehen, warum).

Für Hunderte von Touristen in Tasmanien wurde dies zur enttäuschenden Realität des Urlaubs, den sie angetreten hatten.

Die Reise-Website „Tasmania Tours“ nutzte künstliche Intelligenz (KI), um Inhalte und Bilder für ihre Seite zu generieren, und erfand versehentlich eine natürliche Attraktion, die es überhaupt nicht gibt: die „Weldborough Hot Springs.“

Der problematische Artikel ging im Juli 2025 online und hat seitdem erheblichen Webverkehr angezogen.

Neben einem verlockenden Bild beschrieb er die imaginären Quellen als einen „friedlichen Rückzugsort im Herzen des Waldes“ und einen Ort, der eine „authentische Verbindung zur Natur“ bietet. Der verführerische Text versprach den Besuchern ein Bad in Wasser „reich an therapeutischen Mineralien“ und einstufte den Ort sogar als einen der „sieben besten Thermalquellen in Tasmanien für 2026.“

„Auf dem Höhepunkt des Wahnsinns erhielt ich etwa fünf Anrufe pro Tag, und ganze Gruppen kamen ins Hotel und fragten, wo die Quellen seien“, sagte der Besitzer eines lokalen Pubs.

„Ich sagte ihnen: ‚Wenn Sie die heißen Quellen finden, kommen Sie zurück und erzählen Sie es mir, und ich kümmere mich die ganze Nacht um Ihr Bier auf Kosten des Hauses.‘ Niemand kam jemals zurück.“

Was die Touristen in die Falle tappen ließ, war die Tatsache, dass die KI raffiniert genug war, um Wahrheit und Falschheit zu vermischen: Die erfundenen Quellen erschienen auf einer Liste neben ganz realen und weithin bekannten Attraktionen, wie den Hastings Caves, was der Information ein hohes Maß an Glaubwürdigkeit verlieh.

Der Artikel wurde von pastoralen, KI-generierten Bildern dampfender Becken in der Wildnis begleitet, die schließlich sogar die Zögerlichen überzeugten.

Die Realität vor Ort in Weldborough, einem ländlichen Ort im Nordosten der Insel, war völlig anders.

Es gibt dort keine heißen Quellen und es hat sie dort auch nie gegeben.

Die einzigen Attraktionen in der Gegend sind Wälder, ein lokaler Pub und ein Fluss, dessen Wasser eiskalt ist.

Christie Probert, die Besitzerin des lokalen Pubs, war gezwungen, sich mit einer Welle hilfloser Touristen auseinanderzusetzen.

„Auf dem Höhepunkt erhielt ich etwa fünf Anrufe pro Tag, und jeden Tag kamen zwei oder drei Gruppen ins Hotel und fragten, wo die Quellen seien“, sagte Probert.

„Der Wild River, der hier vorbeifließt, ist absolut gefriere. Ehrlich gesagt, Sie haben eine bessere Chance, einen Diamanten im Fluss zu finden als heißes Wasser.“

Laut ihr schuf der Fehler der KI ein lokales Chaos.

„Vor zwei Tagen kam eine Gruppe von vierundzwanzig Fahrern vom Festland, die einen speziellen Umweg von ihrer Route machte, nur um die Quellen zu erreichen. Ich sagte ihnen: ‚Wenn Sie die heißen Quellen finden, kommen Sie zurück und erzählen Sie es mir, und ich kümmere mich die ganze Nacht um Ihr Bier auf Kosten des Hauses.‘ Niemand kam zurück.“

Nach den vielen Anfragen entfernte das Unternehmen „Australian Tours and Cruises“, das die Seite betreibt, den falschen Inhalt.

Der Besitzer, Scott Hensy, räumte das kolossale Versagen ein und sprach von den schweren persönlichen Kosten.

„Der Hass, den wir online erhielten, war verheerend für die Seele“, sagte Hensy in Interviews mit den globalen Medien.

„Wir sind nur ein verheiratetes Paar, das versucht, mit unserem Leben voranzukommen.“

Hensy erklärte, dass das Unternehmen das Schreiben von Inhalten aufgrund eines „Personalmangels“ auslagerte, um genügend Material unabhängig zu produzieren, in dem Bestreben, „mit den großen Akteuren bei Google zu konkurrieren.“ Er sagte, die Materialien wurden ohne ausreichende menschliche Aufsicht veröffentlicht, während er im Ausland war.

„Manchmal funktioniert es wunderbar, und manchmal scheitert es massiv“, fügte Hensy hinzu.

„Ich sah die Software Tiere generieren, die ich noch nie zuvor gesehen hatte, wie einen Wombat mit drei Beinen oder Kreaturen, die wie eine seltsame Kombination aus einem Krokodil aussahen.“ Das Unternehmen entschuldigte sich und stellte klar, dass es ein legitimes Geschäft ist und dass eine umfassende manuelle Überprüfung aller Inhalte der Website derzeit im Gange ist. Der Weldborough-Fall ist ein extremes Beispiel für ein breiteres Phänomen, das als „KI-Halluzinationen“ bekannt ist, bei dem Textgeneratoren Fakten mit voller Überzeugung erfinden.

Professorin Anne Hardy, eine Tourismus-Expertin, warnt, dass blinder Vertrauens in die Technologie Urlaube ruinieren kann.

„Wir wissen, dass heute etwa neunzig Prozent der durch künstliche Intelligenz generierten Reisekataloge mindestens einen Fehler enthalten“, sagt Hardy.

„Trotzdem verlassen sich etwa siebenunddreißig Prozent der Reisenden auf KI, um ihre Reisen zu planen.“ Der Fall Tasmanien dient als schmerzhafter Hinweis: Bevor man einen Badeanzug basierend auf einer Online-Empfehlung packt, ist es wert, sicherzustellen, dass ein Mensch überprüft hat, dass das Reiseziel tatsächlich existiert.

Dies ist nicht der erste Fall im vergangenen Jahr, in dem künstliche Intelligenz Menschen auf absurde oder gefährliche Missionen geschickt hat.

Am Ende von 2025 wurde berichtet, dass zwei Touristen in Peru auf der Suche nach dem „Heiligen Canyon von Humantay“ waren, nachdem sie eine Empfehlung eines Chatbots erhalten hatten.

Sie fanden sich in einer Höhe von viertausend Metern ohne Mobilfunkempfang wieder, nur um zu entdecken, dass der Ort nicht existierte und dass sie sich tatsächlich in ernsthafter Gefahr befanden.

Ein weiteres Phänomen, das Reisende 2025 beunruhigte, war, dass Amazon von gefälschten Reiseführern überflutet wurde, die von KI unter fiktiven Autorennamen geschrieben wurden.

Die Reiseführer, die in Tausenden verkauft wurden, enthielten Empfehlungen für Restaurants, die Jahre zuvor geschlossen hatten, und sinnlose Tipps.

Selbst die Fast-Food-Kette Taco Bell erlebte die Kraft der Technologie, als ihr neues Sprachbestellsystem versagte und eine Bestellung für nicht weniger als achtzehntausend Becher Wasser für einen einzigen Kunden aufgab.
AI Disclaimer: An advanced artificial intelligence (AI) system generated the content of this page on its own. This innovative technology conducts extensive research from a variety of reliable sources, performs rigorous fact-checking and verification, cleans up and balances biased or manipulated content, and presents a minimal factual summary that is just enough yet essential for you to function as an informed and educated citizen. Please keep in mind, however, that this system is an evolving technology, and as a result, the article may contain accidental inaccuracies or errors. We urge you to help us improve our site by reporting any inaccuracies you find using the "Contact Us" link at the bottom of this page. Your helpful feedback helps us improve our system and deliver more precise content. When you find an article of interest here, please look for the full and extensive coverage of this topic in traditional news sources, as they are written by professional journalists that we try to support, not replace. We appreciate your understanding and assistance.
Newsletter

Related Articles

Berlin Today
×