KI erfand „Heiße Quellen“ — Touristen kamen und waren schockiert
Hunderte von Besuchern in Tasmanien wurden in die Irre geführt, nachdem ein KI-generierter Reiseartikel nicht existierende „Weldborough Hot Springs“ beworben hatte, was zu Verwirrung, Beschwerden und der Entfernung des falschen Inhalts führte.
Es gibt nichts Frustrierenderes als den Moment, in dem wir erkennen, dass die künstliche Intelligenz einfach Informationen erfunden hat, auf die wir uns verlassen haben – nur um zu entdecken, dass sie keinerlei Verbindung zur Realität hat.
Und was noch frustrierender ist?
Es gibt niemanden, den man rügen oder beschuldigen kann – außer uns selbst (Sie werden später im Artikel verstehen, warum).
Für Hunderte von Touristen in Tasmanien wurde dies zur enttäuschenden Realität ihres Urlaubs.
Die Reisewebsite „Tasmania Tours“ verwendete künstliche Intelligenz (KI), um Inhalte und Bilder für ihre Seite zu generieren, und schuf fälschlicherweise eine natürliche Attraktion, die es überhaupt nicht gibt: die „Weldborough Hot Springs“.
Der problematische Artikel ging im Juli 2025 online und hat seitdem erheblichen Webverkehr angezogen.
Neben einem verlockenden Bild beschrieb er die imaginären Quellen als einen „friedlichen Rückzugsort im Herzen des Waldes“ und als einen Ort, der eine „authentische Verbindung zur Natur“ bietet.
Der verführerische Text versprach den Besuchern ein Bad in Gewässern, die „reich an therapeutischen Mineralien“ sind, und rangierte den Standort sogar als einen der „sieben besten Thermenstandorte in Tasmanien für 2026“.
„Auf dem Höhepunkt des Wahnsinns erhielt ich etwa fünf Anrufe pro Tag, und ganze Gruppen kamen ins Hotel und fragten, wo die Quellen seien“, sagte der Besitzer eines örtlichen Pubs.
„Ich sagte ihnen: ‚Wenn ihr die heißen Quellen findet, kommt zurück und sagt es mir, und ich kümmere mich um euer Bier die ganze Nacht aufs Haus.‘ Niemand ist jemals zurückgekommen.“
Was die Touristen in die Falle tappen ließ, war die Tatsache, dass die KI so ausgeklügelt war, dass sie Wahrheit und Falschheit vermischte: Die erfundenen Quellen erschienen auf einer Liste neben völlig realen und bekannten Attraktionen wie den Hastings Caves, was der Information ein hohes Maß an Glaubwürdigkeit verlieh.
Der Artikel wurde von pastoralen, KI-generierten Bildern von dampfenden Becken in der Wildnis begleitet, die schließlich sogar die Zögerlichen überzeugten.
Die Realität vor Ort in Weldborough, einer ländlichen Stadt im Nordosten der Insel, war völlig anders.
Es gibt dort keine heißen Quellen, und es hat sie nie gegeben.
Die einzigen Attraktionen in der Gegend sind Wälder, ein lokaler Pub und ein Fluss, dessen Wasser eiskalt ist.
Christie Probert, die Besitzerin des örtlichen Pubs, war gezwungen, mit einer Welle hilfloser Touristen umzugehen.
„In der Spitze erhielt ich etwa fünf Anrufe pro Tag, und jeden Tag kamen zwei oder drei Gruppen ins Hotel und fragten, wo die Quellen seien“, sagte Probert.
„Der Wild River, der hier hindurchfließt, ist absolut eisig.
Ehrlich gesagt, man hat eine bessere Chance, einen Diamanten im Fluss zu finden als heißes Wasser.“
Laut ihr verursachte der Fehler der KI ein lokales Chaos.
„Vor zwei Tagen kam eine Gruppe von vierundzwanzig Fahrern vom Festland, die einen speziellen Umweg von ihrer Route gingen, nur um die Quellen zu erreichen.
Ich sagte ihnen: ‚Wenn ihr die heißen Quellen findet, kommt zurück und sagt es mir, und ich kümmere mich um euer Bier die ganze Nacht aufs Haus.‘ Niemand kam zurück.“
Nach den vielen Anfragen entfernte die Firma „Australian Tours and Cruises“, die die Seite betreibt, den falschen Inhalt.
Der Besitzer, Scott Hensy, gab das kolossale Versagen zu und sprach von den schweren persönlichen Kosten.
„Der Hass, den wir online erhalten haben, war seelisch verheerend“, sagte Hensy in Interviews mit den globalen Medien.
„Wir sind nur ein verheiratetes Paar, das versucht, mit unserem Leben voranzukommen.“
Hensy erklärte, dass das Unternehmen das Schreiben von Inhalten aufgrund eines „Mangels an Personal“ auslagern musste, um genügend Material unabhängig zu produzieren, in dem Versuch, „mit den großen Playern bei Google zu konkurrieren.“ Er sagte, die Materialien seien ohne ausreichende menschliche Aufsicht veröffentlicht worden, während er im Ausland war.
„Manchmal funktioniert es wunderbar, und manchmal schlägt es massiv fehl“, fügte Hensy hinzu.
„Ich sah, wie die Software Tiere generierte, die ich noch nie zuvor gesehen hatte, wie ein Wombat mit drei Beinen oder Kreaturen, die wie eine seltsame Kombination aus einem Krokodil aussahen.“ Das Unternehmen entschuldigte sich und stellte klar, dass es ein legitimes Geschäft sei und dass eine umfassende manuelle Überprüfung aller Website-Inhalte nun im Gange sei.
Der Weldborough-Fall ist ein extremes Beispiel für ein breiteres Phänomen, das als „KI-Halluzinationen“ bekannt ist, bei dem Textgeneratoren Fakten mit vollständigem Vertrauen erfinden.
Professorin Anne Hardy, eine Tourismus-Expertin, warnt, dass blindes Vertrauen in die Technologie Urlaubsreisen ruinieren kann.
„Wir wissen, dass heute etwa neunzig Prozent der von künstlicher Intelligenz generierten Reisepläne mindestens einen Fehler enthalten“, sagt Hardy.
„Trotzdem verlassen sich etwa siebenunddreißig Prozent der Reisenden auf KI, um ihre Reisen zu planen.“ Der Fall Tasmanien dient als schmerzhafter Hinweis: Bevor man einen Badeanzug basierend auf einer Online-Empfehlung packt, lohnt es sich sicherzustellen, dass ein Mensch überprüft hat, dass das Ziel tatsächlich existiert.
Dies ist nicht der erste Fall im vergangenen Jahr, in dem künstliche Intelligenz Menschen auf absurde oder gefährliche Missionen geschickt hat.
Ende 2025 wurde berichtet, dass zwei Touristen in Peru auf der Suche nach dem „Heiligen Canyon von Humantay“ following a chatbot recommendation.
Sie fanden sich auf einer Höhe von viertausend Metern wieder, ohne Mobilfunkempfang, nur um festzustellen, dass der Ort nicht existierte und sie sich tatsächlich in ernsthafter Gefahr befanden.
Ein weiteres Phänomen, das Reisende im Jahr 2025 beschäftigte, waren auf Amazon geflutete gefälschte Reiseführer, die von KI unter fiktiven Autorennamen geschrieben wurden.
Die Guides, die in Tausenden verkauft wurden, enthielten Empfehlungen für Restaurants, die jahrelang geschlossen waren, und sinnlose Tipps.
Sogar die Fast-Food-Kette Taco Bell erlebte die Macht der Technologie, als ihr neues Sprachbestellsystem ausfiel und eine Bestellung für nicht weniger als achttausend Tassen Wasser für einen einzigen Kunden aufgab.