KI erfand „heiße Quellen“ – Touristen kamen und waren schockiert.
Hunderte von Besuchern in Tasmanien wurden irref geführt, nachdem ein KI-generierter Reiseartikel nicht existierende „Weldborough Thermalquellen“ beworben hatte, was zu Verwirrung, Beschwerden und der Entfernung des falschen Inhalts führte.
Es gibt nichts Frustrierenderes als den Moment, in dem wir erkennen, dass die künstliche Intelligenz einfach Informationen erfunden hat, auf die wir vertraut haben — nur um herauszufinden, dass sie keinerlei Verbindung zur Realität hat.
Und was ist noch frustrierender?
Es gibt niemanden, den man tadeln kann, und niemanden, den man beschuldigen kann — außer uns selbst (Sie werden später im Artikel verstehen, warum).
Für Hunderte von Touristen in Tasmanien wurde dies zur enttäuschenden Realität des Urlaubs, auf den sie sich begeben hatten.
Die Reisewebsite „Tasmania Tours“ nutzte künstliche Intelligenz (KI), um Inhalte und Bilder für ihre Seite zu generieren, und schuf versehentlich eine natürliche Attraktion, die es überhaupt nicht gibt: die „Weldborough Hot Springs“.
Der problematische Artikel ging im Juli 2025 online und hat seither erhebliche Webtraffic angezogen.
Zusammen mit einem verlockenden Bild beschrieb er die imaginären Quellen als einen „friedlichen Rückzugsort im Herzen des Waldes“ und einen Ort, der eine „authentische Verbindung zur Natur“ bietet.
Der verführerische Text versprach den Besuchern ein Bad in „therapeutisch mineralreichen“ Gewässern und bewertete den Standort sogar als einen der „sieben besten heißen Quellen in Tasmanien für 2026“.
„Auf dem Höhepunkt des Wahnsinns bekam ich etwa fünf Anrufe am Tag, und ganze Gruppen kamen ins Hotel und fragten, wo die Quellen sind“, sagte der Besitzer eines örtlichen Pubs.
„Ich sagte ihnen: ‚Wenn ihr die heißen Quellen findet, kommt zurück und sagt mir Bescheid, und ich kümmere mich den ganzen Abend um euer Bier aufs Haus.‘ Niemand kam jemals zurück.“
Was die Touristen in die Falle lockte, war die Tatsache, dass die KI so raffiniert war, dass sie Wahrheit und Falschheit vermischte: die erfundenen Quellen standen auf einer Liste neben vollständig realen und bekannten Attraktionen, wie den Hastings Caves, was der Information ein hohes Maß an Glaubwürdigkeit verlieh.
Der Artikel wurde von pastoral wirkenden, KI-generierten Bildern dampfender Becken in der Wildnis begleitet, die selbst die Zögernden schließlich überzeugten.
Die Realität vor Ort in Weldborough, einer ländlichen Stadt im Nordosten der Insel, war völlig anders.
Dort gibt es keine heißen Quellen, und es hat sie nie gegeben.
Die einzigen Attraktionen in der Gegend sind Wälder, ein örtlicher Pub und ein Fluss, dessen Wasser eiskalt ist.
Christie Probert, die Besitzerin des örtlichen Pubs, war gezwungen, mit einer Welle hilfloser Touristen umzugehen.
„Zu diesem Zeitpunkt erhielt ich etwa fünf Anrufe am Tag, und jeden Tag kamen zwei oder drei Gruppen ins Hotel und fragten, wo die Quellen wären“, sagte Probert.
„Der Wild River, der hier entlangfließt, ist absolut eiskalt.
Ehrlich gesagt, Sie haben eine bessere Chance, einen Diamanten im Fluss zu finden als heißes Wasser.“
Laut ihr hat der KI-Fehler vor Ort Chaos verursacht.
„Vor zwei Tagen kam eine Gruppe von vierundzwanzig Fahrern vom Festland, die einen besonderen Umweg von ihrer Route gemacht hatten, nur um die Quellen zu erreichen.
Ich sagte ihnen: ‚Wenn ihr die heißen Quellen findet, kommt zurück und sagt mir Bescheid, und ich kümmere mich den ganzen Abend um euer Bier aufs Haus.‘ Niemand kam zurück.“
Nach den vielen Anfragen entfernte die Firma „Australian Tours and Cruises“, die die Seite betreibt, die falschen Inhalte.
Der Eigentümer, Scott Hensy, gab das kolossale Versagen zu und sprach von den schweren persönlichen Kosten.
„Der Hass, den wir online erhielten, war seelisch verheerend“, sagte Hensy in Interviews mit den globalen Medien.
„Wir sind nur ein verheiratetes Paar, das versucht, mit unserem Leben voranzukommen.“
Hensy erklärte, dass die Firma das Schreiben von Inhalten aufgrund eines „Mangel an Personal“ auslagerte, um genug Material unabhängig zu produzieren, im Bemühen, „mit den großen Akteuren bei Google zu konkurrieren“.
Er sagte, die Materialien wurden ohne ausreichende menschliche Aufsicht veröffentlicht, während er im Ausland war.
„Manchmal funktioniert es wunderbar, und manchmal schlägt es massiv fehl“, fügte Hensy hinzu.
„Ich sah die Software Tiere generieren, die ich noch nie zuvor gesehen hatte, wie ein Wombat mit drei Beinen oder Kreaturen, die wie eine seltsame Kombination aus einem Krokodil aussahen.“ Das Unternehmen entschuldigte sich und stellte klar, dass es sich um ein legitimes Geschäft handelt und dass eine umfassende manuelle Überprüfung aller Website-Inhalte jetzt underway ist.
Der Weldborough-Fall ist ein extremes Beispiel für ein breiteres Phänomen, das als „KI-Halluzinationen“ bekannt ist, bei dem Textgeneratoren Fakten mit vollstem Vertrauen erfinden.
Professor Anne Hardy, eine Tourismusexpertin, warnt davor, blind auf die Technologie zu vertrauen, da sie Urlaube ruinieren kann.
„Wir wissen, dass heute etwa neunzig Prozent der von künstlicher Intelligenz generierten Reisepläne mindestens einen Fehler enthalten“, sagt Hardy.
„Trotzdem verlassen sich etwa siebenunddreißig Prozent der Reisenden auf KI, um ihre Reisen zu planen.“ Der Fall Tasmanien dient als schmerzhafter Erinnerung: Bevor Sie einen Badeanzug basierend auf einer online Empfehlung packen, sollten Sie sicherstellen, dass ein Mensch überprüft hat, dass das Ziel tatsächlich existiert.
Dies ist nicht der erste Fall im vergangenen Jahr, in dem künstliche Intelligenz Menschen auf absurde oder gefährliche Missionen geschickt hat.
Ende 2025 wurde berichtet, dass zwei Touristen in Peru auf der Suche nach dem „Heiligen Canyon von Humantay“ nach einer Empfehlung eines Chatbots waren.
Sie fanden sich in einer Höhe von viertausend Metern ohne Mobilfunkempfang wieder, nur um zu entdecken, dass der Ort nicht existierte und dass sie sich tatsächlich in ernsthafter Gefahr befanden.
Ein anderes Phänomen, das Reisende 2025 beunruhigte, war, dass Amazon mit gefälschten Reiseführern überschwemmt wurde, die von KI unter fiktiven Autorenamen geschrieben wurden.
Die Leitfäden, die hunderttausendfach verkauft wurden, enthielten Empfehlungen für Restaurants, die bereits seit Jahren geschlossen waren, und sinnlose Tipps.
Selbst die Fast-Food-Kette Taco Bell erlebte die Kraft der Technologie, als ihr neues Sprachbestellsystem ausfiel und eine Bestellung für nicht weniger als achtzehntausend Tassen Wasser für einen einzelnen Kunden aufgab.
Newsletter
Related Articles