AI wysłała turystów do nieistniejącej atrakcji. Okazała się fikcją

2026-02-17 20:46

Sztuczna inteligencja miała zrewolucjonizować turystykę. Dziś pomaga planować wyjazdy, podpowiada hotele, tworzy gotowe plany zwiedzania. Coraz więcej osób traktuje ją jak osobistego asystenta podróży. Okazuje się jednak, że bezrefleksyjne zaufanie do algorytmów może skończyć się kosztowną i bardzo rozczarowującą wyprawą.

Chat GPT wysłał ich do nieistniejącej atrakcji

i

Autor: Wygenerowane przez AI

AI wymyśliła atrakcję turystyczną

Jeszcze kilka lat temu sztuczna inteligencja kojarzyła się głównie z futurystycznymi wizjami rodem z filmów science fiction. Dziś to narzędzie, z którego korzystamy na co dzień - planując wakacje, rezerwując hotele czy szukając inspiracji na weekendowy wyjazd. AI potrafi w kilka sekund stworzyć gotowy plan podróży i wskazać najlepsze atrakcje w wybranym regionie świata. Problem zaczyna się wtedy, gdy część z nich w ogóle nie istnieje.

Atrakcja, która nie istnieje

Niestety, ale bezrefleksyjne zaufanie do algorytmów może skończyć się kosztowną i bardzo rozczarowującą wyprawą. Coś na ten temat bez wątpienia wiedzą turyści, którzy w Tasmanii ruszyli w poszukiwaniu nieistniejących gorących źródeł. Jak to jednak możliwe? Wszystko przez błąd w artykule operatora Tasmania Tours.

Sztuczna inteligencja wprowadziła turystów w błąd

Jak czytamy na portalu Onet.pl, na stronie internetowej operatora Tasmania Tours pojawił się artykuł zachęcający do odwiedzenia rzekomych Weldborough Hot Springs - "gorących źródeł", które miały być jednym z najciekawszych doświadczeń na wyspie. Tekst został wygenerowany przy użyciu sztucznej inteligencji i - jak później ustalono - nie przeszedł rzetelnej weryfikacji. Problem w tym, że w Weldborough nigdy nie było żadnych term ani naturalnych źródeł geotermalnych. Napływ zdezorientowanych turystów sprawił, że sprawa wyszła na jaw, a materiał został usunięty ze strony.

Właściciel Tasmania Tours, Scott Hennessy, tłumaczył, że firma współpracowała z zewnętrzną agencją marketingową. To ona korzystała z narzędzi AI do generowania treści. Jak przyznał, artykuł został opublikowany bez odpowiedniej weryfikacji, gdy przebywał za granicą.

Dalsza część artykułu znajduje się pod galerią.

FSO Warszawa w wersji elektrycznej

Halucynacje sztucznej inteligencji. Na co uważać?

Halucynacje sztucznej inteligencji to jedno z największych zagrożeń związanych z korzystaniem z nowoczesnych modeli AI. Polegają one na generowaniu informacji, które brzmią wiarygodnie, lecz są całkowicie nieprawdziwe lub zmyślone. System może wymyślać fakty, cytaty, źródła, dane statystyczne, a nawet nieistniejące osoby czy publikacje. Właśnie dlatego warto zawsze zweryfikować to, co AI "wyprodukuje" nam po zadaniu jej pytania.

QUIZ. Wymysł AI czy rzeczywistość? Sprawdź się w pojedynku ze sztuczną inteligencją
Pytanie 1 z 10
Czy istniała wojna trwająca 38 minut?