ИИ-планировщик отправил туристов в несуществующий каньон. Разбираем, почему нейросети опасны для путешественников Недавно BBC опубликовала статью о том, как туристы, доверившись нейросети, оказываются в несуществующих местах.Кейс №1: «Священный каньон» в ПеруГид из Перу Мигель Анхель Гонгора Меса столкнулся с туристами, которые собирались в одиночный поход к «Священному каньону Умантай». Проблема в том, что такого места не существует. Нейросеть просто скомбинировала названия двух реальных локаций и сгенерировала красивое, но абсолютно фейковое описание. Туристы потратили $160, чтобы добраться до глухой дороги в горах без связи, гида и понимания, что делать дальше. На высоте 4000 метров такая «галлюцинация» ИИ могла закончиться трагически.Кейс №2: Застрявшие на горе в ЯпонииДругая пара использовала ChatGPT для похода на гору Мисэн в Японии. ИИ уверенно сообщил, что последняя канатная дорога вниз работает до 17:30. В реальности она закрылась раньше, и туристы застряли на вершине горы после заката.Таких историй становится все больше: от Эйфелевой башни в Пекине до невыполнимых марафонских маршрутов. Почему так происходит?Суть проблемы — «галлюцинации» LLMБольшие языковые модели не «знают» фактов. Они лишь статистически подбирают слова, чтобы ответ звучал убедительно. При этом ИИ выдает и правду, и откровенный вымысел с одинаковой уверенностью. Отличить одно от другого почти невозможно, особенно когда речь идет о незнакомой стране.Сами разработчики, включая главу Google Сундара Пичаи, признают, что галлюцинации — это, похоже, врожденная и неустранимая особенность таких систем.Что в итоге?Полагаться на ИИ в путешествиях можно, но с большой осторожностью. Золотое правило: если совет от нейросети кажется слишком хорошим, чтобы быть правдой, — скорее всего, так и есть. Каждое название, время работы и маршрут нужно перепроверять по надежным источникам. Иначе рискуете оказаться героем похожей истории. Читать далее