cover
Tocando Agora:

Os perigos de deixar que a IA organize sua próxima viagem

Os turistas que usam a inteligência artificial para criar itinerários de viagem precisam ficar vigilantes e verificar todas as informações antes da partida ...

Os perigos de deixar que a IA organize sua próxima viagem
Os perigos de deixar que a IA organize sua próxima viagem (Foto: Reprodução)

Os turistas que usam a inteligência artificial para criar itinerários de viagem precisam ficar vigilantes e verificar todas as informações antes da partida Getty Images O fundador e diretor da empresa Evolution Treks Peru, Miguel Ángel Gongora Meza, se preparava para uma caminhada através dos Andes em uma cidade no interior do Peru, quando ouviu uma conversa curiosa. Dois turistas não acompanhados conversavam amigavelmente sobre seus planos de caminhar sozinhos nas montanhas, até o "Cânion Sagrado de Humantay". "Eles me mostraram a cópia de tela, redigida de forma convincente e repleta de adjetivos fulgurantes", conta ele. "Mas não é verdade. O Cânion Sagrado de Humantay não existe!" "O nome é uma combinação de dois lugares que não têm relação com a descrição. Os turistas pagaram cerca de US$ 160 [cerca de R$ 850] para chegar a uma estrada rural nos arredores de Mollepata [no Departamento peruano de Cusco] sem um guia nem [destino]." Mais do que isso, Gongora Meza afirma que esse erro aparentemente inocente poderia ter custado a vida dos viajantes. "Este tipo de desinformação é perigoso no Peru", explica ele. "A altitude, as mudanças climáticas e a acessibilidade dos caminhos precisam ser planejadas. Quando você [usa] um programa [como o ChatGPT], que combina imagens e nomes para criar uma fantasia, você pode acabar em uma altitude de 4 mil metros, sem oxigênio e sem sinal [telefônico]." Em poucos anos, ferramentas de inteligência artificial (IA), como o ChatGPT, Microsoft Copilot e Google Gemini, deixaram de ser uma mera novidade para se tornar parte integrante do planejamento de viagens de milhões de pessoas. Uma pesquisa indica que 30% dos turistas internacionais passaram a usar ferramentas de IA generativa e sites especializados criados por IA, como Wonderplan e Layla, para ajudar a organizar suas viagens. Estes programas podem oferecer dicas de viagem valiosas quando funcionam adequadamente. Mas também podem induzir as pessoas a situações frustrantes e até perigosas, quando suas informações estão erradas. Alguns turistas estão aprendendo esta lição quando chegam ao seu destino e descobrem que receberam informações incorretas ou foram direcionados para um lugar que só existe na imaginação cabeada de um robô. Dana Yao e seu marido vivenciaram recentemente esta situação. Ela é criadora de conteúdo e mantém um blog sobre viagens no Japão. No início deste ano, o casal usou o ChatGPT para planejar uma caminhada romântica até o topo do monte Misen, na ilha de Itsukushima. Depois de visitar a cidade de Miyajima sem problemas, eles saíram às 15 horas para subir até o pico da montanha a tempo para o pôr do sol, exatamente como instruiu o ChatGPT. "Foi aí que surgiram os problemas", conta Yao, "quando estávamos prontos para descer [a montanha] de teleférico." "O ChatGPT disse que o último teleférico descia às 17h30, mas, na verdade, ele já estava fechado. Por isso, ficamos presos no topo da montanha." A IA frequentemente oferece aos viajantes informações imprecisas e inverídicas. Às vezes, chega a criar destinos inexistentes. Getty Images Em 2024, uma reportagem da BBC contou que o site Layla informou usuários que havia uma Torre Eiffel em Pequim, na China. E também sugeriu a um visitante britânico uma rota de maratona pelo norte da Itália que era totalmente inviável. "Os itinerários não tinham muita lógica", disse o viajante. "Passamos mais tempo no transporte do que em outro lugar." Segundo uma pesquisa realizada em 2024, 37% das pessoas pesquisadas que usaram IA para ajudar a planejar suas viagens relataram que ela não conseguia fornecer informações suficientes, enquanto cerca de 33% afirmaram que as recomendações geradas por IA incluíram informações falsas. Estas questões decorrem da forma de geração das respostas pela IA. O professor de aprendizado de máquina Rayid Ghani, da Universidade Carnegie Melon, nos Estados Unidos, explica que programas como o ChatGPT talvez pareçam oferecer conselhos úteis e racionais, mas a forma como ele obtém as informações faz com que você nunca tenha total certeza se ele está ou não contando a verdade. "Ele não sabe a diferença entre conselhos de viagem, orientações ou receitas", segundo Ghani. "Ele só conhece palavras." "Por isso, ele fica emitindo palavras que fazem com que qualquer coisa que ele diga pareça realista e é daí que surgem muitas das questões subjacentes." Os grandes modelos de linguagem, como o ChatGPT, trabalham analisando imensas coleções de textos e reunindo palavras e frases que, estatisticamente, parecem respostas apropriadas. Às vezes, este processo gera informações perfeitas e precisas. Mas, em outras ocasiões, você recebe o que os especialistas em IA chamam de "alucinação" — as ferramentas simplesmente inventam coisas. Mas, como os programas de IA apresentam alucinações e respostas factuais da mesma forma, muitas vezes é difícil para os usuários diferenciar o que é real e o que não é. No caso do "Sagrado Cânion de Humantay", Ghani acredita que o programa de IA provavelmente tenha reunido palavras que pareciam apropriadas para a região. Da mesma forma, analisar todos aqueles dados não oferece necessariamente a uma ferramenta como o ChatGPT uma compreensão útil do mundo físico. Ele pode facilmente confundir uma caminhada de lazer de 4 km atravessando uma cidade com uma escalada de 4 km na encosta de uma montanha. Isso, sem falar nos casos de desinformação pura e simples. Diversos governos estudam a criação de regulamentações sobre IA que ajudarão a identificar a desinformação antes que viralize Getty Images Uma reportagem recente da revista Fast Company contou sobre um incidente ocorrido com um casal, que viajou até o local de um teleférico panorâmico na Malásia que eles haviam visto no TikTok. Só quando chegaram é que eles descobriram que a estrutura simplesmente não existia. Eles assistiram a um vídeo totalmente gerado por IA, seja para despertar engajamento ou por algum outro propósito desconhecido. Incidentes como este fazem parte de uma tendência maior de criações feitas por IA que podem alterar sutilmente (ou não tão sutilmente assim) os nossos sentidos em relação ao mundo. Um exemplo recente ocorreu em agosto, quando criadores de conteúdo perceberam que o YouTube vinha usando IA para alterar seus vídeos sem permissão, "editando" sutilmente imagens de roupas, cabelos e rostos de pessoas reais. A Netflix também ficou em maus lençóis ao empregar IA no início de 2025. Suas tentativas de "remasterizar" antigas séries de comédias criaram distorções surreais nos rostos de astros consagrados da televisão dos anos 1980 e 1990. Com o uso cada vez maior de IA para fazer estas pequenas alterações sem o nosso conhecimento, a fronteira entre a realidade e um novo mundo de sonhos, refinado pela IA, pode estar começando a desaparecer também da visão dos turistas. O psicoterapeuta clínico Javier Labourt estuda como viajar pode ajudar a melhorar nossa saúde mental e nosso sentido de conexão em geral. Ele receia que a proliferação desses problemas possa anular os benefícios intrínsecos oferecidos pelo turismo. Labourt acredita que viajar oferece uma oportunidade única. Podemos interagir com pessoas que, de outra forma, nunca conheceríamos e ainda aprender pessoalmente sobre diferentes culturas. Tudo isso pode gerar maior empatia e compreensão. Mas, quando as alucinações da IA oferecem desinformação aos usuários, elas trazem uma narrativa falsa sobre um dado lugar, antes mesmo que os turistas saiam de casa. Vigilância e regulamentação Existem atualmente tentativas de regulamentar como a IA apresenta suas informações aos usuários. Diversas propostas, da União Europeia e dos Estados Unidos, pretendem estabelecer a inclusão de marcas d'água ou outros sinais indicadores, que permitam aos observadores saber quando algo foi alterado ou gerado por IA. Mas Rayid Ghani acredita que esta seja uma batalha difícil. "Existe muito trabalho por aí em relação à desinformação. Como detectá-la? Como ajudar as pessoas [a identificá-la]? Hoje em dia, a mitigação é uma solução mais confiável do que a prevenção." Se estas regulamentações forem aprovadas, os viajantes poderão identificar vídeos ou imagens geradas por IA com mais facilidade. Mas as novas regras provavelmente não irão ajudar quando um chatbot de IA inventar algo no meio da conversa. Os especialistas — incluindo o CEO (diretor-executivo) da Google, Sundar Pichai — alertam que as alucinações podem ser uma "característica inerente" dos grandes modelos de linguagem, como o ChatGPT ou o Gemini da Google. Por isso, se você for usar IA, a única forma de se proteger é permanecer vigilante. Uma sugestão de Ghani é ser o mais específico possível nas suas consultas e verificar absolutamente tudo. Ele reconhece que o turismo traz dificuldades específicas em relação a este método, pois os viajantes, muitas vezes, fazem perguntas sobre destinos que eles não conhecem. Mas, se uma ferramenta de IA oferecer uma sugestão de viagem que pareça perfeita demais, desconfie. Ghani conclui destacando que o tempo gasto para verificar as informações geradas por IA, em alguns casos, pode tornar o processo tão trabalhoso quanto planejar a viagem pelos métodos antigos. Para Javier Labourt, o segredo para viajar bem, com ou sem IA, é manter a mente aberta e se adaptar quando as coisas dão errado. "Tente afastar a decepção por ter sido enganado por alguém", sugere ele. "Se você já estiver ali, como irá resolver? Você já está fazendo uma viagem incrível, sabe?" Leia a versão original desta reportagem (em inglês) no site BBC Travel. Voo atrasado ou cancelado: veja quais são os direitos dos passageiros Visto americano: mais pessoas terão que passar por entrevista a partir do dia 2 6 das 10 rotas de voo com mais turbulência do mundo estão na América do Sul