Lieux imaginaires et tour Eiffel à Pékin: Pourquoi il ne faut pas préparer ses vacances avec ChatGPT

0
146

De plus en plus de touristes se fient à l’intelligence artificielle pour organiser leurs séjours. Résultat: des itinéraires séduisants, mais parfois… totalement fictifs.

Entre lieux imaginaires et horaires erronés, l’aventure peut vite tourner au cauchemar. L’utilisation croissante de l’intelligence artificielle dans la planification de voyages promet de révolutionner nos itinéraires: des outils comme ChatGPT, Microsoft Copilot ou Google Gemini sont aujourd’hui utilisés par près d’un tiers des globe-trotteurs pour organiser leurs séjours sans vraiment réaliser que derrière les conseils ultra personnalisés peuvent se cacher de nombreuses erreurs: destinations inventées, horaires erronés, ou recommandations totalement fantaisistes, la prudence est de mise. La mésaventure de deux touristes au Pérou relayée par la BBC illustre parfaitement les limites de ces nouveaux outils. Partis sur les conseils d’une IA explorer le «canyon sacré de Humantay», ils ont découvert un peu trop tard que ce lieu… n’existe tout simplement pas: l’algorithme avait mélangé les noms de sites bien réels pour en créer un imaginaire. Les voyageurs se sont retrouvés seuls sur une route isolée de montagne, totalement perdus. Au-delà du quiproquo, leur expédition aurait pu tourner au drame, tant les conditions climatiques et l’altitude de la région requièrent une préparation et une organisation sérieuses. Les dysfonctionnements de l’IA ne se limitent pas à l’invention de lieux: elle peut aussi se tromper sur les aspects pratiques et concrets du voyage. Un voyageur japonais est resté bloqué au sommet du mont Misen, l’IA ayant communiqué l’horaire incorrect de la dernière télécabine. D’autres sites spécialisés boostés à l’IA suggèrent par exemple la présence d’une tour Eiffel à Pékin ou proposent des parcours marathon irréalisables à travers toute l’Italie.

Faux voyages, vrais dangers

Si a priori l’intelligence artificielle donne l’impression de fournir des conseils avisés, sa façon de fonctionner engendre des biais majeurs: les grands modèles de langage assemblent des phrases selon ce qui paraît statistiquement plausible, sans forcément «comprendre» le monde réel. Parfois, leur réponse tombe juste, mais souvent, ce sont des hallucinations –des inventions pures et simples présentées avec autant d’assurance qu’une information authentique, d’où la difficulté pour l’utilisateur de distinguer le vrai du faux. Les fausses images de voyage générées par IA induisent également en erreur: des voyageurs se rendent ainsi sur des sites qui n’existent pas, victimes de vidéos virales créées pour générer de l’engagement. Les experts s’inquiètent de l’impact sur la santé mentale et physique des voyageurs. La propagation d’informations erronées par l’IA risque de dénaturer le but même du voyage et de fermer la porte à la découverte authentique. L’Union européenne et les États-Unis tentent d’imposer des règles pour encadrer la transparence de ces technologies –filigranes obligatoires sur les contenus générés, obligations d’information sur l’altération des images, etc. Mais il n’existe pas d’outil miracle et les modèles d’IA continuent d’inventer ou de déformer les réponses: la vigilance reste donc le meilleur antidote. Face à ces risques, le principal conseil des spécialistes est simple: vérifier systématiquement chaque suggestion, chaque information, chaque recommandation, surtout quand elles semblent trop belles pour être vraies. Prendre le temps de confronter l’IA aux sources traditionnelles, guides de voyage et sites officiels, peut paraître fastidieux, mais permet d’éviter les mauvaises surprises et les erreurs coûteuses.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici