Meta AI: Des échanges d’utilisateurs accessibles à cause d’une vulnérabilité

0
374

Pendant plusieurs semaines, un bug dans Meta AI a permis d’espionner les conversations d’autres utilisateurs. Surprise et inquiétude ont agité la communauté de la cybersécurité : durant plusieurs semaines, une faille a permis à certains utilisateurs du chatbot Meta AI d’accéder aux requêtes et réponses générées par d’autres personnes.

Un incident qui, mine de rien, interroge sur la solidité des barrières protégeant nos échanges privés à l’ère de l’intelligence artificielle générative. C’est en décembre 2024 que le fondateur d’AppSecure, le spécialiste indien Sandeep Hodkasia, lève le lièvre. En analysant les flux réseau de son navigateur pendant qu’il modifie un prompt sur Meta AI, il réalise que chaque interaction reçoit un numéro unique attribué par les serveurs. En modifiant ce numéro dans ses requêtes, il parvient alors à récupérer sans autorisation les messages d’autres utilisateurs. Bref, aucun contrôle n’assurait que seul l’auteur pouvait consulter ses propres échanges. Si la brèche est signalée au géant californien le 26 décembre 2024 ; ce n’est que le 24 janvier 2025 qu’une correction technique vient colmater la fuite. Le géant de Menlo Park verse dans la foulée une prime de 10.000 dollars à Sandeep Hodkasia pour sa découverte. Officiellement, un porte-parole assure qu’aucune exploitation malveillante n’a été détectée. Mais difficile d’écarter tout soupçon alors que cette faille est intervenue juste après une précédente fuite rendant publiques certaines conversations d’utilisateurs. À l’heure où les chatbots s’imposent chez de plus en plus d’acteurs technologiques, ces épisodes rappellent que leur usage soulève des défis majeurs autour de la confidentialité. Il devient impératif pour les entreprises de mettre en place – et surtout tester régulièrement – des dispositifs robustes pour éviter toute fuite d’informations sensibles via leurs intelligences artificielles.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici