Avec plus de 2,5 milliards de requêtes par jour, ChatGPT est devenu un compagnon du quotidien pour des millions d’utilisateurs à travers le monde. Moteur de recherche, traducteur, coach de vie ou confident numérique, l’agent conversationnel d’OpenAI occupe une place grandissante dans nos habitudes. Mais derrière son apparente discrétion se cache une réalité moins connue : vos conversations ne sont ni privées ni totalement sécurisées.
Contrairement à ce que l’on pourrait croire, les messages envoyés à ChatGPT peuvent être lus par plusieurs catégories de personnes. D’abord, les équipes internes d’OpenAI, notamment la cellule « sécurité », peuvent consulter les conversations signalées afin d’enquêter sur des abus ou des violations des règles d’utilisation. Ensuite, les chercheurs et formateurs en intelligence artificielle ont accès à certains extraits pour améliorer les performances du modèle. En d’autres termes, votre question « Est-ce que Sonia m’aime ? » pourrait être analysée afin d’optimiser les réponses futures du système. À cela s’ajoutent les administrateurs techniques et des prestataires externes, chargés d’annoter et d’étiqueter les données. Ces sous-traitants, parfois situés dans des pays où les lois de protection des données sont moins strictes, peuvent eux aussi consulter des fragments de conversations. Depuis août 2025, OpenAI affirme surveiller de près les contenus jugés dangereux. Lorsqu’un utilisateur publie une requête pouvant indiquer un risque de violence physique, la conversation est transférée vers une équipe spécialisée, qui peut décider de bannir le compte ou de prévenir les forces de l’ordre. Les cas d’automutilation, en revanche, ne sont pas signalés afin de préserver la confidentialité des échanges. La meilleure méthode reste la plus simple : ne jamais partager d’informations sensibles. Sont à proscrire : les données bancaires (numéros de carte, codes, identifiants), les informations personnelles (adresse, numéro de sécurité sociale, date de naissance) ou encore les documents professionnels internes (contrats, stratégies, rapports confidentiels). Pour renforcer votre confidentialité, il est recommandé de désactiver l’option “Améliorer le modèle pour tous”, afin d’empêcher l’utilisation de vos échanges pour l’entraînement des futurs modèles, et de désactiver la fonction “Mémoire”, qui efface vos discussions après chaque session. Ces précautions ne garantissent pas une confidentialité absolue, mais elles permettent au moins de réduire les risques de voir vos propos confidentiels analysés, réutilisés… ou lus par d’autres.
Neïla M.






