En trois mois, Facebook a supprimé plus de 25 millions de contenus haineux, de spams ou montrant de la nudité sur sa plateforme, et 583 millions de faux comptes dans le monde.
Monika Bickert, directrice de la politique des contenus de Facebook, était présente ce 15 mai 2018 à Paris, pour ouvrir le premier Forum Facebook, un événement organisé pour débattre autour de la politique de modération du réseau social. En guise d’accompagnement, le réseau social a diffusé des chiffres sur la quantité de contenus et comptes problématiques détectés sur la plateforme au premier trimestre de 2018, contenus dans un rapport de 86 pages. L’an dernier, Mark Zuckerberg avait promis d’embaucher 3000 modérateurs supplémentaires pour contrôler ce qui est partagé sur son réseau social.
Aujourd’hui, Monika Bickert confirme que le nombre de modérateurs est passé à 7. D’après les données partagées ce 15 mai 2018 par Facebook, ces 7500 personnes ont participé à identifier, signaler et supprimer 21 millions de contenus pornographiques ou de nudité impliquant des adultes, 3,4 millions de contenus violents et 837 millions de contenus relatifs à des spams. En tout, cela fait 25 millions de contenus problématiques supprimés entre janvier et mars 2018. Rappelons qu’il y a plusieurs manières pour qu’un contenu problématique soit détecté avant d’être supprimé : un signalement par des utilisateurs, un repérage par des modérateurs, ou un repérage par algorithme. Mais cette dernière méthode présente des limites. Les algorithmes de détection des contenus problématiques ne fonctionnent pas tous efficacement.
Si 96% des contenus de nudité ou de pornographie ont été repérés par les robots de Facebook «avant qu’ils ne soient signalés par notre communauté», ce pourcentage descend à 86% pour les contenus violents, mais atteint surtout 38% lorsqu’il s’agit de contenus «qui comportent des discours haineux». Cela signifie que sur les 2,5 millions de contenus haineux supprimés, moins de la moitié ont pu être détectés par les algorithmes de la plateforme, montrant la difficulté qui réside dans le repérage automatisé de discours problématiques. Ce constat n’est pas vraiment surprenant : même les modérateurs humains ont des difficultés à définir des règles claires entre ce qui peut rester en ligne et ce qui doit être supprimé. En mai 2017, certaines règles de modération de Facebook avaient fuité, montrant que des expressions comme «frapper un roux» et «allons tabasser les gros» étaient autorisées, tout comme des images de maltraitance animale ou des vidéos d’avortement, tant qu’elles ne contiennent pas de nudité.
Dans son communiqué, Facebook admet les limites de son algorithme : «Nous avons beaucoup de travail à accomplir pour prévenir les abus sur la plateforme. C’est en partie parce que la technologie comme l’intelligence artificielle, bien que prometteuse, est loin d’être efficace pour la plupart des contenus non conformes à notre politique. En effet, le contexte prend une place importante dans la décision.» La plateforme a également avancé un nombre de contenus qu’elle avait identifiés et traités comme problématiques, mais qu’elle n’a pas forcément supprimés. C’est le cas que quelques millions de contenus «liés à de la violence visuelle», comme par exemple des actes de violence qui seraient montrés dans un reportage vidéo. Parmi 3,4 millions «liés à la violence visuelle» repérés par la plateforme, «la grande majorité (…) n’a pas été supprimée, mais ils ont été accompagnés d’un message d’avertissement afin de prévenir et de protéger les utilisateurs sensibles», précise le rapport.
583 millions de faux comptes auraient été supprimés par Facebook au premier trimestre de 2018, «dont la plupart ont été désactivés quelques minutes après leur inscription», précise le réseau social. Facebook ajoute ne pas prendre en compte les tentatives de création de faux comptes dans son calcul global. «Sinon, les chiffres augmenteraient drastiquement», souligne le rapport. Le géant de la tech estime qu’en ce moment, 3 à 4% des comptes actifs sur la plateforme sont des faux. Dans son gros rapport, Facebook détaille la manière dont ses équipes comptent et détectent le nombre de faux comptes. «Nous prenons un échantillon d’utilisateurs actifs mensuels, et nous les estampillons «faux» ou non (…) Les faux comptes peuvent être particulièrement difficiles à discerner : les examinateurs doivent s’intéresser à un profil qui contient très peu d’information, et déterminer si c’est un vrai ou s’il est vraiment faux».