Meta renforce la sécurité des mineurs sur Facebook, Instagram et Messenger 

0
633

Face à une pression croissante des parents, des régulateurs et de l’opinion publique, Meta a annoncé un renforcement significatif des mesures de sécurité destinées à protéger les adolescents sur ses plateformes sociales.

Après une première phase lancée en septembre dernier sur Instagram avec la création des « Comptes Ados », ces restrictions s’étendent désormais à Facebook et Messenger, avec un objectif clair : réduire l’exposition des mineurs aux contenus sensibles et limiter les risques d’interactions avec des personnes malveillantes. Désormais, les comptes des moins de 18 ans seront automatiquement configurés en mode privé, et l’accès à certaines fonctionnalités jugées sensibles sera restreint. Pour les mineurs de moins de 16 ans, toute modification de paramètres sensibles devra passer par une autorisation parentale, grâce à des outils de supervision mis à disposition. Ce dispositif est actuellement en cours de déploiement aux États-Unis, au Royaume-Uni, en Australie et au Canada, avant une extension à d’autres régions dans les mois à venir. Parmi les nouvelles mesures phares, les adolescents de moins de 16 ans ne pourront plus diffuser de vidéos en direct (livestream) sur Instagram. Cette décision vise à prévenir l’exposition involontaire à un large public, une pratique parfois exploitée par des individus malintentionnés. Meta interdit également la désactivation manuelle d’un filtre qui floute automatiquement les images à caractère sexuel dans les messages privés, une fonctionnalité que seuls les parents peuvent modifier via leur espace de contrôle. Ces ajustements s’inscrivent dans une stratégie plus large de prévention et d’accompagnement de l’usage numérique chez les jeunes. En ce sens, Meta introduit également des outils de gestion du temps d’écran : un rappel s’affiche automatiquement après 60 minutes d’utilisation, et un « mode sommeil » désactive les notifications entre 22h et 7h pour encourager une meilleure hygiène de vie numérique. Ces fonctions sont intégrées par défaut dans tous les comptes appartenant à des mineurs. Ces annonces surviennent dans un contexte de controverse croissante autour de l’impact des réseaux sociaux sur la jeunesse. Aux États-Unis, Meta est visée par une plainte déposée en 2023, l’accusant d’avoir facilité des situations de mise en relation entre des mineurs et des prédateurs. En Europe, l’entreprise fait également l’objet d’enquêtes réglementaires portant sur ses pratiques de protection des jeunes utilisateurs. Ces nouvelles mesures apparaissent donc comme une réponse directe aux critiques, mais aussi comme une tentative de restaurer la crédibilité de l’entreprise en matière de cybersécurité. Meta affirme, à travers ces changements, vouloir placer la sécurité et le bien-être des jeunes au cœur de son expérience utilisateur, tout en soulignant que ces dispositifs sont conçus pour évoluer en fonction des retours des parents, des adolescents et des spécialistes. Néanmoins, plusieurs experts en protection des données et des droits de l’enfant attendent de voir si ces efforts seront réellement suivis de résultats tangibles, au-delà des intentions déclarées. L’entreprise de Mark Zuckerberg semble donc amorcer un tournant, sous l’œil attentif des institutions et des familles. Si l’initiative est saluée comme un pas dans la bonne direction, elle relance aussi le débat sur la responsabilité des plateformes dans l’éducation numérique et la protection des plus vulnérables.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici