Meta a annoncé mardi la mise en place de nouvelles restrictions d'accès à certains contenus pour les adolescents présents sur Facebook et Instagram, de manière à favoriser une utilisation « sûre et appropriée » à leur âge.
Le groupe de Menlo Park (Californie) va placer désormais, par défaut, tous les comptes d'adolescents dans la configuration la plus stricte des deux réseaux sociaux, ce qui « rend plus difficile l'entrée en contact avec des contenus potentiellement sensibles ».
Cette mesure porte sur les comptes identifiés comme appartenant à un adolescent dont l'âge est compris entre 13 ans (minimum requis pour s'inscrire) et 15 ans (18 ans dans certains pays). Cette configuration limite aussi l'accès, pour d'autres utilisateurs, à la liste d' « amis », aux comptes suivis ainsi que la possibilité de commenter les messages postés.
Autre nouveauté, la recherche de contenus pour certains termes, comme « auto-mutilation », « suicide », « troubles de l'alimentation » ou « boulimie », ne produira aucun résultat pour ces adolescents.
A la place, l'utilisateur verra s'afficher un message de prévention lui suggérant de contacter un professionnel, un ami ou de consulter une liste de conseils de nature à l'aider, selon un message posté mardi sur le site de Meta. Cela n'empêchera pas, en revanche, un adolescent de discuter sur Instagram ou Facebook avec l'un de ses contacts de ses éventuels problèmes ou difficultés.
Meta a régulièrement été critiqué, ces dernières années, pour sa gestion des jeunes utilisateurs sur Facebook et Instagram. Après avoir annoncé le lancement d'un Instagram dédié aux jeunes de moins de 13 ans, Meta a finalement décidé d'y renoncer, à l'automne 2021.
Fin octobre, 41 Etats américains ont intenté une action devant la justice civile américaine contre Meta, accusant Facebook et Instagram de nuire à la « santé mentale et physique de la jeunesse ». Meta avait, alors, rappelé avoir déjà mis en place une série d'outils de nature à améliorer la protection des jeunes utilisateurs sur ses plateformes.