Le groupe de Mark Zuckerberg a annoncé des nouveautés pour protéger les adolescents sur les réseaux sociaux, notamment en termes d’autorisation parentale.

Accusé aux États-Unis et en Europe de nuire à la santé mentale des adolescents, Meta a annoncé de nouvelles mesures pour mieux protéger les jeunes utilisateurs de ses réseaux sociaux, notamment le très populaire Instagram. « Avant qu’un adolescent puisse modifier certains paramètres d’Instagram, il devra désormais obtenir l’approbation de ses parents via les outils de supervision parentale » de l’application, indique le groupe californien dans un communiqué.

Un utilisateur mineur aura ainsi besoin de la permission explicite de ses parents pour faire passer son compte de privé à public, accéder à plus de contenus dits « sensibles » ou avoir la possibilité de recevoir des messages de personnes qu’il ne suit pas déjà sur la plateforme. Meta (maison mère de Facebook, Instagram et WhatsApp, notamment) veut mieux « protéger les adolescents contre les contacts indésirables » et « permettre aux parents d’influencer plus facilement l’expérience en ligne de leurs enfants ». Pour les mineurs, la messagerie sera désormais par défaut fermée à toute personne avec qui ils ne sont pas déjà connectés sur Instagram.

Fin octobre, plus de quarante États américains ont porté plainte contre Meta, estimant que ses plateformes nuisent à la « santé mentale et physique de la jeunesse », évoquant les risques d’addiction, de cyber-harcèlement ou de troubles de l’alimentation. « Meta a exploité des technologies puissantes et sans précédent pour attirer […] et finalement piéger les jeunes et les adolescents afin de faire des profits », avaient déclaré les procureurs généraux dans la plainte. Selon les États, démocrates et républicains, le groupe californien a « dissimulé la façon dont ces plateformes exploitent et manipulent les consommateurs les plus vulnérables », et « négligé les dommages considérables » causés à la « santé mentale et physique des jeunes de notre pays ». La Commission européenne a de son côté annoncé en novembre avoir ouvert une enquête sur les mesures mises en œuvre par Meta, et Snap (Snapchat) pour protéger les mineurs, notamment leur « santé physique et mentale », à la suite d’une démarche identique visant TikTok et YouTube.

Lire aussi :