La part des commentaires issus de 1 200 réseaux sociaux considérés comme toxiques, selon une étude de Bodyguard.ai, qui développe une technologie d’intelligence artificielle visant à protéger les marques, les communautés et les individus des contenus toxiques en ligne. La société a collecté et analysé durant un an près de 171 millions de commentaires dont 3,28% qualifiés de haineux et 1,96% d’indésirables. Parmi les différents types de contenus négatifs, les plus courants sont les insultes (57%), suivis des propos haineux (28 %) et de ceux autour du body shaming (4%). Viennent ensuite les contenus discriminatoires, fondés sur l’origine ethnique, la religion, l’orientation sexuelle ou le sexe : phobie LGBTQIA+ (2%), racisme (2%) et misogynie (1%). Le tout sans oublier les propos considérés comme violents : harcèlement sexuel (3%) et moral (2%) mais aussi menaces (1%).