Le conseil de surveillance de Meta a annoncé se saisir de deux affaires concernant les fausses images pornographiques de personnalités publiques féminines, deux mois après le scandale des « deepfakes » mettant en scène Taylor Swift. Les deux cas ont été sélectionnés « pour évaluer si les règlements de Meta et leur application sont efficaces pour traiter (le problème) des images à caractère sexuel générées par l’intelligence artificielle (IA) », note dans un communiqué ce conseil surnommé « cour suprême ». Mis en place par le géant des réseaux sociaux et composé de membres indépendants, le conseil est chargé de trancher des questions épineuses de modération des contenus. L’essor de l’IA générative, qui automatise la production de contenus perfectionnés, a donné un nouvel élan au phénomène des « deepfakes », ou « hypertrucages », notamment les images manipulées et sexualisées qui mettent en scène des femmes, à des fins d’intimidation ou de harcèlement.