Les femmes politiques sont de plus en plus victimes d’images à caractère sexuel générées par IA à travers le monde. Un moyen de les faire taire, et de décrédibiliser leurs voix selon différents chercheurs.

Des États-Unis à l’Italie, du Royaume-Uni au Pakistan, les femmes politiques sont de plus en plus victimes d’images à caractère sexuel ou pornographique générées par l’intelligence artificielle (IA), une tendance inquiétante qui menace la participation des femmes à la vie publique, estiment les chercheurs.

Cette explosion de deepfakes publiées sans le consentement des personnes visées vient contrecarrer les efforts de régulation de l’intelligence artificielle au niveau mondial, estiment les experts, avec une prolifération d’outils IA à bas prix, notamment des applications de retouche photographique sur téléphone qui permettent de déshabiller les femmes.

Pour les chercheurs, ces images intimes sont employées comme de véritables armes qui visent à porter atteinte à la réputation des femmes dans la sphère publique, compromettant leur carrière, sapant la confiance du public et menaçant la sécurité nationale, en alimentant des phénomènes de chantage et de harcèlement.

Aux États-Unis, l’American Sunlight Project (ASP), un groupe de recherche sur la désinformation, a identifié plus de 35 000 occurrences de deepfakes représentant 26 membres du Congrès américain, dont 25 sont des femmes, sur des sites pornographiques. Une « réalité sombre et dérangeante » pour les chercheurs dont l’étude publiée le mois dernier montre qu’un sixième des femmes élues au Congrès ont été victimes de telles images générées par IA.

« Les femmes membres du Congrès sont ciblées par ces deepfakes pornographiques générés par IA à un niveau alarmant », alerte Nina Jankowicz, cheffe de l’ASP. « Ce n’est pas juste une question de technologie, c’est une attaque dirigée contre les femmes qui ont du pouvoir et contre la démocratie elle-même », souligne-t-elle.

L’ASP n’a pas publié les noms des femmes élues au Congrès visées par les images en question, afin d’éviter de susciter davantage d’intérêt et de recherches, mais a indiqué avoir notifié leurs cabinets de façon confidentielle.

Véritable industrie

Au Royaume-Uni, la vice Première ministre Angela Rayner fait partie d’au moins 30 personnalités politiques britanniques ciblées par un site de deepfakes pornographiques, selon une enquête de la chaîne de télévision Channel 4 publiée en juillet. Ce site, qui attire de très nombreux visiteurs et dont le nom n’a pas été révélé par la chaîne pour éviter toute publicité, recourt à l’IA pour « mettre à nu » environ une dizaine de ces personnalités politiques, transformant de vraies photos en fausses images où elles apparaissent dénudées.

Les femmes sont ciblées par des applications et outils fondés sur l’IA, accessibles au grand public gratuitement et ne nécessitant aucune compétence technique, qui permettent à leurs utilisateurs de retirer virtuellement les vêtements des images ou de générer des deepfakes via des requêtes textuelles sexualisées.

Les progrès technologiques ont donné naissance à ce que les chercheurs appellent une « industrie artisanale » en expansion autour de la pornographie augmentée par l’IA, certains créateurs de deepfakes acceptant des demandes payantes pour générer du contenu mettant en scène une personne choisie par le client.

En Italie, la Première ministre Giorgia Meloni réclame 100 000 euros de dommages et intérêts à deux hommes accusés de créer de fausses vidéos pornographiques la mettant en scène et de les avoir publiées sur des sites pornographiques américains. « Il s’agit d’une forme de violence contre les femmes », avait déclaré Giorgia Meloni devant un tribunal en octobre 2024, selon l’agence de presse italienne ANSA. « Avec l’avènement de l’IA, si nous permettons que le visage d’une femme soit superposé sur le corps d’une autre, nos filles se retrouveront dans ces situations, ce qui est exactement pourquoi je considère légitime de mener cette guerre », avait-elle martelé.

Faire taire les femmes

Au Pakistan, des journalistes de l’AFP ont analysé une vidéo deepfake montrant une élue locale, Meena Majeed, en train d’embrasser un homme en public, un acte considéré comme immoral dans ce pays musulman conservateur. Azma Bukhari, ministre de l’Information de la province pakistanaise du Pendjab, a déclaré qu’elle se sentait « anéantie » après avoir découvert une vidéo deepfake qui superposait son visage sur le corps dénudé d’une actrice indienne. « On observe de plus en plus l’effet paralysant de ces images et vidéos générées par l’IA utilisées pour harceler les femmes en politique », a analysé l’ONG Tech Policy Press en 2024, avertissant que cela a pour effet de « dissuader les femmes qui ont des ambitions politiques ».

Dans le monde entier, la prolifération de ces deepfakes a devancé les réglementations. La législation existante au Pakistan « pour prévenir les crimes en ligne » inclut des dispositions contre le « cyberharcèlement » visant à interdire le partage de photos ou vidéos sans le consentement des personnes visées, « de manière à nuire à une personne ». Cependant, le pays ne dispose pas de loi spécifique pour lutter contre la diffusion de deepfakes à caractère sexuel.

Bien que les lois britanniques criminalisent la diffusion de deepfakes à caractère pornographique, le gouvernement travailliste a promis d’interdire la création de tels contenus, mais aucun calendrier n’a encore été établi. Quelques États américains, dont la Californie et la Floride, ont adopté des lois criminalisant la publication de deepfakes sexuellement explicites, et des militants appellent le Congrès américain à adopter d’urgence de nouvelles lois pour réguler leur création et leur diffusion.

Même si les victimes de deepfakes à caractère pornographiques sont jusqu’à présent des femmes politiques et des célébrités, dont la chanteuse Taylor Swift, les experts affirment que toutes les femmes, y compris hors du cercle médiatique, y sont vulnérables. Après que l’ASP a informé les élues ciblées du Congrès américain, les images générées par l’IA ont été presque entièrement supprimées des sites concernés, ce qui reflète que les chercheurs qualifient de « disparité de privilèges ».

« Les femmes qui ne disposent pas des ressources dont peuvent disposer des membres du Congrès seraient peu susceptibles d’obtenir une réponse aussi rapide des sites publiant des deepfakes pornographiques si elles lançaient elles-mêmes une demande de retrait », explique l’ASP dans son rapport.

Lire aussi :