Jamais la crainte d’ingérences étrangères et d’intoxications n’a été si vive qu’à l’approche des élections européennes du 9 juin.
Un faux site accessible sur X avec le logo officiel du ministère des Armées invitant 200 000 Français à « s’engager en Ukraine », un site d’info tchèque utilisé pour déverser la propagande du Kremlin et dissuader l’UE d’aider Zelensky… À l’approche des élections européennes, la Russie multiplie les opérations d’ingérence et de manipulation de l’information. Selon une étude Sopra Steria réalisée en mars à partir d’un sondage Ipsos, 72 % des Français sont inquiets de la désinformation qui cherche à influencer les électeurs le 9 juin. Si les trois quarts des personnes interrogées estiment être capables de faire le tri, 68 % pensent que ce n’est pas le cas du reste des gens alors que les deux tiers adhèrent à l’une des fake news qui leur ont été soumises. La crainte des États-majors ? Qu’une manipulation massive oriente le vote dans le sens souhaité par une puissance étrangère. En octobre 2023, le candidat slovaque pro-russe Robert Fico a gagné les élections législatives à la suite de l’hypertrucage de la voix d’une journaliste en conversation avec le candidat progressiste sur les réseaux sociaux, laissant croire à l’organisation d’une fraude.
Reporters sans frontières juge « impératif » de mettre nos démocraties à l’abri en créant un délit spécifique de « deepfake » avec des sanctions pénales. Le 26 mars, la Commission européenne y est allée de sa « recommandation » en appelant les très grandes plateformes comme X, TikTok, Facebook et Instagram, à renforcer leurs procédures internes. Pour respecter le digital services Act, elles devront désormais expliciter « clairement » les contenus générés par l’IA afin de lutter contre la désinformation. Un non-respect du DSA est susceptible de justifier une amende allant jusqu’à 6 % du CA, voire l’expulsion du marché européen. Pour l’heure, Bruxelles en est encore à la phase des enquêtes sur X ou TikTok.
La Russie n’est pas la seule à pratiquer l’ingérence dans l’UE. Le Qatargate ou le scandale Pegasus, du nom du logiciel espion d’une société israélienne (NSO) en attestent. « Et on ne voit pas la Chine, observe André Gattolin, ancien sénateur et auteur d’un rapport sur les ingérences étrangères, on peut penser qu’il y a une collusion entre la Chine et la Russie ». Selon lui, il faut être d’autant plus vigilant que 50 % des fausses informations sont le fait d’erreurs commises par les destinataires du message. Et sortir des silos.
« Il y a le risque de se réveiller le 9 juin avec la petite musique que notre système de détermination des gouvernants est faussé. C’est quoi le jour d’après ? », notait Axel Dauchez, cofondateur de Make.org, le 5 mars, lors d’une table ronde sur « les élections européennes face à la guerre informationnelle ». Devant le risque d’annulation d’élections, il préconise une période de réserve de trois jours avant le jour J pendant laquelle il est impossible de partager une infox sur les réseaux sociaux, un code de conduite pour les candidats pour viser la transparence sur les contenus générés par l’IA ou la mise en place d’un outil de détection. Mais David Colon, professeur à Sciences Po, est plus direct. Cela ne saurait être que l’affaire de Viginum [service de l'État chargé de la protection contre les ingérences numériques étrangères] : « Il ne faut plus relayer la propagande du Kremlin sans l’assortir de commentaires », dit-il. Pour lui, la France est « le ventre mou de l’Europe car il y a une trop faible confiance dans les institutions, le processus électoral et les médias. »