David Colon, professeur à Sciences Po et et auteur de La Guerre de l'information (Taillandier), alerte sur les techniques de manipulation et de propagande numérique de la Russie.

Les élections européennes et législatives en France ont-elles été l'occasion pour certains Etats de manipuler les opinions ?

Elles étaient une priorité pour le Kremlin qui, depuis février 2022, prolonge sa guerre d'agression contre l'Ukraine par une guerre de l'information systématique. La France est particulièrement ciblée en raison de son aide apportée depuis janvier 2024 - qui s'est accrue avec l'annonce de l'envoi d'avions en Ukraine le 6 juin. Depuis lors, la Russie n'a cessé d'intensifier ses opérations de déstabilisation dans le but de porter atteinte à l'image et à la réputation de la France, de fragiliser les partenaires économiques des JO, et notamment français, et dans l'espoir de perturber le bon fonctionnement des Jeux.

Vous pensez à quel type d'opérations ?

A l'opération menée par l'entité nommée Storm 1679 par Microsoft, du non d'un réseau de désinformation pro-Kremlin à l'orignie d'une fausse vidéo Netflix des JO à l'été 2023 prétendant être un documentaire narrée par la voix de Tom Cruise et reposant sur un scénario dénigrant les dirigeants du CIO. Le son était généré par l'IA, la vidéo était accompagnée de fausses critiques attrivuée au Times et à la BBC et elle avait fait l'objet d'une amplification artificielle sur les réseaux sociaux. Depuis le printemps, cette entité a multiplié les vidéos notamment en Français dénigrant les JO, leur organisation, la France. Je pense aussi à Dopplegänger, dénoncé par Viginum en 2023, dont l'activité est concentrée sur la création de faux sites d'authentiques journaux et leur amplification artificielle. Il y a enfin CopyCop qui n'a pas non plus manqué de dénigrer les Jeux.

Est-ce avec un certain succès ? Avec une couverture et une portée importante ?

Ces services sont confiés par le Kremlin à des sociétés spécialisées dans le marketing digital, lesquelles se sont nourries à la fois de la tradition russe dans la cybercriminalité depuis les années 1990 et de la technologie politique, c'est à dire une industrie florissante du conseil en manipulations de masse incarnée par le politechnologues Gleb Pavoloski puis Ilya Gambadchize. Ces sociétés ont développé un savoir-faire très avancé en matière d'exploitation des caractéristiques des réseaux sociaux occidentaux. Que ce soit, sur le plan algorithmique en identifiant les contenus susceptibles d'être partagés par tel type de plateformes. Ou que ce soit sur le plan des dispositifs publicitaires et des systèmes d'amplification artificielle (bots, trolls) ou authentique, via des influenceurs rémunérés par des agences agissant pour le compte de la Russie éventuellement sans le savoir : les idiots utiles du Kremlin.

Ces idiots utiles sont donc occidentaux ?

C'est fondamental. Le but de ces campagnes est moins d'influencer un à un les utilisateurs sur les réseaux sociaux que de peser sur le débat public, en particulier dans les médias traditionnels. L'approche russe repose sur une inflexion en deux temps. Il s'agit d'insérer des récits manipulateurs au sein de la chaîne de production des médias puis de réintroduire dans la propagande prorusse les récits une fois qu'ils ont été en quelque sorte blanchis par les médias occidentaux. C'est la raison pour laquelle les médias traditionnels sont au coeur de la bataille de l'information mondiale. Il  peut s'agir de communiqués de presse, ou de la propriété directe ou indirecte de médias en ligne qui relaient les centres d'intérêt du Kremlin. Cela passe aussi par certaines places financières - à Londres ou en Suisse - qui permettent d'aider à ce blanchiment. Il y aussi la corruption de journalistes soit par l'entremise des services de renseignement soit via des sociétés prestataires. Citons enfin la création d'événements et la mise à disposition de pseudo-experts qu'on voit sur les plateaux de certaines chaînes TV et qui font rarement état des financements de leur think tank.

Et sur les réseaux sociaux ?

A partir du moment où les médias sont dépendants des recettes publicitaires, l'amplification des tendances sur X ou sur Google News sont devenus prédictives pour susciter des articles et peser ainsi sur la chaîne de production de l'information. En jouant le jeu du marché, le Kremlin peut agir directement sur cette chaîne. Il exploite les caractéristiques propres d'un marché au service de ses intérêts. On l'a vu avec les étoiles de David bleues.

Ces étoiles apparues sur les murs de Paris sont une sorte de symbiose entre des méthodes barbouzardes, avec le recours à des affidés, et des techniques d'amplification sur les réseaux sociaux. Est-ce le plus redoutable ?

Le plus redoutable est pour moi le recours à l'intelligence artificielle générative, telle qu'on la trouve sur le marché, pour démultiplier l'échelle, la portée et potentiellement l'efficacité des campagnes. Mais, comme les cercueils devant la Tour Eiffel, cette opération a nécessité la coordination de services de renseignement, selon les révélations de The Insider et Der Spiegel : le FSB, qui recrute les hommes de mains, et le service de renseignement extérieur, le SVR, qui coordonne le réseau Dopplegänger, ainsi que le GRU, le renseignement militaire. Cette coordination, mise en oeuvre par Sergeï Kirienko, est voulue par le Kremlin. Elle repose sur une ubérisation de la déstabilisation, dans la mesure où les services de renseignement russes ont été affaiblis en 2022 par l'expulsion de leurs officiers sous couverture diplomatique. Cela les a conduit à innover dans leur mode opératoire, avec des campagnes aux effets non négligeables pour une démarche low cost.

Les journalistes sont-ils davantage vigilants ?

Oui, ils ne l'ont pas été et ils le sont davantage. Ces campagnes sont mises en oeuvre par des professionnels de l'influence numérique qui ont des comptes à rendre et sont très attentifs à la rentabilité de leurs opérations. Les étoiles bleues de David sont une opération qui a dû coûter moins de 2000 euros, a conduit à un piratage de l'intégralité du débat public pendant 72 heures. Quel dircom peut se vanter d'avoir obtenu le même résultat ?

Diriez-vous que cela a influencé le débat public au point de mettre la question de l'antisémitisme au centre de la campagne électorale ?

Le but de Kremlin était de détourner l'attention de la guerre en Ukraine. Le conflit au Proche Orient a été pour cela une opportunité extraordinaire. Il fallait importer ce conflit, particulièrement clivant, à l'intérieur de notre société et fragiliser la confiance dans les institutions médiatiques et politiques qui ont interprété cet acte des étoiles bleues de David comme un acte antisémite alors que les relais d'influence russes prétendaient que l'opération avait été menée en soutien à l'Etat d'Israël. Il s'agit d'accentuer nos divisions, d'en amplifier la perception, d'affaiblir la parole publique et, au-delà, de fragiliser notre capacité à distinguer le vrai du faux.

La Russie est-elle la principale menace dans la guerre de l'information ?

Le parti communiste chinois s'inspire ce de ce que font leurs homologues russes qui ont une certaine avance dans la propagande de masse. Ces propagandistes ont appris à compenser leur relatif retard industriel par la capture systématique des technologies occidentales les plus avancées. Le Kremlin a accordé très tôt un intérêt majeur à l'IA. En 1962, il a fait venir à Moscou le mathématicien américain Norman Wiener, le père de la cybernétique. Il n'a eu de cesse de chercher à s'approprier toutes les connaissances et les savoir-faire liés à l'IA. Il a capturé par exemple la technologie de micro-ciblage comportemental sur les réseaux sociaux développée par des ingénieurs de Cambridge Analytica. En 2017, Poutine a déclaré que celui qui domine l'IA dominera le monde. La Russie a fait des efforts considérables en ce domaine et elle commence à en recueillir les fruits, en termes d'intensification des campagnes numériques, de mise à l'échelle, comme en attestent une portée des publicités de Dopplegänger sur Facebook multipliée par dix entre 2021 et 2023, et les audiences inégalées de ces campagnes.  C'est une approche de sciences appliquées, systémique, multicanale et à grande échelle dans la sphère informationnelle.

L'IA sert-elle à accélérer la vitesse de conception des fausses infos en réaction à un événement ? La Russie parvient-elle à être productrice de fake news qui supplantent l'information véritable ?

Les opérateurs du Kremlin s'emploient à automatiser tout ce qui est automatisable dans leur processus de création, d'agrégation et de distribution de contenus. Un rapport récent de Google qui étudie 200 incidents d'utilisation abusive de l'IA générative entre janvier 2023 et mars 2024 permet de voir que dans 26,5% des cas, les techniques d'IA générative sont utilisées à des fins de manipulation de l'opinion. C'est plus fréquent que la fraude. Les barrières d'entrée ont été abaissées, ce qui amplifie la menace et l'accessibilité de techniques autrefois coûteuses. L'humain pour une fausse information recourt à l'IA chaque fois qu'il le peut pour générer un faux compte, un deepfake ou des réseaux de faux comptes. Ce peut être aussi pour identifier des fragilités dans les dispositif informationnels de l'adversaire, pour concevoir des publicités ciblées qui vont acheminer les contenus. Pour la plupart, il s'agit de l'exploitation basique des capacités offertes par les outils commerciaux, comme ChatGPT.

Est-t-on démuni face à cela ou les réglements européens, en particuler le DSA, nous protègent-t-ils ?

Les régimes autoritaires ont développé un savoir-faire pour exploiter les failles de nos démocraties, ce qu'on appelle depuis 2017 le sharp power, le pouvoir tranchant. La tentation a été d'adopter des mesures liberticides : restriction de la liberté d'expression, d'opinion, d'informer ou de manifester. Or, c'est contre-productif car cela ne fait qu'accroître la méfiance et conforter les régimes autoritaires qui ont alors beau jeu de poser une équivalence avec les mesures qu'ils adoptent à l'égard de leur propre population. C'est pourquoi les meilleurs outils sont d'abord la transparence, pour rendre visibles ces manipulations invisibles. La régulation doit jouer son rôle. Mais force est de constater que le DSA a fait la démonstration jusque-là de son inefficacité. Raison pour laquelle il faut sans doute aller plus loin dans la responsabilisation des plateformes en contraignant de mettre en oeuvre des dispositifs susceptibles non de censurer des contenus mais de garantir l'intégrité des espaces numériques à l'égard des ingérences étrangères. Il faut sans doute aussi réguler les plateformes d'IA générative car plusieurs études ont montré que la pollution des environnements informationnels polluent les résultats de recherche sur les chatbots. Il faut contraindre réglementairement ces plateformes à consacrer une part de leurs revenus à des mesures de sûreté, à une évaluation préventive et curative de leurs résultat , comme le dit Geoffrey Hinton, qui a démissionné avec fracas de Google en 2023. Il faut investir dans le réglage, l'affinage des résultats.

La journalism trust initiative qui met en avant des contenus certifiés d'information sur les réseaux sociaux est-elle une bonne réponse ?

J'y suis très favorable. C'est une démarche extrêmement vertueuse d'encourager les médias à s'engager dans la voie de la certification sur la base de critères déontologiques fixés par la profession. Sans doute faudrait-il intégrer davantage dans les critères JTI ce qui relève du sharp power et ce qui relève d'ingérences informationnelles étrangères. C'est à ce jour le dispositif le plus encourageant pour favoriser des IA de qualité et apporter des réponses à des annonceurs qui veulent disposer d'une base fiable pour orienter leurs investissements. Les plus grandes marques au monde financent chaque année à hauteur de plusieurs milliards de dollars la désinformation en ayant recours à dispositifs algorithmiques de placement de leurs annonces. Les annonceurs doivent aussi faire preuve d'éthique dans le choix de leurs agences pour ne pas avoir recours à ces outils. Sur quelle base refuser une publicité dans les médias de Bolloré ? Sur une base politique ? Ce n'est pas tenable. C'est pourquoi la certification à produire une information de qualité est nécessaire. Il en va de même des aides à la presse.

La programmatique peut entrainer la fraude. Favorise-t-elle aussi les ingérences étrangères. Est-ce le talon d'Achille de nos démocratie dans ce domaine ?

Le talon d'Achille de notre système informationnel est la viralité qui est le moteur du revenu publicitaire. Cette viralité est instrumentalisée pour propager à grande vitesse des contenus manipulatoires. La liberté d'expression (freedom of speech) équivaut-elle à la liberté d'atteindre tout le monde (freedom of reach) ? C'est une question qu'il est légitime de se poser. Dans un environnement démocratique, certaines voix pèsent-elles plus que d'autres parce qu'amplifiées artificiellement ? Il s'agit d'introduire un peu de mesure à l'amplification artificielle et le recours massif à des outils d'IA générative. Je suis convaincu que plus les disposifs d'IA vont progresser, plus nos espaces informationnels seront pollués et plus nous sentirons la nécessité de réhabiliter l'humain dans toute la chaîne de production et de distribution des contenus. Nous aurons besoin de médias certifiés comme étant faits par des humains. Et de garantir que la hiérachie de l'information ne découle pas d'instrumentalisation par des outils d'IA.

Lire aussi :