INTELLIGENCE ARTIFICIELLE

Le groupe de Mark Zuckerberg a publié un rapport sur les menaces de désinformations par des outils d'intelligence artificielles génératives, quand les périodes électorales se multiplient dans le monde en 2024. 

Les réseaux sociaux de Meta n'ont, pour l'instant, pas laissé passer de contenus générés par de l'intelligence artificielle (IA) afin d'influencer les nombreuses élections qui se tiennent partout dans le monde cette année, selon son rapport trimestriel sur les menaces publiées mercredi 29 mai. 

Ce rapport, qui fait le point sur les « comportements non authentiques et coordonnés » qui peuvent apparaître sur Instagram, Facebook ou Messenger, prend une importance particulière alors que la multiplication des usages de l'IA générative inquiète, dans un contexte électoral particulier cette année, où plus de la moitié de la population mondiale est appelée aux urnes.

Des élections nationales se tiennent en effet, entre autres, au Mexique, en Inde, au Royaume-Uni ou aux Etats-Unis alors que l'Europe vote pour renouveler son Parlement. « Nous constatons que pour l'instant, les défenses existantes de notre industrie, dont les nôtres qui se concentrent sur les comportements plutôt que les contenus, sont d'ores et déjà en place et semblent efficaces », a déclaré lors d'une conférence de presse le responsable des stratégie de démantèlement des menaces de Meta, David Agranovich. « Nous ne voyons pas de cas d'usage de l'IA générative sous des formes extrêmement sophistiquées mais nous savons que ces réseaux (de désinformation, NDLR) vont faire évoluer leurs tactiques à mesure que les technologies évoluent », a-t-il ajouté.

Manque de réalisme

Selon Meta, des « acteurs menaçants » ont tenté d'utiliser l'IA pour développer de fausses photos, vidéos ou textes mais aucune image suffisamment réaliste mettant en scène des personnalités politiques, estime le rapport. L'IA générative a été utilisée pour créer des photos de profils pour de faux comptes sur les réseaux sociaux de Meta et un réseau de désinformation chinois aurait utilisé la technologie pour tenter de lancer un faux mouvement activiste pro-Sikh, une minorité religieuse en Inde, appelé Operation K, selon le rapport.

Le groupe a supprimé de petits groupes de faux comptes sur Facebook ou Instagram, le plus souvent d'origine chinoise et ciblant les communautés Sikh en Australie, Canada, Inde et Pakistan notamment, et appelant à des manifestations pro-Sikh. Un réseau basé en Israël a de son côté posté sur Facebook ce qui semble être des commentaires générés par l'IA, et ressemblant à des messages indésirables, sur la situation au Proche-Orient sur les pages de médias ou de personnalités publiques.

Le rapport met également en lumière les efforts d'un groupe lié à la Russie, « Doppelganger », afin de réduire le soutien à l'Ukraine via les réseaux sociaux, mais dont les tentatives ont été étouffées. « Doppelganger a fait un effort tout particulier au cours des 20 derniers mois, sans grand succès concernant sa capacité à construire une audience réelle sur les réseaux sociaux », a assuré Meta.