La société créatrice de ChatGPT annonce le lancement d’outils pour combattre la désinformation avant la dizaine de scrutins prévus cette année dans le monde.
La société californienne OpenAI, créatrice de ChatGPT, a annoncé le lancement d’outils pour combattre la désinformation avant les dizaines de scrutins prévus cette année dans divers pays où vit presque la moitié de la population mondiale. Le succès de l’application ChatGPT a popularisé l’intelligence artificielle générative mais également suscité des inquiétudes sur son utilisation éventuelle dans des campagnes de désinformation visant à orienter le vote des électeurs.
Alors que des dizaines d’élections sont prévues cette année, en particulier aux Etats-Unis, en Inde ou en Grande-Bretagne, OpenAI a souligné lundi 15 janvier sa volonté de ne pas permettre l’utilisation de ses outils technologiques, dont ChatGPT et le générateur d’images DALL-E 3, à des fins politiques. « Nous voulons être certains que notre technologie ne sera pas utilisée de manière à porter atteinte » au processus démocratique, explique OpenAI sur un blog. « Nous sommes toujours en train d’évaluer l’efficacité potentielle de nos outils pour de la persuasion individuelle. Jusqu’à ce que nous en sachions plus, nous ne permettrons pas aux gens de construire des applications pour des campagnes politiques ou militantes », ajoute OpenAI.
Détecter l’utilisation de l’intelligence artificielle
La désinformation -- une fausse information diffusée volontairement -- et la mésinformation -- une information fausse diffusée involontairement -- « miner la légitimité des gouvernements nouvellement élus », a averti la semaine dernière le Forum économique mondial, qui se tient jusqu’au 19 janvier à Davos (Suisse). Les craintes de désinformation électorale remontent à plusieurs années mais l’accès du grand public aux puissants générateurs de textes et d’images fondés sur l’IA renforce grandement la menace, selon les experts.
OpenAI a expliqué le 15 janvier travailler à des outils permettant de déterminer de manière fiable la provenance d’un texte généré par ChatGPT et de donner aux utilisateurs la possibilité de détecter si une image a été créée en utilisant DALL-E 3. « Au début de cette année, nous allons mettre en oeuvre la Coalition pour la provenance et l’authenticité des contenus (Coalition for Content Provenance and Authenticity’s digital credentials) », explique la compagnie. Cette coalition, dite C2PA, réunira notamment Microsoft, Sony, Adobe, Nikkon et Canon.
Selon OpenAI, ChatGPT, lorsqu’il sera interrogé sur les élections américaines, orientera par exemple les électeurs vers des sites reconnus. « Les leçons tirées de ce travail seront la base de notre approche pour d’autres pays et régions », explique la société, ajoutant que DALL-E 3 contient des « garde-fous » pour empêcher les utilisateurs de générer des images de personnes réelles, notamment de candidats. Les géants américains Google et Meta ont déjà annoncé l’an dernier des initiatives pour cadrer l’utilisation de l’IA dans les campagnes politiques.