Rendre plus facilement détectables des vidéos truquées par des outils d'intelligence artificielle : tel est l'objectif du «deepfake « challenge» lancé jeudi par des entreprises de la tech et des universitaires. Financée à hauteur de 10 millions de dollars par Facebook, cette initiative vise à lutter contre un phénomène perçu comme une menace grandissante à l'intégrité de l'information en ligne.
Détecter les deepfake
Le projet, soutenu par Microsoft et un consortium sur l'intelligence artificielle qui réunit plusieurs géants de la tech, dont Apple, Amazon et IBM, fait appel à des universitaires issus d'institutions comme le Massachusetts Institute of Technology (MIT) ou l'université d'Oxford. «L'objectif de cette initiative est de créer une technologie que tout le monde pourra utiliser pour détecter les vidéos modifiées par des outils d'intelligence artificielle et dont le but est d'induire en erreur les usagers», a expliqué le directeur technique de Facebook Mike Schroepfer. M. Schroepfer a ajouté que les techniques de «deepfake » dont les trucages hyper-réalistes font dire à des personnalités des propos qu'elles n'ont jamais tenus, «posent un défi majeur à la légitimité de l'information en ligne». «Pourtant, le secteur ne possède pas de base de données ou d'outil de référence pour les détecter», a-t-il ajouté.
Facebook a indiqué que son financement serait destiné à des partenariats de recherche et à des prix. L'entreprise dirigée par Mark Zuckerberg a précisé qu'elle participerait à la compétition, mais n'accepterait pas de rétribution. Pour Philip Torr, professeur à Oxford et participant au projet, de nouveaux outils sont «nécessaires aussi vite que possible pour détecter ces contenus médiatiques manipulés». «La mise en ligne de ces contenus, pour créer des théories du complot complètement fausses et manipuler les gens à des fins politiques, est devenu un problème d'importance mondiale. C'est une menace fondamentale à la démocratie», a estimé M. Torr dans un communiqué.