Numérique
La Darpa, ou Defence Advanced Research Project Agency, est l'une des branches clés du département américain de la Défense. Elle a créé un programme Media Forensics pour garantir la sécurité nationale contre les manipulations d'images. Explications du directeur du programme, Matthew Turek.

Le Darpa a lancé un programme Media Forensics visant à lutter contre la manipulation de photos et de vidéos [ou deep fake]. Pouvez-vous en dire plus ?

Son objectif est de développer des outils automatiques pour repérer des manipulations de photos ou des vidéos avec des sons associés. Le travail de nos partenaires est assez vaste, il va de la collecte de données au développement d'algorithmes.

 

Le deep fake est-il une menace forte, voire une question de sécurité nationale ?

On savait déjà qu’avec des outils comme Photoshop, des gens pouvaient facilement créer des documents à des fins de manipulations. On arrive à un nouveau stade, celui de l’automatisation des deep fakes. Il suffit pour cela de quelques milliers d'images sources (base documentaire). Bien que les techniques ne soient pas encore très élaborées et que vous n'ayez pas la garantie d'avoir un résultat de haute précision, on peut imaginer qu'il y aura des améliorations spectaculaires en termes de qualité. Les questions de sécurité nationale ne sont qu’une facette de la problématique. Les deep fakes peuvent aussi être appliquées à la manipulation d’images de produits vendus en ligne.



Quelles sont précisément les techniques sur lesquelles vous travaillez ?

Il y a trois types de techniques : le numérique, le physique et la sémantique. Pour le numérique, on peut vérifier si une compression d’image a été réalisée sur le document, ou si une image a été intégrée dans une autre image. Cela marche relativement bien, notamment dans les cas de compression importante. On peut aussi vérifier si la caméra utilisée est compatible avec l'image projetée. Nous regardons aussi la physique, par exemple, pour déterminer si l'éclairage est compatible avec l’image principale, selon l’endroit où elle a été capturée, ou la saison. Enfin, nous vérifions si le contenu d'une image est en rapport avec la sémantique du message délivré. Nous cherchons à déterminer si le message a du sens par rapport à l’image, s’il est logique.



La voix est considérée comme un moyen d’identification infalsifiable. Est-il possible de la manipuler ?

Il est encore difficile de créer une vidéo ou un son avec la voix d'une personne réelle et de la manipuler afin de coller exactement à son identité vocale. Des éléments de technologie existent sans doute, mais le niveau d'expertise requis pour permettre de générer des documents de ce type est encore trop sophistiqué.

 

En matière d’information, s’oriente-t-on vers une guerre de l’intelligence artificielle « bonne » contre l’IA « néfaste » ?

Au stade actuel, vous pouvez encore vous appuyer sur votre propre regard pour déterminer si une image a été manipulée ou non avec une intelligence artificielle.  Vous pouvez par exemple repérer des différences dans les couleurs des yeux, ou une anomalie dans l'âge potentiel du visage du sujet, ou une partie de joue plus floue que l’autre, ou encore le rythme de respiration ou de clignotement des yeux. Mais effectivement, la technologie va progresser et cela sera de plus en plus difficile à l’œil nu. En un an, on a déjà constaté énormément de progrès. Des outils automatiques sont donc nécessaires pour régler ce problème à l'échelle d'internet. Dans une telle masse de données et de documents, on ne peut se fier uniquement à l'humain.

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.