Après plusieurs semaines d'intenses négociations sur l’équilibre entre innovation et sécurité, les États membres de l’Union européenne ont approuvé vendredi 2 février une législation inédite au niveau mondial pour réguler l’intelligence artificielle.
Les Etats membres de l'Union européenne ont approuvé une législation inédite au niveau mondial pour réguler l'intelligence artificielle (IA), qui a suscité jusqu'au bout d'intenses négociations, a annoncé la présidence belge du Conseil de l'UE. Lors d'une réunion le 2 février, les ambassadeurs des Vingt-Sept ont «confirmé à l'unanimité» l'accord politique trouvé en décembre dernier entre les Etats membres et les eurodéputés, a-t-elle indiqué sur X (ex-Twitter), à l'unisson de plusieurs sources diplomatiques.
Certains pays, dont la France et l'Allemagne, avaient soulevé des points de préoccupation, pris en compte avant la finalisation du texte, selon des diplomates. «Ce AI Act est une étape marquante, établissant les premières règles de la planète visant l'intelligence artificielle, pour la rendre plus sûre et respectueuse des droits fondamentaux de l'UE», a affirmé la présidence belge.
Le commissaire européen Thierry Breton, en charge du dossier, a salué une règlementation «historique, une première mondiale». «La loi sur l'IA a déchaîné les passions, et à juste titre ! Aujourd'hui, les États membres ont approuvé l'accord politique de décembre, reconnaissant l'équilibre parfait trouvé par les négociateurs entre l'innovation et la sécurité», a-t-il déclaré.
Accélération des discussions
La Commission européenne avait présenté son projet d'«Acte IA» en avril 2021. Mais l'apparition fin 2022 de ChatGPT, de la start-up californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes, lui a donné une nouvelle dimension et provoqué l'accélération des discussions. Ce système, comme ceux capables de créer des sons ou des images, ont révélé au grand public le potentiel immense de l'IA. Mais aussi certains risques : la diffusion sur les réseaux sociaux de fausses photographies, plus vraies que nature, a alerté sur le danger de manipulation de l'opinion.
Paris et Berlin étaient soucieux que la législation européenne protège les start-up spécialisées dans l'intelligence artificielle, pour ne pas empêcher l'émergence de futurs «champions européens» du secteur. Le 30 janvier à Berlin, le ministre allemand du Numérique Volker Wissing s'était félicité d'avoir «pu obtenir des améliorations pour les petites et moyennes entreprises, éviter des exigences disproportionnées et veiller à ce que nous restions compétitifs au niveau international».
Contrôle humain sur la machine
Sur les IA génératives, des règles s'imposeront à tous pour s'assurer de la qualité des données utilisées dans la mise au point des algorithmes et pour vérifier qu'ils ne violent pas la législation sur les droits d'auteur. Les développeurs devront par ailleurs s'assurer que les sons, images et textes produits seront bien identifiés comme artificiels.
Les systèmes jugés à «haut risque» - dans des domaines sensibles comme les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre... - seront soumis à une série d'obligations comme celles de prévoir un contrôle humain sur la machine, l'établissement d'une documentation technique, ou encore la mise en place d'un système de gestion du risque.