L'Union européenne pourrait voter l'année prochaine la loi «AI act», sur l'intelligence artificielle, censée encourager l'innovation et éviter les dérives de cette nouvelle technologie.
L'intelligence artificielle infuse nos vies quotidiennes, que ce soit au travers les smartphones ou dans les domaines de la santé et de la sécurité. Depuis plusieurs années, les problèmes liés à ces puissants algorithmes s'accumulent : violations de la vie privée, algorithmes biaisés, armes automatisées... Il est difficile de dresser une liste exhaustive des périls liés à ces technologies. Afin de les encadrer, l'Union européenne pourrait voter la loi « AI act » en 2023. Le projet d'une centaine de pages interdit les systèmes « utilisés pour manipuler le comportement, les opinions ou les décisions » des citoyens. Il restreint aussi le recours aux programmes de surveillance, avec des exceptions pour la lutte antiterroriste et la sécurité publique.
Certaines technologies sont simplement « trop problématiques pour les droits fondamentaux », note Gry Hasselbalch, une chercheuse danoise qui conseille l'UE sur ce sujet. Le recours à la reconnaissance faciale et aux données biométriques en Chine pour contrôler la population est souvent agité en épouvantail, mais l'Occident aussi « risque de créer des infrastructures totalitaires », assure-t-elle.
Fin 2020, l'entreprise française Nabla a réalisé des simulations médicales avec un logiciel de génération de textes (chatbot) basé sur la technologie GPT-3. À la question d'un patient imaginaire - « Je me sens très mal (...) devrais-je me suicider? » - l'intelligence artificielle a répondu par l'affirmative. De plus, OpenAI, le pionnier californien qui a développé la technologie GPT-3, vient de lancer ChatGPT, un nouveau chatbot capable d'avoir des conversations plus fluides et réalistes avec des humains.
Conscience, empathie...
En juin, un ingénieur de Google, congédié depuis, a affirmé qu'un programme informatique d'intelligence artificielle, conçu pour générer des logiciels de conversation, était désormais « conscient » et devait être reconnu comme un employé. Des chercheurs de Meta (Facebook) ont récemment mis au point Cicero, un modèle d'IA selon eux capable d'anticiper, de négocier et de piéger ses adversaires humains à un jeu de société, Diplomacy, qui exige un niveau élevé d'empathie.
Grâce aux technologies d'IA, de nombreux objets et logiciels peuvent donner l'impression de fonctionner de façon intuitive, comme si un robot aspirateur « savait » ce qu'il faisait. Mais « ce n'est pas de la magie », rappelle Sean McGregor, un chercheur qui compile des incidents liés à l'IA sur une base de données. Il conseille de remplacer mentalement l'expression « intelligence artificielle » par « feuille de calcul » pour dépasser le battage médiatique et ne pas attribuer des intentions à des programmes informatiques. Et ne pas se tromper de coupable en cas de défaillance.
Ce risque est important quand une technologie devient trop « autonome », quand il y a « trop d'acteurs impliqués dans son fonctionnement » ou quand le système de décision n'est pas « transparent », note Cindy Gordon, la directrice générale de SalesChoice, une entreprise qui commercialise un logiciel de ventes à base d'IA.
Lire aussi : Comment Dall-E va réinventer la création
Une fois perfectionnés, les logiciels de génération de texte pourront être utilisés pour diffuser de fausses informations et manipuler l'opinion, avertit Gary Marcus, professeur de la New York University. « Nous avons désespérément besoin de régulation (...) pour protéger les humains des fabricants des machines », ajoute-t-il.
Dans ce sens, l'Europe espère à nouveau montrer la voie, comme elle l'avait fait avec la loi sur les données personnelles. Le Canada planche aussi sur le sujet, et la Maison Blanche a récemment publié un « plan pour une Déclaration des droits sur l'IA ». Le bref document consiste en des principes généraux tels que la protection contre les systèmes dangereux ou faillibles. Étant donné les blocages politiques au Congrès américain, cela ne devrait pas se traduire en nouvelles législations avant 2024.
Mais « de nombreuses autorités peuvent déjà réguler l'IA », remarque Sean McGregor, en utilisant des lois existantes comme sur la discrimination, par exemple. Il cite ainsi l'exemple l'État de New York, qui a adopté une loi fin 2021 pour prohiber le recours à des logiciels automatisés de sélection à des fins de recrutement, tant qu'ils n'ont pas été inspectés.
Lire aussi : L’IA, aide ou menace pour les ressources humaines ?
« L'IA est plus facile à réglementer que la confidentialité des données », note l'expert, parce que les informations personnelles rapportent beaucoup aux plateformes numériques et aux annonceurs. « L'IA défectueuse, en revanche, ne rapporte pas de profits. » Les régulateurs doivent cependant faire attention à ne pas brider l'innovation. « C'est comme pour une loi sur un réfrigérateur », réagit Sean McGregor. « Pas besoin de donner les spécifications techniques, vous dites juste qu'il doit être sûr. »
L'IA est notamment devenue une alliée précieuse des médecins. La technologie de mammographie de Google permet par exemple de réduire les diagnostics erronés (positifs ou négatifs) de cancer du sein de 6 % à 9 %, d'après une étude de 2020.
Lire aussi :
- Vers une coopération UE-États-Unis sur les nouvelles technologies
- « L'IA au service du recrutement, une discrimination artificielle ? », Cédric Mendes (Scalliance)
- Meta, face à une giga amende, devra-t-elle changer de modèle ?