Le déploiement massif de l’intelligence artificielle dans nos vies interroge sur son impact sur l’individu et la société en général. Face à des dérives avérées et prévisibles, les Etats tentent d’élaborer un cadre réglementaire. Dans le même temps, beaucoup de personnes, un peu partout sur la planète, contribuent à l’émergence de comités d’éthique permettant de guider les futures évolutions de l’intelligence artificielle et de ses composantes, mais la question de la convergence d’intérêt reste complexe. Faire évoluer la régulation numérique et mettre en place une surveillance éthique est l’exemple moderne du tonneau des Danaïdes.
Les systèmes de décision automatiques utilisant des techniques d’apprentissage statistique pour exploiter les données suscitent beaucoup d’espoirs et de craintes légitimes dans tous les secteurs d’activité (commercial, justice, administratif, économique, industriel, médical...). Il n’est pas possible de s’en remettre exclusivement à la responsabilité des acteurs de ces changements pour éviter les dérapages, voire la banalisation d’usages abusifs de ces techniques. Les risques portent notamment sur les discriminations, sur l’arbitraire de décisions, sur la responsabilité, sur les dérives d’un développement uniquement guidé par les incroyables possibilités techniques, et sur les biais induits par les données qui conditionnent in fine les résultats des algorithmes.
Responsabilité des data scientists
Comment protéger les personnes de décisions injustes qui les concernent directement ? A titre d’exemple, comment est déterminé votre score de crédit ? Juste par rapport à vous ou en considérant aussi ce qui se passe géographiquement autour de vous ? Une utilisation massive des algorithmes sans transparence ni éthique conduira à une ultra-fragmentation de la société. Il est donc indispensable d’encadrer juridiquement les algorithmes et d’en développer qui soient éthiques, ce qu’ils ne sont pas par nature. Les data scientists portent la responsabilité de les rendre équitables. Données utilisées, mesures, résultats : tout doit être auditable et explicable. Cela conduira inéluctablement à de meilleurs algorithmes.
En 2017 la CNIL a lancé un débat sur le thème «Ethique numérique : les algorithmes en débats», qui a donné lieu à la publication d’un rapport. En parallèle, une commission présidée par Cédric Villani a elle aussi publié un rapport dont l’objectif est de «donner du sens à l’intelligence artificielle». Les deux rapports consacrent une large place aux questions éthiques soulevées par la généralisation de l’usage, au quotidien, de l’intelligence artificielle. La France n’est évidemment pas le seul pays à se mobiliser sur cette question et les initiatives sont nombreuses. Il faut s’interroger sur l’impact d’un usage généralisé conduisant à des décisions influençant la vie des personnes : accès à la banque, l’assurance, la santé, l’emploi, les applications en matière judiciaire ou de police... Nous voilà en 2020 sans avancée notable.
Aborder sérieusement ces questions nécessite à la fois de sérieuses compétences techniques permettant de comprendre finement le fonctionnement des algorithmes, de garder un regard critique sur les discours et croyances, et enfin une expertise juridique, sociétale, politique et philosophique. Le défi est gigantesque mais atteignable si, collectivement, nous nous en donnons les moyens.