Tribune
Face à l'essor de l'intelligence artificielle dans nos vies, il devient urgent d’édifier un code moral pour diriger les machines intelligentes.

Dans une scène marquante du thriller Ex Machina sur le thème des robots réalistes, le PDG d’un mastodonte à la Google décrit comment ses machines ont appris à devenir humaines. Pendant quelques secondes, il a allumé les caméras de smartphones à travers le monde, et en a recueilli les données et récolté ainsi « une source infinie d’interactions vocales et faciales ».

Aujourd'hui, ce n’est plus de la science-fiction. Alors que l’intelligence artificielle (IA) gagne en sophistication, les développeurs reconnaissent que les informations que nous partageons volontairement sur les réseaux sociaux et le web représentent un véritable instantané d’humanité, et donc une vraie source. Voilà de quoi nourrir le machine learning, un domaine de l’IA où les machines apprennent par elles-mêmes. Après avoir analysé le comportement répétitif de très nombreux individus, le processus peut se passer des humains.

Les récentes applications de l’IA ne donnent qu’un aperçu des défis que pose le traitement de ces données sociales. En 2016, Tay, un chatbot Microsoft déployé sur Twitter, devait se nourrir des interactions des utilisateurs. L’expérience a connu de graves dérives: commentaires racistes, antisémites et misogynes. Les développeurs ont débranché le robot à peine 16 heures après son lancement. Car si des milliards d’individus partagent leurs idées, sentiments et expériences sur les réseaux sociaux chaque jour, utiliser ces données est risqué et c’est là que réside le défi de l’IA. On pourrait comparer cela à l’éducation d’un enfant aux seules sources de Fox News ou CNN, sans apport de ses parents ou des institutions sociales. Dans les deux cas, nous risquons de créer un monstre.

Lois de la robotique

Les données sociales ne sont ni réalistes ni très reluisantes. Certains messages sociaux reflètent un soi idéalisé au-delà du pouvoir humain, d’autres affichent une laideur rarement vue en réalité. Seules, elles manquent tout simplement de réel. Dans la gamme de l’expérience humaine partagée sur Twitter, Facebook et d’autres réseaux, quels comportements devraient être modélisés et lesquels devrait-on écarter? En quoi consistent le bien et le mal?

Dès les années 1940, Isaac Asimov s’efforçait déjà de formuler ses lois de la robotique. Première loi: un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. Il existe un besoin urgent d’édifier un code moral pour diriger les machines intelligentes avec lesquelles nous partageons de plus en plus nos vies. Demain, un chatbot pourrait bien concevoir la stratégie de nos entreprises… ou de nos chefs d’État. On ne peut glaner les réponses dans une série de données sociales. Les meilleurs outils analytiques ne les révèlent pas, peu importe la taille des échantillons.

Nous avons passé des milliers d’années à concevoir des règles de conduite humaine,  préceptes de base qui nous permettent (idéalement) de nous entendre et de vivre ensemble. Les plus forts de ces principes ont traversé le temps sans grand changement, preuve de leur utilité et validité.

Implications sociales

En matière d’IA, la responsabilité de cette éducation morale incombera aux développeurs et aux scientifiques, non aux parents ou aux institutions religieuses. Comme souligné par le grand chercheur en IA, Will Bridewell, il importe que les futurs développeurs soient conscients du statut moral de leur travail et comprennent les implications sociales de ce qu’ils créent. L’éthique devrait être intégrée à leur formation, car comprendre la science pure ne suffit pas lorsque les algorithmes ont des implications morales.

La responsabilité réside aussi dans les entreprises qui emploient ces développeurs, leurs secteurs d’appartenance, les pouvoirs publics et au final, nous. À l’heure actuelle, la politique publique et la réglementation sur l’IA demeurent naissantes, voire inexistantes. Mais quelques voix s’élèvent. Open AI,  formé par Elon Musk et Sam Altman, milite pour une surveillance. Des leaders technologiques se rassemblent dans le collectif Partnership on AI pour étudier des enjeux éthiques. Des observateurs comme AI Now apparaissent pour identifier le parti pris et l’éradiquer. Nous cherchons tous un cadre moral pour définir comment l’IA peut convertir les données en décisions, de manière juste, durable et représentatives du meilleur de l’humanité, pas du pire.

Et c’est en fait parfaitement réalisable: des chercheurs de Google ont opposé des agents IA dans 40 millions de parties d’un jeu de cueillette de fruits sur ordinateur. Lors de la première expérience, pour survivre, les agents ont commencé à s’entre-attaquer, reproduisant les pires instincts de l’humanité. Les chercheurs ont ensuite délibérément retouché les algorithmes pour rendre avantageux un comportement coopératif. Au final, les agents vainqueurs sont ceux qui ont appris à collaborer. L’IA peut donc bien refléter le côté angélique de notre nature à condition que nous lui montrions comment.

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.

Lire aussi :