Tribune
L'arbitrage que doivent faire nombre d'entreprises entre la protection des données personnelles et leur exploitabilité n'est pas une fatalité. Des alternatives existent, basées sur les avancées récentes de la cryptographie.

Le RGPD a instauré un climat d’extrême vigilance autour de l’exploitation des données à caractère personnel. Dans l’entreprise, chacun sait désormais que tout n’est pas possible et qu’il y a, pour utiliser les données sensibles, des règles à suivre et des précautions à prendre. Parmi celles-ci, l’anonymisation occupe une place prépondérante, au point de conditionner toutes les réflexions. Elle semble même tellement aller de soi qu’on en oublierait parfois que la finalité n’est pas de rendre les données anonymes, mais bien de préserver leur confidentialité en les désensibilisant, et que la panoplie des techniques qui le permettent ne cesse de s’enrichir.

Jusqu’à présent, le nœud du problème était que survenait toujours un moment au cours du processus de traitement où les données devaient être en clair. Pour les trier, les rapprocher, réaliser des calculs ou des analyses, il fallait impérativement les déchiffrer, ne serait-ce que dans la mémoire de l’application, ce qui les exposait fatalement à des indiscrétions. Pour garantir malgré tout leur confidentialité, il fallait donc les débarrasser de tout ce qui pouvait permettre de les associer à un individu. Mécaniquement, ce processus d’anonymisation induit une déperdition ou une dégradation de l’information, et plus on cherche à brouiller les pistes, plus cette perte de qualité est importante. C'est le cas sans d’ailleurs avoir la garantie d’une efficacité absolue puisque, par croisements successifs, il est très fréquent que l’on puisse malgré tout remonter jusqu’à la personne.

Casse-tête

L’anonymisation impose donc toujours d’arbitrer entre la protection des données personnelles et leur exploitabilité. Face à ce dilemme, les réponses sont extrêmement variables, depuis la suppression brutale des attributs caractéristiques (nom, numéro de téléphone, date de naissance…) jusqu’à l’interdiction pure et simple d’utiliser les données. Entre les deux, on trouve une myriade de solutions technologiques de «pseudonymisation», souvent combinée à des mesures organisationnelles afin de garder sous contrôle des données qui ont conservé une partie de leur richesse. On voit ainsi se mettre en place de lourdes procédures d’habilitation, qui peuvent aller jusqu’à l’obligation pour les data scientists de venir sur site de façon à éviter les transferts de données.

Dans les grandes entreprises possédant de nombreuses filiales ou lignes d’activité, ceci vire rapidement au casse-tête. Par exemple, pour pouvoir garantir le droit à l’effacement instauré par le RGPD, il faudrait garder une trace de tous les transferts et de toutes les copies réalisés. Bien souvent, les entreprises finissent plutôt par choisir de limiter les échanges, même si c’est au détriment des utilisations potentielles de la donnée. Et quels que pourront être à l’avenir les progrès des techniques d’anonymisation, le dilemme entre confidentialité et qualité des données demeurera et, avec lui, son corollaire de complexités techniques, juridiques et organisationnelles.

Rupture fondamentale

La solution, évidemment, serait de pouvoir exploiter directement les données sensibles tout en garantissant leur protection et le respect de leur confidentialité. Du moment que les données ne sont jamais en clair dans le processus, jamais lisibles par les utilisateurs, jamais intelligibles pour un œil malveillant, les techniques actuelles deviennent inutiles. Or justement, grâce aux avancées récentes de la cryptographie, c’est désormais possible : on peut maintenant réaliser des calculs sur des données désensibilisées sans qu’aucune personne ni aucun système n’ait jamais accès aux informations confidentielles qu’elles contiennent.

Ceci constitue une rupture fondamentale car cela met fin au dilemme de l’anonymisation, qui lui-même pèse sur la créativité : lorsqu’on a une idée, on n’a plus à s’interroger sur sa faisabilité, sur les moyens fastidieux à mettre en œuvre pour préserver la richesse des données sans les exposer, ni sur la responsabilité que cela représente. De telles approches permettent de se focaliser pleinement sur la valorisation des données, et de les utiliser plus librement, à plus grande échelle et sans jamais transiger sur la sécurité. Alors que la question de la confidentialité des données est souvent une pomme de discorde entre les métiers, la sécurité et le juridique, ces nouvelles méthodes de chiffrement viennent les réconcilier, et donc accélérer les projets.

Les activités intéressées en priorité sont celles où la collaboration serait essentielle à l’innovation et à l’efficacité opérationnelle, mais où les données sont si sensibles que l’on préfère malgré tout limiter les échanges. C’est notamment le cas de la santé, de la finance, de l’industrie et de l’agriculture, qui gagneraient à développer des modèles fondés sur des données partagées, issues de multiples sources, mais où chacun – et c’est légitime – est tenu à la plus grande prudence. Établir des collaborations dans des environnements entièrement chiffrés, où personne ne voit jamais que les résultats qui le concernent, ouvrirait à ces secteurs un immense champ de possibilités. Et ferait prendre conscience une fois pour toutes que l’anonymisation des données n’est pas une fin en soi, mais une solution souvent imparfaite à un problème plus large, celui de l’exploitation des données confidentielles désensibilisées.

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.

Lire aussi :