Si elle permet de libérer le potentiel créatif des professionnels de la publicité, l'intelligence artificielle mérite qu'on se penche de toute urgence sur l'enjeu de la confidentialité des données et de l’éthique. Un chantier qui ne peut être que collectif.
Gestion des données, création et analyse de contenus, projection d’audiences… L’intelligence artificielle a de nombreux avantages dans bien des secteurs. C’est le cas du marché de la publicité, et elle s’impose à tout l’écosystème adtech, aujourd’hui confronté à deux changements majeurs : la disparition des cookies tiers et la confidentialité des données. Des transitions rendues possibles grâce au ciblage contextuel ou sémantique qui permet, à l’aide de l’IA, de s’affranchir de la donnée utilisateur tout en maintenant des standards élevés d’efficacité publicitaire.
L’usage de l’IA soulève cependant de nombreuses interrogations, voire des inquiétudes. Alors faut-il vraiment nous réjouir du développement de l’IA ? Est-elle suffisamment encadrée ? N’est-ce pas à l’écosystème tout entier de se responsabiliser et d'être les garants d’une IA vertueuse ?
Humain et IA, ne les opposons pas
Si l’intelligence artificielle est définie comme la capacité à générer des analyses et des contenus divers à partir de données d’apprentissage, on comprend qu’elle en vient rapidement à suppléer l’humain dans certaines de ses tâches – les plus chronophages – et donc à en limiter ses créations. Ainsi, pour de nombreux acteurs, notamment dans le secteur de l’adtech, l’arrivée d’IA génératives ou de machine learning est perçue comme une aubaine.
Prenons l’exemple du ciblage contextuel et sémantique. Les méthodes de machine learning telles que les NLU (natural language understanding) et NLP (natural language processing) permettent d’analyser de manière efficace et rapide le sens, le contexte et le sentiment d’un contenu, puis de proposer un ciblage le plus affiné possible des audiences exposées à celui-ci. Les IA génératives, quant à elles, élaborent de façon pertinente les campagnes en générant du contenu publicitaire adapté à l’audience et au contenu. Il est donc tout à fait légitime de s’interroger quant à la place – et à l’utilité – des compétences humaines dans ce cadre. Comme toute innovation, le développement de l’IA s’accompagne de possibles risques et dérives, et l’inquiétude induite remonte aux débuts même de la robotisation.
Nous ne saurions l’oublier cependant, ces outils technologiques sont avant tout programmés et entraînés par leur créateur, l’humain, qui doit plutôt voir dans ces innovations, non pas une menace, mais des opportunités pour améliorer son quotidien. Elles sont ainsi son allié, car lui permettant de se concentrer sur des tâches à plus forte valeur ajoutée. Dénué de conscience et de l’intention créative, c’est là que se situe toute la différence entre les fantasmes et la réalité autour de ces outils conçus principalement pour venir en soutien de la main humaine.
Bien que les performances des agents conversationnels – tels que ChatGPT d’OpenAI ou Bard de Google et leurs IA génératives de contenu – sont impressionnantes, eu égard au volume de données traitées ou la capacité à faire «le bon choix», elles ne sont en rien capables de prendre des décisions seules. Dépourvues de toute intention ou d’émotion, elles sont toutes stimulées par l’intervention humaine. Ainsi, la dérive existe essentiellement dans l’utilisation qu’en fait l’humain et moins dans l’outil lui-même.
Vers une responsabilisation de l’écosystème adtech
Pour l’heure, incapable d’intention, l’application de l’IA reste limitée au remplacement ponctuel de l’homme, pour plus de performance et d’efficacité. Les points de vigilance portent donc davantage sur les fondements même de l’IA et ses bases d’apprentissage. D’où proviennent-elles ? La réponse est univoque : de son utilisation au quotidien, et donc des utilisateurs eux-mêmes et, par extension, de certaines de leurs données personnelles.
Il est donc fondamental que les professionnels de la publicité – annonceurs, agences et éditeurs – prennent conscience des risques liés à l’IA générative en matière de protection des données utilisateurs. À l’ère du cookieless et du consentless, le secteur de la publicité se transforme et tend vers un modèle plus responsable. Il en va donc de la pérennité des acteurs quels qu’ils soient, de veiller à un déploiement éthique de l’intelligence artificielle dans tous les champs de la publicité.
Et alors même qu’il existe une certaine régulation et des institutions de contrôle – le RGPD et la Cnil en la matière –, nous constatons la pérennité de certains mésusages (voire des manquements) dans le recours aux IA génératives. Ces derniers concernent principalement les flux de données utilisateurs, transmises inconsciemment par ces derniers et récupérées par les bases d’apprentissage de l’IA. Et alors même que les géants du secteur écopent régulièrement d’amendes, est-ce suffisant ? Comment s’assurer que les GAFAM par exemple, qui détiennent le monopole des données utilisateurs et du marché, changent durablement leurs pratiques ?
Garant d’une IA responsable et profitable
Nous l’aurons compris, l’IA s'intègre dans la publicité tant avec des avantages que des préoccupations. En effet, si elle permet de libérer le potentiel créatif des professionnels en leur épargnant certaines tâches fastidieuses, les enjeux liés à la confidentialité des données et à l’éthique de l’IA doivent être abordés avec la plus grande attention et nécessitent la mise en œuvre d’un cadre réglementaire plus approfondi que le seul RGPD. L’écosystème adtech dans son ensemble doit également y prendre toute sa part, et être le garant d’une IA responsable et profitable à toutes les parties prenantes.
In fine, le défi majeur de l’IA réside dans le juste équilibre qu’il nous faut trouver entre la performance de cette dernière et le respect des valeurs humaines. La problématique sous-jacente tient donc moins aux potentielles dérives de l’IA qu’à l’harmonie à maintenir entre compétences humaines et compétences technologiques.