L’arrivée de l’intelligence artificielle bouleverse les modes de travail au sein des instituts et change la donne pour leurs clients. Les perspectives sont immenses, les dangers aussi.
Ce sont ses mots, sa voix et son visage mais ce n’est pas lui. Depuis mars, les clients d’Occurrence (Ifop) ont la surprise de recevoir des vidéos présentées par l’avatar d’Assaël Adary, président de cet institut. Créé grâce à l’intelligence artificielle par Brainsonic, ce double virtuel est plus vrai que nature. « J’écris ce que je souhaite dire, je prompte le texte et mon avatar le joue, explique Assaël Adary. C’est très rapide, il n’y a plus besoin de filmer, et je peux parler dans n’importe quelle langue. La prochaine étape, c’est de voir si l’avatar ne peut pas s’autonomiser et, à partir de mes livres, de mes posts et de mes tribunes, créer lui-même un texte. »
Au-delà du coup de com, cette innovation témoigne de la façon dont l’intelligence artificielle générative bouleverse la manière de travailler des instituts, bien au-delà de la façon de s’adresser à ses clients. « L’intelligence artificielle est présente depuis vingt ans dans les instituts au travers de la modélisation des statistiques, avec des algorithmes entraînés sur des bases de données. Le changement, depuis l’arrivée de ChatGPT en octobre 2022, c’est que désormais l’IA s’appuie non plus seulement sur des chiffres, mais aussi sur des mots, sur de la donnée non structurée », relève Mathilde Guinaudeau, responsable de la social intelligence chez Ipsos. Les 22 000 collaborateurs de cet institut dans le monde ont désormais accès à un outil, « Ipsos Facto », intégrant différents modèles d’IA, dont ChatGPT. « Ils peuvent poser des questions et faire des requêtes. Un collaborateur peut résumer un texte en quelques mots quand il reçoit un rapport avant de l’envoyer à son client, corriger sa syntaxe ou faire le résumé d’une réunion après l’avoir enregistrée », note Mathilde Guinaudeau.
Sur la réalisation des études elles-mêmes, l’IA est parfois d’une aide précieuse. « Nous avons développé un outil pour les questions ouvertes. C’est l’IA qui relance le répondant. Nous avons constaté que la qualité des verbatims a augmenté de 30 % », note Émilie Boutes, chief innovation officer de The BVA Family.
Des employés plus créatifs
L’IA générative concourt à l’efficacité des employés et peut aussi les rendre plus créatifs. Chez Ipsos, un outil, « InnoExplorer », imagine à partir d’un besoin non couvert des centaines d’idées de produits pouvant y répondre. Dans le même ordre d’idées, « Signals Gen AI » peut détecter sur les réseaux sociaux la dernière tendance maquillage, par exemple, en analysant en quelques secondes des millions de conversations sur le sujet. À CSA, les employés sont équipés depuis mars de « Microsoft Copilot », une version de Microsoft qui a intégré ChatGPT. « Ça nous permet de réaliser 2 % à 3 % de gains de productivité sur le temps passé », remarque Yves del Frate, CEO de CSA. L’IA optimise aussi le processus de collecte des données en détectant et en éliminant les personnes qui trichent ou répondent n’importe quoi. Tous ces outils d’IA générative semblent aujourd’hui plébiscités dans les instituts. « Il y a une jeune employée qui m’a confié récemment que si demain elle n’avait plus Ipsos Facto, elle changerait de job », note Mathilde Guinaudeau.
À côté de ces apports internes pour les instituts, l’intelligence artificielle modifie la donne pour les clients eux-mêmes. « Depuis 2016, on réfléchit à toutes les possibilités que permet l’IA pour développer de nouvelles solutions pour nos clients. Il s’agit de mieux tirer parti des études faites chez nous avec des plateformes qui permettent, en quelques clics, d’avoir, sur de grandes durées, davantage d’explications et d’aller jusqu’à des simulations et du prédictif », indique Yves del Frate. Depuis des années, CSA établit ainsi des baromètres dans une vingtaine de pays pour Canal+ International. Ils sont désormais regroupés dans une plateforme intelligente qui permet de se projeter dans le temps. « Ça change la vie d’un client », remarque le dirigeant, pour qui ce type de plateformes sur mesure apporte 10 % à 15 % de revenus supplémentaires.
La donnée propriétaire, un avantage compétitif
Dans ce domaine, ceux qui disposent de données sur une longue période disposent d’un avantage indéniable quand il s’agit de faire tourner les algorithmes. Kantar a ainsi développé un outil de validation des concepts publicitaires, « Link AI ». Il prend en compte une base propriétaire de 350 000 tests réalisés depuis trente ans par l’institut. « La donnée propriétaire est un avantage compétitif décisif si vous l’utilisez bien, notamment en la combinant avec d’autres sources. Tout le monde peut poser des questions à ChatGPT sur des données publiques mais dans ce cas, la réponse est la même que celle du compétiteur », estime Virginie Lannevere, head of analytics à Kantar Insights. Sur le même modèle, Kantar a lancé en juin Concept AI, qui permet de tester de manière automatisée des concepts produits ou packaging. « Avant, dans le fonctionnement traditionnel, il fallait trouver les consommateurs sur le segment approprié. Maintenant, tout ça est réalisé en même pas deux minutes », relève-t-elle. L’institut Yougov, qui s’appuie sur un panel propriétaire de 24 millions de personnes dans le monde, possède lui aussi cet atout majeur. « L’IA est entraînée sur de la donnée. S’il n’y a pas suffisamment de matière, elle ne pourra pas faire le job », constate Alexandre Devineau, general manager de Yougov pour la France.
Autre sujet brûlant, la donnée synthétique. « L’enjeu, c’est : comment on génère artificiellement de la donnée qui n’existe pas sur des cibles compliquées et chères à recruter », indique Mathilde Guinaudeau. « Les marques ont besoin d’insights de plus en plus granulaires et l’IA peut répondre à cette problématique », assure Samuel Cohen, qui a fondé à Tel-Aviv (Israël) une start-up, Fairgen, dédiée à cette activité. Booster artificiellement la taille d’un terrain, par exemple en le faisant passer de 300 à 600 répondants, permet d’aller plus en profondeur sur des segments de niche. Fairgen a noué un partenariat avec l’Ifop pour développer ce type d’outils et travaillé avec BVA pour mettre au point une solution d’analyse, Pixel.AI. Elle permet, outre cet enrichissement des résultats sur les sous-cibles, « de faire ressortir tous les points significatifs d’une étude », note Émilie Boutes. CSA a développé de son côté un savoir-faire en matière de jumeaux numériques utilisé pour recréer artificiellement le marché d’un client. « Nous l’avons fait pour Carglass, qui peut simuler tout ce qu’il veut, un changement d’image, une hausse des investissements médias ou l’arrivée d’un concurrent. Ces différentes simulations lui permettent d’établir des scénarios stratégiques », assure Yves del Frate.
Pour une IA « de pleine conscience »
Dans le domaine des études, l’IA offre ainsi, à en croire Mathilde Guinaudeau, des perspectives « infinies ». « On va pouvoir transformer les images en mots et, par exemple, en analysant toutes les vidéos TikTok sur les routines maquillage, capter tout ce que les utilisatrices racontent. Avant, on analysait ce qu’elles disaient, maintenant on va pouvoir analyser ce qu’elles font. C’est comme de l’ethnographie, mais sur des millions de personnes », estime-t-elle. Les dangers de l’IA sont toutefois multiples. « Comme avec toutes les nouvelles technologies, le gros risque, c’est de se perdre et de ne pas se concentrer sur des points directement créateurs de valeur », remarque Virginie Lannevere, qui s’est fait aider par Boston Consulting Group pour voir sur quels points activer l’IA et lister les priorités d’investissement dans ce domaine.
Dans l’utilisation de l’IA, il faut se doter de garde-fous, notamment en matière de donnée synthétique. La plupart des instituts avancent prudemment, se refusant à travailler sur de la donnée 100 % synthétique, mettant en garde notamment sur la possibilité de biais et d’hallucinations, quand les machines apportent des réponses qui semblent vraies mais ne le sont pas. « Les modèles n’ont de sens que si la donnée est fraîche et pertinente. Nous, on la booste, on l’augmente, mais on ne la remplace pas », affirme Mathilde Guinaudeau. La qualité de la data utilisée pose aussi la question de la fraude. L’IA, cette fois, joue contre les instituts. « Tout l’enjeu, c’est d’être capable de détecter ce qui est généré par la machine pour garantir à nos clients que la réponse est humaine », note Virginie Lannevere. Les professionnels restent optimistes, notamment sur la question du remplacement de l’homme par la machine. « Le risque n’est pas tant de se faire ubériser par l’IA que de se faire ubériser par des gens qui maîtrisent l’IA », estime Émilie Boutes. L’IA pose enfin des problèmes de confidentialité des données clients, si l’on utilise ChatGPT dans un cadre non sécurisé, et de traçabilité. Sur ce point, Assaël Adary plaide pour une IA « de pleine conscience », n’omettant pas de préciser, avec un tampon « Ceci est mon avatar », que ses vidéos sont générées artificiellement.