[Tribune] Au-delà de l'emballement sur ChatGPT, les algorithmes d'analyse du langage naturel sont utiles sinon indispensables pour l'exploitation des avis notamment. Mais les communicants ont la responsabilité de comprendre ce qui se passe dans la cuisine de l'IA pour ne pas en subir les biais.
Projets d’infrastructure, raison d’être, budgets participatifs, débat sur la fin de la vie, sur l’énergie, le trottoir d’en face : la démocratie participative et l’intelligence collective envahissent enfin toutes les problématiques de notre société si complexe pour que le débat ne soit pas qu’un entre-soi. L’inflation des questionnaires, des avis, des ateliers avec des milliers de participants, pose le problème de l’analyse des contenus pour rendre compte sincèrement des enjeux et des positions, et prendre de meilleures décisions.
Tout le monde s’est essayé ces dernières semaines à ChatGPT et a pu s’émerveiller de la puissance de l’IA en matière de combinaison et de réarrangement des informations. Chacun a pu constater aussi ses limites et notamment l’impossibilité de remplacer la réflexion personnelle et la créativité (dixit ChatGPT himself). On a aussi pu constater, au-delà de la parfaite syntaxe, l’absence d’angle, de chaleur, bref, et c’est finalement assez normal et rassurant, l’absence totale d’émotion.
En matière de débat, l’enjeu est différent. Il s’agit à partir de l’extraction de données textuelles non structurées ou de contenus (réseaux sociaux, avis donnés dans des plateformes…) de traiter de manière automatique le langage naturel, d'analyser les sentiments, reconnaitre des thèmes. Quelques outils sont aboutis, comme Youmean, Viavoo ou encore Semdee, et permettent à travers d’interfaces de paramétrage de traiter des corpus de textes, des avis, des flux d’informations importants et de générer des analyses, des graphes, afin d’écrire des synthèses et d’aider à la décision.
Corrélations sans sens
Mais là encore, on ne remplacera pas le cerveau comme on a remplacé les bras (bien que parfois les gestes les plus évidents sont les plus difficiles à reproduire). Si ChatGPT ne distingue pas le vrai du faux dans les données qu’il absorbe et qu’il recrache, les outils de TAL (traitement automatique de la langue) ne décèlent pas non plus naturellement les biais cognitifs des répondants, leurs préjugés, leur exposition aux fausses informations... et n’arrivent pas toujours à cerner le sens implicite des mots. Il est donc fondamental de se poser les bonnes questions, écarter les corrélations sans sens, ouvrir sans se perdre et synthétiser sans trop réduire. Si l’objectif de gagner du temps et de permettre des représentations éclairantes de ces contenus est louable, il faut aussi se fatiguer un peu pour savoir ce qu’il se passe dans la cuisine !
Car consultants et communicants ont une responsabilité et le devoir de comprendre. Allons-nous être des utilisateurs passifs des algorithmes et de leurs biais, dans la recherche sur internet, l’analyse sémantique, la prise de décision, le programmatique dans l’achat média, l’automatisation des fonctions rédactionnelles et créatives ? Allons-nous être capables de les apprivoiser et de les maîtriser ou allons-nous être dépassés et manipulés ? Ces choix, qui vont engager l’ensemble de nos sociétés, vont être les nôtres et notre profession en portera aussi la responsabilité. Allons-nous être instrumentalisés par l’intelligence artificielle et quelques concepteurs souvent dépassés par leurs créations, ou bien allons-nous mobiliser l’intelligence et la créativité humaine ? L’expérience des réseaux sociaux peut pousser à être pessimiste… Maîtriser ces évolutions va demander beaucoup de travail, de force et de rigueur morale, et de conviction !