Comment l’intelligence artificielle fait-elle évoluer les métiers des médias ? Un séminaire organisé par la Direction générale du Trésor a exploré les impacts potentiels, négatifs, mais aussi positifs, de cette mutation technologique dont toute l’ampleur n’a pas encore été mesurée.
Entre l’éditeur (le média) et l’hébergeur (la plateforme), il y a plus qu’une différence de nature. Juliette Théry, membre du collège de l’Arcom, estime qu’ils ne sont pas dans la même logique. Pour la conseillère juriste, « l’activité d’édition, c’est le fait de sélectionner et de financer la production de contenus ». Ce financement est d’une tout autre portée que celui consenti par les plateformes d’hébergement qui se placent dans une logique d’accumulation de contenus produits par d’autres, dont des éditeurs de sites de presse, afin d’attirer une audience maximale. Elle en déduit que les risques sont « complètement différents ».
Autant l’IA générative peut apporter aux plateformes le moyen de gagner des audiences en produisant en quantité - quitte à fournir des infox ou des contenus de piètre qualité qui ne remettent pas en cause leur modèle - autant elle se doit d’être une alliée sûre pour un éditeur de média qui, à l’instar de Mathias Döpfner, le patron du groupe allemand Axel Springer, engage sa responsabilité juridique quand il mise sur le potentiel de cet outil.
S’il existe souvent une confusion entre les deux types de contenus sur les réseaux, les plateformes présentent un avantage écrasant par rapport aux médias : elles sont en position dominante sur la recherche et la présentation des résultats, ce qui permet d’orienter les choix du public au détriment des éditeurs. De la « self preferency », disent les spécialistes.
Les éditeurs, eux, sont dans une « économie du lien ». Et ils cherchent à savoir si l’IA générative va favoriser le développement des contenus en dépit de son manque de neutralité. Elle peut en tout cas générer des gains de productivité et d’innovation. On pense à l’automatisation des fonctions de synthèse, de transcription ou de traduction. Dans le cinéma ou l’audiovisuel, l’IA peut même aider à produire des scripts, à inspirer un scénariste, à susciter un langage adapté ou même à aider un producteur à relire un scénario (grâce au résumé qu’elle fournit). C’est ce que constate le scénariste Thomas Bidegain qui, par exemple, s’en sert pour écrire des dialogues, comme l’oraison funèbre d’un prêtre à sa mère. La technologie va aussi impacter les métiers techniques, notamment dans l’animation, les effets spéciaux, le montage ou la postproduction. « Tous ces exemples aident finalement le processus créatif », estime la conseillère pour qui l’IA permet « d’améliorer, d’innover et de proposer d’autres contenus ».
Lutte contre les infox
L’IA va-t-elle aider à mieux informer ? La possibilité n’est pas à exclure puisqu’elle pourrait favoriser la lutte contre les infox, non seulement en détectant sur les plateformes de fausses informations mais aussi via la constitution de bases de données permettant aux journalistes de collecter de l’info et de vérifier les sources. L’outil peut aussi améliorer la modération et aider les médias à atteindre de nouveaux publics en mettant à profit les algorithmes - et leur connaissance des utilisateurs - pour produire des contenus personnalisés. « Un potentiel énorme », selon Juliette Théry.
Si la mission sur l’IA conduite par l’Arcom a conclu que l’emploi pouvait être menacé dans les métiers techniques (lire encadré), ces nouveaux outils pourraient constituer, pour une industrie dont la rentabilité reste faible, un atout pour partir à la conquête de nouveaux publics tout en améliorant la qualité et en réalisant des gains de productivité. Même s’il ne faut pas sous estimer le risque de viralité accrue dû à des productions de contenus qui ont « un potentiel de sidération ».
Apporteurs de réponse unique
Autre défi majeur : les agents conversationnels qui vont orienter les choix. Alors que le moteur de recherche donne une liste de résultats, les agents conversationnels vont se comporter comme des apporteurs de réponse unique, celle qu’ils jugeront la meilleure. Si figurer sur la première page de résultats d’un moteur de recherche constituait déjà un défi, faire que son contenu soit choisi va relever de la gageure.
Les données de pré-entraînement seront aussi déterminantes. Les équipes du New York Times ont pu constater qu’elles pouvaient récupérer la totalité d’un article déjà publié en injectant dans le prompt la moitié ou les deux tiers du texte initial. Une capacité assez logique qui tient, selon Yann Guthmann, chef du service de l’économie numérique à l’Autorité de la Concurrence, à ce que les modèles de langage sont programmés pour « prédire la suite la plus probable ».
Il souligne cependant le « flou » qui entoure la situation actuelle. Les auteurs de l’exception de TDM (Text and Data Mining), adoptée en droit français à la suite de la directive européenne 2019/790 sur le droit d’auteur et les droits voisins, étaient loin d’imaginer ce que les moteurs d’IA seraient capables de faire. D’où la controverse actuelle entre défenseurs des modèles de langage, qui défendent que les données d’entraînement glanées dans les documents mis à disposition sur Internet entrent dans le cadre de l’exception de TDM alors que les éditeurs et les auteurs défendent la position opposée.
Trois questions à Eric Barbier, délégué syndical du Syndicat National des Journalistes de L’Est Républicain
Comment l’IA est-elle arrivée à L’Est Républicain ?
De novembre 2023 à février 2024, la direction de L’Est Républicain a lancé une expérimentation sur l’utilisation de l’intelligence artificielle générative au sein du secrétariat de rédaction. Quelques SR [secrétaires de rédaction] ont ainsi testé la version 3.8 de ChatGPT, gratuite, afin de réviser les textes envoyés par les correspondants locaux de presse. Initialement, il s’agissait de vérifier l’orthographe et la grammaire mais nous avons appris que les SR pouvaient aussi solliciter l’outil pour rédiger d’autres éléments comme les titres, intertitres, etc., et aussi réécrire des textes.
Comment ont réagi les représentants du personnel ?
Le CSE a demandé une expertise sur cette expérimentation qui a établi la rapidité de l’outil mais aussi identifié des problèmes tels que les « hallucinations », l’homogénéisation rédactionnelle, des pertes de sens des textes, et le risque de transgression du système par les SR qui, faute de temps, passeraient le texte à l’IA sans le lire, ce qui augmente les risques déjà mentionnés et dégraderait la qualité de l’information.
Quelles suites ont été données à cette expérimentation ?
Le CSE a émis un avis défavorable sur cette première expérimentation. La direction a lancé cet été d’autres expérimentations ailleurs dans des agences de la zone de diffusion avec une version payante de ChatGPT. Aucune date de fin de cette expérimentation n’a été précisée. Nous gardons un œil très attentif pour voir comment cela va évoluer. Les outils d’IA sont déjà utilisés pour compiler les résultats sportifs ou électoraux. Le Conseil de déontologie journalistique et de médiation a classé les usages de l’IA dans les médias en trois niveaux : à risque faible, modéré ou à proscrire. Selon l’expertise menée à L’Est Républicain, l’expérimentation est déjà classée entre le stade 2 et le stade 3.