Selon une étude menée en septembre par l’agence Oxygen auprès de 1 500 journalistes, l'intelligence artificielle n'est pas encore entrée dans les moeurs d'une majorité de professionnels de l'information, et les rédactions peinent à encadrer cette nouvelle technologie.
D'après les données fournies par l'agence de relations presse Oxygen, près de 52 % des journalistes français n'utilisent « pas du tout» l'IA pour rédiger leurs articles, plus de 64 % des rédactions n'ont aucune directive concernant son usage et près de 62% % estiment que cette technologie pourrait nuire à l’éthique journalistique.
Si les journalistes sont prudents vis-à-vis de l'IA, ceux qui l’utilisent l'emploient majoritairement de manière marginale (dans moins du quart de leurs productions). « Une adoption encore timide dans une profession où l’expertise humaine reste cruciale », note l'agence comptant près de 100 collaborateurs.
Concernant les usages, 18,5 % des journalistes l'utilisent pour l'analyse de données volumineuses, tandis que 17,3 % s’en servent pour la recherche et la vérification des faits. Cependant, la pratique pour la rédaction automatique reste marginale, avec seulement 11,1 % des journalistes concernés.
Ethique et fiabilité
La question éthique est au coeur des réflexions alors que des groupes comme Ebra (Dernières Nouvelles d'Alsace, L'Est Républicain..) ont publié une charte où ils s'engagent « à signaler clairement tous les contenus éditoriaux qui seraient produits par une intelligence artificielle ». 61,7 % des journalistes estiment que l’IA pourrait nuire à l’éthique journalistique, et 43,2 % déclarent avoir déjà rencontré des problèmes de fiabilité des informations générées par ces outils.
« Le CSE a demandé une expertise sur cette expérimentation qui a établi la rapidité de l’outil mais aussi identifié des problèmes tels que les « hallucinations », l’homogénéisation rédactionnelle, des pertes de sens des textes, et le risque de transgression du système par les SR qui, faute de temps, passeraient le texte à l’IA sans le lire, ce qui augmente les risques déjà mentionnés et dégraderait la qualité de l’information », a confié à Stratégies Eric Barbier, délégué national du SNJ de L'Est Républicain.
Les journalistes interrogés soulignent le besoin de mettre en place des garde-fous pour garantir une utilisation éthique de l’IA. Parmi les propositions, 43,21 % des répondants plaident pour un contrôle humain systématique des contenus générés par l'IA, tandis que 40,74 % insistent sur l'importance de former les journalistes aux limites et biais potentiels de ces outils.
Absence de lignes claires
L'étude révèle aussi l'absence de politiques claires autour de l’utilisation de l’IA dans les salles de rédaction. Selon 64,2 % des journalistes interrogés, leur rédaction n'a mis en place aucune directive concernant l’usage de ces outils, et seulement 8,6 % travaillent dans des rédactions ayant établi des politiques formelles.
« Le fait que si peu de rédactions aient pris l'initiative de créer des garde-fous autour de l'IA est préoccupant. En l’absence de lignes directrices, chaque journaliste est laissé à lui-même pour évaluer l’éthique et l’utilisation de ces outils, ce qui peut entraîner des dérives », remarque Alexis Noal, senior brand strategist chez Oxygen, dans un communiqué..
« Cette prudence des journalistes face à l'IA témoigne de la complexité de son intégration dans un métier où la créativité, l'éthique et la rigueur sont essentielles, commente-t-il. L’étude montre ainsi que, bien que certains usages de l’IA se développent, beaucoup de journalistes restent sceptiques quant à son potentiel à remplacer des tâches journalistiques clés.»
Crainte de fonctions journalistiques automatisées
Enfin, lorsqu'on leur demande de prédire l’impact de l’IA sur leur métier dans les cinq prochaines années, près de 47 % des journalistes estiment que l’IA entraînera une transformation modérée de la profession, tandis que 16 % s'attendent à une transformation radicale. Cependant, les craintes restent présentes, avec 50,6 % des répondants craignant que certaines fonctions journalistiques essentielles ne soient un jour automatisées.
Rappelons que Le Monde, qui dispose d'une charte d'utilisation de l'IA générative, a déjà signé un accord de partenariat avec ChatGPT pour l'utilisation de ses contenus au-delà du droit de citation. L'éditeur s'est ainsi donné la possibilité de diversifier et d'enrichir ses contenus via ce nouvel outil, mais aussi de les rendre dépendants à cette même technologie.
En décembre 2023, Axel Springer s’est associé à OpenAI, le créateur de ChatGPT, pour proposer l'aide de l'IA dans la fabrication des contenus de ses médias, Die Welt, Bild, Politico et Business Insider