Les bots d’OpenAI ou de Google qui scannent les sites pour concevoir des réponses pertinentes risquent de faire directement concurrence aux éditeurs de médias.

Au nom d’un « usage raisonné de l’intelligence artificielle », Sibyle Veil, PDG de Radio France, a bloqué cet été le robot d’OpenAI pour empêcher « le pillage sans autorisation des contenus ». Lors de sa conférence de rentrée, le 28 août, elle a précisé que ces technologies d’IA que l’on retrouve aussi bien sur ChatGPT que sur Bard de Google vont « certes révolutionner nos métiers mais ils ne vont pas enlever ce qu’il a le plus d’humain, à savoir de créer et de générer de la confiance ».

Le 30, Thierry Thuillier, directeur général adjoint en charge de l’info du groupe TF1, a à son tour préconisé, loin de toute « ligne Maginot », une « IA régulée pour permettre à nos rédactions de continuer à travailler ». « Il est hors de question qu’on puisse se servir sans contrepartie du travail de nos journalistes, a-t-il complété. Il est normal qu’il y ait, comme pour les Gafam, une rétribution. C’est important que nous discutions avec ceux qui génèrent l’IA pour qu’il y ait une monnaie d’échange. »

Bras de fer

À l’instar du New York Times, du Guardian, de CNN, de Disney, de Bloomberg ou d’AP, de nombreux médias français sont ainsi engagés dans un bras de fer avec les géants de la tech pour faire en sorte qu’ils n’entraînent pas sans accord de licence leur modèle d’IA à partir des contenus de leurs sites d’actualité. Un enjeu d’autant plus crucial que les outils conversationnels vont être intégrés dans les moteurs de recherche qui apportent du trafic aux sites de presse et que leur nouvelle frontière consiste de plus en plus à apporter des réponses ajustées en fonction des dernières actualités.

Comme France Médias Monde, France Télévisions a procédé au « blocage conservatoire » des robots sur le site de Franceinfo afin d’éviter toute aspiration de contenus. L’idée est bien sûr de faire respecter la propriété intellectuelle mais sans se couper des opportunités qu’offrent ces technologies. « On va jouer la prudence, précise Eric Scherer, directeur de l’innovation et de la prospective du groupe, ce peut être une aide aux journalistes à condition de contrôler en amont et en aval, il n’est pas question que la machine publie elle-même ». L’homme imagine une base de données avec les contenus vérifiés du groupe qui pourrait être proposée au public.

Empêcher la désinformation

En l’absence de traçabilité des textes (à la différence des photos et des vidéos qui ont des empreintes numériques), il importe aussi d’empêcher tout usage au service de la désinformation. « Il est indispensable que les plateformes sourcent tous les médias sous peine de porter atteinte à la neutralité et de favoriser une manipulation de l’information », estime Bertrand Gié, président du Geste et directeur du pôle news du groupe Figaro.

Pour lui, il faut bien sûr « rémunérer les médias de façon équitable » - selon des modalités qui restent à préciser - mais aussi « donner des outils législatifs et de mesure ». S’agissant de cette nouvelle forme d’exploitation, la loi ne peut plus retenir la fouille de données comme une exception à la directive de 2019 sur le droit d’auteur et le droit voisin. C’est aussi ce qu’entend faire valoir la SACD qui réclame une « obligation d’information » sur les œuvres créées par l’IA avec la possibilité pour les ayants droit d’interdire l’accès ou de concéder une licence d’exploitation.

Lire aussi :