Avec le Digital Services Act et bientôt l’European Media Freedom Act, la Commission européenne se dote d’un arsenal réglementaire qui va modifier les relations entre les plateformes, les médias et leurs actionnaires.
Le texte entre en vigueur à la mi-novembre et sera applicable dès 2023. Le DSA (Digital Services Act) va changer la nature des rapports entre les grands moteurs de recherche et plateformes en ligne avec les producteurs de contenus. Comme dit Thierry Breton, le commissaire européen au marché intérieur, il s’agit de « rendre illégal en ligne ce qui est illégal hors ligne ». Elon Musk a été prévenu : pas question donc de modérer a minima en Europe. Le texte vise à protéger l’internaute contre les atteintes à la dignité ou aux mineurs, les contrefaçons ou les biais discriminatoires, mais aussi à défendre les citoyens contre la désinformation, les déstabilisations électorales ou la haine en ligne. « Le DSA ménage un équilibre entre, d’une part, la protection des publics et l’intégrité des démocraties et, d’autre part, la liberté d’expression », relève l’Arcom.
Concrètement, les internautes devront se voir proposer un outil pour signaler un contenu illicite à un intermédiaire de confiance et les plateformes devront rapidement le bloquer. Ces dernières devront rendre leurs décisions de modération plus transparentes, en donnant aux utilisateurs, dont le compte est suspendu, la possibilité de le contester. Elles devront expliquer le fonctionnement de leurs algorithmes pour recommander des contenus publicitaires et proposer un système de recommandation non fondé sur le profil des internautes. Elles auront à fournir les algorithmes de leurs interfaces à la Commission, aux autorités nationales et, pour les données clés, aux chercheurs. En cas de non-respect de ce DSA, les géants du web pourront se voir infliger des amendes allant jusqu’à 6% de leur chiffre d’affaires.
Lire aussi : Les pubs que vous pourrez masquer avec le prochain outil Google
Côté Media Freedom Act, qui a été proposé en septembre par Bruxelles mais reste encore soumis à la discussion, l’idée est d’obliger les plateformes à le notifier auprès des médias quand elles retirent leurs contenus. Il s’agit aussi de lutter contre l’ingérence politique des gouvernements dans les médias, comme on a pu le voir en Hongrie ou en Pologne. Et de protéger l’indépendance des journalistes contre la concentration et l’influence des actionnaires observé dans une vingtaine de pays.
Cela n’est pas du goût des associations d’éditeurs de presse qui craignent qu’en laissant au seul rédacteur en chef la responsabilité éditoriale, cela vienne en contradiction avec la responsabilité pénale de l’éditeur. « On trouve cela un peu inquiétant, observe Pierre Petillault, directeur général de l’Alliance de la presse d’information générale, cela revient à enlever au directeur de la publication toute possibilité d’intervenir ». L’Alliance milite donc pour l’extension au « publisher » des droits incombant à l’« editor in chief ». Elle voit aussi comme « liberticide » l’intervention d’un régulateur administratif dans les affaires de presse. Et se méfie d’un code renforcé sur la désinformation qui entérine la régulation des contenus par les plateformes elles-mêmes : « Facebook pourra censurer les contenus dès lors qu’il respecte des voies de recours extra-judiciaires. On est en train d’évacuer les tribunaux des plateformes au profit de la censure algorithmique », conclut Pierre Petillault.