L’application TikTok, souvent critiquée pour l’opacité de son fonctionnement, a annoncé jeudi le lancement en Europe d’outils de transparence à destination notamment des chercheurs et régulateurs, une disposition désormais obligatoire pour les grandes plateformes numériques.
Le réseau social TikTok va ouvrir une interface technique à destination des chercheurs, afin de « faciliter les recherches indépendantes sur la plateforme et d’apporter de la transparence au contenu TikTok », selon un communiqué. À l’instar de Facebook ou de YouTube, l’application chinoise ouvre également sa « bibliothèque de contenu commercial », qui liste les publicités et autres contenus commerciaux, notamment les partenariats rémunérés avec des influenceurs, diffusés sur la plateforme.
Aux États-Unis où cette fonctionnalité est en place depuis le début de l’année, la plateforme a reçu « plus de 60 demandes de chercheurs universitaires américains, sur des sujets liés aux tendances de consommation, à la désinformation, à la santé mentale, etc.. », ajoute-t-elle, sans toutefois préciser si ces demandes ont été acceptées.
Le commissaire européen Thierry Breton a demandé mercredi au réseau social « d’accélérer » son travail pour respecter les nouvelles règles de l’Union européenne contre la désinformation et la haine en ligne. Ce règlement historique (DSA) est entré en vigueur mi-novembre, mais les entreprises ont jusqu’au 25 août pour se mettre en conformité.
Des efforts supplémentaires
Parmi ces entreprises, dix-neuf très grandes plateformes en ligne, incluant Twitter, TikTok et les principaux services d’Amazon, Apple, Google, Meta et Microsoft, seront soumises à des contrôles renforcés. Les résultats du « test » de conformité mené lundi au siège européen du groupe à Dublin, montrent que « des efforts supplémentaires sont nécessaires afin d’être totalement prêt » pour le 25 août, a commenté Thierry Breton, chargé de la régulation du numérique au sein de l’exécutif européen.
Les contraintes imposées aux entreprises par le DSA incluent l’obligation de procéder à une analyse des risques liés à leurs services en matière de contenus illégaux, d’atteinte à la vie privée ou à la liberté d’expression, mais aussi en matière de sécurité publique. Des moyens adéquats, notamment dans la modération de contenus, doivent être mis en œuvre pour atténuer ces risques, et un accès aux algorithmes devra être accordé aux experts de Bruxelles.
Le DSA comprend aussi des interdictions, comme celles d’exploiter les données « sensibles » des utilisateurs (genre, tendance politique, appartenance religieuse) pour de la publicité ciblée et des obligations de transparence, comme la publication des principaux paramètres utilisés par les systèmes de recommandation.