B. UNE OPACITÉ DOMMAGEABLE
1. Une origine et une localisation opaque
TikTok a laissé sans réponse les interrogations du rapporteur à propos de l'algorithme, et, pour commencer, sur l'identité des personnes ou des sociétés à son origine.
Dans ses réponses écrites, TikTok se contente de donner quelques éléments sur la situation actuelle : les équipes « produit et ingénierie », situées dans le monde entier - notamment aux États Unis, en Europe, à Singapour et en Chine - « travaillent en continu à son développement et son évolution ». La réponse précise que l'algorithme de TikTok n'est pas développé ni modifié en France et qu'il n'y a pas d'algorithme ou de partie d'algorithme commun entre TikTok et Douyin. Les produits et les algorithmes sont développés par deux équipes distinctes. Comme tous les algorithmes de recommandation au monde, ajoute-t-il, il peut exister des similitudes, mais aucune donnée personnelle n'est partagée. Comme il a été indiqué ci-dessus, l'algorithme est très probablement géré en Chine.
2. Un fonctionnement tout aussi opaque
L'opacité de son algorithme a été citée par le président de l'UFC-Que Choisir comme constituant la singularité de TikTok.
Dans son analyse du premier rapport de TikTok relatif à la lutte contre la manipulation de l'information soumis au titre III de la loi du 22 décembre 2018 relative à la manipulation de l'information, l'Autorité de régulation de la communication audiovisuelle et numérique (ARCOM) a relevé, parmi d'autres lacunes, l'absence d'informations quant aux processus d'évaluation des algorithmes. Les explications de M. Éric Garandeau pour justifier cette absence d'information sont pour le moins spécieuses compte tenu du fait que la loi du 22 décembre 2018 a constitué un premier pas vers régulation des plateformes et de leurs systèmes algorithmiques : « TikTok était en train de se préparer à la mise en oeuvre du [RSN]156(*). Or, le [RSN] prévoit des obligations très précises de transparence et de communication de données. Ce travail évidemment était prioritaire ».
Or l'évaluation des algorithmes est devenue indispensable compte tenu de l'importance qu'ils prennent dans l'accès à l'information.
Ainsi que l'a rappelé M. Marc Faddoul, les algorithmes sont les gardiens de l'information en ligne. C'est le cas lorsque TikTok choisit les vidéos à présenter à l'utilisateur, avec le fil « Pour Toi » qui est l'interface principale de l'application. Selon lui, le rôle des algorithmes dans la distribution du contenu en ligne n'est pas nouveau, mais il s'est considérablement accru sur TikTok - ce qui a entrainé une prise de conscience de l'importance de l'algorithme et du fait qu'il est au centre de l'expérience utilisateur, tout en étant malheureusement opaque.
Mme Chine Labbé, rédactrice en chef de NewsGuard, a souligné quant à elle la responsabilité des algorithmes de TikTok s'agissant de la présence sur TikTok de contenus faux puisque ce sont eux qui déterminent quelles vidéos vont apparaitre dans le fil d'actualité et remonter dans la barre de recherche157(*), étant précisé que l'exposition à l'information ne se fait pas via des liens d'affinité personnelle, mais bien en fonction des recommandations de l'application.
Il existe actuellement une asymétrie d'information bien trop forte par rapport à ces plateformes sur la réalité de ce qu'elles font, selon Benoît Loutrel, membre de l'ARCOM, président du groupe de travail « Supervision des plateformes en ligne », qui oppose les « médias éditorialisés », pour lesquels la transparence est facile à exiger, aux « médias algorithmiques », qui traitent l'information à grande échelle et en individualisant le contenu, de sorte qu'il est difficile d'avoir une vue d'ensemble. Ainsi, chaque compte TikTok est le résultat d'une série de traitements algorithmiques individualisés à partir des informations qu'ils détiennent sur l'utilisateur et ne peut être comparé à celui du voisin.
M. Romain Badouard note qu'il manque en particulier des données sur le type de vidéos invisibilisées (ou objets de shadowbanning), le pourcentage de ces vidéos invisibilisées par rapport au volume total de vidéos, et les avertissements donnés aux utilisateurs en cas d'invisibilisation.
Quelle est la place des interventions manuelles ?
TikTok a indiqué dans ses réponses écrites que TikTok peut réduire la visibilité de certains types de contenus lorsque les circonstances le justifient.
Une intervention pour « pousser » les contenus et leur donner de la visibilité semble également possible. M. Marc Faddoul y a fait référence : une fuite récente d'un document interne de TikTok évoque une proportion de 1 à 2 % de vues faites sur des vidéos manuellement amplifiées - l'entreprise parle de heating -, pour mettre en avant des contenus jugés valorisants pour la plateforme et influencer « la culture » de l'algorithme158(*).
Mme Marlène Masure a reconnu que TikTok éditorialisait le contenu à l'échelle locale. Elle a cité l'exemple du festival de Cannes. Dans le cadre d'un partenariat avec cet évènement, TikTok a identifié les contenus les plus intéressants - c'est-à-dire qui « sont aimés par la communauté » - et les mettent en avant grâce à un logo « officiel ». La proportion de vidéos faisant ainsi l'objet d'une mise en avant éditoriale serait très faible selon elle : sur les sept derniers mois, seules 2 700 vidéos auraient été mises en avant par l'équipe française sur 2,5 millions de vidéos postées chaque jour sur TikTok.
Selon M. Eric Garandeau, la proportion de vidéos serait de l'ordre de 0,0006 %, sans préciser si cela représente le chiffre pour la France - où les équipes sont réduites et donc peu actives - ou au niveau mondial. Comme sur beaucoup d'autres sujets, cette information est trompeuse : le caractère « infinitésimal » de cette proportion, outre qu'il est invérifiable, ne reflète toutefois pas la réalité de cette éditorialisation : ainsi que l'a relevé le rapporteur, seul le nombre de vues réalisées sur les vidéos ainsi promues pourrait donner une idée de l'action de TikTok. La promotion de 2 700 vidéos peut tout aussi bien générer quelques centaines de millions ou millions de vues, au détriment des 2,5 millions autres vidéos.
M. Marc Faddoul a enfin relevé que l'algorithme TikTok est très sensible à la géolocalisation et ce, à deux niveaux : par les données GPS, qui lui fait diffuser du contenu très local, et la « nationalité ». Son association AI Forensics a comparé le contenu diffusé aux Russes et aux Ukrainiens depuis le début de la guerre. À la suite de l'entrée en vigueur de la loi russe sur la désinformation qui interdisait notamment l'utilisation du mot « guerre » pour parler de l'Ukraine, TikTok a décidé de modérer de manière grossière et de bannir tout contenu international pour les utilisateurs russes puisque l'essentiel des critiques vient de l'extérieur et qu'en Russie les utilisateurs s'expriment peu contre les autorités du fait des risques encourus. L'entreprise l'a fait de manière complètement opaque, sans même prévenir de cette nouvelle politique de modération. Ce tri est fait non pas en fonction de la seule adresse IP, mais aussi du lieu où le compte a été créé la première fois, démontrant que les plateformes choisissent les critères qui leur conviennent pour définir l'identité digitale des utilisateurs.
* 156 L'article 34 du règlement sur les services numériques (RSN) imposera aux fournisseurs de très grandes plateformes en ligne de recenser, analyser et évaluer de manière diligente tout risque systémique au sein de l'Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l'utilisation faite de leurs services.
* 157 Newsguard indique avoir posé de nombreuses questions à TikTok au sujet des algorithmes, notamment pour savoir si les algorithmes de recherche sont produits pour empêcher la promotion ou la valorisation de contenus faux. TikTok a envoyé en réponse un commentaire général sur leurs règles d'utilisation.
* 158 « TikTok's Secret `Heating' Button Can Make Anyone Go Viral », Emily Baker-White, Magazine Forbes, 20 janvier 2023.