C. DES MESURES PRISES PAR TIKTOK D'UNE EFFICACITÉ INCERTAINE OU CONTOURNÉES PAR LES UTILISATEURS
1. Des réponses peu convaincantes sur les bulles de filtres
Face aux critiques sur un algorithme qui conduit à enfermer les utilisateurs de TikTok dans leurs préférences, les réponses apportées par TikTok apparaissent en décalage.
M. Éric Garandeau, directeur des affaires publiques et des relations institutionnelles de TikTok en France, assure ainsi que l'application « n'enferme jamais les gens dans des bulles, ce qui serait très mauvais »220(*), alors même que le principe des bulles filtres est au coeur du modèle de l'application. Il précise même que « L'algorithme vise au contraire à stimuler l'utilisateur, en lui proposant des choses qui ne sont pas forcément dans ses préférences exprimées ou dans son historique de parcours sur l'application ».
TikTok assure que l'application « n'enferme jamais les gens dans des bulles, ce qui serait très mauvais », alors même que ce principe des bulles de filtres est au coeur de l'application.
Ainsi, plutôt que de détailler des mesures pour limiter les effets de ces bulles de filtre, TikTok préfère dénier leur existence même. M. Éric Garandeau indique seulement veiller « à ce que les personnes ayant tendance à aller vers des pratiques un peu extrêmes ne soient pas encouragés à le faire », sans apporter d'autres informations.
Alors que l'accès à l'algorithme de TikTok n'est pas aujourd'hui possible, TikTok, par la voix de son représentant, affirme que l'entreprise fera en sorte que « les algorithmes puissent être auditables ». « S'il y a des préoccupations légitimes sur le fait qu'ils puissent être biaisés ou manipulés », TikTok assure que ces audits permettront de « rassurer sur le fait qu'ils sont utilisés non pas pour développer de l'addiction ou de la toxicité, mais au contraire pour permettre à nos utilisateurs de s'épanouir, se divertir et s'instruire, et de communiquer les uns avec les autres dans un plein souci de la liberté d'expression ».
2. Un encadrement du temps d'écran peu crédible sur la base de décisions volontaires des utilisateurs
En 2022, les 4-18 ans passaient en moyenne près de deux heures par jour sur l'application. 40 % des 16-25 ans sont sur TikTok chaque jour221(*). Pour répondre à la problématique du temps d'écran, TikTok apporte des réponses nettement insuffisantes.
La solution principale proposée par l'application depuis le début de l'année 2023 passe par le déclenchement, pour les utilisateurs de moins de 18 ans, d'un message de signalement au bout de 60 minutes, suivi au bout de 100 minutes d'un deuxième message. TikTok se félicite de cette mesure, arguant que ¾ des moins de 18 ans font le choix de conserver cette fonctionnalité.
Ce dernier chiffre renseigne en réalité très peu sur l'efficacité du système. TikTok ne communique pas sur le nombre d'adolescents arrêtant l'application à la suite de ces messages, proportion qui permettrait d'évaluer le dispositif. Surtout, faire reposer le contrôle du temps d'écran sur des décisions volontaires d'adolescents, alors que le système même de l'application les pousse à y rester le plus longtemps possible, parait illusoire.
Une autre réponse, avancée par Mme Marlène Masure, directrice générale des opérations de TikTok en France, parait également en décalage. Affirmant que le sujet du bien-être numérique est important pour l'entreprise, elle précise qu'une des solutions consiste « à s'assurer de créer du contenu, à l'échelle de la France, le plus qualitatif possible »222(*).
Les temps excessifs passés sur l'application ne poseraient ainsi pas de problème, tant que des contenus culturels (dont la proportion n'est pas connue) y figureraient. Malgré des relances, TikTok n'a pas su fournir à la commission d'enquête, à titre d'exemple, la part de visionnages des vidéos BookTok dans le total des visionnages sur l'application en France - si tant est que les vidéos BookTok puissent être considérées comme du contenu de qualité, ce que des éléments récents permettent de fortement mettre en doute223(*).
3. Le contrôle parental : une solution qui renforce les inégalités
Pour assurer que l'utilisation de TikTok ne soit pas trop intensive, l'entreprise avance également des mesures de contrôle parental.
En réponse aux questionnaires, TikTok indique que « TikTok propose également le mode de Connexion Famille, qui permet aux parents et aux adolescents de personnaliser leurs paramètres de sécurité en fonction de leurs besoins individuels, ce qui aide les parents à guider l'expérience en ligne de leur adolescent tout en leur laissant le temps de l'éduquer à la sécurité en ligne et à la citoyenneté numérique ».
Le recours au contrôle parental pour limiter les temps d'utilisation risque cependant de creuser des inégalités. Comme l'a rappelé le rapporteur lors de l'audition des représentants de TikTok, « les parents CSP+ contrôlent bien plus les applications de leurs enfants - à commencer d'ailleurs par les responsables des grandes plateformes » puisqu'ils ont en général davantage de moyens et de temps pour le faire que d'autres catégories sociales. « En introduisant le contrôle parental comme solution, vous introduisez une discrimination sociale (...) Tant qu'il n'y aura pas une « Protection by Design » de l'application sur le temps d'utilisation, tout le reste, excusez-moi, n'est pas sérieux ».
M. Thomas Rohmer, président de l'OPEN, note ainsi, que « s'agissant du contrôle parental, nous constatons qu'il est insuffisamment utilisé en France : un peu moins de 4 familles sur dix installent un logiciel de contrôle parental ». Selon lui, trop de « fausses promesses » ont été faites « aux parents lors de lors des précédentes campagnes de déploiement de ces outils, en leur faisant croire qu'ils disposaient là d'une solution miracle ». Par ailleurs, il souligne que « grâce aux tutoriels disponibles, il est extrêmement facile pour les enfants de désactiver le contrôle parental ». L'OPEN entend ainsi adopter un principe de réalité et explique aux parents que, dès lors que les enfants atteignent l'âge de 10 ou 11 ans, l'efficience du contrôle parental devient « une sorte de mythe ».
4. Un contrôle d'âge déficient
a) Un contrôle se résumant essentiellement au repérage des comptes suspects
Application massivement plébiscitée par les jeunes, TikTok est en principe interdite aux enfants de moins de 13 ans. Cette interdiction apparait bien faiblement respectée puisque 44 % des jeunes âgées de 11 à 12 ans sont inscrits sur TikTok224(*). Le renseignement de l'âge sur TikTok étant uniquement déclaratif, l'interdiction aux mineurs de moins de 13 ans est en effet facile à contourner.
Pour répondre à cette difficulté, TikTok compte sur le repérage des comptes suspects. Les comptes soupçonnés d'être détenus par des mineurs de moins de 13 ans sont supprimés. En réponse aux questionnaires de la commission d'enquête, TikTok détaille sa méthode pour repérer ces comptes. L'application « forme une équipe de modération chargée de la sécurité à être attentive aux signes indiquant qu'un compte peut appartenir à un jeune de moins de 13 ans. La plateforme utilise également d'autres méthodes, notamment des "mots-clés" et des signalements internes à l'application de la part de notre communauté, pour aider TikTok à repérer les comptes de mineurs potentiels ».
Au niveau mondial, TikTok dans ses rapports de transparence, souligne qu'entre octobre et décembre 2022, plus de 75 millions de comptes ont été supprimés. Près de 18 millions de ces suppressions (soit le quart) étaient des retraits de comptes suspectés d'être détenus par des mineurs de moins de 13 ans.
TikTok assure par ailleurs que l'inscription sur l'application est impossible pendant plusieurs heures, dans le cas où une date de naissance ne respectant pas la limite des 13 ans aurait initialement été renseignée. La CNIL indique ainsi qu' « après avoir été bloqués parce que nous avions indiqué que nous avions douze ans, nous avons ensuite entré une date de naissance en 1978 (...) et nous avons encore été bloqués. En effet, TikTok vous bloque si vous rentrez deux dates de naissance différentes dans la même heure »225(*). Avertis de l'interdiction faite aux mineurs de moins de 13 ans, les enfants n'ont donc qu'à veiller à renseigner une date erronée, ce qui ne parait guère compliqué... Cette garantie n'en est pas une.
Source : ARCOM, réponse au questionnaire de la commission
b) Un système de vérification d'âge à mettre en place par TikTok, en suivant les recommandations de la CNIL
Les outils utilisés par TikTok pour contrôler l'âge - qui reposent essentiellement sur les repérages de comptes - ne paraissent pas satisfaisants, preuve en est la proportion croissante de mineurs de moins de 13 ans présents sur l'application. L'ARCOM, dans ses réponses au questionnaire envoyé par la commission d'enquête, notait même que 63 % des Français de 12 ans étaient inscrits sur l'application, y passant en moyenne 35 heures par mois, soit en moyenne plus que les utilisateurs de 15 ans.
Le règlement sur les services numériques (RSN) ne prévoit pas explicitement d'obligation de vérification d'âge pour les plateformes. Il le mentionne seulement comme mesure possible que les plateformes peuvent prendre pour limiter les risques systémiques qu'elles font peser sur le bien-être et la santé de leurs utilisateurs.
Cependant, une proposition de loi226(*), adoptée à l'Assemblée nationale et au Sénat, vise à instaurer une majorité numérique à 15 ans et appelle à la mise en place de systèmes de vérification d'âge par les plateformes. À partir de 15 ans, l'adolescent atteindrait ainsi cette majorité numérique, l'accord des parents n'étant plus requis pour s'inscrire sur des réseaux sociaux. Entre 13 et 14 ans, l'inscription serait possible, avec l'accord des parents. En dessous de 13 ans en revanche, l'inscription avec l'accord des parents ne pourrait se faire que sur des réseaux sociaux labellisés.
La mise en place de ce dispositif suppose la création d'un dispositif technique de vérification. Plusieurs solutions sont possibles ; elles ont été examinées par la CNIL dans le cadre d'un document de synthèse précisant sa position sur le contrôle de l'âge sur Internet227(*). Elles peuvent ainsi passer par la vérification de l'âge par validation de la carte de paiement ou encore par estimation sur la base d'une analyse faciale.
La CNIL insiste, quel que soit le système retenu, sur l'importance de recourir à un tiers vérificateur indépendant pour protéger au mieux les données personnelles, sur le modèle de ce qui est envisagé pour l'accès aux sites pornographiques. Un prestataire externe délivrerait ainsi une preuve anonyme de majorité. Comme le souligne le ministre du numérique et des télécommunications M. Jean-Noël Barrot, « le cadre juridique existe ; les solutions techniques doivent être développées le plus vite possible, pour garantir à la fois la fiabilité du contrôle d'âge et la protection des données personnelles et de la vie privée »228(*).
Le manque actuel de solution technique optimale ne doit cependant pas exonérer les plateformes, et singulièrement TikTok, de leurs responsabilités. Le président de la commission d'enquête, Mickaël Vallet, a insisté sur ce point devant les représentants de TikTok : « Sur la vérification de l'âge, c'est à la plateforme de prouver qu'elle respecte le droit. Ce n'est pas l'ARCOM qui paiera des ingénieurs pour vous proposer des solutions » 229(*).
* 220 Audition Eric Garandeau, 8 mai 2023.
* 221 Qustodio, From Alpha to Z : raising the digital generations, Annual Data report 2022.
* 222 Audition Marlène Masure, 8 juin 2023.
* 223Cf. Libération, “La dark romance sur Booktok, sexisme d'un nouveau genre », 10 juin 2023.
* 224 Heaven, étude Born Social 2022.
* 225 Audition CNIL, 2 avril 2023.
* 226 Proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne, adoptée par l'Assemblée nationale à l'initiative de Laurent Marcangeli.
* 227 CNIL, Vérification de l'âge en ligne : trouver l'équilibre entre protection des mineurs et respect de la vie privée, 26 juillet 2022.
* 228 Audition Jean-Noël Barrot, 19 juin 2023.
* 229 Audition Marlène Masure, 8 juin 2023.