Lundi 15 mai 2023
- Présidence de M. Mickaël Vallet, président -
La réunion est ouverte à 15 h 00.
Audition de Mmes Sabine Duflo, psychologue clinicienne, et Servane Mouton, neurologue
M. Mickaël Vallet, président. - Nous poursuivons cet après-midi nos auditions avec Mmes Sabine Duflo, psychologue clinicienne et Servane Mouton, neurologue.
Madame Servane Mouton, vous avez coordonné l'ouvrage Humanité et numérique - Les liaisons dangereuses, paru il y a un mois. Rassemblant les contributions de plusieurs experts partageant leurs connaissances et leurs expériences de terrain, vous insistez sur les effets délétères potentiels des réseaux sociaux : conséquences sur le neuro-développement et sur le fonctionnement cognitif de l'enfant et de l'adolescent, sur le sommeil, sur la sédentarité, sur la santé psychologique et sociale, entre autres.
Madame Duflo, vous travaillez en tant que psychologue clinicienne auprès d'enfants et de leurs familles au sein d'un centre médico-social. Vous dispensez des formations à l'usage raisonné des écrans chez l'enfant et l'adolescent. Vos conseils ont notamment pris la forme de la méthode des « 4 pas » : pas d'écran le matin, pas pendant les repas, pas dans la chambre de l'enfant et pas avant de se coucher.
Tout l'enjeu de cette audition est de déterminer si TikTok radicalise les effets déjà connus des autres réseaux. Y a-t-il une spécificité propre à cette application, qui serait liée, d'une part, au produit lui-même avec un algorithme très efficace, et, d'autre part, à l'utilisation intensive et à la jeunesse des utilisateurs ?
Nous aimerions aussi connaître vos recommandations en matière d'éducation au numérique, alors que les parents et les professionnels au contact d'enfants restent souvent démunis face au temps croissant passé par les adolescents sur les réseaux sociaux, en particulier sur TikTok.
Je rappelle que cette audition fait l'objet d'une captation et qu'elle est retransmise en direct sur le site du Sénat.
Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.
Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.
Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».
Conformément à la procédure applicable aux commissions d'enquête, Mme Sabinet Duflo et Mme Servane Mouton prêtent serment.
Mme Sabine Duflo, psychologue clinicienne. - Je suis psychologue pour enfants et adolescents et thérapeute familial systémique : je reçois toujours mon patient en le considérant comme le résultat des interactions avec son environnement. Le cas échéant, j'essaie de modifier cet environnement afin de produire un changement positif chez l'enfant ou l'adolescent.
Hier, l'environnement du jeune se résumait à sa famille et à son école ; aujourd'hui, ce sont les écrans, notamment son téléphone portable, qui peuplent son quotidien. Les chiffres de l'exposition aux écrans sont vertigineux. Selon une étude américaine publiée en 2020, les enfants âgés de 8 à 12 ans y passent quatre heures et quarante-quatre minutes par jour, contre plus de huit heures pour les 15-18 ans. Selon une étude de l'Ipsos, commandée par l'Union nationale des associations familiales (Unaf) et l'observatoire de la parentalité et de l'éducation numérique (Open), les 7-10 ans passent quatre heures et quarante-deux minutes par jour devant leurs écrans, contre dix heures et trente-huit minutes par jour pour les 15-17 ans. Ces chiffres impressionnants s'expliquent par le fait que les enfants regardent plusieurs écrans à la fois.
Je travaille comme psychologue dans la fonction publique hospitalière ; j'y ai fait toute ma carrière. Entre septembre 2020 et décembre 2022, j'ai exercé dans une unité accueillant des adolescents en situation de crise qui exigeait une hospitalisation à temps complet. La durée moyenne du séjour est de trois semaines ; les adolescents partent non pas parce qu'ils sont guéris, mais parce qu'il faut libérer la place pour en admettre un autre qui va plus mal encore. Telle est la réalité de la situation en psychiatrie et en pédopsychiatrie. L'unité pourra prochainement accueillir 12 adolescents : c'est largement insuffisant ; de plus, on ne trouve pas de médecins.
Durant cette période, j'ai reçu entre 80 et 100 adolescents âgés entre 11 et 17 ans, avec 7 filles pour 1 ou 2 garçons. Les motifs d'hospitalisation étaient les suivants : des troubles anxieux massifs et des troubles du comportement, prenant la forme d'une hétéroagressivité et, beaucoup plus fréquemment, d'une autoagression, c'est-à-dire des mutilations, des scarifications et des tentatives de suicide par médicaments, parfois par défenestration.
Durant cette période, j'ai observé une augmentation importante du flux des hospitalisations. Je ne dispose pas de chiffres exacts, mais, selon le dernier rapport du Haut Conseil de la famille, de l'enfance et de l'âge (HCFEA), on compte plus de 40 admissions pour tentatives de suicide par bimestre à l'hôpital Robert-Debré depuis 2021 ; c'est deux fois plus qu'avant l'année 2020 et quatre fois plus que durant la période 2011-2017. Selon le docteur Charles-Édouard Notredame du service de psychiatrie de l'enfant et de l'adolescent du centre hospitalier universitaire (CHU) de Lille, les chiffres ont littéralement explosé depuis 2019, avec une augmentation du passage aux urgences de plus de 126 % pour des idées suicidaires chez les 11-17 ans et une augmentation de 30 % des tentatives de suicide.
Trois jours par semaine, j'ai reçu dans mon bureau des adolescents et leurs familles. Certains avaient des parcours de vie chaotiques, mais d'autres menaient une vie normale jusqu'alors. J'ai cherché à comprendre les raisons pouvant expliquer de tels comportements. J'ai alors constaté que l'achat d'un téléphone portable connecté avait généralement précédé de six mois à un an l'arrivée des idées noires.
Je suis en mesure de dresser un portrait-robot d'une adolescente de cette unité ou plutôt d'établir la synthèse des rendez-vous avec plusieurs patientes, qui, auparavant, avaient un parcours de vie simple - je mets de côté les jeunes qui ont déjà vécu des traumatismes. J'appellerai cette adolescente Laura. Laura a toujours été une enfant solitaire et peu à l'aise avec les groupes. Elle est en classe de cinquième et vit seule avec sa mère et son grand frère Lucas. Sa mère, Manon, est aide-soignante et son père est chauffeur. Ils ont toujours limité le temps passé devant la télévision et sur internet - ce sont des règles utiles. Ses parents se sont séparés quand elle avait 9 ans.
En CM1, elle a commencé à se faire harceler par un groupe de filles, sous prétexte que sa mère était venue la chercher à l'école avec un nouveau compagnon. Ces filles, qui avaient déjà un téléphone portable, discutaient entre elles sur les réseaux sociaux. Laura avait peur à l'école, mais se sentait en sécurité chez elle. En CM2, elle s'est mise à penser très fort à la sixième, car elle entendait ce que les autres enfants racontaient du collège, fait de clans, de groupes et d'exclus, les « sans-amis ». Elle a commencé à stresser et a dit à ses parents qu'elle souhaitait avoir un portable, un objet qui permet d'être à peu près admis au collège. Sa mère n'est pas d'accord, mais son père lui a malgré tout acheté un téléphone.
En sixième, Laura découvre un monde nouveau, où les filles et les garçons sont encore plus séparés qu'avant et où les filles parlent entre elles des séries vues sur Netflix et des influenceurs suivis sur les réseaux sociaux. Laura se sent très seule : cet univers n'est pas le sien. Elle voudrait tellement pouvoir rentrer dans leur cercle. Elle se sent mal à l'aise dans son corps, elle a eu ses premières règles cet été. Les garçons lui font des remarques pesantes : elle se sent de plus en plus mal. Elle décide alors de télécharger plusieurs applications, Snapchat, Instagram et TikTok, qu'au départ elle consulte sans jamais rien publier - ce sont toujours les mêmes que l'on retrouve chez nos patients. Elle découvre alors des filles qui déclarent se sentir différentes des autres. Elle ressent un grand soulagement dans un premier temps. Elle s'abonne rapidement au compte d'une fille qu'elle trouve belle et qui affirme être harcelée au collège.
En cinquième, Laura commence à s'habiller en noir et à acheter des mitaines et des bas résille pour lui ressembler. Alors qu'elle pratique cette activité depuis six ans, elle refuse de s'inscrire aux cours de danse - l'abandon des activités extrascolaires est un signe très révélateur. Surprise, Manon cherche à comprendre, mais Laura lui répond chaque fois si sèchement qu'elle préfère ne rien dire.
Sur les réseaux, des filles présentent les scarifications comme une solution géniale pour diminuer le stress. Un soir de décembre, Laura rentre du collège encore plus mal que les fois précédentes, car un garçon lui a touché les seins en la traitant de pute. Elle se regarde dans le miroir et elle se dit que le garçon a raison. Vite, elle prend un cutter dans la boîte à outils. Elle s'entaille légèrement l'avant-bras, elle voit le sang couler et cela la soulage immédiatement : les filles sur les réseaux n'ont pas menti. Elle pense avoir trouvé la solution : désormais, pour moins souffrir de l'isolement et de sa détestation d'elle-même, elle aura recours au cutter. Après avoir créé son propre compte sur les réseaux sociaux, elle publie des photos d'elle-même, maquillée et vêtue de noir : elle danse tout en exhibant ses scarifications. Elle reçoit aussitôt de nombreux commentaires positifs et des like. Pour la première fois, elle est devenue quelqu'un d'intéressant : jamais elle ne s'est sentie aussi bien.
Un soir, en faisant la lessive, sa mère découvre des taches de sang sur les manches du pull de Laura. Jusqu'à présent, elle n'avait pas voulu y prêter attention. De plus, il est tellement difficile de parler à sa fille désormais. Pourtant, ce jour-là, elle décide de lui parler. Laura se braque immédiatement, Manon lui répond qu'elle est sa mère et qu'elle doit savoir. Alors, Laura lui rétorque qu'elle n'est que sa génitrice - un terme très fréquent sur les réseaux sociaux. Sa mère ne se laisse pas démonter, elle s'empare du téléphone de sa fille et lui dit qu'elle ne le lui rendra pas avant qu'elle lui ait montré son buste. Après de nombreux hurlements, Laura enlève son tee-shirt et Manon découvre alors de nombreuses scarifications.
Tels sont exactement les discours que j'ai entendus pendant un an. Ces jeunes n'appartiennent pas nécessairement à des familles aux histoires compliquées.
J'évoquerai dans un second temps des études montrant pourquoi les réseaux sociaux pouvaient constituer un vecteur de bascule pour les jeunes filles souffrant d'un grand mal-être.
Mme Servane Mouton, neurologue. - Je suis neurologue pour adultes et je m'intéresse à la question des écrans depuis plusieurs années.
Il est difficile d'individualiser l'utilisation des réseaux sociaux. Comme l'a souligné Mme Duflo, l'usage des écrans va au-delà de la simple utilisation des réseaux sociaux : il est difficile d'individualiser leur utilisation. On peut toutefois opérer une distinction entre les contenus que les adolescents trouveront sur leurs écrans et les outils numériques eux-mêmes, à l'origine de sédentarité, de risques cardiovasculaires et de troubles du sommeil, entre autres.
Les contenus sur les réseaux sociaux sont très variés. L'effort de régulation des plateformes doit être souligné, mais il n'est pas très efficace : par exemple, 87% des jeunes âgés de 11 à 12 ans sont sur TikTok, alors que le réseau social est en principe interdit aux moins de 13 ans ; cette barrière n'est clairement pas respectée.
J'en viens au problème de fond des réseaux sociaux. Ce sont avant tout des plateformes qui doivent rapporter de l'argent à leurs gérants et à leurs fondateurs, sans se préoccuper du bien-être de leurs usagers. Tout est permis, y compris au détriment de la santé des utilisateurs, notamment les plus jeunes.
Les réseaux sociaux ont pour but de maintenir l'usager le plus longtemps possible sur leur application et de la faire venir le plus souvent possible. TikTok n'a pas fait l'objet d'une étude à part entière, mais on peut extrapoler à partir des constats opérés sur les autres réseaux sociaux : l'algorithme renvoie à l'usager un moi virtuel, un mini-moi, qui aboutit rapidement à la création d'une bulle de filtres, c'est-à-dire un prisme très focalisé sur certains sujets. Une gamine regardant des vidéos de scarification peut vite être enfermée dans une logique morbide, comme le décrivait Mme Duflo.
Comme sur d'autres applications, le défilement infini des contenus augmente la durée d'utilisation de l'usager. En outre, TikTok, dont les bénéfices ont explosé en seulement cinq années d'existence, a créé un système incroyable : on peut acheter des gratifications en ligne en vue de les attribuer à d'autres usagers. C'est un véritable commerce.
En outre, les influenceurs passent des contrats avec des marques, lorsqu'ils ont plus de 1 000 abonnés. Il en va de même sur Instagram : les ventes se font de façon subtile. Des sites internet expliquent comment faire de l'argent sur les réseaux sociaux. À cet égard, TikTok est efficace, car les vidéos qui y sont diffusées sont très brèves, avec une stimulation répétée très intense. Or le cerveau est avide de nouveauté : il est alors facile de capter l'attention. Telle est l'une des spécificités de TikTok.
De plus, nous avons tous besoin d'être liés aux autres, de ressentir que l'on fait partie d'un groupe et de disposer de sécurité affective - même si celle-ci est virtuelle. D'autres théories sont davantage liées à l'autodétermination et à l'influence sociale que l'on peut exercer sur autrui : il est valorisant de constater que d'autres apprécient nos vidéos.
En outre, l'effet de groupe peut avoir une influence importante sur l'individu. Les jeunes filles qui se scarifient ou qui souffrent d'anorexie sont heureuses de se retrouver dans un groupe de personnes aux pratiques semblables : cela leur apporte du bien-être.
Les contenus publicitaires - déguisés ou non - représentent un autre volet des problèmes liés aux écrans : les mineurs sont exposés à des produits néfastes pour la santé, notamment les aliments gras, l'alcool, le tabac, les e-cigarettes, entre autres. Il est très difficile de réguler leur présence sur les applications, si tant est que les gestionnaires de plateforme aient réellement la volonté d'agir.
M. Claude Malhuret, rapporteur. - Merci pour vos exposés précis et clairs.
Madame Duflo, à quoi attribuer la responsabilité des troubles anxieux dont souffrent les adolescents que vous rencontrez ? S'agit-il d'une addiction aux réseaux sociaux ? Pensez-vous que ces jeunes viendraient vous consulter en l'absence de ces applications ? Des enfants souffraient de mal-être bien avant l'irruption des réseaux sociaux. Quel est leur effet spécifique ? Quelle est la proportion d'adolescents souffrant de troubles graves parmi les 15 millions d'utilisateurs de ces réseaux ?
Nous avons auditionné d'autres spécialistes : ils n'ont pas un jugement aussi tranché que le vôtre. La semaine dernière, une psychologue comparait les réseaux sociaux au pharmakon grec, qui pouvait avoir un effet positif ou négatif, selon les cas. Pouvez-vous nous citer les études allant à l'appui de votre témoignage ?
Mme Sabine Duflo. - Les jeunes dont je parle passent entre cinq et huit heures devant les écrans, la situation s'étant aggravée depuis la pandémie. L'adolescence est une période de transition et donc de fragilité, dont l'enjeu repose sur la construction d'un moi social et sur la reconnaissance par le groupe social. Autrefois, les jeunes se retrouvaient pour jouer au football, par exemple, et c'est dans ce cadre qu'ils construisaient leur moi social et recueillaient l'approbation de leurs pairs ; désormais, ils sortent peu, tout se passe sur les réseaux sociaux et la reconnaissance se fait sur leur image plutôt que sur des valeurs partagées.
Si vous interrogez certains de mes collègues sur le sujet, il est important de commencer par leur demander s'ils reçoivent régulièrement des enfants et des adolescents en consultation en leur faisant préciser leur âge. Ensuite, il faut qu'ils aient posé toutes les questions nécessaires pour se faire une idée précise du temps que les enfants ou les adolescents qu'ils reçoivent passent devant les écrans et des contenus qu'ils regardent. Si l'on prend en compte tous ces critères, on ne peut qu'aboutir aux chiffres que je vous ai donnés, à savoir qu'un adolescent passe aujourd'hui six à sept heures par jour devant les écrans.
Sur le terrain, on observe que les écrans ont un effet nocif sur le sommeil, qu'il s'agisse de difficultés à s'endormir ou de réveils nocturnes, d'où résultent des problèmes d'attention et des difficultés d'apprentissage.
M. Mickaël Vallet, président. - Toutes les études quantitatives - nous l'avons constaté lors des auditions de la semaine dernière - arrivent à la conclusion que les écrans provoquent des problèmes de sommeil.
Mme Sabine Duflo. - Le deuxième trouble qui touche les adolescents qui regardent trop les écrans porte sur l'attention : ils n'arrivent plus à comprendre ce qu'on leur enseigne en classe. En effet, les contenus diffusés sur TikTok ou Youtube sont de format très court, car il s'agit de capter l'attention et de la relancer constamment. Or cela nuit à la mise en place d'une attention volontaire, c'est-à-dire la capacité à se concentrer sur quelque chose qui bouge peu - un livre ou un professeur qui enseigne -, indispensable aux apprentissages.
Un autre type de trouble que j'ai pu constater est lié à l'anxiété et prend la forme de comportements dépressifs, voire suicidaires. En effet, les contenus visionnés peuvent donner, en particulier aux jeunes filles, une mauvaise image ou une mauvaise estime d'elles-mêmes. En outre, à force de regarder les écrans, les jeunes finissent par prendre du retard dans leurs apprentissages, n'arrivent plus à se concentrer et ne comprennent plus rien à ce qu'on leur enseigne, de sorte qu'ils se sentent idiots. Chez les plus jeunes, on a pu observer un phénomène d'automutilation.
L'étude la plus complète qui existe à ce jour est celle de Jonathan Haidt, intitulée « Social Media and Mental Health : A Collaborative Review », dans laquelle il recense toutes les études qui existent sur les réseaux sociaux. Une autre étude est parue en mai 2023, dans la revue Psychiatry Research, qui vise spécifiquement TikTok : elle examine l'association entre l'utilisation d'applications de vidéos courtes et les facteurs psychosociaux chez les adolescents âgés de 15 ans. Les résultats montrent que les utilisateurs addictifs présentent des conditions de santé mentale plus mauvaises que les non-utilisateurs et que les utilisateurs modérés, avec des niveaux plus élevés de dépression, d'anxiété et de stress. Ils ont également davantage de problèmes d'attention et une qualité de sommeil plus faible. En plus de leurs moins bonnes performances académiques, ils sont soumis à une victimisation par le harcèlement plus fréquent, car dès lors que l'on possède un portable, on a deux fois plus de chances de se faire cyberharceler. Leurs relations avec leurs parents sont dégradées.
Ces résultats suggèrent donc que les utilisateurs addictifs de Tiktok connaissent une situation plus défavorable que les autres, en ce qui concerne la santé mentale, la famille et les conditions scolaires, tandis que les non-utilisateurs ont des environnements familiaux favorables. Une utilisation modérée n'est donc pas forcément associée à une mauvaise santé mentale ou à de mauvais résultats scolaires.
Toutefois, dès lors qu'un produit est addictif, il est très difficile de cerner le passage d'une utilisation modérée à addictive. La bascule se fait au fur et à mesure que l'environnement social est ressenti comme de plus en plus négatif et stressant, des événements comme l'épidémie de covid pouvant servir de déclencheur.
Dans le dernier numéro de la revue Nature Communications, une étude montre qu'il existe une relation entre l'utilisation des réseaux sociaux et le niveau de satisfaction que les adolescents ressentent par rapport à la vie. Dans certaines périodes charnières de la vie des jeunes, les réseaux sociaux ont une incidence plus forte ; c'est notamment le cas de la période allant de 11 à 13 ans chez les jeunes filles.
Enfin, depuis deux ans, un groupe de travail de l'Agence nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail (Anses) étudie les effets des réseaux sociaux ; il publiera un rapport d'ici à la fin de 2023.
M. Claude Malhuret, rapporteur. - Madame Mouton, vous avez mentionné les effets d'addiction induits par les contenus de certains forums ou vidéos à d'autres produits toxiques comme le tabac ou la e-cigarette. Pourriez-vous préciser les études qui existent sur ce sujet ?
Mme Servane Mouton. - De nombreuses études portent sur TikTok, mais rares sont celles qui concernent spécifiquement son mode de fonctionnement. En ce qui concerne la régulation des contenus, une étude s'est intéressée aux conséquences de l'interdiction de la promotion des e-cigarettes sur les réseaux sociaux, dont TikTok, par le Congrès américain. Tous les hashtags ont été retirés, mais la majorité des vidéos sont restées en ligne et leur taux de consultation a continué d'augmenter.
Une autre étude a porté sur l'image corporelle mise en avant sur les réseaux, à travers les conseils nutritionnels ou les publicités pour des produits d'alimentation. L'analyse des hashtags a montré que 97 % des vidéos étaient présentées par des jeunes filles blanches et minces, diffusant un message normatif concernant le poids. Or il s'agit là d'un sujet sur lequel les adolescentes sont fragiles.
Les études qui portent sur les effets de l'utilisation des réseaux sociaux sur la santé mentale ne sont pas tranchées. En effet, quand on parle d'usage excessif, cela ne concerne que 5 % des usagers. Mais lorsque l'on recense 4 milliards d'usagers, le taux de personnes concernées est considérable, d'autant qu'il s'agit souvent des plus fragiles, issues des milieux les plus défavorisés.
Les adolescents sont une catégorie particulièrement sensible parce que leur régulation émotionnelle est moins bonne que celle des adultes Les réseaux sociaux, tout comme les jeux vidéo, leur donnent l'illusion de contrôler leur image et leur offrent une évasion vers la virtualité qui leur évite de se confronter au réel. Cette protection n'en est évidemment pas une, d'autant qu'il faut aussi prendre en compte les dangers liés au droit à l'image. Il existe un lien évident entre la dysrégulation émotionnelle de l'adolescence et l'usage abusif des réseaux sociaux.
M. Claude Malhuret, rapporteur. - Comment limiter ces effets négatifs ? Faut-il réguler et comment ? Ou bien interdire les réseaux sociaux en deçà d'un certain âge ? Devrait-on s'inspirer des mécanismes de régulation prévus pour la version chinoise de l'application, c'est-à-dire le blocage automatique du temps d'écran après quarante minutes d'utilisation ?
Mme Sabine Duflo. - Les réseaux sociaux sont un produit addictif qui est mis dans les mains de mineurs. Jusqu'à présent, les politiques de santé concernant les produits addictifs ont toutes montré que la stratégie de sensibilisation ne suffisait pas : l'alcool en est la preuve, qui a été interdit aux moins de 14 ans dans les cantines en 1956, puis supprimé pour les lycéens en 1980. Désormais, très peu d'enfants souffrent d'alcoolisme chronique, alors que ce n'était pas le cas au début du siècle dernier. Par conséquent, à chaque fois qu'un produit est dangereux pour les mineurs, il faut les protéger et donc l'interdire.
Je considère que, pour les enfants de 0 à 10 ans, c'est aux parents d'être maîtres du jeu et de prendre les décisions qui s'imposent pour limiter le temps passé devant les écrans à une heure ou deux pendant le weekend, en surveillant les contenus. L'exemplarité a aussi son importance.
À partir de l'entrée en sixième, le problème vient davantage de l'école. En effet, les enseignants utilisent des applications pour communiquer avec les élèves, notamment pour leur transmettre les devoirs à faire. Pour faire un exposé, on utilise WhatsApp. Par conséquent, tout encourage les enfants à aller devant les écrans et à consulter les réseaux sociaux, les parents finissant par être dépossédés de leur rôle éducatif.
Mme Servane Mouton. - Éduquer ne suffit pas. Seules les mesures radicales d'interdiction fonctionnent.
Je ne crois pas que la comparaison des réseaux sociaux et des jeux vidéo avec des produits addictifs soit exagérée. Les conséquences sur la santé sont lourdes. Les temps d'exposition excessifs favorisent la sédentarité et ne sont pas bons pour la santé. Ils ont des effets délétères sur le sommeil et sur la vision - on constate déjà une « épidémie » de myopie. Il faut donc protéger les mineurs. La proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne doit être examinée au Sénat très prochainement, ce qui témoigne d'une préoccupation croissante quant à l'utilisation de ces réseaux. Il n'en reste pas moins que, pour l'instant, un mineur est protégé de la pédopornographie dans tous les cas de figure, sauf sur les écrans. En outre, tous les risques liés à la société de consommation sont décuplés sur les écrans.
La situation n'était pas la même lorsque l'ordinateur était dans la pièce commune du logement ; désormais les écrans sont partout. Il faudrait que les moins de 18 ans n'aient pas de smartphone ni d'ordinateur portable pour limiter leur accès aux écrans, du moins tant qu'on ne sera pas capable de réguler la pratique.
Le problème de l'enseignement avec les écrans place les parents dans une situation schizophrène. On donne aux enfants l'habitude d'utiliser un écran dans la vie courante, parfois dès la maternelle. En les exposant ainsi, on les empêche d'apprendre à se contrôler correctement ; comment pourraient-ils le faire une fois adultes, alors qu'ils n'auront jamais connu le monde sans écran ?
Nous traversons des crises écosystémiques et écologiques. N'oublions pas non plus que l'impact écologique, aussi bien direct que lié à la tendance consumériste que cela encourage, est considérable. Nous ne pouvons continuer à développer cette technologie sans réfléchir à sa bonne utilisation. La France doit être pionnière dans un numérique raisonné.
Mme Annick Billon. - Je suis d'accord : les réseaux sociaux sont la seule drogue gratuite disponible partout, 24 heures sur 24. La délégation aux droits des femmes du Sénat, durant six mois, a travaillé pour publier le rapport intitulé Porno : l'enfer du décor. Nous devrions pouvoir agir. L'éducation à la sexualité n'est pas dispensée : la loi doit s'appliquer. Il en va de même pour l'accès des mineurs aux films pornographiques, qui ne consiste qu'en un clic pour confirmer son âge. Nous devons trouver les moyens, au-delà du projet de loi numérique en cours d'élaboration, d'y mettre fin.
Nous parlons d'éducation. En tant que praticiennes, estimez-vous que le corps médical est suffisamment formé pour analyser les troubles de la santé - angoisse, troubles de l'attention, comportements à risque - dont souffrent les enfants ? Cela va jusqu'à l'estime de soi et la capacité d'empathie : avec les réseaux sociaux, la relation humaine perd en valeur et en quantité.
Ensuite, les réseaux sociaux, tout comme l'industrie de la pornographie depuis les années 2000, sont désormais gérés par des financiers plutôt que par des acteurs spécialisés. N'y a-t-il pas une responsabilité à trouver pour ces diffuseurs d'images, par exemple lorsqu'on laisse tourner en boucle des vidéos poussant des adolescents à l'anorexie ou à la scarification ? Ne manquons-nous pas de courage en laissant circuler ce qui serait inacceptable dans la sphère publique ?
Ensuite, y a-t-il un lien entre l'âge où commence l'exposition et la progression exponentielle observée entre les jeunes de 8 à 12 ans et ceux de 16 à 18 ans ? Les risques sont-ils les mêmes ? Nous nous estimons, en tant qu'adultes, préservés. Mais tout ce qui régulera les mineurs protégera aussi la société entière et ce qu'elle a d'empathique et d'humain. L'actualité montre, en effet, le potentiel de diffusion de fausses informations. Le risque est pour tout le monde.
Enfin, je délivrerai un message d'espoir : des réseaux d'adolescents, refusant les smartphones, reviennent au téléphone à clapet, même s'ils forment une communauté sur TikTok...
M. Claude Malhuret, rapporteur. - Leur sort sera-t-il celui des canuts ?
Mme Sabine Duflo. - Non, le corps médical n'est pas formé. Cela fait dix ans que je tire le signal d'alarme, notamment aux rencontres annuelles des lanceurs d'alerte, et j'ai publié un livre à ce sujet en 2018. Or c'est par la formation qu'on agira en profondeur. Rien ne sert, sans explication, de dire aux parents qu'il faut diminuer les écrans. En revanche, il faut poser la question du temps et discuter de l'effet sur le développement. En avoir conscience permet de tenir un engagement, avec les parents, mais aussi avec l'adolescent seul. Les résultats sont magiques : avec un tout petit, passer de 5 heures par jour à aucune relance son développement de manière considérable. Même avec des adolescents, qui sont conscients des addictions, on constate des effets très positifs au sevrage. Il faut donc former les médecins. Deux ou trois séances sont nécessaires pour diminuer la consommation d'un produit addictif.
Ensuite, plus l'enfant est jeune, plus les effets sont graves. C'est dans l'interaction continue qu'un petit être humain développe ses compétences les plus importantes : langage, attention volontaire, relations sociales, compréhension. Lorsqu'elle est parasitée par l'écran, en bruit de fond dans le salon par exemple, ou parce que l'adulte consulte son téléphone, on aboutit à une technoférence - interférence des écrans - et des comportements perturbés. Les bébés dont la mère consulte le portable lorsqu'elle s'occupe d'eux sont plus stressés et explorent moins leur environnement. En outre, les enfants exposés très tôt à l'écran ont une communication verbale et non verbale très retardée, qui n'est pas sans évoquer des signes d'autisme.
Tous ces troubles diminuent avec l'âge, mais un enfant très préservé jusqu'à douze ans et recevant soudainement des écrans, sans développer de grave retard, tombera tout aussi facilement dans l'addiction. Il aura cependant de meilleures facultés de récupération et pourra revenir à la lecture, parce qu'il l'aura apprise. Les enfants exposés très jeunes aux écrans ne développent ni savoir, ni savoir-faire, ni savoir-être.
Concernant la responsabilité, TikTok et les autres réseaux sociaux font de l'utilisateur un véritable panneau publicitaire. Les influenceurs sont payés à chaque abonné, mais les jeunes, même sans rémunération, sont vecteurs de publicité. L'adhésion à une société marchande de l'utilisateur et de celui qui poste ses vidéos est totale : par exemple une jeune fille se filmant en train de se maquiller les yeux montrera sa palette.
Mme Servane Mouton. - Il n'y a pas, à ma connaissance, de formation consacrée au numérique en neurologie. Nous avons récemment organisé une journée de conférence à l'ENS Lyon, mais ce n'est qu'une initiative locale. Des avancées ont lieu, avec un module de santé environnementale pour les étudiants en première année de médecine depuis cette dernière rentrée, mais cela reste très modeste et dépend d'initiatives individuelles.
Je ne sais pas à quel point le législateur français peut réguler les industriels, mais on ne peut imputer la responsabilité des mauvais usages à l'utilisateur. Il y a trop d'intérêts financiers pour innocenter les industriels, complètement coupables, qui agissent de manière délibérée. TikTok est une entreprise chinoise, mais les réseaux sociaux anglo-saxons fonctionnent de la même manière.
Cependant, au-delà de la régulation, les chercheurs sur ces produits addictifs ou addictifs-like - réseaux sociaux, pornographie, jeux vidéo notamment - demandent une transparence de ces industriels sur leurs algorithmes et processus de développement. Je suis en lien avec des chercheurs en Suisse, sur les jeux vidéo, et en Allemagne, sur les réseaux sociaux : le rétro engineering est un travail de fourmi soumis à des règles, légitimes, sur les cobayes humains, semblables à celle de la commission de protection des personnes.
Or un industriel n'y est pas soumis : développer le produit, avec des panels d'usagers, est bien plus rapide que de son examen par les chercheurs institutionnels. On court donc toujours après les produits en raison du deux poids, deux mesures en recherche humaine, industrielle d'un côté, scientifique de l'autre. Ce sont d'ailleurs aussi des neuropsychologues et des neuroscientifiques qui travaillent pour l'industrie.
La publicité n'a pas attendu 2023 pour démontrer son efficacité, mais nous atteignons un paroxysme de quantité, de qualité et de finesse d'analyse. Le temps d'écran, qui est la source de tant de problèmes de santé qui ressurgiront dans quelques décennies - troubles cardiovasculaires et métaboliques, entre autres - devrait nous inciter à nous arc-bouter collectivement contre cette économie de l'attention. Mon livre est issu de ce constat : j'étais incrédule face aux premières lectures que j'ai faites sur ces sujets, je pensais devenir complotiste... mais nous ne pouvons laisser faire. Vu la profondeur de la littérature et la qualité des personnes avec qui je me suis entretenue, force est de constater que c'est vrai. J'ai l'espoir que vous aurez le pouvoir de changer les choses. Je dis souvent que nous sommes David contre Goliath, mais n'oublions pas que David a gagné...
M. Claude Malhuret, rapporteur. - Madame Duflo, l'usage des réseaux sociaux, TikTok notamment, n'est-il pas de nature à creuser les inégalités, notamment scolaires, entre des familles plus aisées régulant davantage que celles qui le sont moins ?
Mme Sabine Duflo. - Toutes les études montrent - notamment la dernière étude longitudinale française depuis l'enfance (Elfe) - que l'exposition précoce aux écrans, souvent excessive et à des contenus inadaptés, touche davantage les familles dont la mère est jeune, dont les parents ont un faible niveau d'instruction, monoparentales ou issues de l'immigration. La connaissance, dans ces foyers, est transmise bien plus par les réseaux sociaux et l'audiovisuel que par le livre. De plus, les familles favorisées ont une attitude plus active dans la recherche d'information et ont plus confiance en leurs compétences parentales. Les enseignants repèrent rapidement les enfants ayant un usage important des écrans, rien qu'à leur expression.
Cependant, ces familles défavorisées, une fois informées, prennent les bonnes mesures. Toutes se demandent pourquoi elles n'ont pas été informées plus tôt. Elles s'imposent alors une discipline qui, puisqu'elle produit des effets positifs, perdure.
M. Mickaël Vallet, président. - Vous disiez que le cerveau aime la nouveauté. Mme Duflo mentionnait qu'il n'y avait pas d'arbitrage possible pour l'enfant, lorsque l'écran s'ouvre, entre Pronote et quelque chose de plus attractif. Il semble que, depuis le covid et faute d'instruction claire aux enseignants, le cahier de textes n'existe plus : on prend la photo des devoirs au tableau qu'on fait circuler sur Instagram. Certains élèves sont obligés de s'y abonner pour suivre. Cela dépend totalement de l'enseignant, mais c'est du vécu.
Certains jeunes ont une addiction alimentaire morbide, mais les barres chocolatées sont en vente libre. Quand doit-on apprendre aux parents et aux élèves comment fonctionne leur cerveau ? À l'école, contrairement à mes parents, j'ai appris la différence entre glucides et lipides. Mais personne n'apprend comment fonctionne le cerveau, pourtant utilisé par les enfants comme les enseignants toute la journée. Il reste des neuromythes : on croit encore que lire sa leçon avant de se coucher aide à l'apprendre, ce que les études démentent. Quand et comment faire cette éducation à la parentalité, numérique, mais aussi plus large ?
Madame Mouton, faut-il apprendre le fonctionnement du cerveau ? Cela serait-il utile ? Quand le faire ?
Mme Servane Mouton. - Je ne sais pas quand le système nerveux est abordé dans les programmes...
M. Mickaël Vallet, président. - Il y a un apprentissage sur la physiologie, mais pour ce qui est de décrypter les neuromythes et apprendre comment on apprend, c'est simple : cela n'existe pas.
Mme Servane Mouton. - J'ai confiance en l'humain. Si nous savions tous ce que nous risquons et comment notre cerveau fonctionne, nous agirions autrement. Interdire sans expliquer n'est pas productif. Il faut s'approprier les raisons des interdictions, par exemple, de l'écran avant 6 ans et du téléphone portable avant 18 ans.
Ces outils s'appuient sur le fonctionnement même du cerveau, qui est en gestation depuis des centaines de milliers d'années : nous ne sommes pas armés. C'est la même chose pour le sucre ; c'est presque problématique que les barres chocolatées soient en vente libre... Les écrans sont tellement globaux - en tirant la pelote, on se rend compte qu'ils nuisent au neurodéveloppement, mais aussi aux adultes, à l'ensemble du corps humain, aux capacités d'apprentissage - que c'est une véritable question sociétale.
Mme Sabine Duflo. - Le bon moment pour intervenir, c'est dans les maternités, quand les mères sont enceintes : les jeunes femmes adultes consultent leur portable six à sept heures par jour. Cette addiction, nous la subissons tous. Nous devons, pour bien nous occuper de l'enfant, quitter le téléphone et nous occuper de lui en continu. Je parle sans jugement : je suis contente d'avoir des enfants qui sont grands...
M. Mickaël Vallet, président. - Nous vous remercions du temps que vous nous avez consacré.
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.
- Présidence de M. Mickaël Vallet, président -
La réunion est ouverte à 16 h 30.
Audition de M. Romain Badouard, maître de conférences en sciences de l'information et de la communication à l'Université Panthéon-Assas
M. Mickaël Vallet, président. - Nous poursuivons nos auditions avec M. Romain Badouard, maître de conférences en sciences de l'information et de la communication à l'université Panthéon-Assas.
Vous avez publié en 2020 Les nouvelles lois du web, dans lequel vous détailliez vos pistes pour assurer une régulation démocratique des contenus en ligne. Selon vous, trois principes devraient guider cette régulation : la transparence des procédures, la reconnaissance d'un droit d'appel, et enfin la création d'une agence publique indépendante, chargée de contrôler l'action des plateformes en matière de régulation des contenus - ce point nous intéresse particulièrement, par rapport à la situation actuelle. Par ailleurs, alors que 19 plateformes dont TikTok doivent se conformer d'ici à la fin du mois d'août aux obligations imposées par le règlement européen sur les services numériques - le Digital Services Act (DSA) -, nous aimerions connaitre votre analyse sur ce règlement : ses exigences vous paraissent-elles suffisantes ? Seront-elles applicables ? Ceux qui sont chargés de l'appliquer en ont-ils les moyens ?
Enfin, plus globalement, nous souhaiterions vous entendre sur les spécificités de la politique de modération de TikTok et sur les cas de censure ou de « fantomisation » de contenus sur l'application. Comment est organisée cette modération, entre action des algorithmes et intervention humaine ? TikTok a-t-elle des stratégies pour stopper la viralité de certains contenus jugés indésirables ? Le fait-elle ?
Cette audition est captée et diffusée en direct sur le site du Sénat.
Je rappelle qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.
Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure. »
Conformément à la procédure applicable aux commissions d'enquête, M. Romain Badouard prête serment.
M. Romain Badouard, maître de conférences en sciences de l'information et de la communication à l'Université Panthéon-Assas. - Je vous remercie de votre invitation sur la régulation des plateformes et la modération.
J'ai travaillé comme chercheur en sciences sociales sur la modération sur les réseaux sociaux, sous l'angle des conditions d'exercice de la liberté d'expression sur internet. Dans ce cas, je me suis intéressé aux grandes plateformes, comme YouTube et Facebook particulièrement. Je ne suis pas un spécialiste à proprement parler de TikTok, mais pour préparer cette audition, je me suis plongé dans les documents de la firme et dans différents articles scientifiques. Je vais donc vous présenter mon regard sur la modération de TikTok, à partir de cette étude qui n'est pas exhaustive, et qui repose sur les données auxquelles j'ai pu accéder.
Lorsque je me suis intéressé à ce sujet, j'ai été frappé par les similarités qui existent entre la modération sur TikTok et celle sur Facebook. Ce n'est pas anodin, puisqu'à partir du printemps 2020, TikTok a entrepris une grande réforme de son dispositif de modération. Au même moment, l'entreprise a embauché d'anciens cadres de Facebook. On peut donc imaginer que ces embauches ont contribué, justement, à cette réforme, qui suit en bien des points les pas de Meta et de Facebook.
La période de cette réforme, au printemps 2020, n'est pas non plus anodine : c'était pendant le premier confinement, une période d'explosion des usages, mais aussi de controverse sur la désinformation sanitaire sur les réseaux sociaux en général, et sur TikTok en particulier.
De la même façon, Facebook avait entrepris au printemps 2017 une grande réforme de son dispositif de modération, liée cette fois aux auditions de Marck Zuckerberg devant le Congrès américain, à la suite de l'affaire russe. On voit bien que le regard que porte la société sur ces plateformes et les actions des régulateurs et des pouvoirs publics peuvent avoir des effets directs - nous reparlerons du DSA -, mais aussi indirects, en maintenant une pression sur ces acteurs économiques et en les poussant à se réformer.
Le dispositif de modération de TikTok est assez similaire à celui de Facebook, mais aussi à celui de Twitter et de YouTube. Actuellement, en règle générale, les grandes plateformes ont tendance à s'aligner sur une espace de standard, une norme commune de modération qui repose sur plusieurs éléments : d'abord, des règles de publication. Sur TikTok, elles sont appelées « règles communautaires » : elles déterminent ce qu'on a le droit de dire ou non, de montrer ou non, lorsqu'on utilise l'application. À l'origine, ces règles de modération étaient privées et opaques. Elles ont été rendues publiques en juillet 2020, et depuis elles sont régulièrement mises à jour et précisées.
À ces règles s'associent différents moyens de les appliquer. Le premier, c'est une procédure de signalement qui permet aux utilisateurs de l'application de pouvoir notifier des contenus qui leur sembleraient illégaux ou contraires aux règles de publication - toutes les plateformes ont ce type de procédure de signalement.
Autre élément central, les modérateurs humains vont revoir ces signalements pour décider de laisser en ligne ou de retirer la vidéo. TikTok ne communique pas sur le nombre de modérateurs qu'il emploie. Selon les différentes sources que j'ai pu consulter, ils seraient entre 10 000 et 20 000. TikTok évoque 40 000 personnes travaillant dans la modération, mais ce chiffre englobe tous les juristes et chercheurs en informatique qui développent des outils d'intelligence artificielle de modération ; ce ne sont donc pas des modérateurs à proprement parler qui passent en revue les contenus.
Facebook annonce 30 000 personnes travaillant dans la modération, mais en réalité ce sont 15 000 modérateurs qui passent en revue les contenus. Mais entre 10 et 20 000 modérateurs, cela reste un chiffre plutôt important par rapport aux autres entreprises du secteur.
La modération humaine ne suffit pas - et cela vaut pour toutes les plateformes. L'entreprise a atteint le nombre de deux milliards d'usagers actifs, donc le nombre de contenus est beaucoup trop important pour être traité uniquement humainement. Comme les autres plateformes, TikTok a parié sur l'intelligence artificielle pour automatiser la modération : elle entraîne des algorithmes à partir des bases de données constituées de vidéos retirées par les modérateurs humains pour que ces algorithmes apprennent à reconnaître des contenus illégaux ou qui contreviennent aux standards de publication.
Depuis 2019, TikTok publie des rapports de transparence chaque trimestre. Selon le dernier rapport, qui date du dernier trimestre 2022, 85 à 95 % des contenus retirés l'ont été automatiquement par l'intelligence artificielle. Cette tendance à l'automatisation, sur TikTok comme ailleurs, pose deux types de problèmes : d'une part, cette modération automatique est facilement contournable. On le voit dans le cadre de la lutte contre les discours de haine : les groupes racistes, misogynes, antisémites ou autres apprennent très rapidement à déjouer cette modération automatique, par exemple en utilisant un mot à la place d'un autre.
Deuxième problème, ce système génère des faux positifs, et aboutit à retirer des contenus légitimes. TikTok communique sur un taux de faux positif de 5 %, ce qui lui semble suffisamment bas pour généraliser l'automatisation ; mais à l'échelle des 85 millions de vidéos supprimées, cela en représente plusieurs millions durant le dernier trimestre.
Pour faire face au risque de censure abusive, TikTok a mis en place, comme les autres plateformes, des procédures d'appel, afin que les utilisateurs estimant avoir été victimes d'une censure abusive puissent demander un second examen de leur contenu par des modérateurs humains.
Dernier élément, la communication qui entoure cette modération : historiquement, les plateformes ne communiquaient pas sur leur modération. Mais, poussées par la société et les régulateurs, elles commencent à le faire. TikTok a suivi le même chemin que Facebook avec un centre de transparence via lequel on peut accéder à divers rapports sur les pratiques de modération. C'est une newsroom dans laquelle on trouve des actualités sur la politique de la firme, un centre d'aide aux usagers et des collaborations avec diverses organisations de la société civile. C'est très conforme aux évolutions de la modération sur les grandes plateformes de réseaux sociaux.
Pour autant, le système de modération comporte deux spécificités. D'abord, les contenus apparaissant dans la page d'actualité de l'application, « For You », ne sont pas forcément produits par les contacts que l'on suit. Cela paraît anodin, mais sur Facebook, Instagram ou Twitter, les contenus du fil d'actualité sont ceux qui sont postés par les gens qu'on a décidé de suivre ou avec lesquels on a noué un contact. Sur TikTok, l'exposition à l'information ne se fait donc pas via des liens d'affinité personnelle, mais en fonction des recommandations de l'application. Tout l'enjeu de la censure abusive ou de la promotion de contenus dangereux est donc lié aux recommandations sur cette page « For You » et aux conditions d'exclusion de ces recommandations, notamment le shadow banning - ou « fantomisation ». Celui-ci consiste non pas à supprimer un contenu, mais à le rendre invisible aux yeux des autres usagers ; les utilisateurs continuent à poster des vidéos, ils ont l'impression de s'exprimer normalement, mais en réalité, personne ne voit leurs contenus. On peut donc les couper de leur public.
Les contenus éligibles à la page d'accueil sont liés à des données d'usage - chacun a une page d'accueil différente, car les contenus sont diffusés en fonction de notre profil -, mais aussi de certaines thématiques. Et là, TikTok fixe une liste de thématiques exclues de ces recommandations : des vidéos abordant la santé mentale, qui montrent des scènes de sexe ou de violence explicite, qui propagent de la désinformation... C'est assez classique, mais ce que ne dit pas TikTok, mais qu'on retrouve dans différentes enquêtes journalistiques et des travaux de recherche, c'est que cette invisibilisation va plus loin, car elle exclut certaines thématiques politiques, notamment les contenus en lien avec les droits des minorités, dans des contextes divers : par exemple, en Chine, tous les contenus concernant les Ouïghours sont exclus du fil de recommandations. Aux États-Unis, il semble que des contenus concernant le mouvement Black Lives Matter aient été exclus, même lorsque ceux-ci étaient le fait d'utilisateurs très suivis sur ce réseau social. On observe aussi ce cas pour différents mouvements féministes dans des pays musulmans, notamment en Égypte, ou des cas concernant la communauté LGBT en Russie et dans beaucoup d'autres pays.
Deuxième spécificité de TikTok, son public est beaucoup plus jeune que celui des autres réseaux sociaux, ce qui pousse la plateforme à généraliser un certain nombre de restrictions à l'accès en fonction de l'âge et à calibrer les publics exposés à différentes informations selon un critère d'âge assez précis. Depuis l'été 2022, l'application a lancé un système de classification des contenus, donc des thèmes abordés sur TikTok, auquel est associé un score de maturité. En fonction du thème abordé dans votre vidéo, TikTok estime que ce thème est plus ou moins mature, et donc peut être rendu visible à certains types de public. C'est légitime notamment pour des contenus sexuellement explicites ou violents, mais cela peut aussi servir à exercer des formes de censure plus ou moins légitimes.
Autre point important, le rapport de TikTok au contexte local. Toutes les grandes plateformes ont mis en place des systèmes de modération à deux niveaux : il y a des règles communes de publication s'appliquant à tout le monde - les « règles communautaires » pour TikTok. Facebook, Twitter et YouTube ont la même chose. Ces règles internationales s'appliquent à tous les utilisateurs. Pour autant, ils essaient de s'adapter au contexte législatif dans lesquels ils exercent. En France, pendant longtemps, Facebook avait des règles de modération spécifiques liées aux lois relatives à la négation des génocides, qui n'étaient pas en vigueur aux États-Unis. TikTok adopte la même approche de modération à deux niveaux. Pour autant, alors que les autres plateformes ont une approche très légaliste de respect des lois nationales, TikTok a une approche plus culturelle. Voici ce qu'indiquent les documents de la firme : « Nous collaborons avec les experts régionaux et les communautés locales afin de garantir que notre approche mondiale reconnaisse les normes culturelles locales. Nous adaptons les applications régionales relatives à nos règles pour garantir que nous n'imposons pas les valeurs d'une région à une autre. » Cette vision de ne pas imposer les valeurs d'une région à une autre peut paraître légitime, mais elle peut aussi servir à des formes de censure, un peu moins avouables.
En septembre 2019, The Guardian a révélé des documents internes de la firme - depuis lors, il a affirmé que ces règles n'étaient plus en vigueur - qui mentionnaient que la firme interdisait de critiquer les lois et les règles d'un pays. On voit ce qu'on peut mettre derrière ce genre de règles : interdire d'évoquer les conflits religieux ou ethniques ou encore le séparatisme, avec des exemples touchant le Tibet et Taïwan pour la Chine, mais aussi le conflit nord-irlandais, la République de Tchétchénie en Russie, et aussi de manière générale « l'exagération de l'ampleur du conflit ethnique entre Blancs et Noirs », sans que l'on sache exactement ce que la firme met derrière.
Il est important d'avoir en tête que les chercheurs, les régulateurs ou les journalistes qui travaillent sur ces sujets sont dépendants des données qui sont fournies par les plateformes. Toutes les données chiffrées que j'ai pu vous communiquer sont issues des rapports de transparence de TikTok. Les grandes firmes nous donnent accès aux données auxquelles elles veulent bien donner accès. C'est une « opacité stratégique », comme l'appellent des chercheurs anglo-saxons : elles diffusent des rapports de transparence dans lesquelles elles montrent ce qu'elles veulent, elles noient les observateurs sous une grande masse de données et en profitent aussi pour garder secrètes des données bien plus stratégiques. Par exemple, aucun des rapports de transparence de TikTok, de Google pour YouTube ou de Meta pour Facebook ne nous donne d'informations concrètes sur la manière dont est opérée cette invisibilisation, et selon quels critères, et à quel type de sanction doivent faire face les usagers concernés.
C'est pourquoi l'entrée en vigueur du DSA suscite beaucoup d'espoir aussi bien du côté des régulateurs que des chercheurs, puisqu'il définit un certain nombre de données devant être rendues publiques. TikTok a initié en Europe des centres de transparence, lieux physiques dans lesquels des chercheurs indépendants de la firme peuvent avoir accès à un certain nombre de données. C'est une des pistes privilégiées par le DSA. Mais tout l'enjeu repose dans la mise en oeuvre de ces nouvelles obligations.
M. Mickaël Vallet, président. - Les données chiffrées sont issues des rapports de transparence des plateformes. Mais vous dites qu'il n'est pas possible d'évoquer la question ouïghoure en Chine, et que ce serait la même chose aux États-Unis pour Black Lives Matter. D'où tenez-vous ces informations ?
M. Romain Badouard. - Mes informations proviennent de travaux de journalistes ou de chercheurs, pour la plupart anglo-saxons. Certes, seules les grandes plateformes possèdent ces données sur la modération, mais une forme de contre-expertise de la société civile se met en place soit par des enquêtes journalistiques - les journalistes ayant accès à des rapports internes qui ne sont pas rendus publics -, soit par des organisations de la société civile, notamment les associations de défense des droits LGBT ou des mouvements féministes, qui réalisent des sortes d'audit des algorithmes via des tests pour voir comment ces derniers fonctionnent. Ils nous donnent ainsi accès à des données alternatives, produites contre les plateformes, ou en tout cas sans leur accord.
M. Mickaël Vallet, président. - Ce sont donc des données plutôt qualitatives, un peu comme quand SOS Racisme testait qui pouvait entrer dans les boîtes de nuit ?
M. Romain Badouard. - C'est un peu la même chose.
M. Claude Malhuret, rapporteur. - Vous proposez une instance de régulation des contenus et de surveillance de la modération ; le législateur se méfie toujours de la création de nouvelles agences. Actuellement, il existe la Commission nationale de l'informatique et des libertés (Cnil), l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) - certes, cette dernière n'est pas une organisation de régulation de contenus.
Estimez-vous que ces agences n'ont pas le périmètre nécessaire ni les moyens suffisants ? Qu'apporterait une nouvelle agence ?
M. Romain Badouard. - Effectivement, j'avais évoqué dans mon livre Les nouvelles lois du web une agence publique indépendance. À l'époque, l'Arcom n'existait pas encore, c'était encore le Conseil supérieur de l'audiovisuel (CSA) et la Haute Autorité pour la diffusion des oeuvres et la protection des droits sur internet (Hadopi). Aucune des deux agences n'avait la même couverture, et la Cnil, du fait de sa spécialisation sur la protection de la vie privée et des données personnelles, traitait des enjeux d'algorithmes, mais moins sous l'angle de la modération.
Aujourd'hui, il ne me semble pas nécessaire de créer une telle agence parce que l'Arcom joue ce rôle. Par contre, il est important de penser la manière dont les différents acteurs ont un rôle à jouer, à savoir que les plateformes doivent modérer les contenus, et exercent une sorte de police de l'expression. Cela me semble légitime parce que ce sont des entreprises privées, donc elles ont le droit de modérer. Elles sont encouragées à le faire, pour surveiller ce qui est dit lorsqu'on utilise leur service. C'est légitime.
Qu'un droit d'appel soit généralisé est important, pour faire face aux cas de censure abusive, et afin que les internautes puissent faire valoir leurs droits à la liberté d'expression ; c'est l'une des propositions du DSA.
Il me semble aussi nécessaire que l'Arcom ait le pouvoir de surveiller la manière dont les réseaux sociaux exercent leur modération, en ayant accès à un certain nombre de données qui figurent dans le DSA.
Enfin, quel est le rôle de la justice dans tout cela ? Dans le cadre de Meta, Facebook a mis en place il y a quelques années un conseil de surveillance - TikTok a une instance similaire - avec des personnalités de la société civile, sorte de « cour suprême » des contenus de Facebook pour rejuger les cas de retrait de vidéo. Est-il nécessaire de mettre en place ce genre de conseil en France ? Ce n'est pas évident. Mais comment la justice et le parquet numérique pourraient-ils se saisir des controverses autour de la modération ? C'est un point important à définir. On a eu des cas intéressants en France, avec des mouvements féministes qui ont porté plainte contre Instagram pour censure abusive, en demandant que ce réseau rende publique la manière dont les décisions de censure des contenus incriminés ont été prises.
Il faut donc de la modération, une agence publique observant sans contrôler trop fermement, et une justice pouvant prendre des décisions. Ce serait une articulation importante.
M. Claude Malhuret, rapporteur. - En définitive, vous dites que le DSA est en train de répondre à votre demande puisqu'il recommande des instances de régulation. À chaque pays de déterminer quelle instance doit s'en occuper - pour la France, l'Arcom ou une autre instance.
Je ne suis pas sûr que nous ayons quelque instance que ce soit qui satisfasse ce que vous demandez et ce que demande le DSA. La Cnil a condamné certaines plateformes, dont TikTok, à des amendes importantes, et fait son travail sur les données.
L'Arcom travaille sur les contenus : à moins que je sois mal informé, j'attends encore une intervention - dialogue, injonction ou sanction - de sa part. Or les contenus sont aussi importants que les données.
Une de ces instances peut-elle assurer ce que demain demandera le DSA ? L'expérience de ces instances est-elle suffisante, ou les souhaits du DSA devraient-ils être implémentés avec une agence spécifique ?
M. Romain Badouard. - Je pense que l'Arcom dispose des compétences et de l'expertise pour le faire - et elle est justement en train de muscler cette expertise. Elle collabore avec de nombreux chercheurs pour renforcer la régulation dans ce domaine.
Le DSA inclut de nouveaux pouvoirs de sanction. Pour les très grandes plateformes, dont les utilisateurs constituent plus de 10 % de la population européenne, c'est la Commission européenne qui sera chargée de la régulation, avec différentes échelles de sanctions et des amendes pouvant aller jusqu'à 4 % du chiffre d'affaires des plateformes. L'ultime nouvelle sanction serait la fermeture de l'accès au marché européen, même s'il reste peu probable qu'une telle sanction soit prise en Europe. Toutefois, l'impact potentiel sur les plateformes n'est pas négligeable, car Meta, Google ou Tiktok réalisent un chiffre d'affaires très important sur le continent européen. Les plateformes n'ont aucun intérêt à se voir restreindre cet accès, et ont donc tout intérêt à se conformer aux nouvelles règles en vigueur ; dans tous les cas, elles semblent s'y préparer. L'enjeu est de savoir quel type de données sera accessible au régulateur, et à quelles conditions. Plusieurs pistes sont en cours d'étude.
M. Claude Malhuret, rapporteur. - Vous dites que le DSA est un acte européen, et qu'il permettra de réguler les plateformes. Vous dites aussi que l'une des sanctions serait la fermeture du marché. Pour ce faire, il faudrait une décision européenne, et donc un régulateur européen. Est-ce une des pistes envisagées ?
M. Romain Badouard. - Le DSA prévoit une telle instance pour les très grandes plateformes : il s'agirait d'une agence européenne qui chapeauterait des régulateurs nationaux.
M. Claude Malhuret, rapporteur. - L'exemple de l'Irlande est proche : le régulateur irlandais, sans être le régulateur européen, est en lien avec les autres régulateurs nationaux.
Le DSA vous semble-t-il suffisant ? Faut-il y ajouter des prérogatives de modération et de contrôle des contenus ?
M. Romain Badouard. - Le DSA est très ambitieux. On a dit que les plateformes étaient plus fortes que les États; or un tournant est amorcé : la tentative de régulation est réelle par rapport à l'existant. Le DSA demande de la transparence aux plateformes, notamment en matière d'algorithmes. L'enjeu sera la mise en oeuvre et le type de données rendues publiques. En fait, la régulation des contenus peut se résumer par deux questions simples : qui est exposé à quoi et pourquoi ? Cela explique que deux usagers de TikTok voient des contenus très différents. Un nombre limité de données permettrait de répondre à la question des critères de sélection : telles sont les données auxquelles il faudrait avoir accès.
Le DSA s'attaque aussi au marché de la publicité. Les récentes controverses sur la désinformation ou la violence en ligne sont liées au modèle économique des plateformes, au fonctionnement de leur régime publicitaire, à l'absence de contrôle de ce régime publicitaire et au marketing ciblé. La régulation de la publicité en ligne a été un angle mort des plans de régulation. Le DSA prévoit d'interdire de cibler les adolescents et de cibler les utilisateurs en fonction de données personnelles telles que les opinions politiques, les préférences sexuelles ou les origines ethniques. Il faudra être vigilant sur la mise en oeuvre, mais cette interdiction, si elle est effective, serait une avancée intéressante. La transparence des recommandations et la possibilité donnée aux utilisateurs de choisir le contenu de ses recommandations, voilà aussi des pistes intéressantes exigées par le DSA. La mise en oeuvre sera ici aussi cruciale. Si tout cela est mis en place en 2024, le pouvoir donné aux usagers sera plus grand, les réseaux sociaux bien différents. Surveillons d'abord la mise en oeuvre avant de penser à de nouvelles règles.
M. Claude Malhuret, rapporteur. - Adolescents et enfants sont les principaux utilisateurs de Tiktok, et il n'y a aucun contrôle de l'âge. Or le DSA envisage la mise en place d'un tel système de contrôle. Les plateformes disent qu'il n'y a pas de solution satisfaisante aujourd'hui : le contrôle de l'État porterait atteinte aux libertés publiques et la double anonymisation n'est pas prête. Voyez-vous une issue ?
M. Romain Badouard. - La situation est complexe et emblématique de notre difficulté à réguler les plateformes, entre contrôle public du pouvoir de ces plateformes sur l'expression et défense de la liberté d'expression des citoyens, que servent aussi les plateformes. Pour le contrôle de l'âge, par exemple, n'imaginons pas une solution qui soit pire que le problème, à l'image du contrôle facial : nous donnerions un accès légal à des données biométriques. Le souhaitons-nous ?
Le système des tiers de confiance est un moindre mal : des associations pourraient vérifier l'âge de l'utilisateur des plateformes sans que l'utilisateur n'ait à communiquer ses données personnelles. Le Gouvernement a recommandé cette solution dans sa dernière loi. Étant donné le nombre d'utilisateurs de Tiktok, le défi technique semble de taille.
Concernant le DSA et son ambition, une nouvelle règle est que les très grandes plateformes doivent réaliser des audits indépendants. Ce serait un moyen efficace pour certifier que les données transmises soient bien authentiques.
M. Claude Malhuret, rapporteur. - Le contrôle des données et la modération n'impliquent-ils pas d'avoir accès à l'algorithme ?
M. Romain Badouard. - Pas forcément. Dans son dernier rapport de transparence, TikTok indique avoir retiré 100 millions de vidéos, dont 80 % de manière automatisée. Ils notent aussi le nombre de contenus retirés liés à la nudité ou aux discours de haine. En revanche, d'autres données manquent : type de vidéos invisibilisées, pourcentage de vidéos invisibilisées par rapport au volume total de vidéos, données sur les avertissements donnés aux utilisateurs en cas d'invisibilisation. Cependant, même parmi les données présentes, il est difficile de vérifier les chiffres. Un audit permettrait de certifier les données sans les rendre publiques, car les enjeux de secret industriel sont très importants.
M. Claude Malhuret, rapporteur. - Il faudrait donc que des acteurs aient accès à des données.
M. Romain Badouard. - Tout à fait, par exemple des agences indépendantes de data mining.
M. Claude Malhuret, rapporteur. - Le shadow banning est-il un problème grave ? Le DSA propose-t-il une solution ?
M. Romain Badouard. - L'enjeu est très important. C'est un nouveau régime d'exercice de la censure : on permet à quelqu'un de s'exprimer dans le vide, sans qu'il ne le sache.
M. Mickaël Vallet, président. - À l'image de nombreux scientifiques sur les plateaux de télévision, qui sont persuadés qu'on les écoute...
M. Romain Badouard. - Par exemple, un utilisateur Facebook suivi par 300 000 personnes constatera que, du jour au lendemain, ses vidéos ne sont vues que par 100 personnes. La raison semble alors inexplicable. Les plateformes, grâce à leur position d'intermédiaire, peuvent décider de paramétrer très précisément le public des contenus. Sur Youtube ou TikTok, les vidéos sont retirées des recommandations. Aux États-Unis, des influenceurs TikTok bons enfants, produisant des vidéos vues par des millions de personnes, ont constaté que des vidéos avec le hashtag #blm, pour Black Lives Matter, après la mort de George Floyd, n'étaient plus vues que par 1 000 ou 100 personnes. Ils ont par la même occasion constaté que seules les vidéos avec ce hashtag #blm étaient concernées, corroborant l'idée d'une forme de censure algorithmique.
Nous n'avons aucune information sur ce point dans les rapports de transparence : nous ne connaissons ni le nombre de personnes concernées ni les critères de sélection. Le flou est le plus total. Le DSA ne prend pas en charge cette question : s'il parle bien de « transparence de la recommandation », il faudrait aussi évoquer la transparence de la non-recommandation ou la transparence de l'invisibilisation ; or la pratique est généralisée, et nous ne disposons d'aucune information pour comprendre l'ampleur du phénomène.
M. Claude Malhuret, rapporteur. - Quant aux pousseurs, le flou règne tout autant.
M. Romain Badouard. - Effectivement, il n'y a pas de transparence non plus en la matière. On ne sait pas comment sont attribués les bonus à la visibilité.
Nous disposons d'informations seulement par l'intermédiaire des associations - les mouvements LGBT+ réalisent de nombreux tests -, mais TikTok a communiqué récemment en publiant les règles d'éligibilité à la recommandation, ou plutôt les contenus inéligibles. La liste est longue : montrer du sang humain ou animal, désinformation, théorie du complot, intégrité électorale, faux engagements, consommation de tabac ou nudité.
L'enjeu est de savoir comment est réalisé ce contrôle. Tiktok a travaillé avec des journalistes sur la désinformation, comme Facebook l'avait déjà fait. Les termes affichés sur la page concernant la désinformation sont très ambigus ; des lanceurs d'alerte pourraient être freinés. Le rapport de News Guard montre que, pour le covid ou la guerre en Ukraine, la désinformation reste très accessible. J'ai été très surpris de constater que, sur Tiktok, les vidéos de désinformation ou prorusses étaient très accessibles, sans savoir si ce résultat était lié à mes intérêts personnels - je suis ces questions sur les réseaux sociaux - ou s'il était lié à la présence de très nombreuses vidéos, ce que corrobore News Guard. Des règles sont mises en place pour exclure des contenus, mais on ne peut en connaître ni la porosité ni l'efficacité.
Mme Annick Billon. - L'Arcom est concernée par le projet de loi numérique à venir. La délégation aux droits des femmes avait produit un rapport sur l'industrie de la pornographie et avait proposé d'assermenter les agents de l'Arcom et de leur donner un pouvoir supérieur de sanction administrative, proposition reprise par ce projet de loi numérique. J'ai entendu vos réticences à l'égard du dispositif pérenne de la Cnil, du tiers de confiance et du contrôle d'accès par reconnaissance faciale : mais ne faut-il pas avancer pour réguler cette industrie ?
Sur les modérations humaine et algorithmique, dispose-t-on de données qualitatives, quantitatives et de données sur l'efficacité de l'une par rapport à l'autre ? En matière de modération, est-il normal que cette industrie s'autorégule ? Ne faut-il pas une régulation extérieure ? Vous avez déjà en partie répondu, par le biais des réponses au rapporteur.
Sur l'organisation du flux d'actualité, nous pourrions imaginer un système de détermination d'un algorithme personnel. Cependant, tous les utilisateurs sont-ils assez éclairés pour le faire, sans tomber dans le piège des réseaux sociaux ? Dès lors, quid d'un réseau social public, quid de son financement ? Quel rôle jouent les monopoles ? Voyez le cas de Google : comment réussir à inverser la tendance ?
M. Romain Badouard. - Je ne suis pas réticent à l'idée d'un système de tiers de confiance, meilleure solution disponible actuellement. Pour les sites pornographiques, cela me semble plus facile à mettre en place, en raison du nombre d'utilisateurs.
Mme Annick Billon. - L'idée de majorité numérique reste la porte d'entrée pour un grand nombre de sujets numériques.
M. Romain Badouard. - Ce n'est pas parce qu'une solution n'est pas parfaite qu'il ne faut pas avancer.
Entre 85 et 95 % des vidéos de TikTok sont modérées automatiquement par des algorithmes, qui sont très performants pour la nudité ou la violence. Pour les contenus haineux, a fortiori pour le cyber harcèlement, cela est plus difficile. Il est facile d'utiliser un mot pour un autre et le cyber harcèlement est lié à un contexte social. Ainsi, le domaine du cyber harcèlement est le lieu où il y a le plus de modération humaine, même si la modération algorithmique y reste majoritaire.
Vous avez raison concernant le paramétrage des algorithmes. Facebook donne déjà cette possibilité : en explorant les paramètres, on peut décider de l'organisation du fil d'actualité. Il y a fort à parier que très peu de personnes utilisent cette option.
S'il est important de rendre possible le paramétrage pour celles et ceux qui le souhaitent, la manière de présenter les paramètres compte tout autant. En effet, la procédure pour personnaliser son fil d'actualité peut être obscure : elle nécessite d'entrer dans les paramètres, de cliquer une dizaine de fois... On peut hésiter, pour l'affichage, entre un critère temporel, de ciblage du contenu, etc. De plus, la visibilité pour faciliter le paramétrage diverge selon les plateformes ; elle dépend de leur bonne volonté.
Puisqu'il existe des chaînes de télévision et de radio publiques, pourquoi n'en serait-il pas de même pour les réseaux sociaux ? Aux États-Unis, de nombreuses recherches sont menées pour déterminer à quoi ils pourraient ressembler. Il en ressort qu'un réseau social public n'impliquerait pas forcément que l'État le détienne ; il devrait être à but non lucratif, détenu par des organisations de la société civile ou par des instituts de recherche. Ses conditions d'indépendance par rapport à l'État devraient être garanties par la loi, comme pour les chaînes de radio et de télévision publiques. Les usagers pourraient également participer à sa gouvernance afin de se prononcer sur la manière dont la modération s'exerce. Pour financer de tels réseaux publics aux États-Unis, une taxe minime sur les bénéfices des grandes firmes de la tech a été proposée.
Ces réseaux fonctionneraient-ils ? Les usagers suivraient-ils ? Pour tout réseau social, la règle économique est celle de l'effet de réseau : on se rend sur l'application où sont tous nos amis et où se trouvent le plus les utilisateurs. Plus ces derniers sont nombreux sur une application et créent de contenus, plus cette application présente d'intérêt pour de nouveaux publics.
Un Instagram ou un TikTok public rencontreraient-ils le succès ? On peut en douter. Néanmoins, ne serait-ce pas une bonne idée de mener une telle expérimentation ? Essayer de créer une telle architecture publique d'information, transparente et participative me semble digne d'intérêt. Même s'il ne faudrait pas forcément la calquer sur TikTok ou sur Instagram, elle permettrait de partager du contenu entre internautes : vidéos, photos, texte... Quand bien même elle ne serait pas une réussite, nous apprendrions beaucoup d'une telle expérience. Nous déterminerions ainsi ce que nous voulons et ce que nous craignons.
Cette question est liée à celle de la situation de monopole. En l'absence de concurrence, les réseaux ont un pouvoir d'autant plus grand et ne sont pas incités à agir de manière plus transparente. En effet, même si les réseaux sociaux sont nombreux, TikTok, Instagram, Facebook, YouTube et Twitch ont chacun leurs spécificités : ils évoluent ainsi sur des marchés qui ne sont pas concurrentiels. Là aussi, la Commission européenne essaie d'instituer de nouvelles règles, car la situation ne sera jamais satisfaisante tant que cette situation perdurera, ce qui est malheureusement un risque pour encore un long moment.
M. André Gattolin. - Vous évoquiez les modérateurs humains de TikTok. Je ne suis pas sûr d'avoir compris : vous avez parlé de 40 000 personnes, puis de 10 000 à 20 000. Que représentent ces chiffres ? D'où provient la différence ?
M. Romain Badouard. - Dans sa documentation officielle, TikTok déclare, en anglais, avoir 40 000 employés qui travaillent à la modération. Cela laisse entendre qu'autant de personnes sont en train de modérer les contenus, mais on peut en douter. Pour prendre l'exemple de Facebook, qui utilise des formules similaires, sur les 30 000 personnes qui travaillent dans la modération, seulement une moitié d'entre elles sont des modérateurs qui passent en revue des contenus. L'autre moitié est composée d'ingénieurs, qui travaillent sur les algorithmes de détection automatique, de juristes, qui se penchent sur l'adaptation des règles, et de personnel administratif employé dans les branches politiques publiques (public policies).
M. André Gattolin. - Cette modération est-elle centralisée ou, en fonction des marchés et territoires nationaux et linguistiques, décentralisée ?
M. Romain Badouard. - Je n'ai pas trouvé l'information pour TikTok. Peut-être existe-t-elle.
M. Mickaël Vallet, président. - Quand vous dites que vous n'avez pas trouvé l'information, leur avez-vous posé la question ?
M. Romain Badouard. - Je n'ai pas eu de contacts directs avec ce réseau. Dans les rapports de transparence qu'elle publie, l'entreprise ne communique pas sur ces modérateurs.
En Chine, un lanceur d'alerte a fait connaître la pression exercée par le gouvernement chinois concernant la modération sur TikTok : selon lui, 20 000 employés seraient dédiés à cette tâche pour l'ensemble du marché international. Pourtant, quand on regarde le modèle des autres plateformes - on peut s'attendre à ce que TikTok dispose du même -, le schéma classique est de répartir les forces de modération partout dans le monde, non pas en employant directement des modérateurs, mais en payant des agences ou des cabinets de conseil qui en emploient dans des centres spécifiques. Par exemple, pour Facebook, il n'existe pas de centre de modération en France, ceux de Berlin et de Barcelone s'occupant des contrôles pour le marché français.
Que les modérateurs soient situés en Chine ou ailleurs, il est sûr qu'ils travaillent dans une grande diversité de langues. J'ai vu circuler - il faudrait le vérifier - le nombre de 60 langues différentes, mais, pour faire simple, on ne connaît pas leur quantité. Pourtant, il serait important de la connaître.
M. André Gattolin. - Je mène de nombreuses recherches sur les données de TikTok. Or, en parlant d'absence de transparence, nous n'arrivons même pas à savoir le nombre d'employés de cette société ! Aux États-Unis, il a été déclaré au début de l'an passé que TikTok comptait 5 800 salariés, et que l'objectif à l'horizon de dix-huit mois ou deux ans était d'en employer 10 000, sans compter le volume extrêmement important de modérateurs.
Quand je fais des extrapolations en matière de modérateurs et d'employés, à partir de quelques chiffres relatifs à l'Inde et à plusieurs autres pays, et à partir d'estimations concernant l'Europe, TikTok - hors Douyin - aurait au total à son service plus de 50 000 ou 60 000 personnes pour un chiffre d'affaires global estimé en 2022 à 9,4 milliards de dollars. Si l'on calcule la masse salariale, surtout que l'entreprise débauche, sans même parler des petites mains derrière la modération, des ingénieurs dans la Silicon Valley et dans les grands pays européens, on ne peut s'en sortir sans un coût d'au moins 7 milliards à 8 milliards d'euros. Je ne comprends donc pas comment cette société peut gagner de l'argent ! Comment fonctionne-t-elle ?
Nous disposons à peu près du volume de public et de revenus publicitaires, car, aux États-Unis et en Europe, nous bénéficions d'évaluations du marché de la publicité, mais nous ne savons pas vraiment ce qu'il en est du chiffre d'affaires réellement contrôlé. Nous ne connaissons pas non plus le nombre d'employés ni leurs fonctions...
Nous parlions des pousseurs et du reach. Quand l'on fait une recherche sur internet, dans toutes les langues, sur TikTok en tapant « marketing » et « business model », il est étonnant de tomber sur des pages de l'entreprise comme « TikTok for business » : il nous y est expliqué comment valoriser notre entreprise de taille moyenne par l'entremise d'agences liées au réseau social, qui, me semble-t-il, ne font pas cela gratuitement. Par conséquent, une partie de la ressource s'évapore, d'autant que la ressource publicitaire n'est pas très élevée sur TikTok, car les formats ne permettent pas de mettre trop de publicité au risque que le public décroche.
J'y vois du mystère et une absence totale de transparence. Aux États-Unis, un phénomène connaît une croissance très rapide : le développement du « me-too marketing », c'est-à-dire le développement par les entreprises d'un produit de secours pour préserver leurs arrières en cas d'interdiction. C'est ce que semble faire TikTok avec Lemon 8, réseau qui, malgré quelques différences, ressemble beaucoup à TikTok. L'objectif serait de prendre les influenceurs les plus célèbres du réseau original pour les transférer dans ce nouveau système.
La question de la réglementation et du suivi se posera à nouveau concernant TikTok. L'impression est celle d'une course de rapidité de la part de cette entreprise dans une logique dont je ne perçois pas la rentabilité commerciale et économique, au moins sur les premières années. J'ai l'impression que TikTok dépense plus d'argent qu'il n'en rapporte.
Concernant la modération, même si on utilise du net slave et de l'intelligence artificielle, cela représente du monde et donc des dépenses, sans même prendre en compte celles en lien avec la technologie.
M. Romain Badouard. - Il est vrai que les volumes sont importants, mais le fait que TikTok dépense plus d'argent qu'il n'en gagne est un modèle classique dans le monde de la tech. L'enjeu est d'atteindre la masse critique d'utilisateurs pour commencer ensuite à monétiser les contenus par la publicité, ce que l'entreprise fait désormais davantage : la publicité est plus importante sur TikTok qu'il y a deux ans ; les utilisateurs peuvent verser des pourboires aux créateurs qu'ils apprécient ; des partenariats avec des marques mettent en avant certains contenus ; certaines travaillent avec des influenceurs sur le réseau, ce dernier prélevant une marge. Il existe donc une vraie diversification du modèle économique, sans que je puisse affirmer si elle explique à elle seule les montants auxquels nous avons affaire. Nous n'avons accès à aucune donnée alors que les normes de transparence seraient bien plus importantes pour n'importe quelle entreprise qui compterait 1 milliard de clients.
Une chercheuse américaine a comparé le monde technologique actuel à l'industrie automobile du début du XXe siècle. Elle note que, lorsque l'industrie automobile a connu un développement fulgurant, les ceintures de sécurité, les airbags et le code de la route n'existaient pas : pour la société et ses représentants, il a fallu légiférer pour imposer ces règles nouvelles. L'histoire des réseaux sociaux en est à ce stade, selon elle : leur développement explose, or les informations manquent et aucune règle ne leur est imposée. Nous en sommes au moment historique où nous réglementons.
Pour TikTok, il paraît assez incongru de ne pas être capable de répondre à des questions basiques : comment l'entreprise gagne-t-elle de l'argent ? Qui sont ses employés ? Que font-ils ? N'importe quelle société communique un minimum sur ces sujets ; les réseaux devront bientôt en faire de même.
M. André Gattolin. - Au cours d'une de nos auditions concernant les sociétés d'auteur, il nous a été indiqué que TikTok ne s'acquittait pas des taxes sur les vidéos et sur la publicité, contrairement à Meta et YouTube. Ne pas payer ces taxes représente pourtant une économie infime au regard des dépenses réalisées. C'est une manière de faire comprendre que TikTok n'accepte pas cette forme de régulation. Elle se rend ainsi suspecte dans ses procédés.
Un des responsables de la SACD nous assurait qu'il savait négocier avec une entreprise, mais pas avec le parti communiste chinois ; il ne voyait pas la rationalité dans la conduite de cette entreprise d'un point de vue entrepreneurial. Je ne pense pas qu'il y ait 40 000 modérateurs chez TikTok, même si les utilisateurs se comptent par milliards et les vidéos par dizaines de milliards. Même si contrôler manuellement est une course à l'échalote, la systématisation de la modération me semble quasi totale.
M. Romain Badouard. - Je suis d'accord. Les journalistes qui enquêtent sur le sujet parlent de 10 000 à 20 000 modérateurs, un chiffre moindre, mais déjà important. Il serait intéressant de savoir qui sont ces gens, sur quels marchés ils travaillent, quelles langues ils maîtrisent, combien ils sont payés et à quels types de conséquences ils sont exposés à modérer les contenus sur TikTok : nous n'avons pas d'informations en la matière. J'aurais aimé pouvoir vous en dire plus.
M. Mickaël Vallet, président. - C'est en soi une réponse à nos interrogations. Nous vous remercions pour vos éclaircissements.
La réunion est close à 17 h 50.
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.