Mardi 2 mai 2023
- Présidence de M. Mickaël Vallet, président -
La réunion est ouverte à 14 h 30.
Audition de M. Pascal Rogard, directeur général de la Société des auteurs et compositeurs dramatiques (SACD)
M. Mickaël Vallet, président. - Nous avons le plaisir d'auditionner M. Pascal Rogard, directeur général de la Société des auteurs et compositeurs dramatiques (SACD), accompagné de M. Patrick Raude, secrétaire général de la SACD.
Monsieur Rogard, après avoir débuté en créant une troupe de théâtre, vous avez présidé différentes fonctions au sein d'organismes professionnels du monde audiovisuel et cinématographique.
Vous dirigez la SACD depuis 2004. Fondée en 1777 par Beaumarchais, elle est la plus ancienne des sociétés françaises de gestion collective des droits d'auteur. La SACD protège, perçoit et répartit les droits de près de 60 000 auteurs membres, dans les domaines du spectacle vivant, de l'audiovisuel, du cinéma et du web. Ces droits d'auteur se sont élevés à plus de 250 millions d'euros en 2022, un chiffre record.
La montée en puissance des plateformes peut apporter de nouvelles ressources aux auteurs du secteur audiovisuel et du spectacle vivant, en leur offrant de nouveaux moyens de diffusion. Encore faut-il que ces plateformes respectent les droits d'auteur.
Votre société a signé en décembre 2022 un accord avec le groupe Meta, portant sur l'utilisation du répertoire de la SACD. Les utilisateurs de Facebook et d'Instagram peuvent regarder et partager librement les oeuvres de ce répertoire et les auteurs de ces oeuvres sont rémunérés en conséquence.
Si un accord a été passé avec Meta, aucun contrat similaire n'a été conclu avec TikTok. La SACD envisagerait même d'assigner l'entreprise pour non-respect du droit d'auteur. Vous nous direz où en sont vos relations avec cette entreprise et nous donnerez vos propositions pour assurer une application effective du droit d'auteur sur TikTok.
Je rappelle que cette audition est retransmise en direct sur le site du Sénat.
Avant de vous laisser la parole pour un exposé liminaire, je vais procéder aux formalités d'usage pour les commissions d'enquête. Un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».
MM. Pascal Rogard et Patrick Raude prêtent serment.
M. Pascal Rogard, président de la SACD. - La SACD est la plus ancienne société d'auteur du monde, puisqu'en fait, Beaumarchais a inventé le droit d'auteur créant la première société d'auteurs. Nous avons une expérience déjà longue de négociation avec les plateformes numériques, depuis celle avec YouTube qui a conduit à l'accord que nous avons passé en 2010. À l'époque, nous n'avions pas le droit de dire que YouTube avait accepté le principe, cher à Beaumarchais, de la rémunération proportionnelle, puisque les entreprises mondialisées n'aiment pas reconnaître qu'elles accordent plus de droits à un pays qu'aux autres. Ce principe s'est largement étendu depuis, puisqu'il a été, grâce à l'action volontaire de la France, inscrit dans la directive Droit d'auteur de 2019, qui a élevé le niveau de protection à un niveau jamais atteint, en particulier en France où le Premier ministre Jean Castex a décidé une transposition ambitieuse - et je l'en remercie. Après YouTube, nous avons négocié un accord avec Netflix et les choses se sont très bien passées également, les responsables de la plateforme étaient venus nous voir avant même d'ouvrir leur service en France et nous nous sommes mis d'accord trois ou quatre mois après cette ouverture ; cet accord est satisfaisant pour les auteurs et, contrairement à ce que l'on entend ici ou là, Netflix respecte le droit d'auteur. Nous avons également négocié avec Amazon, avec Disney, des plateformes comparables par leur objet avec Netflix. Nous avons négocié aussi avec Meta, une plateforme différente car issue d'un site communautaire, et nous sommes parvenus à un accord après 18 mois - les négociations sont parfois complexes avec les sociétés américaines du fait que nos interlocuteurs directs doivent en référer et négocier eux-mêmes avec leur hiérarchie qui est aux États-Unis et qui ne connait pas toujours le fonctionnement de notre droit d'auteur.
Avec TikTok la situation est inédite. Habituellement, nous passons un accord de confidentialité avant d'engager des négociations, où chaque partie s'engage à ne pas dévoiler le contenu précis de la transaction et de ses étapes ; or, TikTok a exigé que nous taisions, y compris à notre conseil d'administration, l'objet même de la négociation, ce qui nous a empêché d'aboutir à un accord de confidentialité - nous avons dû en passer par des discussions par l'intermédiaire d'avocats, ce qui garantit leur confidentialité. La première rencontre que nous avons eue avec TikTok, il y a un an, a eu lieu non pas avec un opérationnel de TikTok, mais avec le directeur des affaires publiques pour la France, Éric Garandeau, dont la fonction est en fait d'acheter de l'influence, pas d'organiser le service. Nous lui avons bien signifié que TikTok pose un problème pour les droits d'auteur, un sujet qu'il connait bien puisqu'il a été par le passé le conseiller du président Nicolas Sarkozy, lequel s'était engagé pour ces droits. Ces problèmes de droit d'auteur ont été constatés par l'Association de lutte contre la piraterie audiovisuelle (ALPA), qui a missionné un expert indépendant, lequel a établi que des oeuvres de notre répertoire étaient diffusées sur TikTok sans que leurs auteurs en soient rémunérés. C'est un motif pour assigner TikTok en justice, mais nous préférons la voie de l'accord, comme nous l'avons fait avec les autres plateformes, qui nous fournissent ensuite les données indispensables pour établir la rémunération des auteurs dont les oeuvres sont diffusées.
Ce qui nous choque avec TikTok, c'est que cette entreprise qui ne respecte pas le droit d'auteur, achète de l'influence culturelle et que de grandes institutions culturelles acceptent des partenariats et associent leur nom à une entreprise qui néglige le droit d'auteur. TikTok est allée chercher Éric Garandeau, ancien président du CNC, ancien conseiller culturel du président Sarkozy, pour acheter de l'influence culturelle - et de grands noms suivent, c'est le cas pour le Festival de Cannes, le Louvre, le Salon du livre, la Réunion des musées nationaux (RMN), l'École nationale supérieure Louis-Lumière, le Forum des Images... J'ai fait un courrier au Festival de Cannes pour déplorer ce partenariat avec une entreprise qui pratique de la piraterie audiovisuelle, les responsables du festival m'ont répondu qu'ils avaient besoin d'argent... L'an dernier, TikTok a même organisé un festival du court métrage, dont le jury était présidé par le grand cinéaste Rithy Panh, lequel a démissionné pour protester contre les pressions qu'il subissait pour le choix des lauréats ; il a eu ensuite une explication avec TikTok, qui l'a assuré de sa liberté de choix, et il a alors réintégré sa fonction.
Nous avons donc demandé à venir devant votre commission d'enquête pour faire passer ce message : TikTok fait de l'obstruction sur le droit d'auteur, mais nos institutions culturelles acceptent son argent, son influence, c'est choquant.
M. Patrick Raude, secrétaire général de la SACD. - Le droit d'auteur comporte une partie rémunération, mais aussi le droit moral sur l'oeuvre, qui est également atteint sur TikTok puisque des oeuvres y sont découpées, plagiées, utilisées comme fond sonore ou pour leur décor, sans que leurs auteurs en soient d'accord.
Je précise aussi que si la négociation avec Meta a été longue, nous avions établi, dès le début de la négociation, que l'accord auquel nous parviendrions serait applicable à la date de transposition de la directive européenne de 2019, donc en mai 2021 - le délai de négociation avec Meta ne désavantagerait donc pas les auteurs. Avec TikTok, nous ne sommes pas même parvenus à définir un accord de confidentialité, c'est dire...
M. Pascal Rogard. - J'ai été accusé de dénigrer TikTok parce que j'ai retweeté un message du Président de la République qui critiquait l'influence néfaste de cette plateforme sur les adolescents... Au passage, je vous suggère de lire les recommandations de TikTok à destination de ceux qui tirent des revenus de la plateforme : dans les faits, TikTok peut démonétiser tout contenu qui lui déplait, en le « débranchant » de toute publicité, donc de tout revenu : si mon oeuvre déplait à TikTok, la plateforme peut m'empêcher d'en retirer tout revenu, c'est une restriction de la liberté de création et d'expression. Le comportement de TikTok est inédit et, personnellement, je n'avais jamais fait l'objet de menaces si directes pour avoir retweeté...un message venu d'une personnalité publique aussi connue que le président de la République ! Et ce n'est pourtant pas faute de m'être déjà exprimé contre l'avis de gens très connus...
M. Mickaël Vallet, président. - Pour mener des négociations, vous avez nécessairement besoin de rendre compte à vos mandants, donc à votre conseil d'administration ; mais vous nous dites que TikTok imposerait que vous n'en parliez pas du tout, y compris à vos mandants : comment la chose est-elle possible ? Est-ce même envisageable ?
M. Pascal Rogard. - C'est nouveau, effectivement. S'il est normal de ne pas informer sur l'état des négociations à mesure qu'elles se déroulent, la demande de TikTok était différente, c'est pourquoi nous n'avons pas pu signer d'accord de confidentialité et que, pour contourner cette difficulté, nous discutons en présence d'avocats. Pour le dire plus simplement, je n'ai jamais rencontré des gens pareils dans ma vie professionnelle - il faut dire, aussi, que je n'ai jamais non plus rencontré de Secrétaire général du Parti communiste chinois...
M. Patrick Raude. - TikTok était d'accord qu'on fasse état de l'existence de négociations, mais pas pour qu'on dise quel en serait l'objet. Avec Meta, nous avions annoncé qu'on discutait des droits d'auteur, dans le double volet de la rémunération et du droit moral ; TikTok a refusé cette mention pourtant bien générale. Dans le même temps, TikTok ne nous donne aucun moyen pour mesurer quelles sont les oeuvres de notre répertoire diffusées sur sa plateforme. L'étude que l'ALPA a réalisée n'est qu'un échantillon, et pour connaitre la proportion réelle des oeuvres de notre répertoire diffusées sur la plateforme, nous avons besoin d'informations que seule la plateforme détient. YouTube, par exemple, nous communique un fichier très important, que nous traitons pour évaluer le poids des oeuvres de notre répertoire. TikTok, de son côté, nous renvoie la question, en nous demandant quelles sont « nos » oeuvres diffusées sur sa plateforme.
M. Pascal Rogard. - Le constat de l'ALPA résulte d'un travail manuel, sur un échantillon nécessairement petit. L'enquêteur souligne que TikTok n'identifie pas les oeuvres qui transitent sur sa plateforme, ce qui est déjà accablant. Si les négociations n'aboutissent pas, nous assignerons la plateforme et je n'ai aucun doute sur le fait que la justice nous donne raison.
M. Claude Malhuret, rapporteur. - Vous dites n'avoir jamais fait l'objet de telles menaces pour la diffusion d'un tweet : de quelles menaces parlez-vous, plus précisément ?
M. Pascal Rogard. - Une menace de poursuite en diffamation, ceci parce que je retweetais un message du président de la République... Cependant, je veux bien reconnaitre que le contenu que je diffuse dérange TikTok, quand je ne fais pourtant que reprendre les articles de journaux très nombreux sur le fait que cette plateforme ne respecte pas nos règles sur les données personnelles, ou sur les problèmes qu'elle pose aux adolescents, il y a eu encore très récemment une affaire en Grande-Bretagne, sans parler de ce qui se passe aux États-Unis, où s'ajoute une dimension politique indéniable. De fait, les articles contre TikTok ne manquent pas, alors que c'est l'application qui a le plus progressé ces derniers mois.
M. Claude Malhuret, rapporteur. - Vous dites devoir discuter en présence d'avocats, mais aussi que vous n'avez pu engager aucune négociation avec TikTok : est-ce parce que vous n'êtes pas même parvenus à vous entendre sur le préalable, l'accord de confidentialité, ou bien parce qu'il y a des blocages sur le fond ?
M. Patrick Raude. - La présence d'avocats permet de se passer de l'accord de confidentialité, mais nous n'avons pas pour autant d'échanges sur le fond de l'accord, puisque pour définir un accord il faut au préalable évaluer le poids des oeuvres de notre répertoire sur la plateforme, ce que TikTok prétend ne pas pouvoir faire, ni même nous communiquer un fichier qui nous permette de le faire, alors que cette plateforme ne manque évidemment pas d'outils numériques. Nous sommes donc allés à la pêche, manuellement, dans l'étude commandée par l'ALPA, mais cet échantillonnage, s'il établit le fait, n'en montre pas l'étendue précise - cela fait maintenant deux ans que nous attendons que TikTok communique les informations nécessaires à un accord, sachant que le prix des oeuvres dépend de leur part dans les contenus diffusés.
M. Pascal Rogard. - TikTok étant un concurrent de YouTube, les règles européennes obligent à une égalité de traitement, ce qui n'est pas le cas aujourd'hui puisque les créateurs de contenu paient des droits d'auteurs sur YouTube mais pas sur TikTok : il ne faudrait pas que cette différence de traitement fasse migrer une partie de la création vers la plateforme qui ne paie pas de droits d'auteur...
M. Claude Malhuret, rapporteur. - Vous dites que les discussions avec les sociétés américaines sont rendues plus compliquées par le fait que vos interlocuteurs doivent en référer à leur hiérarchie, on le comprend aisément ; mais vous dites qu'avec TikTok les choses sont plus compliquées encore, et vous illustrez la chose en disant que vous n'avez jamais discuté... avec le Secrétaire général du parti communiste chinois. Est-ce que vous suggérez-là que TikTok dépend directement du pouvoir chinois ? Quand vous discutez avec TikTok, quels sont vos interlocuteurs ? A qui en réfèrent-ils ? Avez-vous identifié un board européen ? Un board chinois ?
M. Patrick Raude. - Nous avons rencontré Éric Garandeau à titre individuel, parce que nous le connaissions antérieurement, son rôle consiste à distribuer des subsides, à acheter de l'influence, il n'est pas dans la négociation. Pour ce qui est de nos interlocuteurs à proprement parler, ils sont difficiles à identifier, j'en ai eu six ou sept différents, en visioconférence depuis Londres ou l'Irlande. De fait, nous ne connaissons pas en détail la gouvernance des plateformes, cela n'a jamais été un obstacle à la finalisation d'un accord. Les négociations avec les plateformes américaines sont certes longues, mais une fois un contrat signé, ces plateformes en facilitent l'exécution, ce qui n'est pas toujours le cas par exemple avec les entreprises françaises, où l'interprétation de l'accord donne bien davantage lieu à de nouvelles négociations... Avec les Américains, on discute longtemps, parce qu'ils cherchent à anticiper les problèmes qui peuvent se poser ; une fois l'accord obtenu, on peut compter sur leur coopération pour l'application.
M. Pascal Rogard. - La situation a été différente pour chaque plateforme. Les choses se sont passées très directement avec Netflix, qui avait alors à son conseil d'administration l'actuel président de TF1, ce qui a pu faciliter des choses. Les cas d'Amazon ou de Disney sont différents, mais la négociation s'est bien déroulée également - en réalité, nous avons eu de grandes difficultés surtout avec Canal +, que nous avons dû assigner, ce qui a eu l'effet magique de régler les choses, une semaine avant le passage devant le tribunal...
Or, avec TikTok, nous sommes face à un mur d'opacité que je n'ai jamais rencontré en deux décennies à la tête de la SACD...
M. Claude Malhuret, rapporteur. - Pourriez-vous nous communiquer la liste de vos interlocuteurs, ou bien êtes-vous tenus par la confidentialité ?
M. Patrick Raude. - Dès lors que nous n'avons pas d'accord de confidentialité, nous pourrons vous communiquer le nom de nos interlocuteurs, parfois les fonctions qu'ils occupent, quand nous les avons identifiées...
M. Claude Malhuret, rapporteur. - Nous comprenons que les pertes de recettes pour les auteurs soient difficiles à évaluer, mais en avez-vous une idée, cependant ?
M. Patrick Raude. - A ce stade non, la comparaison avec YouTube nous donne un ordre de grandeur, mais la perte reste difficile à établir puisque la rémunération passe par un pourcentage du chiffre d'affaires, lui-même fonction de la représentativité des oeuvres de notre répertoire dans les contenus diffusés. Or, nous ne connaissons ni le chiffre d'affaires de TikTok, ni cette représentativité.
M. Mickaël Vallet, président. - Que diriez-vous de la comparaison avec YouTube ?
M. Pascal Rogard. - Je dirais que notre présence sur TikTok est au moins égale à celle sur YouTube. Lorsque nous avons lancé la négociation avec YouTube, le responsable de la plateforme m'avait affirmé qu'il n'accepterait jamais de passer par un pourcentage des recettes d'exploitation, préférant une rémunération forfaitaire ; j'ai tenu bon, rappelant que ce principe de rémunération proportionnelle datait de...1791. Résultat : YouTube y est venu, et c'est la règle dans la directive européenne de 2019. Avec TikTok, il faut compter aussi avec la progression très rapide de la plateforme - je crois donc ne pas me tromper en affirmant que les auteurs de notre répertoire y sont au moins autant présents que sur YouTube.
M. Patrick Raude. - J'ajoute que nous n'avons pas la moindre idée du chiffre d'affaires de TikTok en France.
M. Claude Malhuret, rapporteur. - Vous parlez de piraterie audiovisuelle, quels sont vos liens avec l'ALPA ?
M. Pascal Rogard. - Nous sommes membres de l'ALPA, aux côtés de sociétés de producteurs, y compris américains, j'ai de très bonnes relations avec son président, Nicolas Seydoux, nous nous sommes rapprochés de Frédéric Delacroix, le Délégué général de l'ALPA, qui a fait établir le constat que je vous communiquerai. Ce constat est le résultat d'un travail manuel réalisé par un agent assermenté qui a listé les oeuvres du répertoire de la SACD présentes lors de son utilisation de TikTok. Si certaines oeuvres ont pu être autorisées de diffusion, les autres sont piratées - surtout, nous ne savons pas ce que TikTok fait pour les protéger. YouTube a mis en place un marquage des oeuvres, qui garantit à leurs auteurs une protection efficace : dès lors que l'auteur marque l'oeuvre, elle n'entre pas dans la diffusion, c'est simple et efficace. La protection contre la piraterie est donc possible sur les plateformes, dès lors que les ayants droit marquent les oeuvres et que la plateforme accepte de mettre en place les outils. C'est d'ailleurs la raison pour laquelle la piraterie audiovisuelle a baissé ces dernières années - par la combinaison de ces outils qui bloquent la diffusion des oeuvres protégées et d'un accès facilité aux oeuvres payantes.
M. Patrick Raude. - L'ALPA a développé des mécanismes opérationnels avec les plateformes, pour accélérer le retrait d'oeuvres. L'objectif de la SACD n'est pas d'interdire la diffusion des oeuvres, mais d'assurer qu'elle se fasse en respectant le droit d'auteur ; or, TikTok feint de ne pas le comprendre, en nous demandant seulement : « Quelles oeuvres voulez-vous retirer de notre plateforme ? ».
M. Claude Malhuret, rapporteur. - L'épisode que vous rapportez sur le festival de court métrage, avec la démission du président du jury pour raison de pressions sur le choix des lauréats, est-il documenté dans la presse ?
M. Pascal Rogard. - Largement, vous trouverez nombre d'articles sur internet. Rithy Panh s'est retiré de la présidence, avec deux autres membres du jury, estimant que le jury subissait des pressions, puis il a eu une discussion avec TikTok, qui lui a garanti toute liberté dans le choix - alors il est revenu sur sa décision de partir, en disant qu'il préférait rester pour promouvoir le cinéma auquel il croit. Au-delà de cet épisode, je trouve scandaleux que le Festival de Cannes fasse la promotion d'une entreprise pirate.
M. Claude Malhuret, rapporteur. - Le Digital Services Act (DSA) européen vous paraît-il en mesure de responsabiliser les plateformes numériques ? Quelles vous en paraissent les conséquences sur la protection des oeuvres ?
M. Pascal Rogard. - La protection des oeuvres est assurée par la directive sur le droit d'auteur, c'est avec cet outil que nous avons obtenu qu'un candidat à la présidentielle respecte le droit d'auteur dans l'un de ses clips de campagne - et je dois souligner que la justice est rapide en la matière, puisque nous avons obtenu que ce candidat renonce à l'utilisation d'images sans autorisation. Le DSA vise la protection des données personnelles, pas le droit d'auteur ; ce qui compte, cependant, c'est l'environnement global des plateformes, il est important que les données personnelles soient protégées et que les droits d'auteurs soient respectés, le tout se tient.
M. André Gattolin. - Je suis heureux que vous disiez les choses aussi clairement, car nous avons entendu des sommités du numérique affirmer que toutes les plateformes avaient le même comportement, TikTok comme les autres : vous démontrez bien que cette plateforme n'est pas comme les autres. Si je vous comprends bien, TikTok n'acquitte pas non plus des taxes sur les recettes publicitaires alors qu'elle le devrait ?
M. Pascal Rogard. - Je le crois, et vous pouvez le vérifier en interrogeant le CNC.
M. André Gattolin. - Je vous rejoins pour déplorer l'opacité de TikTok, on ne connait pas son chiffre d'affaires, ses liens précis avec le site chinois Douyin, qui est aussi une plateforme de vente en ligne, rien n'est clair. J'essaie d'en savoir plus, c'est très difficile. Les recettes publicitaires représenteraient moins de la moitié du chiffre d'affaires, mais en quoi consiste donc ce chiffre d'affaires, quand on sait que la plateforme rémunère les influenceurs et que la publicité est plus difficile à placer dans les séquences très courtes qui sont regardées sur TikTok ? Comment une telle opacité est-elle possible : une entreprise qui réalise une telle activité en France, n'a-t-elle pas l'obligation de déclarer ses comptes et de se soumettre à une forme de contrôle ?
M. Pascal Rogard. - La direction générale des finances publiques (DGFiP) est la mieux à même de vous renseigner sur le sujet. Le problème avec TikTok, c'est qu'on ne connait pas sa gouvernance. Avec les Américains, les entreprises dont on parle sont cotées en bourse, leurs comptes sont donc publics et épluchés par des analystes qui signalent le moindre changement. Ce n'est pas du tout le cas de TikTok, qui est entourée d'un halo d'opacité - ce qui justifie pleinement votre commission d'enquête. Avec les Américains, nous avons des discussions longues, âpres, pour parvenir à un accord, mais une fois l'accord obtenu, les entreprises américaines comme Amazon, Netflix et Disney les appliquent bien - ces entreprises étant aussi des producteurs de contenus, elles savent l'importance du droit d'auteur. Avec TikTok, c'est très différent, nous n'avons pas affaire aux mêmes personnes, ces gens sont différents et si nous nous heurtons à de telles difficultés, c'est qu'ils n'ont pas l'air de comprendre nos règles, ils ne sont pas dans notre monde classique. J'espère que votre commission d'enquête lèvera le voile sur cette entreprise, nous entendons des choses très curieuses, y compris sur des mouvements dans l'actionnariat de TikTok.
M. Patrick Raude. - L'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a conduit une enquête auprès des plateformes ; la seule qui n'a pas répondu à ses questions, c'est TikTok...
Mme Marie Mercier. - Je comprends que TikTok recherche de l'influence, mais l'intérêt des institutions culturelles, du Salon du Livre, de la RMN, est-il seulement financier ? Vous parlez de mur d'opacité, c'est effectivement le cas, on le voit dans l'application de la loi du 30 juillet 2020 qui protège les enfants contre la diffusion de contenus pornographiques : l'Arcom a assigné plusieurs plateformes en justice, mais le tribunal a nommé un médiateur, ce qui pose une question sur sa capacité à juger - et l'Arcom a quitté la médiation, estimant qu'elle ne pouvait pas régler le problème ; la décision du tribunal devrait intervenir en juillet, quelle est votre analyse sur ce sujet ?
M. Pascal Rogard. - L'intérêt du Salon du Livre à un partenariat avec TikTok est financier : quand quelqu'un vous propose un chèque et que vous avez besoin d'argent, il n'est pas toujours aisé de refuser. Lors d'une réunion avec les grands éditeurs français, je les ai informés des problèmes de droit d'auteur avec TikTok, les éditeurs sont concernés puisque des contenus audiovisuels sont directement tirés de livres qu'ils ont publiés ; certains n'avaient pas du tout conscience du problème, ils en ont été horrifiés - les choses vont peut-être changer avec la prise de conscience. Ce qu'on constate, en tout cas, c'est que TikTok déploie clairement une stratégie d'influence orientée vers les institutions culturelles.
Je ne connais pas bien le sujet de la diffusion des oeuvres pornographiques, je sais qu'il est difficile de bloquer l'accès aux plateformes car les procédures de certification sont considérées comme portant atteinte aux libertés publiques. C'est aussi aux parents d'utiliser les outils de blocage.
M. Mickaël Vallet, président. - Ce n'est pas satisfaisant de demander aux parents d'éviter que leurs enfants ne regardent ce qui est public - lorsqu'il y a un attentat à la pudeur, c'est celui qui le commet qui est incriminé...
M. Pierre Ouzoulias. - Merci pour la qualité de votre propos. J'espère que nous obtiendrons des informations précises sur les montants touchés par les organismes publics dans leur partenariat avec TikTok : ces données, au moins, devraient être accessibles. Par quels outils juridiques pourrait-on obliger TikTok à respecter nos règles ? Quelle articulation entre les outils nationaux et européens ? Faut-il agir devant la justice irlandaise, dont relève le siège européen de TikTok ? Peut-on obliger TikTok à changer son système - l'entreprise ne préfèrera-t-elle pas acquitter une amende ?
M. Pascal Rogard. - Nous privilégions la discussion, la négociation, d'autant que nous avons besoin de relation de confiance pour accéder aux données. Mais si nous n'arrivons pas à un accord, nous assignerons TikTok pour contrefaçon - et j'ai toute confiance sur le fait que les juges nous donneront raison, le droit d'auteur est protégé et bien défendu par notre justice, qui applique la directive européenne de 2019. Cette directive a été obtenue contre les plateformes, qui étaient parvenues dans un premier temps à ce que le Parlement européen vote contre ; il a fallu y revenir, la France a joué un rôle très actif, puis le gouvernement de Jean Castex a choisi une transposition très ambitieuse de cette directive, je tiens à l'en remercier. Nous disposons donc des outils judiciaires pour assigner TikTok - il y a aussi des possibilités au pénal, auxquelles nous n'avons pas recouru jusqu'à présent, mais rien ne l'interdit -, et je ne doute pas que nous gagnerons devant le tribunal. Compte tenu des problèmes que TikTok a déjà aux États-Unis et ailleurs, je pense qu'une telle perspective est de nature à faire réfléchir cette entreprise.
M. Patrick Raude. - Nous représentons aussi des auteurs établis en Belgique et au Canada, pas seulement en France. En pratique, nous n'avons pas besoin de nous présenter devant la justice irlandaise, puisqu'avec la transposition de la directive européenne, nous avons les moyens d'agir devant les tribunaux nationaux.
M. Mickaël Vallet, président. - A quoi attribuez-vous le fait qu'à la différence des autres plateformes, vous n'avez pas affaire, avec TikTok, à des négociateurs bien identifiés ? Quel est l'intérêt de TikTok à ne pas régler le problème et à laisser faire de la piraterie ? Pourquoi les représentants français de l'entreprise ne parviendraient pas à faire entendre nos règles : pensez-vous qu'il y a un décalage culturel ?
M. Pascal Rogard. - Je pense que cette entreprise est une énigme. Personne ne sait qui la contrôle : le patron du parti communiste chinois ? Des actionnaires ? On ne sait pas... Vous faites une commission d'enquête sur TikTok, pas sur Netflix ni sur Youtube... Des entreprises comme Amazon ou Disney sont obligées de présenter leur organigramme, leurs comptes, ces données sont publiques ; avec Tiktok, c'est tout autre chose, on est dans un autre monde. Quelle est, même, la finalité de TikTok : la récolte de données ? L'espionnage ? Personne ne peut répondre... J'ai entendu qu'un spécialiste de l'influence de la Chine, n'avait pas été capable de vous répondre précisément sur le sujet. Nous ne savons pas qui dirige cette entreprise, il n'y a aucune transparence sur sa hiérarchie. Notre interlocuteur français est cet inspecteur des finances - je trouve choquant, à ce propos, qu'il reste inspecteur des finances alors qu'il occupe un tel poste, mais c'est une autre affaire... Je ne fais que le répéter : je suis choqué que des institutions culturelles de notre pays signent des partenariats avec une entreprise qui laisse pirater des oeuvres et qui se moque de nous. Je l'ai écrit au Festival de Cannes, on m'y a répondu que c'était par besoin d'argent - je ne peux me satisfaire d'une telle réponse...
M. Claude Malhuret, rapporteur. - La Société des auteurs, compositeurs et éditeurs de musique (Sacem), elle, aurait signé un contrat avec TikTok : en connaissez-vous le contenu et envisageriez-vous de vous en inspirer ?
M. Pascal Rogard. - La Sacem est dans une autre position que la nôtre parce qu'elle regroupe aussi des éditeurs de musique, ce qui lui donne plus de pouvoir de négociation. Je n'ai pas d'information sur cet accord, la Sacem ne peut pas m'informer puisqu'elle est tenue à la confidentialité. Il me semble que les adhérents de la Sacem peuvent accéder à ces informations, comme c'est le cas avec nos auteurs - à la SACD, nos adhérents peuvent venir consulter les accords que nous avons avec les plateformes, dans les deux mois précédant notre assemblée générale, certains l'avaient fait pour l'accord avec Netflix.
M. Patrick Raude. - Les sociétés musicales ont toutes des accords avec les plateformes, mais ce n'est pas le cas avec les auteurs dramatiques, où nous sommes pionniers, car peu de pays protègent les auteurs comme nous le faisons : l'accord avec YouTube était une première, et nous passons beaucoup de temps à devoir expliquer le modèle français de protection des droits d'auteur.
M. Pascal Rogard. - Le droit à une rémunération proportionnelle des auteurs dramatiques n'a été reconnu que très récemment dans bien des pays européens, c'est une nouveauté pour eux, par exemple en Allemagne : ce changement est une conquête pour les auteurs, à l'échelle du continent. Les sociétés musicales, elles, sont dans une autre position puisqu'elles détiennent l'essentiel des catalogues de musique, les diffuseurs ne peuvent s'en passer et ils ont l'habitude de négocier avec elles, depuis longtemps.
M. Pierre Ouzoulias. - En 2019, le Sénat s'était déjà intéressé à ces questions, avec une commission d'enquête sur la souveraineté numérique, dont le rapporteur était Gérard Longuet. Je viens de le vérifier : TikTok n'est pas même mentionné dans le rapport de cette commission, c'est dire que les choses vont très vite et que nous devons sans cesse courir derrière les événements du numérique.
M. Mickaël Vallet, président. - Une partie des réponses vous parait-elle tenir, comme nous l'a suggéré un universitaire que nous avons auditionné, au fait que TikTok serait débordée par une croissance trop rapide ?
M. Pascal Rogard. - Je n'ai jamais connu de telles difficultés avec une entreprise, ni cette dichotomie entre la recherche d'une influence culturelle par une politique du carnet de chèque, et le refus de reconnaitre le droit d'auteur. TikTok a peut-être des difficultés liées à sa croissance très rapide, mais cela ne peut pas expliquer son comportement envers le droit d'auteur, c'est une question désormais classique et assez facile à traiter - mais l'entreprise ne fait rien dans cette direction, nos interlocuteurs changent, rien n'est décidé. Je ne comprends pas pourquoi, alors que TikTok a de telles difficultés en particulier aux États-Unis, l'entreprise ne cherche pas à résoudre ce problème de droit d'auteur en France et plus largement en Europe, pourquoi elle ne se met pas en conformité avec nos règles, comme l'ont fait les autres plateformes. YouTube a joué le jeu, la plateforme paie ce qu'elle doit au CNC, et en retour elle tire avantage de notre système puisque le CNC a créé un fonds pour les youtubeurs, il les aide dans leur activité.
M. Patrick Raude. - Je crois que c'est un choix stratégique de l'entreprise, de privilégier à tout prix la croissance, que ses buts soient commerciaux ou qu'ils aient d'autres fins. C'est pourquoi TikTok investit dans les affaires publiques, dans l'influence, et pas dans la rémunération du droit d'auteur - j'y vois donc un choix stratégique plutôt que le résultat de difficultés techniques, je ne crois pas que TikTok manque de moyens ni d'outils pour faire ce que nous lui demandons.
M. André Gattolin. - Comment fonctionne la responsabilité, dans la production des contenus sur TikTok, lorsqu'un créateur utilise des oeuvres déjà existantes ? Doit-on s'en prendre aux créateurs, ou bien à la plateforme ?
M. Pascal Rogard. - Les créateurs mettent à disposition leurs oeuvres sur les plateformes, elles sont alors considérées comme des créations originales. A la SACD, nous avons deux studios d'enregistrement à cet effet, je vous invite à venir les voir. Sur TikTok, des internautes utilisent les oeuvres sans autorisation, ils les détournent et quand le créateur original veut s'y opposer, on lui rétorque qu'il s'en prend à une oeuvre dont il n'est pas le créateur : sur TikTok, le pirate est protégé, au détriment du créateur. Ces difficultés peuvent être levées avec les outils de protection que YouTube, par exemple, a accepté de mettre en place, et qui permet de retirer rapidement une oeuvre dont l'utilisation n'a pas été autorisée. La meilleure façon de protéger une oeuvre, c'est de la marquer pour qu'elle ne soit pas utilisée sans autorisation, cela fonctionne très bien contre la piraterie.
M. Patrick Raude. - Le refus de tels équipements me semble relever d'un choix stratégique de TikTok.
M. Claude Malhuret, rapporteur. - TikTok ne participe pas au financement du CNC, alors qu'il y est tenu légalement : me le confirmez-vous ?
M. Pascal Rogard. - Oui, ce financement est obligatoire, heureusement d'ailleurs, car notre système ne pourrait pas dépendre de la seule bonne volonté des diffuseurs... Je rappelle que notre système, voulu par le législateur, taxe les recettes d'exploitation pour aider la production de contenus, mais aussi, par exemple, la modernisation des salles de cinéma. La taxe dite « YouTube » sur les plateformes numériques, a étendu ce système aux plateformes en les faisant contribuer au financement du CNC, et celui-ci a créé un fonds de soutien pour les youtubeurs : c'est bien le signe que les plateformes peuvent s'insérer dans notre système audiovisuel régulé, qui est unique au monde pour ses avantages de redistribution - et ces avantages expliquent la vitalité de la production audiovisuelle française. L'intégration des plateformes à notre système se justifie d'autant plus qu'elles ont gagné dans la pandémie. Nous avons aussi progressé avec la directive « Services de médias audiovisuels » (SMA) de 2018, qui oblige les multinationales à communiquer le chiffre d'affaire réalisé par pays, alors que la règle était jusqu'alors que l'impôt à payer était celui du pays d'origine, d'où le fait que les multinationales concernées ont toutes placé leur siège dans le pays européen où l'on paie le moins d'impôt sur les sociétés...
M. Claude Malhuret, rapporteur. - Vous confirmez que TikTok est censée payer cette taxe, mais qu'elle ne la paie pas ?
M. Patrick Raude. - Nous ne sommes pas en mesure de vous l'affirmer, c'est ce qui se dit : en réalité, seule la DGFiP peut vous dire ce qu'il en est.
M. Pascal Rogard. - Le CNC peut aussi vous donner cette information. En tout cas, il n'est pas juste que YouTube s'en acquitte, et pas TikTok.
M. Patrick Raude. - Nous avons des indices : les dépenses sur le fonds de soutien suivent celles du fonds de soutien YouTube, et il n'y a pas de fonds de soutien TikTok...
M. Mickaël Vallet, président. - Merci pour toutes ces précisions.
La réunion est close à 15 h 55.
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.
Mercredi 3 mai 2023
- Présidence de M. Mickaël Vallet, président -
La réunion est ouverte à 13 h 45.
Audition de M. Tariq Krim, entrepreneur et spécialiste des questions du numérique
M. Mickaël Vallet, président. - Chers collègues, nous débutons notre après-midi de travail avec l'audition de M. Tariq Krim. Vous avez été l'un des pionniers de l'écosystème français du Web.
Vous êtes l'initiateur du mouvement Slow Web, qui prône un usage « apaisé » du numérique. Vous avez fondé plusieurs jeunes pousses, dont Netvibes et Jolicloud. Netvibes est une jeune pousse française qui a eu beaucoup d'influence en termes de « design produit » dans la Silicon Valley et qui a gagné de nombreux prix prestigieux. Jolicloud a lancé le jolibook, un ordinateur à moins de 250 euros développé en France et utilisant un service de cloud personnel respectueux de la vie privée.
Par ailleurs, depuis une vingtaine d'années, vous militez pour une véritable politique de souveraineté numérique en France. Vous intervenez ainsi régulièrement dans les médias en tant que « lanceur d'alerte numérique », spécialiste des questions de « géopolitique numérique », d'éthique, de militarisation du réseau et d'économie numérique. Vous avez enfin été vice-président du Conseil national du numérique, où vous avez une voix singulière.
Votre expérience, votre expertise et vos prises de position affirmées en faveur d'une plus grande souveraineté numérique française et européenne nous intéressent particulièrement. Aujourd'hui, nous ne savons toujours pas ce qu'est au juste TikTok : s'agit-il d'une entreprise commerciale dont la croissance et le succès dépassent désormais celui des autres réseaux sociaux ? Ou d'un outil au service d'un pouvoir à la recherche d'une plus grande autonomie numérique ?
Dans tous les cas, il ne vous aura pas échappé que les lignes bougent. Les représentants de TikTok en Europe disent désormais s'inscrire dans un dialogue plus coopératif avec les autorités, au gré des annonces d'interdiction d'utilisation de l'application qui ponctuent régulièrement l'actualité. Ainsi, le « projet Clover » est annoncé comme devant permettre une plus grande sécurisation des données des utilisateurs européens. Une telle annonce soulève incontestablement et de nouveau la question de l' « infonuage » souverain européen et de l'extra-territorialité des droits américain et chinois, soulignant, malheureusement, les fragilités de notre politique de souveraineté numérique.
Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.
Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».
M. Tariq Krim lève la main droite et dit « Je le jure ».
Vous avez la parole.
M. Tariq Krim, entrepreneur et spécialiste des questions numériques. - Je vous remercie pour votre invitation. J'interviendrai devant vous avec trois fonctions différentes.
La première est celle d'entrepreneur ayant développé des produits aux États-Unis. À ce titre, je suis assez époustouflée par la performance de TikTok, qui a réussi à s'imposer dans un écosystème extrêmement compliqué en devenant à un moment l'application la plus téléchargée aux États-Unis. La deuxième fonction est celle de designer produit, spécialisé dans les questions d'éthique et de design. J'ai observé l'évolution des réseaux sociaux mais également la manière dont ces outils peuvent capter l'attention. La dernière fonction est celle de spécialiste de géopolitique, ayant lancé un think tank sur la géopolitique du numérique et sur la guerre autonome, pour analyser l'usage de l'intelligence artificielle et les nouveaux scénarios de désinformation synthétique.
Mon propos liminaire se déroulera en trois parties. Tout d'abord, je rappellerai que la grande partie des critiques que l'on peut émettre contre TikTok peuvent également être adressées aux autres applications. Ensuite, je soulignerai que TikTok a mis en place un service assez unique, créant une relation très différente avec les utilisateurs, ayant compris la toxicité des réseaux sociaux et ayant su en tirer les conséquences. Enfin, il n'est pas possible de comprendre TikTok et le projet de loi Restrict Act du Sénat américain, sans avoir à l'esprit la guerre froide technologique entre la Chine et les États-Unis. Il faut en comprendre les enjeux et les conséquences pour la France et pour l'Europe.
Pour comprendre ce qui se passe dans le monde de l'internet, il faut retenir la date de 2010, qui correspond au moment où une majorité de personnes s'équipent en smartphones. Il y a une différence fondamentale entre la numérisation permise par le smartphone et celle ayant eu lieu avec l'ordinateur. Je rappelle qu'en France nous avons eu la chance de disposer bien avant d'une autre forme de numérisation avec le minitel. On a tendance à l'oublier mais la population française a été massivement connectée dès les années 1980.
Les réseaux sociaux ne sont pas si nouveaux que cela. Ils se mettent en place dès 2003-2004, dans un environnement d'ordinateurs portables. Je m'appuierai ici sur les travaux de Jonathan Haidt, auteur de The Coddlling of the American Mind. À l'arrivée des réseaux sociaux, la période est techno utopiste. Les printemps arabes, le mouvement Occupy Wall Street laissent penser qu'Internet est un outil qui servira à propager la démocratie dans le monde entier. C'est l'acmé de l'ère Obama et de tout l'environnement Google.
Selon Jonathan Haidt, les choses commencent à se gâter à partir de 2010 car le smartphone est complètement différent dans son usage. L'ordinateur ne permet pas d'avoir la relation continue et ultra personnalisée que l'on a avec un mobile. Avec un ordinateur, quand je vais à table, je quitte la machine et je suis déconnecté. Le smartphone, à l'inverse, est souvent avec soi dans sa poche. Dès lors, la combinaison des réseaux sociaux et du mobile devient un cocktail extrêmement explosif. Cela a eu deux impacts, dont nous commençons seulement à mesurer les conséquences. Le premier de ces dégâts concerne la santé mentale des adolescents, et tout particulièrement des adolescentes. Le second est l'impact sur les démocraties.
Les médias sociaux, c'est-à-dire les blogs, rassemblaient des millions d'utilisateurs quand les réseaux sociaux en rassemblent des milliards. Beaucoup d'entre nous ont cru que le téléphone était un espace personnel, voire un espace intime pour ses messages, photos et contacts personnels. Or, l'accès à l'intimité des individus (c'est-à-dire l'intimité computationnelle) devient de la matière pour les algorithmes. La régulation s'est surtout attachée à encadrer ce qui était dit publiquement et n'a pas assez concerné la protection de l'intimité. Il a fallu attendre le début des années 2010 et la révélation d'abus d'une société qui avait utilisé l'accès à tous les contacts pour envoyer des messages non désirés pour qu'Apple décide de fixer des contraintes. L'installation d'une application s'accompagne depuis de demandes d'accès aux photos, aux contacts, à votre localisation...Il y a ainsi une granularité dans l'accès à la vie privée, qui n'existait pas auparavant.
Pour reprendre l'analyse de Jonathan Haidt, ces réseaux sociaux amplifient les micro-agressions, le sentiment de victimisation, la passivité, l'intolérance aux idées qui ne sont pas les siennes. Ils conduisent aussi à limiter la liberté d'expression puisque l'on se refuse à dire certaines choses par peur de s'exposer à des formes de trolling. Les réseaux sociaux ont donc contredit dans leur fonctionnement l'idée d'une émancipation par l'initiative individuelle. On va ainsi à l'encontre de ce que souhaitent les démocraties libérales. Dès lors, quand une puissance étrangère voit ce mouvement à l'oeuvre, il est évident qu'elle ne souhaitera pas le retenir mais plutôt l'amplifier.
Marshall McLuhan expliquait que notre vision du monde devenait tribale. Nous vivons en effet désormais dans un monde où l'on ne croit que ce que dit sa tribu et où l'on exclut tout ce qui vient d'une autre tribu. On l'a vu avec le Brexit, avec la vaccination...Les exemples sont nombreux. Cela s'est aussi traduit par une hausse de l'anxiété, tout particulièrement sur la génération Z et singulièrement sur les jeunes filles. Entre 2010 et 2015, il y a ainsi eu un doublement des cas d'automutilation sur les jeunes filles. Les réseaux sociaux ont donc eu un impact assez toxique, que l'on a du mal à mesurer puisque les études sur les années 2010 ne sont publiées que maintenant.
En quoi TikTok se différencie-t-elle des autres applications ? Pour résumer, il y a deux types de modèles de réseaux sociaux : les réseaux par social graph et les réseaux par interest graph. Les réseaux par graphe social nécessitent de suivre des utilisateurs (comme sur Twitter) ou d'ajouter des personnes comme amis (comme sur Facebook). Cela demande ainsi un travail de connexion. Je rappelle que Facebook s'est fortement inspiré d'un réseau sud-coréen du nom de Cyworld, qui le premier a connecté les gens avec leur véritable identité. Le problème de ce modèle est qu'il a besoin que les utilisateurs produisent des contenus. Il faut augmenter le nombre de connexions en suivant le maximum de personnes ou en ajoutant le plus d'amis et il faut que chacune de ces connexions produisent le plus de contenus. En 2004-2005, Facebook a eu l'idée de faire du changement de photo de profil un évènement pouvant être commenté. L'entreprise a alors découvert que le réseau social pouvait générer une forme d'addiction. Après les photos de profil ont suivi les posts, les photos, puis enfin les médias ; ce réseau a alors permis l'accès à toutes les informations possibles.
Le scientifique Robin Dunbar a identifié qu'au-delà de 120 à 150 relations il est très difficile de suivre tout ce qui est publié sur Facebook. C'est donc là qu'intervient l'algorithme d'organisation, le Edgerank chez Facebook. Il permet d'organiser et d'orchestrer pour chacun d'entre nous, souvent même à l'avance, son fil d'actualité. C'est aussi le cas chez Twitter, où sont organisées des situations de dominance. Je rappelle souvent, pour rigoler, que Twitter est le seul réseau où des personnes qui ne se connaissent pas se chamaillent à propos de quelque chose qu'ils ne connaissent pas vraiment. Le système a été construit pour créer ces entrechocs.
TikTok a voulu se différencier et a compris à mon avis que la logique d'applications comme Instagram où il faut toujours se présenter sous le meilleur jour peut être toxique à long terme. Il a alors choisi un modèle de graphe d'intérêt, comme y avait eu recours YouTube. Il s'agit de micro entertainment : on ne se compare plus à ses amis, on regarde des vidéos provenant du monde entier. Ce modèle implique tout un travail algorithmique puisqu'il faut apprendre ce que chaque utilisateur préfère pour ensuite lui proposer des contenus qui l'intéressent. Comme l'avait décrit la journaliste Zeynep Tufekci dans un article du New York Times qui avait fait grand bruit, le problème est que pour attirer l'attention ces vidéos doivent être de plus en plus engageantes, voire de plus en plus « hardcore ». Guillaume Chaslot, ancien salarié de Youtube qui est aujourd'hui au Pôle d'expertise de régulation du numérique (PEReN), a beaucoup travaillé sur ces questions et pourrait vous en dire plus que moi.
On dit souvent que la force de TikTok réside dans son algorithme, qui serait meilleur que celui des autres applications. En réalité, compte tenu du format beaucoup plus court des vidéos, le temps d'apprentissage de l'algorithme est beaucoup plus rapide. Si l'on arrête au bout de 10 minutes une vidéo d'une heure sur YouTube, il est difficile d'en connaitre la raison. Est-ce parce que la vidéo ne plait pas ? Est-ce parce que l'on souhaite la regarder plus tard ? Il y a certes un bouton « unlike » sur YouTube mais il est très peu utilisé. A l'inverse, sur TikTok, dès que l'on passe vite à la vidéo suivante, le message est envoyé qu'elle ne nous intéresse pas et le flux est alors réorganisé.
Par ailleurs l'espace sur TikTok étant contraint, un peu comme dans une pièce de théâtre, l'algorithme peut très facilement analyser le contenu. Il est ainsi très facile sur les vidéos de danse, qui sont très populaires, d'analyser les pas et d'identifier le type de danse pour ensuite proposer des vidéos du monde entier avec les mêmes pas de danse. Une activiste américaine m'avait confié que pour faire monter des vidéos sur le changement climatique, elle incorporait des danses aux messages de façon à faire remonter les vidéos dans l'algorithme. L'intelligence artificielle (IA) est capable d'analyser les vidéos et d'en retrouver des similaires parmi des milliards de vidéos. Par ailleurs, avec les technologies d'IA générative comme Midjourney, ChatGPT ou encore la société Runway ML qui permet de faire une vidéo de 6 à 10 secondes à partir d'un simple texte, nous ne sommes pas loin d'obtenir des contenus totalement synthétiques, à partir de simples demandes humaines et des archives de bases de données. Le catalogue est énorme, algorithmiquement accessible, et pourrait reconstruire à l'infini des vidéos. On pourrait dès lors construire des influenceurs artificiels.
Je terminerai en revenant sur la guerre technologique entre la Chine et les États-Unis. Il faut ra ppeler que la Chine se connecte à Internet en 1994 ; trois ans plus tard elle se déconnecte. Elle va ensuite empêcher l'ensemble des réseaux sociaux de fonctionner sur son territoire (le « splinternet »). Il y a eu des bras de fer intéressants entre la Chine et les États-Unis. Je vous en citerai deux. En 2019, un entraineur de la NBA a adressé sur Twitter, réseau américain, un message de sympathie aux manifestants de Hong-Kong. La Chine s'est tournée vers la NBA, qui a demandé à cet entraineur de présenter ses excuses. Il y a eu par ailleurs un boycott de son équipe, les Houston Rockets, en Chine. Il y avait à l'origine un contrôle fort de la Chine de tout ce qui venait de l'extérieur. On observe désormais un système où les valeurs chinoises cherchent à s'exporter.
Cette guerre technologique a commencé sous Obama, est sortie de l'ambiguïté sous Trump et se poursuit sous Biden. Le but pour les États-Unis est d'empêcher la Chine d'exporter des produits à forte valeur ajoutée : la 5G, Huawei, TikTok (passé de 4 à 12 milliards de dollars l'année dernière). Il s'agit d'empêcher la Chine d'avoir accès aux dernières technologies américaines mais aussi européennes. Toutes les puces de nos téléphones sont réalisées par la société anglaise ARM, dont la propriété intellectuelle est située en Hollande. Biden a décidé que plus aucune des technologies américaines ne serait accessible. Au-delà de l'enjeu d'influence, il s'agit pour les États-Unis d'empêcher la Chine de pouvoir exporter des produits à très forte valeur ajoutée.
Pour répondre à la question « Que penser de TikTok ? », trois points de vue peuvent être adoptées. Le premier est celui de la santé publique : si cette application pose de véritables problèmes de santé publique, que fait-on pour réglementer l'accès à l'intimité des personnes ? Le deuxième point de vue est politique : que dirait-on si Fox, CBS ou TF1 était contrôlé par un acteur chinois ? Que dirait-on de même si TikTok était contrôlé par un acteur qatari ou iranien ? Enfin, il y a la question économique de la réciprocité : TikTok a la possibilité de générer plus de 12 milliards de dollars de revenus dans le monde occidental mais aucun des acteurs, que ce soient les start ups françaises ou les entreprises américaines de la tech, ne peuvent générer de tels revenus en Chine.
M. Claude Malhuret, rapporteur. - Merci pour cet exposé introductif qui, bien que court, était particulièrement riche.
Ma première question porte sur la granularité des informations, c'est-à-dire l'accès aux données privées. Beaucoup de personnes auditionnées nous ont indiqué que le nombre de fonctions du smartphone auxquelles l'application demande à avoir accès est bien plus important que pour d'autres plateformes. Confirmez-vous ce constat ? Par ailleurs, le refus de l'accès à ces fonctions empêche-t-il le téléchargement de l'application ? Savez-vous quel est le pourcentage des utilisateurs adolescents qui refusent ces accès ? Mon sentiment est qu'il n'y en a pas un pour mille...
M. Tarik Krim. - Pour répondre à la question de la granularité des données, j'ai récemment réinstallé l'application TikTok sur mon téléphone. Par rapport aux permissions demandées par Facebook, celles demandées par TikTok sont bien moindres. Il n'y a plus accès aux photos ou à l'agenda. Cela ne veut pas dire pour autant que la possibilité de traquer ou de pister un utilisateur n'existe pas. J'ai le sentiment que de la collecte par TikTok des données privées sur le téléphone a diminué, et ce pour deux raisons. La première est que je ne pense pas que ce soit très important aujourd'hui pour leur modèle. TikTok est dans une logique de micro voire nano entertainment. Une enquête aux États-Unis a montré que les adolescents préfèrent avoir TikTok plutôt qu'un abonnement à l'ensemble des services de streaming. On se focalise trop sur la collecte de données privées du téléphone, dupliquées ensuite sur le cloud. Ou oublie que la grande valeur d'un produit comme TikTok est sa valeur d'usage. Plus vous utilisez le produit, plus la connaissance de vos intérêts - sans avoir besoin de connaitre votre identité - s'accroit. L'amélioration de la connaissance et des usages permettra l'amélioration de l'algorithme global. Les obsessions d'entreprises comme TikTok sont d'intégrer des systèmes fluides, pour intégrer de la publicité.
S'agissant des messages privés, les entreprises ont évidemment techniquement la capacité d'y accéder. Néanmoins, je ne me risquerai pas à affirmer qu'elles le font.
La question sur la désactivation avait été posée à Mark Zuckerberg lors de son audition au Sénat. Une fois l'application Tiktok retirée du téléphone, elle n'a a priori plus accès aux données. La question mériterait néanmoins d'être posée non pas à TikTok mais au système d'exploitation des téléphones. Sur le web, les services déposent des cookies, ce qui permet de créer des profils fantôme. Quand vous vous déconnectez de Facebook, un profil fantôme est créé, via un pixel installé sur le téléphone qui permet un traçage. Ce compte anonyme est alors de nouveau identifié quand vous vous reconnectez à Facebook. Si vous ne vous reconnectez pas à Facebook, ce profil fantôme perdure néanmoins et continue à être traité et analysé. Pour désactiver ces profils fantôme, le seul moyen semble être d'effacer ses cookies. Mais il est possible que même en effaçant ses cookies, le pistage continue.
Tous ces services numériques ont un customer circle, c'est à dire un cycle du consommateur. Il faut amener un consommateur sur un produit puis le rendre addict. Après avoir finalisé le profilage, le pic de rentabilité est atteint. Au cas où l'utilisateur souhaiterait quitter l'application, toute une pression sociale doit enfin conduire à le ramener sur l'application. Les sociétés de réseaux sociaux, comme les sociétés de l'internet en général, ont des stratégies pour gérer le départ des utilisateurs. Toutes les techniques possibles sont convoquées pour les faire revenir. Cela marche en général plutôt bien. Quand vous quittez Facebook, vous recevez des mails sur les posts de vos anciens contacts pour aiguiser votre curiosité et vous faire regretter votre départ...
M. Claude Malhuret. - La principale préoccupation des Américains est l'exportation des données à forte valeur ajoutée. Au-delà de ce problème économique, il y a un problème dont vous n'avez pas encore parlé : l'importation par TikTok, par sa société mère ByteDance et par le Parti communiste chinois, de données à forte valeur ajoutée - comme les données démographiques ou comportementales. Cette importation semble aujourd'hui permise pratiquement ad libitum, tant que les projets Texas aux États-Unis et Clover en Europe ne sont pas mises en place. Confirmez-vous cela ?
Les opposants aux projets Texas et Clover nous indiquent que les données auront beau être rapatriées sur des serveurs situées aux États-Unis et en Europe, il y aura toujours des portes dérobées. Je note d'ailleurs qu'il y a une grande opacité autour du projet Clover. Le président Vallet l'a rappelé dans son introduction. Ce mot d'opacité revient régulièrement dans nombre de nos auditions. Y aurait-il un moyen d'arriver à la certitude qu'il n'y ait pas de portes dérobées et donc d'exploitation des données remontant à Singapour, à Pékin et au Parti communiste chinois ? Si cela est possible, que faut-il exiger du projet Clover ?
M. Tarik Krim. - Vos questions sont pertinentes. Je n'ai pas d'information privilégié sur le sujet. Je m'informe, je me documente et je me laisse aussi aller à quelques scénarios. Votre propos pose d'abord la question de l'extraterritorialité du droit. Je me permettrai de souligner que tout touriste chinois venant à Paris peut prendre en photo des Français et ainsi les intégrer dans le crédit social chinois, si les techniques de scanning des visages existent. L'ensemble des plateformes chinoises ont la capacité de monétiser et d'accéder à l'ensemble des données. On parle des réseaux sociaux, mais c'est aussi le cas des data broker, qui permettent d'acheter les informations des consommateurs américains. Il y a d'ailleurs eu un scandale aux États-Unis avec le FBI, qui a acheté ainsi certaines données pour disposer d'informations. A l'inverse, il est très difficile d'accéder aux données chinoises.
Une des raisons pour lesquelles Google a quitté la Chine serait qu'une partie de son code source ait été visité. L'ancien PDG de Google Eric Schmidt était particulièrement hostile à l'idée de donner des avantages à la Chine dans le domaine numérique. La question est en effet de savoir si le droit chinois s'applique en Europe et aux États-Unis. La réponse est probablement oui. Cela vous a été, je crois, confirmé par la CNIL.
Si je comprends bien le projet Texas, l'idée est d'installer les data centers aux États-Unis. Cependant, quelle que soit la localisation des data centers, s'il n'y a pas d'accès aux codes sources et s'il n'y a pas d'audit, toute personne travaillant pour la compagnie peut accéder aux données. Cela pose bien évidemment des questions de sécurité. Un citoyen américain, du fait des risques pénaux, y réfléchira surement à deux fois. Mais pour un citoyen étranger, la question se pose différemment...
Techniquement, tout est possible. Des contraintes peuvent être fixées d'un point de vue légal. Mais si la technique l'emporte sur le légal, rien n'est garanti...
M. Claude Malhuret. - Pour prolonger ma question, pensez-vous que les directives contenues dans le DMA et le DSA sont aujourd'hui une réponse complète et satisfaisante aux problèmes de respect de la vie privée sur les plateformes en général, et sur TikTok en particulier ? Si oui, les pays européens et singulièrement la France disposent-ils des capacités humaines nécessaires en termes de techniciens pour les faire respecter ?
M. Tarik Krim. - Si le RGPD est une très bonne idée sur le papier, la résultante en est pour le consommateur la multiplication des pop ups. Nous n'avons pas travaillé de manière globale. L'idée était bonne et nous différenciait d'ailleurs des États-Unis sur la façon dont l'on traite la vie privée. Mais nous aurions dû réfléchir en matière de design et d'application sur ces produits.
Le problème du DMA et du DSA est qu'ils sont votés au moment où le sujet est déjà en train de changer. Entre temps, l'IA générative est devenue incontournable. On s'intéresse aux conséquences et très rarement aux causes. On explique aux entreprises ce qu'elles doivent fournir comme services vis-à-vis de l'extérieur. On oublie la manière dont on doit construire l'accès à l'intimité des utilisateurs. Une fois que les réseaux sociaux ont transformé les utilisateurs en pâte à modeler, on peut les mettre dans n'importe quelle moule. C'est ce qui est fait aujourd'hui en Europe et aux États-Unis. Nous avons assez peu travaillé sur l'aval. Alors que la sortie d'un produit médical exige tout un travail préalable sur les effets secondaires, nous sommes pour les réseaux sociaux face à une boite noire. Ceux-ci s'intègrent dans l'intimité des personnes sans aucune analyse des impacts. La même question se posera avec l'IA générative, qui risque de conduire à de la désinformation à une échelle encore plus importante.
On oublie trop souvent que santé mentale et santé démocratique sont liées. Si les gens sont mal dans leur peau à cause des réseaux sociaux, il n'y a pas de raison pour que leur vision de la politique soit soudain bien meilleure. Il n'y a pas de garde fous et très peu de réglementation du fait des volumes. On parle dans le cas de Facebook de milliards d'utilisateurs. La seule solution est de recourir à des algorithmes. La réponse de ces sociétés est toujours d'assurer que la prochaine génération d'algorithmes sera meilleure.
Le schéma est toujours le même : il faut un produit addictif, il faut ensuite le monétiser, il faut enfin assurer la gestion des potentiels effets de bord. Cette gestion intervient seulement en troisième étape. Or, les bonus des ingénieurs chargés de la monétisation sont fixés en fonction de leur capacité à rendre le produit le plus addictif possible et à assurer la croissance la plus rapide du produit. Les équipes de régulation interviennent après. Tous ces services ont été pensés d'abord pour optimiser la croissance des produits et pour maximiser leur monétisation. Il faudrait donc que les lois obligent à repenser la conception même de ces produits. On a su le faire dans le domaine médical et bioéthique. Mais dans le domaine des technologies, il y a une incapacité à vouloir réglementer en amont. Or, c'est ce qui à mon avis doit être le plus important.
Mme Catherine Morin-Desailly. - Je vous remercie d'avoir évoqué les textes des règlements européens en cours. Je pense aussi au Data Act, qui suit le règlement Intelligence artificielle. Tout cela fonctionne ensemble et il y a une logique inhérente à ces textes. D'après de ce que vous dites, ces textes semblent insuffisants. Cela rejoint le travail de la commission des affaires européennes, qui a étudié la question du « safety by design ». L'objectif est d'imposer des expérimentations et des évaluations avant de mettre sur le marché une application fonctionnant avec des algorithmes. Vous confortez donc bien l'idée que ces textes ne sont pas assez protecteurs des jeunes.
S'agissant de la guerre froide technologique entre la Chine et les États-Unis, j'ai noté que vous avez indiqué que TikTok a les mêmes effets négatifs - à peu de différences près - que les autres plateformes. Est-ce à dire que nous Européens devrions être équidistants entre les États-Unis et la Chine ? Observez-vous malgré tout que la plateforme chinoise est beaucoup plus toxique et dangereuse, ce qui justifierait les interdictions prises récemment ? Faut-il n'y voir qu'une stratégie des États-Unis pour ne pas se laisser dépasser par la Chine ? Cela procéderait de la même logique que la proposition de moratoire sur l'intelligence artificielle faite par Elon Musk, proposition qui n'est pas dénuée d'intérêt...Pouvez-vous nous dire précisément si nous devons porter une attention particulière à la plateforme chinoise ?
M. Tariq Krim. - Je clarifie mon propos : il est évident qu'entre les États-Unis et la Chine, notre attitude ne peut pas être la même.
Les États-Unis sont une démocratie et le Congrès américain est très actif sur ces questions. Le cas de la Chine est bien évidemment à part. TikTok est une plateforme ultra addictive, beaucoup plus que les autres. D'ailleurs, et YouTube et Facebook proposent désormais des systèmes similaires de vidéos à format court. Nous assistons à un nivellement vers le bas.
Par ailleurs, TikTok est un outil d'influence. A minima, c'est un outil qui rend passives les populations occidentales. Les jeunes générations ont désormais une capacité d'attention très faible. Je fais partie d'une génération qui a expérimenté pour la première fois les coupures publicités des émissions. On trouvait cela insupportable, alors que la coupure avait lieu au bout de 15 à 20 minutes. Aujourd'hui, sur les plateformes, les interruptions sont toutes les 50 secondes. Nous ne sommes plus très loin d'être des poissons rouges...
En Chine, les lois sur les réseaux sociaux sont très dures, tout comme le seront les lois sur l'intelligence artificielle. Nous n'avons pas cette dureté adoptée par le gouvernement chinois. Les jeunes utilisent intensivement les réseaux sociaux. Or, entre 13 et 16 ans, on sait qu'il s'agit d'un moment charnière pour le développement cognitif des adolescents. Au moment où l'on a le moins confiance en soi, le travail algorithmique de ces réseaux conduit à détruire cette confiance. C'était le cas avec Instagram, dans une logique sociale de compétition. Avec TikTok, c'est une logique de ramollissement. On se désintéresse des choses et l'on s'échappe de la réalité, suivant une stratégie de l'autruche. Nous n'avons pas encore bien étudié toutes ces conséquences sociales et politiques.
S'agissant du DSA, je suis évidemment favorable à une régulation. Cependant, je préfère une régulation moins volumineuse mais allant au fond du problème qu'un enchevêtrement de textes différents qui crée une bureaucratie dans le développement des applications. Le véritable problème est celui de la conception des applications. Songeons aux cas des médicaments ou même des publicités, qui sont beaucoup plus et mieux encadrés ! Si vous faites une publicité mensongère, vous pouvez être attaqué. Aujourd'hui, on ne règlemente qu'une fois l'application mise sur le marché et qu'elle a fait des dommages.
S'agissant de savoir s'il y a une spécificité de TikTok, je dirai que l'application, dans la course à l'attention, est allée encore plus loin que les autres plateformes. Facebook a tout un historique : d'un réseau social pour les universités, il est ensuite devenu le réseau social de l'ensemble de l'humanité, pour enfin se transformer en un réseau hybride entre site d'infos et réseau social, avec des équipes séparées ne fonctionnant pas toujours en très bonne harmonie. TikTok, lui, a été pensée pour créer de l'addiction instantanée et happer des heures d'attention par jour, prises sur la télévision ou sur les autres sources d'information. La télévision, la presse, la radio, les sites web étant délaissés par les jeunes, TikTok est bien leur outil d'information.
M. Claude Malhuret. - J'ai une question de politique fiction. C'est la question de l'apprenti-sorcier ou de la machine qui échappe à son maitre. L'audition du PDG de TikTok s'est assez mal déroulée. Le travail du Congrès devrait aboutir à une interdiction pure et simple de l'application. D'ailleurs, l'état du Montana a d'ores et déjà interdit l'application pour l'ensemble de la population, ce qui risque d'être difficile à faire appliquer...D'après les médias, Biden hésiterait beaucoup à interdire cette application aux 150 millions d'utilisateurs américains, du fait de l'impact possible de cette décision sur la prochaine élection présidentielle...C'est une véritable interrogation. Peut-on interdire un réseau social ou ces réseaux sont-ils devenus trop puissants ? Les plateformes sont-elles devenues plus fortes que les États ?
M. Tariq Krim. - Trump avait voulu que TikTok soit racheté par une entreprise américaine. La Chine accepterait-elle de vendre cette application ou bien faut-il prendre des mesures d'interdiction ? Personnellement, j'ai toujours été en faveur de la réciprocité. La question s'était posée au sujet de Russia Today et de Sputnik. Fallait-il prendre des mesures d'interdiction de médias comme la Russie en prend contre nous ? C'est un dilemme. À cela s'ajoute le fait que TikTok est prisé par la génération Z et donc probablement par un bon nombre d'électeurs de Biden. Côté Républicain, une décision d'interdiction de l'application rassemblerait davantage de soutiens. Il y a une différence entre les États-Unis et nous : dans le cas d'une décision d'interdiction prise par l'UE, il n'y aura pas un pays en particulier qui aurait à en subir les conséquences.
Biden est très agressif actuellement sur les enjeux d'accès aux puces et d'accès aux technologies essentielles car il y a bien un véritable bras de fer entre la Chine et les États-Unis, dont TikTok n'est qu'un des éléments. Taiwan, principal producteur de puces, reste également un sujet majeur. Reste à déterminer ce que l'Europe a à retirer de ce bras de fer. Des compromis risquent d'être faits entre les États-Unis et la Chine : l'Europe fera-t-elle partie de ces compromis ? Serons-nous les dindons de la farce ou pourrons-nous en tirer des avantages ?
Dans le cas où les États-Unis prendraient une décision d'interdiction, je reste persuadé que l'Europe suivra. Je tiens à rappeler que l'Inde l'a déjà fait et que d'autres pays étudient la question de près. Nous avons des atouts : les sociétés européennes ARM et ASML sont indispensables à l'écosystème numérique. Nous sommes par ailleurs un marché extrêmement rentable d'utilisateurs. La question de l'interdiction ne peut pas être vue sans aborder la question de façon globale.
M. Mickaël Vallet, président. - J'aurais encore de nombreuses questions mais nous sommes contraints par le temps. Nous vous remercions beaucoup pour votre éclairage, qui ouvre encore de nouvelles interrogations !
La réunion est close à 14 h 50.
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.
- Présidence de M. Mickaël Vallet, président -
La réunion est ouverte à 16 h 35.
Audition de Mme Chine Labbé, NewsGuard, rédactrice en chef et vice-présidente en charge des partenariats, Europe et Canada
M. Mickaël Vallet, président. - Chers collègues, nous entendons à présent Chine Labbé, rédactrice en chef et vice-présidente en charge des partenariats Europe et Canada de NewsGuard, une société américaine créée par des journalistes pour évaluer la fiabilité des sites d'information et d'actualité.
En septembre dernier, Newsguard a mis en lumière que près de 20 % des vidéos qui apparaissent dans les résultats de recherches du réseau TikTok sur les principaux sujets d'actualité contiennent de la « mésinformation ».
Comment expliquez-vous cette surreprésentation de fausses informations sur le réseau TikTok ? Selon votre analyse, s'agit-il d'une jeune société débordée par son succès, d'une mise en avant délibérée de contenus susceptibles de retenir l'attention des utilisateurs ou encore, d'un outil de propagande ?
Connaissez-vous la manière dont TikTok organise sa modération ? Pensez-vous que TikTok, qui vient d'être désigné comme une des très grandes plateformes en ligne sous supervision directe de la Commission européenne sera en capacité de respecter les obligations qui lui seront imposées par le règlement DSA ?
Je vais vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes. Peut-être pourrez-vous nous préciser si Newsguard a des liens d'intérêts avec la plateforme TikTok qui fait appel à des prestataires, comme l'AFP, pour vérifier la véracité des informations ?
Avant de vous laisser la parole, je vais procéder aux formalités d'usage pour les commissions d'enquête.
Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».
Conformément à la procédure applicable aux commissions d'enquête, Mme Chine Labbé prête serment.
Mme Chine Labbé. - Monsieur le président, monsieur le rapporteur, chers membres de la commission d'enquête, je vous remercie de me recevoir aujourd'hui et de vous pencher sur la présence de mésinformation et de désinformation sur TikTok. Je représente NewsGuard, société qui lutte contre la mésinformation et la désinformation en analysant la fiabilité des sources d'information et en produisant des rapports sur les tendances de la mésinformation et désinformation en ligne.
À l'origine, TikTok était surtout connu sa composante musicale. On y trouvait principalement des vidéos de karaoké et de danse. Certains représentants de cette société continuent d'en parler comme d'une application de divertissement et de joie. Si l'application chinoise est en effet un lieu de divertissement, elle est aujourd'hui bien plus que cela. C'est un endroit où les utilisateurs vont chercher des informations. Comme tous les réseaux sociaux où se partagent des informations, c'est un lieu où circulent de nombreuses infox, y compris sur des sujets politiques, sociaux et géopolitiques.
La raison de s'intéresser à cette application tient aussi à sa taille et à sa croissance exponentielle. Comme vous le savez, TikTok est une plateforme plébiscitée par les jeunes. Selon Bloomberg, 30 % de ses utilisateurs en France ont moins de 18 ans. Elle compte 1,7 milliard d'utilisateurs actifs dans le monde contre seulement 85 millions début 2018. Selon Cloudflare, TikTok est même passé en 2021 devant Google en termes de site le plus visité sur internet, même s'il a depuis perdu ce titre pour repasser en 3ème position.
Partant de ce constat, nous avons mené plusieurs expériences sur TikTok et publié plusieurs rapports. Je serai ravie de les décrire plus en détail, notamment s'agissant de la méthodologie. En propos liminaire, je voudrais insister sur deux observations principales. Il existe à mes yeux deux principaux problèmes liés à la mésinformation sur TikTok : le problème du scroll, où les utilisateurs se contentent de faire défiler des vidéos sur leur fil « For You » ; et le problème du moteur de recherche de TikTok. Dans ces deux cas, les utilisateurs sont confrontés à de fausses informations sur tous les grands sujets d'actualité, d'après nos analyses.
Je commence par le scroll, qui est l'utilisation principale sur TikTok pour accéder à du contenu. Nous avons tenté de répondre à la question suivante : combien de temps faut-il à un utilisateur pour tomber sur des contenus faux ou trompeurs sur des grands sujets d'actualité ? Nous avons fait le test à deux reprises, en septembre 2021 avec le covid-19 et en mars 2022 avec la guerre en Ukraine. Dans les deux cas, en faisant faire le test à plusieurs analystes, dans plusieurs pays et dans plusieurs langues, nous sommes arrivés à un temps inférieur à 40 minutes.
Par exemple, dans notre expérience sur les contenus liés au covid-19, un garçon francophone de 13 ans, ayant effectué le test sous surveillance parentale, s'est vu montrer une vidéo satirique sur ce sujet en 17 secondes seulement après s'être connecté à l'application. 20 minutes plus tard, une vidéo le mettant en garde contre un nouvel ordre mondial est apparue dans son flux, qui affirmait que la « rappeuse française Keny Arkana avait tout compris quand, 10 ans auparavant, elle chantait que les gouvernements étaient en train de préparer le terreau hors pair du plus grand génocide, juste pour businesser un tas de vaccins empoisonnés ». Après une demi-heure, ce jeune a été exposé quasi exclusivement à de la désinformation sur le covid-19, y compris des contenus antivax et des théories du complot anti-gouvernements.
Dans notre expérience sur la guerre en Ukraine, moins de 29 minutes après avoir rejoint TikTok, un analyste francophone s'est vu montrer une vidéo d'un discours de Vladimir Poutine, dans lequel celui-ci disait « ce n'est pas pour que le néonazis d'aujourd'hui prennent le pouvoir que vos pères, vos grands-pères, vos arrière-grands-pères se sont battus contre les nazis ». En moins de 36 minutes, le même analyste s'est vu montrer une vidéo affirmant que « toutes les images de cette pseudo-guerre sont fausses ».
La durée de 40 minutes peut paraitre longue. Mais si on la rapporte au temps quotidien passé en moyenne sur TikTok par les utilisateurs, c'est en réalité bien peu. Tous les utilisateurs peuvent être confrontés quotidiennement à de fausses informations. En effet, le temps moyen passé sur TikTok était de 95 minutes par utilisateur et par jour en 2022 selon Meltwater. Le temps est encore plus important si l'on se concentre sur les plus jeunes utilisateurs. Cela ne veut pas dire pour autant qu'un utilisateur de TikTok ne sera confronté qu'à de fausses informations sur la plateforme. Le mélange des genres est d'ailleurs assez détonnant sur TikTok. Une fausse information arrivera entre un mème amusant et des informations fiables. Cependant, le design de l'application, le fait de faire défiler les vidéos les unes derrières les autres, sans réelle mise en contexte ou hiérarchisation et avec très peu de labellisation des contenus fait qu'il est extrêmement difficile pour un utilisateur de faire le tri parmi les informations qui lui seront proposées.
J'en viens au second problème, celui de la recherche sur TikTok. L'application sert de plus en plus de moteur de recherche à de nombreux internautes. Ceux-ci viennent chercher tout type d'information : le dernier restaurant à la mode, la crème la plus efficace... mais aussi des informations sur l'actualité. Selon une étude du Pew Research Center, environ ¼ des utilisateurs américains de moins de 30 ans cherchent régulièrement des informations sur TikTok. Nous avons tenté quant à nous de répondre à la question suivante : quand un utilisateur effectue une recherche sur TikTok, quelle proportion de vidéos, dans les premières remontées à l'issue de la recherche, contiennent de fausses informations ?
Nous avons fait le test en septembre 2022, en effectuant des recherches liées à des sujets d'actualité variés : l'Ukraine, le covid-19, les vaccins anti-covid, les fusillades aux États-Unis. Près de 20 % des vidéos apparues dans les vingt premiers résultats de recherche sur TikTok contenaient de fausses informations. Par exemple, la recherche « l'élection américaine de 2020 a-t-elle été volée ? » renvoyait vers six vidéos contenant de fausses allégations sur l'élection de Joe Biden parmi les vingt premiers résultats. Au contraire, la plupart des résultats pour la même recherche sur Google étaient des articles démentant l'allégation selon laquelle l'élection de 2020 aurait été volée et aucun de ces résultats ne relayaient de fausses informations. Par ailleurs, lorsqu'ils ne contenaient pas de fausses informations, les résultats sur TikTok étaient souvent plus polémiques que sur Google.
Plus problématique encore, non seulement l'application met en avant de nombreuses vidéos contenant de fausses informations dans ses premiers résultats de recherche, mais elle suggère aussi des termes tendancieux pour compléter des recherches neutres. Ainsi, quand l'un de nos analystes a effectué une recherche pour le terme climate change, l'application lui a suggéré de rechercher climate change debunked (le changement climatique démystifié) et climate change doesn't exist (le changement climatique n'existe pas). C'est la même chose pour Boutcha, ville ukrainienne théâtre de massacres : l'application suggérait Bucha fake (faux), en référence aux faux récits selon lesquels ces massacres auraient en fait été mis en scène par l'Ukraine. Dans ces deux exemples, comme dans d'autres que nous avons étudiés, l'utilisateur est dirigé vers toujours plus de contenus faux.
Dans les deux cas - scroll ou moteur de recherche - ce sont les algorithmes de TikTok qui sont responsables de la présence sur TikTok de contenus faux puisque ce sont eux qui déterminent quelles vidéos vont apparaitre dans votre fil d'actualité et lesquelles vont remonter dans votre barre de recherche. Je ne suis pas une spécialiste des algorithmes et je sais que vous avez eu une audition très pertinente sur ce sujet avec Marc Faddoul. Je ne passerai donc pas beaucoup de temps sur cette question. Mais je voulais terminer mon intervention en disant que je partage son constat. Ces algorithmes sont véritablement les gardiens de l'information en ligne et le coeur du problème. Si l'on devait faire passer un examen de résistance à la mésinformation à l'application chinoise, il y a peu de doutes qu'elle échouerait. Sur ce sujet comme sur beaucoup d'autres, c'est la conception algorithmique qui en est la responsable.
Avant de rendre la parole, je précise que je n'ai pas parlé des contenus synthétiques ou manipulés par intelligence artificielle sur la plateforme. Les règles d'utilisation de TikTok imposent que ces contenus soient labellisés comme tels. Mais le fait est que ce n'est pas toujours le cas. De nombreuses vidéos manipulées circulent sans label sur l'application. Dans un monde où l'IA progresse rapidement, démocratisant la création de contenus altérés, il s'agit d'une problématique qui ne doit pas être négligée.
Enfin, pour répondre à votre question liminaire, nous n'avons pas de relation commerciale avec TikTok.
M. Mickaël Vallet. - Comment définissez-vous la mésinformation par rapport à la fausse information ? En bon français, le terme d'infox ne devrait-il pas être préféré à celui de fake news, qui a une connotation propre aux Américains ?
Mme Chine Labbé. - J'utilise le terme d'infox plutôt que celui de fake news car ce dernier terme est devenu très politique et peut être utilisé pour décrire des contenus tout à fait crédibles et valables.
Derrière la désinformation, il y a une volonté malveillante de diffusion de contenus faux. Cela peut s'expliquer pour des raisons politiques, géopolitiques, financières - c'est-à-dire par appât du gain car cela fait des clics. La mésinformation quant à elle consiste en la diffusion de fausses informations par manque de rigueur - journalistique par exemple. Nous précisons toujours que nous travaillons sur la désinformation et la mésinformation car les deux s'imbriquent très souvent. C'est souvent difficile de savoir comment une campagne a commencé. Si certaines campagnes de désinformation peuvent clairement être identifiées comme telles car elles sont relayées par des médias d'État étrangers, beaucoup de fausses informations circulent sans que l'on arrive à connaitre leur origine ni leur dessein.
M. Claude Malhuret. - Merci beaucoup de cette introduction qui va directement au coeur du sujet. Avant d'en venir à mes questions, je voudrais vous dire bravo ! Je ne sais pas si ces félicitations doivent s'adresser à vous en particulier mais je suis en tout cas très heureux qu'une entreprise comme NewsGuard existe. Il n'y en a pas assez et il en faudrait bien plus compte tenu de la disproportion entre les moyens des plateformes, l'ampleur de la désinformation/mésinformation et le nombre de fact checkers. Il s'agit là d'un problème démocratique majeur, engendré par la création des réseaux sociaux.
Avez-vous des partenariats avec des services comme Viginum ou le service européen d'action extérieure ? Travaillez-vous avec des régulateurs ou avec des organismes nationaux, européens ou américains ?
Mme Chine Labbé. - Nous sommes une entreprise commerciale et nous vendons des licences d'accès à nos données, à différents acteurs de différentes entreprises. Nous travaillons notamment avec des plateformes numériques, qui pourront les utiliser ou en donner accès elles-mêmes à leurs utilisateurs. Nous travaillons également avec des acteurs de l'industrie publicitaire, des chercheurs, des agrégateurs de contenus, des sociétés de gestion de la réputation etc. Nos clients sont donc très variés. Une petite portion de nos revenus vient d'entités gouvernementales de démocraties occidentales.
Nous vendons principalement des licences d'accès pour des bases de données sur la fiabilité des sites d'information. Nous avons analysé cette fiabilité dans 9 pays, pour plus de 8500 sites. Par ailleurs, nous disposons d'un catalogue des principales infox qui circulent en ligne, avec des mots clés associés. S'agissant de notre travail pour les entités gouvernementales, il ne consiste pas en l'évaluation de la fiabilité des sites mais en la fourniture de données spécifiques sur la désinformation provenant d'États étrangers.
Nous avons eu des échanges avec Viginum par le passé mais nous n'avons pas de relation active avec ce service du Gouvernement ni de partenariat commercial. Nous leur envoyons nos rapports, comme nous envoyons nos rapports à beaucoup d'autres représentants d'organismes étatiques, à des membres du Parlement européen, à des membres de la Commission européenne ou encore au service européen d'action extérieure.
Au niveau européen, nous sommes membres de l'IDMO, qui est l'observatoire italien des médias numériques, financé par l'Union européenne. Nous avons signé le code européen de bonnes pratiques contre la désinformation, aux côtés des autres plateformes et des entreprises de la société civile de fact checkers.
M. Claude Malhuret, rapporteur. - Merci pour votre proposition de nous communiquer certains rapports que vous avez publiés, et qui pourraient effectivement intéresser notre commission. Vous avez parlé de la confection algorithmique. Vous analysez des centaines de sites, dont les grandes plateformes. Il me semble que les applications des interfaces de programmation (API) des principales plateformes sont de nature et de qualité variables. Actuellement, des sites comme YouTube ou Facebook possèdent des API qui, si elles sont très loin d'être parfaites, sont néanmoins accessibles aux chercheurs ou aux sociétés telles que la vôtre. Or TikTok ne dispose pratiquement d'aucune API et par conséquent d'aucune entrée à l'intérieur du mécanisme, y compris pour les chercheurs. Confirmez-vous cela ? Par ailleurs, avez-vous les moyens de savoir où sont produits les différents algorithmes ? Quelle est la part des algorithmes produits en France, par la société TikTok France, et celle produite, par exemple, en Chine ou à Singapour ? Il est très difficile - pour ne pas dire impossible - d'accéder à ces algorithmes, mais peut-être est-il encore plus difficile d'accéder à l'origine de leur confection.
Mme Chine Labbé. - Nous n'étudions pas les algorithmes, mais uniquement la présence de fausses informations. Sur la question des API, je ne suis donc pas en mesure de vous fournir d'autres éléments que ceux que peuvent apporter les chercheurs. Nous avons posé de nombreuses questions à TikTok au sujet des algorithmes, notamment pour savoir si les algorithmes de recherche sont produits pour empêcher la promotion ou la valorisation de contenus faux. TikTok, comme c'est souvent le cas avec les grandes plateformes, n'a pas répondu dans le détail à nos questions, mais nous a envoyé un commentaire général sur leurs règles d'utilisation en rappelant le fait que les contenus faux, ou trompeurs, et la mésinformation dangereuse étaient interdits sur la plateforme. Lorsque nous publions un rapport, il arrive souvent que TikTok supprime ensuite les contenus ou les hashtags signalés dans notre rapport, mais nous n'avons pas de réponse sur la raison pour laquelle ces contenus ont été promus dans des résultats de recherche ou sur les fils « For You » des utilisateurs.
M. Claude Malhuret, rapporteur. - En dehors des algorithmes, avez-vous une vision de la façon dont TikTok organise sa modération ?
Mme Chine Labbé. - Je n'ai pas d'éléments précis sur la manière dont la modération est organisée, en dehors de ce qui figure dans les rapports de presse. En revanche, ce que l'on sait - en tout cas, ce que TikTok dit - c'est que la modération de la plateforme repose d'abord sur un examen des vidéos via l'intelligence artificielle (IA). Puis, si l'IA a détecté un problème, la vidéo va être soit supprimée, soit envoyée à un modérateur humain pour une deuxième analyse. Or, on le sait, l'IA est très efficace pour repérer les contenus haineux, les contenus violents et les contenus racistes, mais elle est beaucoup moins efficace pour repérer la mésinformation et la désinformation, parce que ces dernières ressemblent à de l'actualité crédible. Il y a là un problème fondamental.
Selon le rapport d'application des règles communautaires de TikTok, lors du premier trimestre de 2022, TikTok a retiré plus de 102 millions de vidéos allant à l'encontre de ces règles communautaires, mais sur ces 102 millions de vidéos, moins de 1 % ont été retirées parce qu'elles contrevenaient aux règles d'intégrité et d'authenticité, qui comprennent la mésinformation dangereuse. C'est très peu, sans doute parce que l'IA n'est pas la plus efficace pour repérer ces contenus. Malheureusement, aujourd'hui, les campagnes de désinformation efficaces ressemblent trait pour trait à de l'information crédible. Ce qui va différencier un contenu de propagande d'un contenu fiable, c'est tout simplement l'initiateur du contenu. Or, si vous ne savez pas qui a produit ce contenu et que cette personne se cache derrière un compte anonyme, l'IA sera incapable d'identifier ce contenu comme de la propagande.
M. Claude Malhuret, rapporteur. - Vous parliez de 1 % de vidéos retirées pour cause de mésinformation. Comment se répartissent les 99 autres pourcents ?
Mme Chine Labbé. - Je n'ai pas le détail, mais cela comprend les contenus violents et tous les contenus illicites interdits sur la plateforme. Les 1% mentionnés ne concernent pas uniquement la mésinformation dangereuse, mais l'ensemble des infractions aux règles d'intégrité et d'authenticité. Cela inclut donc les contenus générés par une intelligence artificielle, les contenus trompeurs et les contenus inauthentiques.
M. Claude Malhuret, rapporteur. - Vous avez dit que TikTok ne reconnaissait pas la labellisation de l'information. Qu'en est-il des autres plateformes ?
Mme Chine Labbé. - Les autres plateformes le font de manière partielle et assez inégale. Je ne pense pas que TikTok soit différent des autres plateformes à ce niveau-là. Généralement, les plateformes ont des partenariats avec des fact-checkers, comme l'AFP en France. Certains contenus vont donc être labellisés comme faux, ou bien, comme on l'a beaucoup vu sur les contenus traitant du Covid-19 sur TikTok, avoir un label appelant à aller chercher des sources fiables sur le sujet - ce qui est déjà est un premier pas. Le problème de la labellisation vient du fait que, souvent, certains contenus sont labellisés comme faux ou trompeurs alors que d'autres contenus, comportant la même fausse information, ne vont pas l'être car le vocabulaire utilisé est différent et aura donc échappé à la plateforme.
Sur toutes les plateformes, la labellisation est donc assez inégale. Le problème sur TikTok, c'est qu'il y a peu de labellisation. Il y en a, mais le design-même de l'application fait que lorsque vous scrollez d'une vidéo à une autre, il est beaucoup plus facile de passer à côté du label. En théorie, il est déjà obligatoire de labelliser un contenu afin d'indiquer qu'il est altéré. Mais, en pratique, on voit de nombreuses vidéos altérées - on l'a vu sur Joe Biden depuis l'annonce de sa candidature à la prochaine élection présidentielle - où le label n'apparaît qu'en milieu de vidéo, ce qui en limite l'efficacité, alors même qu'il ne serait pas plus coûteux de mettre ce label sur l'intégralité de la vidéo. Cela démontre un manque de volonté de la part des plateformes, mais aussi des créateurs de contenus eux-mêmes, qui peuvent choisir de mettre le label en milieu ou en fin de vidéo plutôt qu'au début. C'est une problématique très compliquée à laquelle toutes les plateformes, y compris TikTok, réfléchissent en ce moment.
M. Claude Malhuret, rapporteur. - Avez-vous des détails sur le programme de fact-checking initié par TikTok en Asie-Pacifique, qui s'appuie sur l'AFP ? Existe-t-il sur d'autres continents ?
Mme Chine Labbé. - Je n'ai pas du tout d'information à ce sujet. Nous ne sommes pas des fact-checkers en tant que tels, au sens où nous produisons nos propres fact-checking pour nourrir nos analyses de sites et la base de données des principales infox qui circulent en ligne, mais nous ne sommes pas du tout impliqués dans ce genre de partenariat et j'ignore donc ce que TikTok fait avec l'AFP par exemple. Les partenariats avec des fact-checkers sont certainement utiles, mais ils ne sont pas à même de pleinement résoudre le problème. Certains contenus problématiques peuvent être labellisés grâce à eux, d'autres vont leur échapper car la manière de présenter la fausse allégation est différente et n'est donc pas repérée par la plateforme.
M. Mickaël Vallet, président. - Nous essayons de distinguer les difficultés communes à l'ensemble des plateformes de celles plus spécifiques à des plateformes plus jeunes. Nous avons auditionné hier la Société des auteurs et compositeurs dramatiques, qui nous a indiqué que, grâce aux outils informatiques, une plateforme comme YouTube bloque très aisément la diffusion de contenus qui ne respecteraient pas le droit d'auteur. Les moyens techniques existent. Dans ce que vous avez évoqué sur le pourcentage de mésinformation, est-ce propre à TikTok ou cela est-il commun à toutes les plateformes sur lesquelles les gens s'informent beaucoup ?
Mme Chine Labbé. - Je pense tout d'abord qu'il faut être très clair sur le fait que le risque zéro n'existe pas lorsque l'on parle de la diffusion de fausses informations. L'objectif de zéro contenu faux est impossible à atteindre et on ne peut donc pas l'attendre des plateformes. En revanche, ce que l'on peut et doit demander, c'est davantage de transparence. Cela passe notamment par davantage de transparence algorithmique, ainsi que par une labellisation des sources et des contenus qui circulent, afin que les utilisateurs retrouvent du pouvoir là où les algorithmes décident aujourd'hui à leur place, car ils leur donnent à voir des contenus dont ils ignorent souvent l'origine.
S'agissant des comparaisons entre telle et telle plateforme en matière de fausses informations, même si l'on manque de données statistiques précises et même si l'on trouve de fausses informations sur toutes les plateformes, le fait est que l'on constate une forte présence de contenus faux sur TikTok. Je pense que cette différence est d'abord due à l'algorithme de TikTok, qui a tendance à valoriser le temps de rétention sur les contenus et l'engagement, c'est-à-dire les contenus faisant davantage réagir. Or, on le sait, les contenus faux font davantage réagir, parce qu'ils entraînent à la fois l'adhésion des personnes qui y croient, mais aussi des réactions de la part de personnes qui vont commenter ces contenus pour les rejeter. Les gens ne vont pas sur TikTok pour consulter le profil d'un ami, mais pour consommer de l'information soit en regardant ce que propose l'algorithme, qui apprend à nous connaître et nous propose des contenus en fonction de ce qui nous plaira probablement, soit en faisant des recherches sur le moteur de recherche où, là encore, les résultats sont proposés par l'algorithme. D'autre part, la modération sur TikTok repose d'abord sur un examen des vidéos par une intelligence artificielle qui, comme déjà évoqué, n'est pas très efficace sur ce sujet-là. Tout cela tend à promouvoir des contenus problématiques.
M. Mickaël Vallet, président. - Lorsque vous vous adressez à YouTube, Twitter ou une autre plateforme pour leur signaler un problème ou leur demander des informations, comment se déroulent les échanges ? Rencontrez-vous des représentants de ces plateformes en personne ou s'agit-il d'échanges de courriers très formels ?
Mme Chine Labbé. - Lorsque nous produisons un rapport sur une plateforme, comme nous l'avons fait sur Twitter ou sur Facebook, nous contactons d'abord les représentants presse de la plateforme concernée. Généralement, les plateformes nous répondent et prennent des mesures relatives aux contenus que nous avons signalés dans notre rapport. Nous sommes par ailleurs signataires du code de bonnes pratiques de l'Union européenne contre la désinformation. Dans ce cadre, nous avons des réunions avec différents acteurs, avec lesquels nous pouvons échanger. Nous produisons nous aussi des rapports de transparence. Il faudrait plus de lieux d'échange de ce type.
M. Mickaël Vallet, président. - Qui connaissez-vous chez TikTok ? Quels sont vos interlocuteurs au sein de cette entreprise ?
Mme Chine Labbé. - Il y a des représentants presse au sein de TikTok, présents pour répondre aux questions de la presse. Nous avons ainsi signalé cette semaine des contenus altérés et TikTok nous a répondu et a pris des mesures concernant ces comptes.
M. Mickaël Vallet, président. - Que répondent ces équipes aux questions sur la proportion plus importante d'infox sur TikTok?
Mme Chine Labbé. - Je ne peux pas m'engager en termes de proportion. Par ailleurs, il ne s'agit pas de dire qu'il y a à tout moment 20 % de vidéos sur TikTok contenant des fausses informations. Ce chiffre est issu d'une expérience, à un « moment t ». Peut-être les choses se sont-elles améliorées depuis. TikTok avait critiqué la méthodologie de notre étude. Sur le fond, nous n'avions pas eu de véritables réponses. Je ne prêterai pas de mauvaises intentions à TikTok dans les réponses qu'il nous a fournies. Nous avons toujours pu avoir des réponses à nos rapports. Ils ont pris des mesures quand cela était nécessaire. Le problème est que ces mesures sont prises a posteriori, c'est à dire après que nous leur ayons fait un signalement.
Mme Catherine Morin-Desailly. - Je voudrais d'abord féliciter notre intervenante, qui utilise le mot infox plutôt que fake news. Le mot est bien plus précis et offre toute la palette des problématiques entre mésinformation, désinformation, manipulation. Entre 2018, lors de l'examen de la loi visant à lutter contre la manipulation de l'information, le Sénat a tenu à donner des définitions à chacun de ces termes pour légiférer de manière appropriée.
Vos recherches permettent-elles d'établir ce qui relève de la mésinformation, comme utilisation naïve d'une expression par un utilisateur lambda, sans intention malveillante, et ce qui relève au contraire de profils anonymes qu'on chercherait à identifier ? Personnellement, je ne suis pas utilisatrice de TikTok et je ne l'ai volontairement pas téléchargé. J'ai donc du mal à voir ses différences avec les autres applications. Il me semble néanmoins qu'il y aussi sur TikTok des contenus provenant d'utilisateurs lambda.
Mme Chine Labbé. - Vous avez tout à fait raison. C'est la raison pour laquelle je rappelais en préambule que nous analysions à la fois la mésinformation et la désinformation. Parfois, il est très difficile de remonter à l'origine d'une infox virale et de déterminer s'il y avait un acteur derrière. Vous me demandiez dans votre questionnaire si nous arrivions à retrouver l'émetteur originel d'une fausse information. Il s'agit de l'étape la plus complexe et cela se révèle parfois impossible.
Qu'elles émanent de pays étrangers ou de colporteurs locaux, les infox s'entremêlent. Par exemple, une fausse information promue par des bots russes en anglais pourra ensuite être reprise par des colporteurs locaux en Italie. Il n'y a pas forcément d'organisation derrière ces personnes. De même, un État étranger pourra transformer en arme (weaponization en anglais) une infox provenant d'un compte d'un utilisateur lambda, qui peut avoir de bonne foi mésinterprété des données.
Lors d'une intervention devant le Parlement européen sur la désinformation d'État, tout mon propos avait consisté à alerter sur la nécessité de ne pas séparer comme deux choses différentes la désinformation étrangère et la mésinformation/désinformation pouvant provenir de colporteurs d'infox locaux dans différents pays d'Europe. Tous ces différents acteurs se lisent les uns les autres, se reprennent les uns les autres et s'utilisent les uns les autres à leur propre dessein. On l'a vu pour des campagnes qui semblaient étatiques et qui se servaient d'influenceurs locaux pour promouvoir des infox.
Les fausses informations sur TikTok ne relèvent donc pas nécessairement de propagande ou de désinformation. La qualification et l'attribution des récits faux sont très compliqués à établir. On arrive facilement à le faire quand l'information provient d'un média d'État étranger identifié mais cela reste souvent très compliqué dans les autres cas.
Mme Marie Mercier. - J'ai l'impression que vous exercez une mission de service public en effectuant cette surveillance des contenus. Quand vous repérez un contenu, vous le signalez et vous nous indiquez que vous êtes entendu.
Mme Chine Labbé. - Le fait est en effet que beaucoup des contenus que nous signalons sont retirés par TikTok. Un de nos rapports mettait ainsi en exergue la forte présence de contenus glorifiant les exactions du groupe Wagner. Ces contenus étaient très clairement en violation des règles d'utilisation de TikTok puisqu'ils appelaient à la violence. Quasiment tous les hashtags que nous avons signalés ont été supprimés à la suite de la publication de ce rapport.
Mme Marie Mercier. - Je voulais savoir si vous aviez des concurrents qui exerçaient dans ce domaine ? D'autres journalistes exercent-ils les mêmes types de mission ? Il faut espérer que vous êtes nombreux. L'ARCOM, gendarme de l'audiovisuel, n'a-t-il pas les mêmes missions que vous ? Comment êtes-vous rétribué ?
Mme Chine Labbé. - TikTok pourrait être un client et nous payer pour utiliser nos données. Mais il n'est pas notre client et nous n'avons pas de lien d'intérêt. Nous nous rétribuons en vendant des licences d'accès à différents acteurs, que ce soit les plateformes digitales, les réseaux sociaux, des agrégateurs de contenus. Ils peuvent intégrer nos analyses de la fiabilité des sites pour leurs utilisateurs pour leur donner un supplément d'information sur les sources. Nous fournissons aussi des briefings sur les tendances de la désinformation à nos clients. Parmi nos clients, nous avons de plus en plus des acteurs du monde de la publicité. Nous n'en avons pas parlé mais une grande partie des fausses informations sont aujourd'hui financés par la publicité programmatique.
Il existe beaucoup de fact checkers, qui travaillent pour un média et qui ont en général des partenariats et donc des liens d'intérêt avec des plateformes. Notre travail est différent puisque nous produisons des évaluations de la fiabilité des sites d'information journalistiques et apolitiques en fonction de critères journalistiques. Nous sommes les seuls à faire ce travail. En revanche, sur le fact checking, qui est une partie de notre travail, nous avons des concurrents. Par ailleurs, de plus en plus d'acteurs produisent des listes d'acteurs à risque désinformationnelle. Ils peuvent être considérés comme des compétiteurs, à la différence près que ceux-ci utilisent de l'intelligence artificielle, ce que nous ne faisons pas. Nous sommes une équipe de journalistes, réalisant des analyses manuelles. Nous contactons les sites pour demander des commentaires ; nous les invitons à progresser sur leurs pratiques pour obtenir de meilleurs scores ; nous mettons à jour en permanence nos analyses. Nous sommes pour l'instant uniques dans ce paysage mais tout un nouvel écosystème est en création, face à une menace beaucoup plus grande qu'elle ne l'était il y a quelques années.
Mme Annick Billon. - Ma question concernait votre modèle économique. Avez-vous vocation à ester en justice ? Disposez-vous d'un service juridique qui vous le permettrait ?
Le développement du réseau TikTok a-t-il été accompagné d'un changement d'algorithme pour lutter contre les fausses informations ? Classez-vous ces infox par rubriques (géopolitiques, santé...) ?
Mme Chine Labbé. - Nous sommes des journalistes et nous n'avons pas vocation à intenter des actions en justice. Notre sujet est celui des fausses informations, ce qui ne recoupe pas tout à fait le sujet des contenus illicites. Nos études ne portent pas sur la publication de contenus illicites, comme les contenus racistes par exemple. Nous travaillons sur la publication d'informations fausses. Dans le domaine de la vérification des faits, certains acteurs procèdent à des vérifications de faits exagérés ou insuffisamment fondées. Nous ne nous intéressons quant à nous qu'aux informations complétement fausses et complétement trompeuses, ou sans fondement aucun. Typiquement, le fait que le 11 septembre n'était pas un attentat mais un « inside job ». On ne peut pas prouver que c'est faux mais on peut montrer qu'il n'y pas d'éléments prouvant que cela est vrai. Notre exigence est assez haute ; nous n'irons pas vérifier des informations qui ne sont par exemple que des propos exagérés d'hommes politiques. Nous nous concentrons sur les allégations fausses, comme les accusations de mise en scène des exactions de Boutcha.
Je serais bien incapable de vous dire s'il y a eu un changement d'algorithme de la part de TikTok. Nous n'avons sur ce sujet qu'accès aux informations qui fuitent dans la presse.
Quand nous publions nos analyses des sites d'information, nous classons en effet les différents types de contenus problématiques. Il y a un classement avec contenus faux sur la santé, sur le covid 19, sur le changement climatique, sur la guerre en Ukraine, des contenus QAnon. Ces classifications internes nous permettent de trier les sites. Cela permet de simplifier le travail des chercheurs sur notre base de données.
Mme Toine Bourrat. - Vous nous avez dit que l'intelligence artificielle n'était pas en mesure de repérer les désinformations/mésinformations et que seul l'humain était capable de les détecter. Savez-vous comment est traité le signalement fait par un utilisateur ?
Mme Chine Labbé. - Ce n'est pas le cas et cela fait partie des nouvelles exigences imposées par la réglementation européenne DSA. Les plateformes vont devoir mettre en place des processus plus transparents pour les utilisateurs.
Mme Catherine Morin-Desailly. - J'aurais une dernière question. Il y a deux ans, Shoshana Zuboff, professeure à Harvard, établissait que le modèle économique des plateformes américaines était toxique et pervers (publicité, gratuité, clics rémunérateurs...), ce qui tendait à promouvoir les fausses nouvelles, la désinformation, la montée en puissance des contenus haineux et des radicalités. De vos observations, qu'y a-t-il de similaire et de différent dans le modèle économique d'une plateforme comme TikTok ?
Mme Chine Labbé. - Sur le modèle d'affaires de TikTok, je n'ai pas d'expertise particulière. J'ai lu l'excellent livre de Shoshana Zuboff mais qui évoque davantage la question de la captation des données et le ciblage publicitaire.
Mme Catherine Morin-Desailly. - C'est quand même ce qui contribue à faire monter en puissance la désinformation et la manipulation de l'information.
Mme Chine Labbé. - La question est pertinente et j'ai évidemment un avis sur la question. Mais n'ayant pas d'expertise sur le sujet, je ne préfère pas me prononcer.
M. Claude Malhuret. - Avez-vous une idée de la taille de l'équipe de modération humaine en langue française de TikTok et de sa localisation géographique ? La plateforme croissant sans arrêt, la croissance du nombre de modérateurs suit-elle ? Peut-on avoir une évaluation de cette équipe de modération et de ses résultats ?
Mme Chine Labbé. - Là encore, je n'ai pas de chiffre car je n'ai pas de connaissance particulière outre ce que j'ai pu lire dans la presse. En revanche, le DSA oblige à augmenter la taille des équipes de modération, en couvrant plus de langues. Nous sommes présents dans 9 pays et nous couvrons plusieurs langues : l'anglais, le français, l'italien et l'allemand. Nous observons - et ce constat vaut pour toutes les plateformes - que la modération est souvent bien plus existante et efficace en anglais que dans les autres langues. Nous savons que dans les pays d'Europe de l'Est, des problèmes se posent du fait de l'absence d'équipes de modération dans les langues de ces pays. Je n'ai pas de connaissance particulière liée à l'équipe de modération de TikTok ; mon commentaire est général à toutes les plateformes.
M. Claude Malhuret. - Cela m'amène à vous poser une question sur l'application du DSA dans le domaine de la désinformation. Les recommandations du DSA vous paraissent-elles adaptées, insuffisantes, trop bureaucratiques, trop difficiles à adapter ? Quel est votre jugement sur l'état du DSA tel qu'il va être proposé aux différents gouvernements et parlements ?
Mme Chine Labbé. - Notre position est singulière, nous ne sommes ni des militants ni des activistes, nous sommes des journalistes qui faisons des observations et produisons des données et des rapports. Je ne me prononcerai donc pas sur la validité du DSA dans son ensemble. Je peux néanmoins indiquer que davantage de transparence, notamment sur les algorithmes est toujours nécessaire et bienvenue et peut améliorer les capacités d'analyse des chercheurs et des groupes comme le nôtre.
M. Mickaël Vallet. - Travaillez-vous avec des neuroscientifiques sur l'éducation aux médias et sur la vigilance aux infos chez les plus jeunes ?
Mme Chine Labbé. - Nous ne travaillons pas avec des neuroscientifiques mais votre question est intéressante. De nombreuses actions sont aujourd'hui menées dans les écoles notamment par le Centre de liaison de l'enseignement et des médias d'information (CLEMI). Notre approche de l'éducation aux médias - modeste - passe par un travail avec les bibliothèques publiques. L'éducation aux médias ne doit pas se limiter aux jeunes, elle doit concerner tous les âges. Notre travail avec les bibliothèques vise précisément à atteindre plusieurs groupes d'âge. Nous offrons gratuitement l'accès à notre extension de navigateur pour permettre aux internautes de s'assurer de la fiabilité des sources quand ils naviguent sur internet.
Nous proposons aussi aux bibliothèques d'organiser des ateliers à la fois pour leurs bibliothécaires et pour les utilisateurs, où nous enseignons notre méthodologie d'évaluation de la fiabilité des sites. Notre extension de navigateur peut à la fois servir d'outil lors de navigation sur Internet mais aussi de « vaccin » contre la désinformation, en créant des réflexes. Nous sommes en partenariat avec 900 bibliothèques dans le monde.
M. Mickaël Vallet, président. - Merci beaucoup pour votre contribution à nos travaux.
La réunion est close à 17h45
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.
Jeudi 4 mai 2023
- Présidence de M. Mickaël Vallet, président -
La réunion est ouverte à 10 h 30.
Audition de M. Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique
M. Mickaël Vallet, président. - Mes chers collègues, nous débutons notre matinée de travail avec l'audition de M. Bernard Benhamou, aujourd'hui secrétaire général de l'Institut de la souveraineté numérique (ISN).
Monsieur, dans de précédentes fonctions, vous avez été délégué interministériel aux usages de l'internet auprès du ministère de la recherche et du ministère de l'économie numérique, ainsi que conseiller de la délégation française au sommet des Nations unies sur la société de l'information.
Vous le savez, le Sénat s'est positionné depuis maintenant plusieurs années en faveur d'une plus grande souveraineté numérique européenne. Je pense, par exemple, à la commission d'enquête sur la souveraineté numérique de 2019, ou encore au récent rapport de la commission des affaires économiques sur la souveraineté.
Aujourd'hui, c'est la question TikTok qui nous intéresse et les leçons que nous pourrions en tirer pour renforcer notre souveraineté numérique, que ce soit du point de vue du droit, des infrastructures ou encore des logiciels.
Ainsi, nous nous interrogeons sur la capacité de TikTok et de la Chine à transférer et à accéder aux informations des utilisateurs européens, même si ces données sont stockées dans des centres de données européens ou nord-américains. La Chine se dote, en effet, à l'image des États-Unis, d'un arsenal juridique extraterritorial de plus en plus offensif, qui constitue un défi sur le chemin de notre souveraineté.
Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.
Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure. »
Conformément à la procédure applicable aux commissions d'enquête, M. Bernard Benhamou prête serment.
M. Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique. - Au niveau international, ce sujet est majeur, dans ce contexte de début de guerre froide technologique sino-américaine.
Revenons sur l'objet lui-même. Les discussions sur la nature de TikTok sont nombreuses, mais l'important est de savoir comment ce réseau fonctionne. Twitter et Facebook reposent sur un graphe social, c'est-à-dire sur le fait d'associer des personnes, pour identifier les groupes de personnes avec lesquels interagir. Certains ont dit que TikTok ne reposait que sur un graphe d'intérêts. La communauté des chercheurs admet la dénomination de graphe social d'intérêts, ou Social Interest Graph, mêlant les deux approches, à la fois la dimension d'analyse des goûts personnels en fonction des vidéos que vous regardez, mais aussi les interactions avec les personnes. C'est un panachage de deux modèles.
Notre gouvernement a pu dire que TikTok n'est pas aussi toxique que les autres réseaux sociaux, mais ce n'est pas juste, du fait même de la structure d'analyse des données, et quelles que soient les précautions prises, à l'instar du projet Texas d'hébergement local aux États-Unis.
Ces données sont analysées de manière extrêmement fine. Elles s'intéressent au plus intime des détails de la personne. Un article du New York Times, en 2018, faisait état des brevets les plus « flippants » - « creepy » en anglais - déposés par Facebook : on y voyait toute une série de brevets sur l'analyse comportementale, le suivi en temps réel, l'analyse des goûts ou le rapprochement entre les personnes et leur consommation audiovisuelle.
Grâce à une forme de transparence, du fait des brevets déposés, on voyait bien les implications : il s'agit non pas simplement d'orienter vers une action de recommandation publicitaire, ce qui est de facto le métier de Facebook, mais bien de percevoir le plus intime trait de caractère, pour être en mesure d'interagir voire d'orienter, de manipuler diront certains. Voilà ce qui doit nous intéresser aujourd'hui.
Percevoir autant de données, y compris biométriques ou émotionnelles, n'est pas neutre. TikTok peut capter l'empreinte vocale et l'empreinte faciale. Les répercussions sur l'analyse comportementale sont importantes.
Kai-Fu Lee, grand spécialiste chinois des technologiques, a beaucoup travaillé sur les technologies d'intelligence artificielle (IA) ; il avait une formule amusante : « L'Ouest a développé ses innovations à partir de rien. Nous, nous allons les développer à partir de vous. » Pour la Chine, il est totalement normal de développer ses propres technologies, dans un cadre protectionniste, à partir de dérivés de modèles existants.
L'IA est l'actualité technologique du moment. Le piratage des serveurs Microsoft Exchange ne s'est pas fait à des fins d'espionnage des sociétés. Autorités américaines et chercheurs ont pu révéler que le but, depuis la Chine, était en fait d'alimenter les moteurs d'IA chinois, de manière à ce qu'ils deviennent meilleurs que leurs équivalents américains ou européens. L'IA se nourrit de données : disposer des données structurées de centaines de milliers, voire de millions d'entreprises était particulièrement stratégique pour développer des solutions alternatives. Qu'y a-t-il de plus intéressant pour une entreprise que d'extraire des données issues de l'ensemble des citoyens de la planète, en particulier dans les pays développés ?
En Chine, TikTok s'appelle Douyin, et est beaucoup plus orienté vers l'éducation, les sciences économiques et la formation que le loisir. Les données recueillies sont valorisables à plusieurs niveaux, publicitaire ou stratégique, pour développer d'autres technologies.
J'en viens à l'extraterritorialité du droit, en particulier chinois, mais aussi américain, avec la loi Foreign Intelligence Surveillance Act (FISA). Pour les sociétés chinoises, refuser d'extraire les données issues de TikTok est un leurre. Aux États-Unis, quand la National Aeronautics and Space Administration (Nasa) demande des données, aucune société ne peut refuser, sous peine de sanctions pénales très lourdes. Les promesses de non-intrusion des gouvernements ou des sociétés sont hypocrites.
Étant donné les intentions de la Chine, dans ce contexte de guerre froide sino-américaine, avec un embargo sur les technologies, l'enjeu est crucial : il y a va d'une dimension stratégique de contrôle politique des populations, avec une ultra précision des données. Par définition - je le confiais récemment à des journalistes -, ne pas utiliser ces données serait une forme faute professionnelle de la part des services chinois.
M. Mickaël Vallet, président. - Votre formule a fait mouche dans les milieux autorisés... Vous devriez réclamer des droits d'auteur !
M. Bernard Benhamou. - Cette formule me vient d'un ami qui travaillait en tant que cryptographe pour Google, et qui m'expliquait que si, dans la blockchain, qui décrypte en particulier les cryptomonnaies, la Nasa n'avait pas installé de porte dérobée, c'est qu'elle avait mal fait son travail. Par définition, ce qui est vrai à l'Est est vrai à l'Ouest. Ne prenons pas pour argent comptant les déclarations de bonne volonté des uns et des autres.
J'ai tenté de renvoyer dos à dos Amérique et Chine, mais les situations ne sont en rien comparables. Ici même, dans ces murs, à de très nombreuses reprises, je me suis prononcé contre les excès de complaisance vis-à-vis de certaines déclarations, de certaines technologies ou de certains acteurs, en particulier aux États-Unis. Cependant, ce qui se passe en Chine n'a rien à voir ; nos intérêts stratégiques sont totalement différents. Sont tout aussi différentes les valeurs que les autorités chinoises souhaitent faire prévaloir. Le document numéro 9, diffusé par le parti communiste chinois, émanant donc des plus hautes instances, rappelait le but suivant, de manière explicite : éradiquer la démocratie constitutionnelle, la séparation des pouvoirs, le principe universel des droits de l'homme et des libertés fondamentales, la promotion de la liberté civile, le néo-libéralisme économique et le nihilisme historique, c'est-à-dire toute pensée critique qui réfute la valeur scientifique de la pensée de Mao. Nous ne pouvons en aucun cas adopter une attitude symétrique.
Je reviens un instant sur le modèle économique de TikTok. Comme la plupart des réseaux sociaux, il repose sur l'analyse des données et sur un modèle data centric, c'est-à-dire centré sur l'utilisation des données des personnes, perspective amplifiée par la volonté des autorités chinoises d'en faire un outil de contrôle politique. Disposer de telles facultés permet d'éradiquer toute forme de contestation à l'intérieur d'un pays, c'est-à-dire de détecter au plus tôt toute forme de remise en cause de certaines positions ou de certaines politiques publiques.
Ce principe de détection, puis de sanction, s'appelle en Chine le « crédit social », forme de notation parfaitement effrayante, parfaitement orwellienne, et qui touche la totalité des 1,4 milliard de Chinois. Le but est de noter non seulement les comportements financiers, mais aussi les comportements personnels face aux politiques sociales. Dès que vous prenez la parole sur un réseau social pour dire des choses qui ne vont pas effectivement dans le sens édicté par le parti, la note de crédit social diminue, puis des sanctions sont prises : la personne n'a plus le droit de voyager en train ou en avion, n'a plus accès à des crédits financiers, n'a plus accès à des promotions professionnelles, et devient finalement un véritable paria. Les concepteurs de ce système, qui se sont beaucoup appuyés sur Alibaba, ont clairement affiché leur objectif : les personnes sanctionnées dans le cadre du crédit social doivent devenir des parias au sein de la société chinoise. Par définition, le modèle chinois est radicalement différent du nôtre.
Le dire n'est en rien être sinophobe, c'est simplement constater une orientation stratégique et politique. Que TikTok soit contraint dans tous les sens du terme par cette volonté politique est une évidence, si bien que le fait de ne pas se poser la question est dangereux.
Un article paru récemment dans Le Monde rappelle qu'en Chine même les robots conversationnels doivent être au diapason des valeurs socialistes. Toutes les sociétés concernées et les grandes entreprises disposent d'une antenne du parti communiste chinois dans leurs locaux. Elles doivent promouvoir par définition les orientations politiques, et non pas simplement économiques, du régime.
Quand elles ne le font pas, comme Alibaba, les dirigeants sont quasiment mis en résidence surveillée ou exilés. C'est le cas de Jack Ma, qui s'est réfugié au Japon, et qui a été dépossédé de la société qu'il avait créée : on l'a évincé de l'ensemble de ses activités.
Rappelons aussi l'opacité complète des algorithmes de TikTok. Héberger les données aux États-Unis ne permet en rien d'avoir accès au code - cela avait été évoqué pour Oracle, qui était censé travailler avec TikTok aux États-Unis. C'est un leurre. Les Européens et la Commission européenne l'ont constaté, au sein même du cadre européen : lorsqu'il a été question de Microsoft lors d'une action antitrust sur Windows et lors de la fusion avec Internet Explorer, Microsoft a systématiquement refusé de transférer ses codes sources à la Commission européenne, en invoquant un argument extraordinaire, consistant à dire qu'ils ne les avaient plus, tant les évolutions étaient grandes. Voilà qui est remarquable.
Réfléchir à TikTok implique de s'intéresser à des questions stratégiques, techniques, technologiques et politiques radicalement différentes.
L'application est capable d'analyser la manière dont vous interagissez avec elle et l'ensemble de vos habitudes. On peut reconnaître une personne à la manière dont elle tape sur un clavier ou à sa démarche, grâce aux capteurs d'accélération du téléphone. Cela va très loin. L'historien Yuval Harari disait, dans le New York Times, à propos du contrôle par les émotions, qu'il est important de se rappeler que colère, joie, ennui et amour sont aussi des phénomènes biologiques, comme la fièvre et la toux. La technologie, qui identifie tout, pourrait également identifier les rires, si entreprises et gouvernements commençaient à collecter nos données biométriques en masse ; la technologie pourrait mieux nous connaître que nous ne nous connaissons nous-mêmes, et elle pourrait non seulement prédire nos sentiments, mais aussi les manipuler et nous vendre tout ce qu'elle veut, qu'il s'agisse d'un produit ou d'un politicien.
La surveillance biométrique ferait passer le piratage des données de Cambridge Analytica pour des outils de l'âge de pierre.
De manière générale, nous avons sous-estimé l'usage qui pouvait être fait des données à des fins de contrôle des individus et des populations, alors que c'est l'obsession permanente de régimes autoritaires. Nous avons sous-estimé les conséquences de l'affaire Cambridge Analytica, dont certains pensent qu'elle a participé à l'élection de Donald Trump en 2016.
Il faut se poser la question de savoir si nous devons permettre d'extraire toujours plus de données sur les individus et si ces modèles ne sont pas devenus à ce point toxiques qu'ils doivent être remis en cause. Ces modèles économiques incitent à une forme de dissémination sauvage des données. En Europe, les affrontements à venir seront ceux entre différents types de valeurs, mais aussi entre différents types de modèles économiques. Concernant l'IA, on se demande s'il ne faut pas promouvoir des systèmes d'abonnement, et ne pas céder à une apparente gratuité qui viendrait alimenter des systèmes de recueil de données.
Ces modèles ne sont ni une évidence ni éternels : nous ne pouvons les tenir pour acquis. Ils nous exposent à des risques - voyez la quasi-tentative de coup d'État aux États-Unis. Les événements du 6 janvier ont été le fait de personnes structurées autour de réseaux sociaux comme Facebook. Les mouvements extrémistes n'existent que parce que des personnes ont pu se rassembler grâce à des affinités construites sur Facebook. C'est grâce au microciblage, au microtargeting, que tous les mouvements extrémistes ont pu s'étoffer.
Je terminerai en citant quelqu'un que je ne cite guère d'habitude, un certain Vladimir Poutine, qui disait que le pays qui sera leader dans le domaine de l'IA dominera le monde. Je pensais d'abord qu'il parlait d'armement ou d'économie ; il parlait en fait de contrôle politique, lui qui est un observateur acharné de ce qui se passe en Chine : il observe le crédit social, cette possibilité d'étouffer toute forme de contestation dans ce pays. Voilà ce qui l'intéresse pour rester au pouvoir.
Il existe donc un volet économique et technologique, mais aussi un volet stratégique et politique dans toutes les réflexions que nous avons à mener.
M. Mickaël Vallet, président. - Je vous remercie pour cette introduction très dense. Pour filer la métaphore russe, je dirais : « Que faire ? »
L'ISN a-t-il mené des travaux spécifiques sur TikTok, ou faites-vous un croisement entre la question culturelle du socialisme chinois, du comportement de l'État et du parti communiste chinois, et les nouvelles possibilités techniques ? C'est l'intentionnalité qui semble vous inquiéter. Des cas précis de manipulation ont-ils été identifiés ? Je pense à Ramón Mercader, qui a été préparé pendant des années afin de commettre son acte. Est-ce que TikTok scanne effectivement tout, ou est-ce que vous proposez une analyse globale ?
M. Bernard Benhamou. - Plusieurs cas de figure ont été révélés : des journalistes ont été suivis via la géolocalisation de TikTok, à des fins politiques, pour identifier des fuites - ce fut un cauchemar pour la communication institutionnelle de TikTok. D'autres cas ont été démontrés pour des fonctionnaires américains ou des fonctionnaires de la Commission européenne, expliquant les récentes interdictions de TikTok pour ces personnels.
Tout est lié au fait qu'un gouvernement puisse se saisir de ces technologies à des fins de pression. Pour les journalistes, il s'agit de savoir quels sont ses contacts et relations.
Nous n'avons pas mené d'études spécifiques sur TikTok, mais, lors d'un précédent rapport, sur les nouvelles technologies en Chine telles que celles utilisées par Alibaba et le crédit social. L'analyse fine, la transparence qualifiée, selon l'expression de Frank Pasquale, c'est-à-dire la possibilité d'analyser dans le détail le fonctionnement de l'algorithme, est totalement impossible pour TikTok, tout comme d'ailleurs pour Facebook - nous avons cependant accès aux brevets dans le cas de Facebook. Le degré de toxicité de TikTok est donc inconnu. Nous ne pouvons que la présager ou l'imaginer. Du fait du caractère de boîte noire - tel était le titre du livre de Frank Pasquale, La société boîte noire, ou Black Box Society, en anglais -, nous sommes très contraints.
Mme Catherine Morin-Desailly. - Nous assistons à un début de guerre technologique sino-américaine. La concurrence est féroce en matière de contrôle du devenir du monde, de la société de la connaissance et de l'économie, souvent dans une logique de profit. Si Elon Musk a d'ailleurs demandé un moratoire sur le développement de l'IA, c'est pour des considérations économiques, et non éthiques - personne n'a été dupe.
L'Union européenne s'est positionnée rapidement, avec un projet de règlement sur l'IA, articulé avec le Digital Services Act (DSA) et Digital Markets Act (DMA). En l'état, les mesures proposées protégeront-elles correctement les citoyens européens utilisateurs de ces plateformes ?
Vous parlez de boîte noire. Avons-nous suffisamment accès aux algorithmes pour évaluer leur toxicité et leur dangerosité ?
Vous avez dit que nous ne pouvons pas avoir d'attitude symétrique entre la Chine et les États-Unis. Nous savons qui sont nos pays amis, mais, au demeurant, nous parlons de sociétés, non seulement des pays. Mme Nathalie Loiseau rappelait, la semaine dernière, devant notre commission d'enquête, que les plateformes américaines disposaient de failles, parfois volontairement constituées, pour autoriser l'ingérence d'États étrangers. Notre attitude ne devrait-elle pas aussi être exigeante à cet égard ?
M. Bernard Benhamou. - Oui, nous devons être exigeants avec tous les acteurs, sans donner l'impression d'une complaisance collective, ce qui serait la pire des réponses possible. En diplomatie, on parle de double endiguement, de dual containment ; cependant, le risque n'est pas le même des deux côtés.
Concernant les textes européens, je m'inspirerai de la sagesse chinoise : le diable sera dans le détail, c'est-à-dire dans l'exécution. Le projet de règlement sur l'IA doit encore être précisé, des efforts sont faits pour y intégrer l'intelligence conversationnelle. Les États-Unis freinent des quatre fers, en invoquant le refrain bien connu du frein à l'innovation.
Je relisais récemment des textes du début des années 2000 qui disaient qu'il serait inacceptable, au nom de l'innovation, de réguler ces plateformes. Or l'on sait que la régulation aurait dû avoir lieu depuis longtemps - la haute administration américaine le dit elle-même. Cependant, le lobbying forcené au Congrès a empêché toute régulation. Il fallait une loi fédérale sur les données personnelles depuis au moins dix ans.
Au-delà de l'expression de nos valeurs européennes, nous ne pouvons être uniquement défensifs. Pour beaucoup de pays, l'Europe, notamment la France, est le lieu de la régulation, mais cette régulation n'est pas suffisante. Il nous faut une politique industrielle, à l'échelle nationale comme européenne, pour développer des acteurs qui seront en accord avec nos valeurs, dans tous les domaines, dans la santé par exemple ou la transition énergétique. Sinon, toute volonté politique et juridique sera contournée. Il nous faut créer les conditions économiques de l'existence d'une Europe qui ne soient pas simplement une communauté de consommateurs.
Malgré nos licornes, nous n'avons pas d'acteurs économiques capables de faire face aux acteurs chinois ou américains. Notre volonté stratégique politique doit s'ancrer dans une politique industrielle, et je me réjouis que notre excellent commissaire Thierry Breton se soit emparé de la question. Il ne faut pas être naïf face au protectionnisme des Chinois et des Américains. La politique industrielle n'est pas un terme du passé ; elle est indispensable pour accompagner les secteurs clefs comme l'intelligence artificielle et exister sur la scène mondiale. Nous avons un handicap majeur : nous n'existons que par la régulation.
M. Pierre Ouzoulias. - Je vous remercie pour la clarté de votre propos. Votre institut a un nom qui est en lui-même un programme politique auquel j'adhère, notamment dans sa dimension industrielle, qui est fondamentale.
Vous avez répondu à ma première question sur la législation européenne : il faudra être vigilant quant à la mise en oeuvre des directives. Les États devront faire appliquer les mesures auprès de toutes les sociétés. Napoléon disait : « La guerre est un art simple et tout d'exécution. » Telle est aussi la politique.
Finalement, la réponse juridique et politique n'est-elle pas toujours en retard par rapport à l'évolution des technologies ? Avons-nous la possibilité de nous préparer et d'avoir un coup d'avance ?
M. Bernard Benhamou. - L'occasion qui nous réunit aujourd'hui démontre notre capacité à traiter cette question quasiment en temps réel ! L'idée que les États seraient nécessairement en retard par rapport aux technologies est commode pour certains ; cependant, je crois que nous pouvons établir des limites sans brider l'innovation. Les États, en particulier les États européens, doivent effectuer des choix stratégiques : certains grands secteurs sont essentiels pour nous, tels que la santé connectée, qui est fondamentale à tous les points de vue, la maîtrise environnementale, l'énergie, les transports, l'économie, la finance et les technologies financières, etc. Il est important d'avoir le courage d'affirmer que certaines filières sont stratégiques pour nous et que nous devons les aider tout particulièrement plutôt que de saupoudrer nos efforts sur de nombreuses filières industrielles. La décision récente de la Commission européenne sur les technologies zéro carbone est un exemple à ce titre.
De plus, cette guerre froide technologique sino-américaine prend place dans un climat de sécurité internationale très différent de celui qui régnait il y a encore deux ans. Je maintiens, à ce titre, que l'opportunité de renforcer les budgets militaires est cruciale pour les développements technologiques. L'économiste italo-américaine Mariana Mazzucato a relevé que toutes les technologies clés de l'iPhone ont été développées par la commande fédérale américaine, en particulier militaire à travers le Defense Advanced Research Projects Agency (Darpa) : internet, le GPS, l'intelligence artificielle, la réalité augmentée, la réalité virtuelle, etc. La loi de programmation militaire se situe encore en amont de cela, mais il est nécessaire de donner la capacité à ces technologies militaires de participer au développement de technologies civiles, encore plus qu'elles ne l'ont fait jusqu'à présent. J'ai récemment publié un texte, cosigné par de nombreux sénateurs, plaidant pour une nouvelle ambition numérique et indiquant qu'il est essentiel de développer un Small Business Act français et européen dans ces domaines pour aider nos entreprises à se développer par le biais de la commande publique, ce qui a été négligé pour des raisons idéologiques de respect d'un marché libre et non faussé. Il nous faut suivre l'exemple américain et soutenir nos entreprises par des clientèles plutôt que saupoudrer de l'argent. La main prescriptrice de l'État doit se mettre au service de nos activités économiques dans ces domaines.
M. Mickaël Vallet, président. - Que pensez-vous de la vague d'interdiction d'installation de TikTok sur les téléphones professionnels des fonctionnaires fédéraux, de l'Union européenne et nationaux ? Est-ce cosmétique et purement politique, ou s'agit-il d'une mesure d'hygiène minimale pour les fonctionnaires ? Pourquoi cette réaction arrive-t-elle maintenant, après l'Inde, et est-ce utile d'une manière ou d'une autre, techniquement ou politiquement ?
M. Bernard Benhamou. - Cette tendance est corrélée à une montée en tension entre les États-Unis et la Chine sur les technologies et les actions menées par les États-Unis en matière d'embargo sur les technologies sont liées à cette situation. Il existe cependant un risque réel en matière de secret : on s'espionne entre alliés, et encore plus entre adversaires. Il est donc normal que les fonctionnaires de sécurité et les personnels militaires, puis les fonctionnaires dans leur ensemble soient concernés par une telle mesure. Il est naturel de se soucier de la sécurité de l'État - c'est bien le minimum. Quant à savoir si cela sera efficace et si les gens suivront ces directives, c'est une autre question. Cependant, le manque de transparence concernant la collecte et l'utilisation des données me conduit à considérer que ce n'est que le début.
M. Mickaël Vallet, président. - Vous évoquez le contrôle des populations, mais il y a environ 30 000 fonctionnaires à Bruxelles. Cette mesure est-elle inutile ou s'agit-il d'un signal à envoyer ? Qu'en est-il des grandes entreprises et des employés de sous-traitants en armement, qui n'ont pas conscience de l'importance des données de leurs téléphones et qui ne sont pas soumis à une telle interdiction ?
M. Bernard Benhamou. - On connaît la paranoïa de l'Union soviétique face aux actions de l'Occident, ou encore la vigilance des États-Unis vis-à-vis de Facebook. Les États, mais aussi les entreprises, sont extrêmement vigilants quant à l'image qu'ils projettent. Il y a quelques années, Facebook était considéré comme invulnérable en raison de sa richesse, mais les scandales comme Cambridge Analytica et les événements du 6 janvier aux États-Unis ont montré que de mauvaises décisions et une mauvaise réputation pouvaient avoir un impact sur les investisseurs. Or il ne faut pas oublier que, parmi les grands investisseurs des sociétés chinoises, il y a beaucoup d'Américains : Ali Baba a été fondé initialement avec des fonds américains ; l'un des premiers actionnaires du plus grand constructeur automobile chinois, BYD, est Warren Buffett. Les Chinois craignent la peur des investisseurs, avec la tension qui se crée autour de ces questions : les piqûres répétées d'un insecte peuvent parfois être plus mortelles qu'une seule morsure de serpent. Selon moi, cela a vraiment un impact sur l'image et sur la réputation des entreprises concernées. À terme, les investisseurs pourraient se tourner vers d'autres entreprises émergentes plutôt que de continuer à faire confiance à TikTok.
M. Mickaël Vallet, président. - Il est bon de s'assurer qu'un commissaire européen ou son directeur de cabinet ne puissent pas être menacés un jour par une puissance qui ferait du chantage sur des informations de leur téléphone, mais la force symbolique de ces mesures est donc peut-être encore plus importante.
Mme Catherine Morin-Desailly. - J'aimerais aborder les textes européens, le Digital Services Act et le projet de Artificial Intelligence Act (AIA). Leur efficacité dépendra, certes, de leur application, mais aussi de leur contenu. Ils doivent proposer des dispositifs adéquats pour encadrer les plateformes et protéger les utilisateurs. Un intervenant a mentionné devant nous hier le principe de Safety by Design, qui implique de réaliser des expérimentations pour mesurer les effets négatifs ou indésirables avant la mise sur le marché d'une application ou lors d'un changement d'algorithmes. Cette proposition pourrait-elle, selon vous, améliorer sensiblement la protection des utilisateurs, quelle que soit la plateforme, en particulier chinoise ?
M. Bernard Benhamou. - À l'évidence, oui : il est important de disposer d'études d'impact et des analyses concernant ces technologies. Un reproche souvent fait au projet d'AIA est la difficulté de réguler efficacement des systèmes dont même les scientifiques qui les développent ne peuvent prévoir les réponses. C'est complexe, mais il faut essayer. Il y a quelques années, Microsoft avait tenté de mettre en place un système équivalent à ChatGPT, qui avait dû être interrompu parce que l'on avait pu le détourner pour lui faire dire des horreurs racistes et misogynes. Les équipes de développement de OpenAI ont fait très attention pour éviter que cela ne se reproduise, bien qu'il subsiste des moyens de contournement. Ainsi, jusqu'à récemment, il était possible de faire dire à ChatGPT comment fabriquer du napalm, en maquillant la requête en souvenir d'enfance, mais cela a été corrigé. Notre capacité à éviter que les systèmes deviennent toxiques dépend de la montée en puissance de l'expertise et de l'imposition d'une transparence qualifiée du code. Il faudra que l'État développe des compétences internes et collabore avec des acteurs tiers dans ces domaines.
Toutefois, il ne faut pas se focaliser uniquement sur les dérives potentielles et oublier le paysage général. Plutôt que de limiter les dérives toxiques de certains systèmes d'intelligence artificielle, nous devrions développer les nôtres, pour ne pas être dépendants. En nous focalisant sur certaines questions, nous avons trop souvent négligé d'autres aspects importants. Les technologies ne sont pas naturelles : elles sont ce que nous en faisons ou n'en faisons pas. Nous avons laissé ces entreprises se développer sans régulation des données pendant deux décennies, et il est temps de nous demander si leurs technologies ne représentent pas un risque démocratique, d'instabilité et de polarisation, un risque pour nos vérités communes, comme le craint Yuval Harari. L'intelligence artificielle contribue à la création de systèmes tellement toxiques que l'on ne sait pas ce qui apparaîtra comme étant la vérité aux populations à l'avenir. Il se produit une démocratisation, dans le mauvais sens du terme, des outils de manipulation de masse. Je rappelle que Prigojine, souvent associé à Wagner, est non seulement lié à une armée privée, mais aussi à une ferme de trolls, c'est-à-dire à des outils de désinformation de masse, comme l'Internet Research Agency (IRA).
Nous devons absolument combattre ces outils de manipulation et de désinformation. Si nous laissons ces technologies s'installer, elles pourraient se substituer à la formation des opinions et des cultures. Comme l'a expliqué M. Harari dans un article récent, l'IA pourrait pirater le code de nos civilisations, c'est-à-dire se substituer à la formation des opinions et des cultures dans les temps à venir. Cela serait profondément inquiétant : une poignée d'individus détiendrait alors un pouvoir infini sur des centaines de millions, voire des milliards de personnes. Nous devons donc nous consacrer à cette tâche.
M. Claude Malhuret, rapporteur. - Nous sommes en guerre. Ce n'est pas de notre fait, et nous défendons le contraire, mais nous vivons un véritable affrontement entre les sociétés démocratiques et les régimes autoritaires ou totalitaires. Prétendant que nous ne sommes pas en guerre, nous avons tendance à moins nous préparer, en particulier aux attaques cybernétiques, dont des événements majeurs, tels que l'élection de Trump ou le Brexit, témoignent de la réalité. C'est le cas aussi avec la situation qui règne en Afrique. Ainsi, une armée de trolls a participé à faire chasser les Français du Burkina Faso, du Mali, etc., dans lesquels ils sont présents depuis des années. De manière surprenante, nous n'avons pas réagi avec les mêmes outils. Nous commençons seulement à le comprendre, alors que ces techniques existent de l'autre côté depuis des années. Nous avons donc le sentiment d'un retard considérable. Comment analysez-vous cette situation et quelles sont les solutions pour y remédier ?
Ma seconde question va dans le même sens. Les plateformes occidentales sont interdites en Chine et en Russie, alors que ces deux États ne se privent pas d'intervenir dessus et commencent à mettre en place des plateformes comme Tiktok, ce qui constitue, à terme, une manière de déstabiliser les démocraties. Il semble que nous n'ayons pas de réaction sur ce point et que nous ne préoccupions pas de cette absence de symétrie. Comment pourrions-nous réagir ?
M. Bernard Benhamou. - Le problème des plateformes de réseaux sociaux tient au fait que l'on y favorise la confrontation plutôt que la réflexion. Le format de Twitter est, par nature, clastique, au sens psychiatrique du terme, de sorte que la raison, qui demande plus de temps, n'y a pas sa place. Considérer que le fact checking suffira à contredire les manipulations auxquelles donnent lieu les réseaux sociaux est une illusion. D'autant que chaque trimestre, Facebook efface 1,5 milliard de faux comptes, soit plus de 6 milliards l'an dernier ! La création de faux comptes peut se faire à l'échelle industrielle, avec quelques développeurs et des équipes réduites. Cela permet de donner l'impression d'un phénomène de masse là où il n'y a rien, ce que l'on désigne par le terme d' « astroturfing ».
Aujourd'hui, le sacro-saint principe du 1er amendement de la Constitution américaine - celui de freedom of speech - tend à être remplacé par le principe de freedom of reach : ce qui relevait du propos de comptoir devient audible et visible par des centaines, voire des milliards d'individus, ce qui est inacceptable. Or, sur des plateformes opaques, la capacité d'amplification de propos à des fins de propagande est infinie.
Il me semble que c'est sur cette capacité d'amplification des messages de haine et des messages politiques de propagande que nous devons nous concentrer. La réponse qui consiste à opposer bloc à bloc la raison et la haine ne fonctionne pas.
Les réseaux sociaux peuvent désormais être entièrement gérés par des systèmes d'intelligence artificielle qui donnent l'impression de répondre aux gens de manière parfaitement articulée, même s'il n'y a personne en face. Ainsi, Snapchat vient d'intégrer un système de réponse à ses abonnés par l'intelligence artificielle.
Il faut comprendre comment ces mécanismes se diversifient. Du fait de l'absence de barrage à l'entrée, il y a une automatisation de la parole de propagande, ainsi qu'une industrialisation et une démocratisation, dans le plus mauvais sens du terme, de ces systèmes de propagande, comme jamais auparavant.
Dès lors que nous sommes confrontés à une intelligence artificielle, suivre un mécanisme de logique ne fonctionnera pas. Nous devrons inéluctablement nous interroger sur le fondement de ces plateformes et revenir sur l'exploitation forcenée des données à des fins commerciales, mais aussi à des fins de propagande et d'ingérence.
Les manipulations existent partout. Notre porosité est liée non seulement au principe démocratique d'ouverture, mais aussi à une forme de naïveté technologique, et c'est sur cela que nous devons nous interroger.
M. Mickaël Vallet, président. - Nous vous remercions pour la précision et la densité de vos propos.
La réunion est close à 11 h 35.
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.
- Présidence de Mme Toine Bourrat, vice-présidente -
Audition de M. Alain Bazot, président de l'UFC-Que Choisir ?
Mme Toine Bourrat, présidente. - Nous avons le plaisir d'entendre en audition M. Alain Bazot, président de l'UFC-Que choisir ?, accompagné de M. Raphaël Bartlomé, responsable du service juridique.
Monsieur Bazot, vous êtes à la tête de cette association depuis 2003 et vous êtes également membre de l'exécutif du Bureau européen des unions de consommateurs (Beuc).
En février 2021, l'UFC-Que choisir ? et le Beuc ont porté plainte contre TikTok devant la Commission européenne et le réseau des autorités de protection des consommateurs. Dénonçant de multiples infractions aux droits des utilisateurs, vous réclamiez une « enquête à l'échelle européenne et nationale sur les pratiques de TikTok » et demandiez qu'une « décision contraignante soit prise par les autorités de protection des consommateurs concernées pour mieux informer les consommateurs sur sa politique et son modèle économique ».
Parmi vos principales critiques, vous insistiez notamment sur les techniques publicitaires agressives ciblant les mineurs et sur certaines clauses contractuelles de TikTok pouvant être considérées comme trompeuses pour les consommateurs.
En juin 2022, TikTok s'est engagé auprès de la Commission européenne à mettre ses pratiques en conformité avec les règles de l'Union européenne en matière de publicité et de protection des consommateurs. Les autorités nationales de protection des consommateurs sont chargées de suivre la mise en oeuvre effective de ces engagements. Des procédures sont en cours dans plusieurs pays européens, notamment en Italie où une enquête a été lancée en mars 2023. Vous pourrez sans doute nous en dire davantage.
Ayant décortiqué le fonctionnement de TikTok du point de vue de l'utilisateur, vous pourrez nous détailler les manquements que vous avez observés en matière de contrôle de l'âge, de politique de confidentialité, de publicité ciblée ou encore de contenus dangereux et de fraudes.
Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat.
Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.
Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal et je vous invite à prêter successivement serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».
Conformément à la procédure applicable aux commissions d'enquête, M. Alain Bazot et M. Raphaël Bartlomé prêtent serment.
M. Alain Bazot, président de l'UFC-Que Choisir ? - L'organisation UFC-Que Choisir ? travaille en effet sur la problématique des réseaux sociaux et plus spécifiquement sur TikTok, qui a des pratiques et un profil particuliers par rapport aux autres réseaux sociaux.
Parmi les questions que vous nous avez fait parvenir, certaines sont très techniques et juridiques, de sorte que j'ai souhaité être accompagné de notre responsable juridique Raphaël Bartlomé. Je précise également que l'UFC-Que Choisir ? n'a pas nécessairement réponse à tout.
En tant qu'association de défense des consommateurs, l'approche que nous privilégions est celle des utilisateurs de plateformes. En ce qui concerne TikTok, nous avons constaté que dès le téléchargement de l'application dans le Google Play Store ou dans l'Apple Store on pouvait déceler des manquements. Par exemple, tout récemment encore, il était annoncé dans le Google Play Store que cette application ne partageait pas ses données avec des tiers, ce qui est faux. Notre service juridique est donc intervenu auprès de l'annonceur, car cela relève de sa responsabilité et non de celle de Google. Pour qu'il efface cet élément de rassurance tout à fait faux, nous avons dû envoyer un courrier avec toutes les menaces qu'il pouvait y avoir derrière. En effet, les professionnels savent que l'UFC-Que Choisir ? mobilisent toujours les outils du droit en tant que de besoin. Nous avons ainsi obtenu la suppression de cette fausse mention, à l'étape du téléchargement.
Nous avons ensuite examiné les différents documents, dont les conditions générales d'utilisation de la plateforme et nous nous sommes intéressés à son mode de fonctionnement, par le biais de tests dans le cadre desquels nous nous faisions passer pour des usagers de différents âges. Nous avons pu ainsi étudier les contenus proposés par TikTok en fonction de ce que regardent ou pas les utilisateurs. Notre analyse dure ainsi depuis trois ans.
Compte tenu de l'ampleur du phénomène, nous avons décidé de travailler avec le Beuc, qui regroupe plus de 40 associations de consommateurs en Europe, dont 18 ont souhaité s'investir sur le sujet.
En introduction, il faut signaler la singularité de TikTok et tout d'abord son caractère extrêmement addictif. En effet, l'application fonctionne grâce à une hyperpersonnalisation et à un tracking très fin du comportement de ses utilisateurs. Très rapidement, TikTok parviendra à savoir ce que l'utilisateur aime ou n'aime pas, de manière à pouvoir l'alimenter en événements ou en documents correspondant à ses centres d'intérêt. Les vidéos sont de format court de sorte que l'utilisateur ne peut pas se lasser, car leur visionnage est très rapide.
Une autre particularité tient à la facilité d'utilisation. Les utilisateurs n'ont pas besoin de faire de recherches sur TikTok, mais l'application leur donne pour ainsi dire la becquée, en leur soumettant immédiatement un tas de documents et de vidéos. Il n'y a plus qu'à scroller en s'arrêtant dix à vingt secondes sur certains sujets. Tout cela est analysé et sert à définir le profil des personnalités. L'application s'alimente donc automatiquement, les usagers restant dans la passivité. C'est la raison pour laquelle j'ose le parallèle avec le gavage des canards ou des oies, qui finissent par y prendre plaisir, de sorte que si on ne les gave plus ils sont en manque. Le caractère addictif de l'application est lié à une sensation de facilité créée grâce au portrait-robot extrêmement fin qu'elle dresse de chaque utilisateur pour lui fournir des contenus.
TikTok se caractérise aussi par sa viralité. Dans la mesure où l'application propose aux utilisateurs ce qu'ils aiment, ceux-ci finissent par vouloir rester sur TikTok. On est là dans l'économie de l'attention, le principe étant de capter l'attention le plus longtemps possible. L'application sert donc à ses utilisateurs ce qu'ils sont censés aimer et vouloir, mais elle suit aussi une logique de viralité en leur montrant des vidéos qui commencent à faire le buzz et dont on veut élargir l'audience. Il s'agit donc de faire en sorte que les utilisateurs viennent alimenter la communauté de ceux qui regardent déjà ces vidéos avec pour contrepartie qu'ils bénéficient d'une application distrayante.
En effet, l'une des forces de TikTok tient à ce qu'elle est une application de divertissement. Son succès se traduit par le fait qu'elle rassemble près de 15 millions d'utilisateurs actifs par mois en France, dont 72 % ont moins de 24 ans. Divertir ses utilisateurs en les enfermant : la formule est extrêmement facile. Telle est la clé du succès considérable de TikTok.
Tout cela nous a conduits avec nos collègues européens à vouloir dénoncer les principaux manquements que nous avions constatés et nous l'avons fait au niveau européen.
Parmi les quatre motifs de récrimination que nous avions définis, le premier portait sur les clauses abusives, sujet classique que nous connaissons bien puisque l'UFC-Que Choisir ? fait partie de la commission des clauses abusives. Nous avons donc dénoncé certaines clauses floues, un droit à réutiliser les contenus alors que cela est formellement interdit et un déséquilibre entre les droits et les obligations.
Le deuxième volet porte sur les pratiques commerciales trompeuses (PCT) et les pratiques commerciales déloyales (PCD), en particulier tout ce qui a trait au processus d'achat d'articles virtuels. Certaines indications étaient en réalité trompeuses : les pratiques relevaient implicitement du marketing caché, du placement de produits.
Ces pratiques déloyales ou trompeuses étaient d'autant plus graves qu'elles concernaient parfois des enfants, ce qui constitue de fait une « circonstance aggravante » - même si, juridiquement, ce n'est peut-être pas le bon terme.
Le troisième volet concerne un autre bloc de la législation, à savoir le règlement général sur la protection des données (RGPD). On relevait notamment une certaine opacité dans la collecte des données personnelles et leur finalité. Se posait donc la question de la pertinence du consentement et de la manière dont il était recueilli.
Le quatrième axe a trait, plus spécifiquement, à la protection des enfants contre les vidéos suggestives, essentiellement de nature érotique, pour ne pas dire plus.
Voilà pour l'essentiel des reproches et de leurs fondements juridiques.
Un certain nombre d'engagements ont été pris par TikTok. Globalement, on peut estimer que ces engagements, par rapport au droit de la consommation stricto sensu, ont été respectés. Les conditions générales d'utilisation de la plateforme ont été expurgées des clauses les plus critiquables.
On a aussi observé une amélioration des pratiques considérées comme trompeuses, même si, en réalité, le dossier est, selon nous, loin d'être clos, notamment pour ce qui est du respect des dispositions du RGPD.
Certes, TikTok produit des documents lisibles, bien écrits, fluides, mais ceux-ci ne reflètent pas les pratiques de la plateforme, en particulier pour ce qui est de l'ampleur de la collecte des données. À l'opposé du principe de base du RGPD, TikTok recueille un maximum de données personnelles, quand il ne devrait récupérer que celles que l'utilisateur est conscient de donner.
Se pose ensuite la question du signalement des contenus critiquables, qu'il faudrait supprimer après leur publication. On s'aperçoit que, pour l'utilisateur, il est assez malcommode de réagir. La faculté qui lui est offerte de dénoncer un contenu, de faire un signalement n'est pas du tout mise en avant, sauf à être un spécialiste, un redresseur de torts, un procureur.
À cet égard, comme vous le savez sans doute, le rapport de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) dresse un constat assez net du manque d'efficience de ce mécanisme de signalement.
Surtout, la protection des mineurs n'est toujours pas garantie. C'est d'ailleurs parce que cet objectif n'est toujours pas atteint que l'autorité de régulation italienne a récemment rouvert - au mois de mars dernier - une enquête sur le fonctionnement de la plateforme et la non-application des mesures pourtant censées protéger les mineurs. L'Italie est en pointe dans ce domaine et se fait fort de déclencher des procédures pour arriver à ses fins. À l'heure actuelle, je ne dispose pas d'informations plus précises sur l'état d'avancement de cette action en justice.
Nous espérons par ailleurs que le Digital Services Act (DSA) permettra de traiter ce volet important.
Autre point essentiel : il convient de se demander si le cadre légal et le corpus réglementaire sont satisfaisants ou non. Comme vous le savez, les règles sont très nombreuses. Mais, dans ce domaine comme pour les autres volets du droit de la consommation, le problème est non pas que le droit n'existe pas, mais qu'il n'est pas appliqué. L'enjeu est donc celui de son efficacité.
Le respect des textes, qui relèvent du droit de la consommation pur, du DSA ou du RGPD, est assuré par une multitude d'autorités qui exercent, chacune séparément, leurs missions spécifiques, à l'échelon aussi bien national qu'européen. Hélas, on observe en la matière un phénomène de cloisonnement préjudiciable, sans compter que l'action de ces organes de contrôle obéit à des temporalités différentes, certains d'entre eux étant capables de régler une question en seulement six mois quand d'autres, souvent parce qu'ils ont la tête sous l'eau - je pense notamment à l'équivalent irlandais de la Cnil (Commission nationale de l'informatique et des libertés) -, mettent parfois deux ans à traiter un dossier.
Le réseau CPC (Consumer Protection Cooperation Network) est le réseau de coopération en matière de protection des consommateurs qui rassemble les autorités nationales, le DSA relève de la Commission européenne, et le RGPD relève des Cnil du pays où se trouve le siège de l'entreprise considérée. Les Cnil de chaque État membre tentent bien d'exister, parfois même dans des secteurs de compétence qui ne sont pas les leurs a priori. Je citerai l'exemple de la Cnil française, qui a étendu son champ de compétence aux cookies. Je n'oublie pas les autorités de la concurrence - en Italie, par exemple, l'autorité de la concurrence et de la consommation est régulièrement saisie de ces dossiers - et l'Arcom qui, elle aussi, a pour mission de contrôler les contenus.
Du fait de son manque d'efficacité, la législation, bien qu'elle ait le mérite d'exister, permet aux professionnels les moins vertueux de faire prospérer très longtemps des pratiques qui ne sont pas conformes aux règles applicables.
Il faut également citer l'existence du Comité européen de la protection des données (CEPD), sorte de réunion des Cnil nationales. Cette instance de coordination technique n'a pas de rôle opérationnel : il s'agit de mettre les États d'accord sur les terminologies à retenir, ainsi que sur une certaine doctrine. Il ne s'agit en revanche pas à proprement parler d'une instance de régulation ou de contrôle, et en aucun cas d'une « super-Cnil ». On peut d'ailleurs le regretter, tant l'action des Cnil nationales est entravée, on le sait, par le phénomène d'implantation systématique des sièges sociaux des sociétés en Irlande, qui surcharge la seule CNIL irlandaise de travail et ne lui permet pas d'agir efficacement.
Je souhaite désormais aborder la question du contrôle de l'âge des utilisateurs de TikTok et du temps qu'ils passent devant l'écran.
Au lancement de TikTok, on ne demande aux futurs usagers que quelques informations : les nom et prénom, une adresse mail, et l'âge. Tout le contenu accessible par la suite découle de ces informations : il s'agit de facto d'un maillon faible, puisque chacun est libre de renseigner l'âge qu'il souhaite, en particulier les enfants de moins de 13 ans, qui ne sont pourtant pas autorisés à télécharger l'application.
Les modalités de contrôle, les filtres sont dès lors inopérants. Je pense aux live qui ne sont théoriquement accessibles qu'aux majeurs, ou à certaines fonctionnalités, comme les messages directs ou la monnaie virtuelle, destinées aux plus de 16 ans.
Très étonnamment, tout le système repose sur la responsabilité de celui qui s'inscrit, responsabilité qui - c'est ironique - ne peut d'ailleurs pas être engagée si l'utilisateur est mineur, a fortiori s'il est âgé de moins de 13 ans.
Et pourtant, TikTok affirme, dans ses conditions générales, que son système est capable de détecter l'âge de ses utilisateurs. Aussi, il me semble que l'on devrait présupposer un principe de responsabilité de la plateforme. Elle devrait être par défaut être considérée comme responsable lorsqu'elle continue à alimenter un usager qui a menti sur son âge. C'est d'ailleurs sur ce fondement que l'Italie a rouvert son enquête : l'autorité italienne s'est rendu compte que les filtres mis en avant par TikTok ne fonctionnaient pas.
En ce qui concerne le temps d'écran des mineurs, on se moque du monde, si je puis dire. TikTok a mis en place, à destination des mineurs, une alerte qui se déclenche au bout d'une heure : l'utilisateur est appelé à confirmer qu'il souhaite continuer son visionnage, procédé parfaitement inopérant quand on connaît le phénomène d'addiction qui touche les jeunes aujourd'hui. Tout cela est totalement surréaliste : le système ne peut fonctionner que pour des individus très raisonnables, qui ne sont pas dépendants des écrans : autrement dit, ce n'est pas le public visé. Il s'agit donc, on le voit bien, d'une protection de façade, illusoire. J'ajoute que cette protection, à supposer qu'elle ait une quelconque vertu, est totalement chimérique, puisqu'un mineur qui aurait menti sur son âge n'est de toute façon pas détecté par l'application et qu'il ne recevra pas l'alerte...
Le mécanisme de responsabilité, et par suite, de sanction est, je l'ai dit, complètement biaisé.
L'UFC-Que choisir ne prétend pas avoir de solutions toutes faites, mais nous pensons tout de même que, pour régler ces difficultés, il faudrait agir très en amont, au niveau de la régulation du temps d'accès à internet. Plutôt que d'essayer de réguler le temps passé sur TikTok, il conviendrait de donner la main aux parents des mineurs qui détiennent légalement une autorité vis-à-vis d'eux. J'estime en effet que la régulation serait beaucoup plus efficace si elle passait par l'autorité parentale.
Par ailleurs, l'UFC-Que choisir ? ne dispose pas de l'expertise pour trancher la question de l'opportunité d'instaurer une majorité numérique.
La politique de confidentialité de TikTok n'est pas compréhensible quant à l'ampleur de la collecte, si bien que le consentement n'est pas éclairé. De plus, TikTok estime que l'ensemble des données relèvent de l'intérêt légitime, ce qui implique que leur collecte ne requiert pas le consentement exprès du consommateur. La seule exception est la publicité ciblée, parce que TikTok y a été obligé par l'équivalent italien de la Cnil.
M. Claude Malhuret, rapporteur. - L'examen de l'ensemble des plaintes déposées par des associations de consommateurs a été suspendu en raison des engagements pris par TikTok en juin 2022. Quel crédit accordez-vous à ces engagements ? Dans quelle mesure ont-ils été tenus ? Sont-ils assortis d'un délai ? Si oui, correspond-il à la mise en place du DSA ?
M. Raphaël Bartlomé, responsable du service juridique de l'UFC-Que choisir ? - Les conditions générales d'utilisation, qui ont été réécrites, ne comportent plus rien d'abusif. La politique de confidentialité a également été actualisée, mais la version qui est entrée en vigueur ce matin même est totalement incompréhensible pour un non-technicien.
En revanche, aucun progrès n'a été fait en matière de transparence sur les contrôles. De même, si les pratiques commerciales relatives à la monnaie et aux objets virtuels ont été encadrées par des bornes d'âge, ces dernières ne sont au fond que des paravents, puisqu'il suffit de donner une fausse date de naissance pour les contourner.
Si l'on a le sentiment que depuis l'intervention du CPC (Consumer Protection Cooperation Network), tout est plus lisse, ce n'est en réalité que de l'affichage.
En 2022, à la suite de la publication d'un rapport de l'Arcom sur la suppression des contenus illicites, TikTok a indiqué qu'il allait intervenir plus en amont. À ce jour, l'Arcom ne dispose pourtant d'aucun élément à ce sujet. Les documents ont certes été mis à jour, mais non les pratiques, qui demeurent. Nous espérons que le DSA pourra changer les choses, notamment en matière de surveillance proactive.
M. Claude Malhuret, rapporteur. - Je suppose que l'Union européenne fait le même constat. A-t-elle réagi ? Quels sont ses moyens d'agir ?
M. Raphaël Bartlomé. - En février 2023, nous avons transmis un rapport à la Commission européenne pour l'alerter de la situation. Pour l'instant, elle ne peut que menacer, car elle ne disposera d'un véritable pouvoir de sanction que lorsque le DSA sera entré en vigueur.
M. Claude Malhuret, rapporteur. - Une date précise est-elle fixée pour l'entrée en vigueur du DSA ?
M. Raphaël Bartlomé. - Cela devrait intervenir mi-2023.
M. Claude Malhuret, rapporteur. - Pourriez-vous communiquer l'ensemble des plaintes que vous avez déposées à l'époque ?
M. Raphaël Bartlomé. - Bien sûr.
M. Claude Malhuret, rapporteur. - À quelle société avez-vous affaire lorsque vous échangez avec TikTok ?
M. Raphaël Bartlomé. - Le Beuc a mis en cause la structure TikTok Limited, mais il y a quinze jours, lorsque nous sommes intervenus pour signaler que des informations totalement fausses étaient mentionnées sur GooglePlay, nous avons sollicité TikTok France, qui a été bien plus réactive.
M. Claude Malhuret, rapporteur. - Quelles sont les personnes physiques de TikTok que vous avez rencontrées ?
M. Raphaël Bartlomé. - Aucune. Nos échanges se font uniquement par écrit.
M. Claude Malhuret, rapporteur. - Pourriez-vous nous communiquer la liste des personnes avec lesquelles vous avez échangé par mail ?
M. Raphaël Bartlomé. - Volontiers.
M. Claude Malhuret, rapporteur. - Le DSA imposera aux plateformes d'effectuer des contrôles d'âge, mais pour l'heure, aucun mécanisme n'a été validé. Des start-up, notamment françaises, proposent pourtant d'ores et déjà des solutions efficaces fondées sur la double anonymisation. Les autorités européennes envisagent-elles d'édicter un certain nombre d'exigences en la matière, voire d'imposer un prestataire ?
M. Alain Bazot. - Nous préférerions que les mécanismes de contrôle d'âge ne soient pas laissés à la main des plateformes, et qu'un dispositif harmonisé soit imposé. S'il est techniquement possible de créer un clone numérique de la personne permettant de vérifier son âge sans l'identifier, je pense que l'UFC-Que choisir ? soutiendra une telle solution.
M. Claude Malhuret, rapporteur. - L'utilisation qui est faite des données par TikTok est-elle aussi difficile à comprendre que les conditions d'utilisation de la plateforme ? TikTok se distingue-t-il des autres plateformes en la matière ?
M. Alain Bazot. - Oui, TikTok se singularise par une opacité plus forte.
M. Raphaël Bartlomé. - La singularité de TikTok est l'opacité de son algorithme. On ignore en effet comment les données sont utilisées pour personnaliser les contenus. L'argument invoqué pour justifier la collecte massive de données et leur recoupement est « l'amélioration de l'expérience utilisateur », ce qui ne veut rien dire.
M. Claude Malhuret, rapporteur. - Lors de l'installation de Tiktok, l'accès par défaut aux contenus des appareils sur lesquels l'application est installée est-il beaucoup plus large que pour d'autres applications - agenda, géolocalisation, etc. ? Est-il possible de décocher ces options et, si oui, le fonctionnement de l'application s'en trouve-t-il dégradé ?
M. Raphaël Bartlomé. -TikTok collecte et recoupe par défaut de très nombreuses informations telles que la géolocalisation et le carnet d'adresses, de manière à faire votre « portrait-robot ». Il n'est pas possible de décocher quoique ce soit, car TikTok considère que la collecte de données relève de l'intérêt légitime, ce qui contrevient au RGPD. Quand on télécharge l'application, aucune autorisation n'est demandée, à l'exception du consentement à la publicité ciblée, qui est demandé au bout de quelques heures d'utilisation.
Sur le site internet, les conditions générales sont consultables en bas de page, mais il est quasiment impossible de scroller jusqu'au footer d'une page TikTok.
Mme Annick Billon. - À l'issue de nos travaux sur l'accès des mineurs à la pornographie, nous avions plaidé, auprès des différents ministères concernés, pour la systématisation des contrôles d'âge, avec un système de double anonymat tel que proposé par la Cnil et le pôle d'expertise de la régulation numérique (Peren). Quel regard portez-vous sur cette proposition ?
Vous proposez un outil gratuit qui permet aux internautes de savoir lesquelles de leurs données personnelles ont été collectées. Cet outil est-il utilisé ? Par qui ? A-t-il entraîné des changements de comportement ?
Quels échos rencontre votre campagne intitulée #JeNeSuisPasUneData ?
J'ai pu lire que la plateforme Instagram collectait autant de données que TikTok. Comment classeriez-vous les principaux réseaux sociaux sur une échelle de dangerosité ?
M. Alain Bazot. - Nous n'avons pas encore fait de point d'étape sur l'opération #JeNeSuisPasUneData. Nous travaillons dans ce cadre avec notre réseau d'associations locales, dont nous attendons les retours, mais je vous enverrai nos observations ultérieurement si vous le souhaitez.
Par ailleurs, comme nous n'avons pas, pour l'heure, travaillé sur le contrôle parental, je ne peux pas répondre à votre première question.
M. Raphaël Bartlomé. - La campagne #JeNeSuisPasUneData vise à sensibiliser les utilisateurs sur le fait que la collecte de données n'est pas une fatalité.
Nous préparons une note sur les outils développés par notre association et leur audience, mais nous ne collectons pas, volontairement, de données sur les utilisateurs de notre site internet. Le contraire serait pour le moins paradoxal !
Nous avons développé un outil qui permet de montrer l'invisible, puisqu'il permet d'obtenir l'ensemble des données personnelles qui ont été collectées sur un utilisateur donné - je précise que le résultat est un fichier technique, totalement incompréhensible -, ainsi qu'un générateur de demandes visant à faciliter l'exercice des droits RGPD par les utilisateurs. Nous proposons ensuite d'effectuer le suivi de la demande adressée à une plateforme.
Il est complexe d'établir une échelle de dangerosité. Nous préférons sensibiliser les utilisateurs sur le fait que la collecte de leurs données n'est pas une fatalité, et qu'ils peuvent être acteurs sans voir leur expérience d'utilisateur dégradée plutôt que de parler de dangerosité.
Pour autant, une application qui enregistre votre position 363 fois par jour sait où vous habitez, où vous travaillez et connaît toutes vos habitudes. Et le tracking ne cesse pas quand vous quittez l'application. Nous savons aussi que les applications qui comportent le plus de trackers sont les applications destinées aux enfants, et que de manière générale, seulement 3 % des applications sollicitent le consentement des utilisateurs avant de collecter leurs données personnelles.
Notre objectif est de faire comprendre aux utilisateurs qu'ils peuvent se faire oublier.
M. Alain Bazot. - Si nous avons une certaine notoriété dans l'univers physique, nous devons encore nous faire une place dans l'univers numérique. Le bilan de la campagne #JeNeSuisPasUneData ne sera de ce fait sans doute pas à la hauteur de nos attentes.
Dans ces conditions, il ne serait pas responsable de ma part d'improviser un classement des réseaux sociaux. Notre crédibilité repose sur notre expertise, et si l'UFC-Que choisir ? attribue souvent des notes, celles-ci sont toujours adossées à un protocole.
M. Claude Malhuret, rapporteur. - La monétisation des lives conduit-elle à des arnaques ? Si oui, TikTok se donne-t-il les moyens d'y remédier ?
Par ailleurs, l'accroissement du nombre de challenges est-il selon vous plus rapide sur TikTok que sur d'autres plateformes ?
M. Alain Bazot. - Nous n'avons pas mis en place de dispositif de surveillance relatif aux challenges - le service juridique de l'UFC-Que choisir ? ne compte que cinq personnes ! -, mais nous savons que ce phénomène a pris beaucoup d'ampleur sur TikTok du fait du fonctionnement même de la plateforme. Par ailleurs, en la matière, celle-ci se défausse de toute responsabilité et renvoie à celle des parents.
M. Raphaël Bartlomé. - Sur TikTok, les emojis sont transformés en « diamants », puis en euros ou en dollars réels. Certains usent de leur influence pour promettre des cadeaux ou, par exemple, une vidéo promouvant le compte de celui leur aura donné le plus d'emojis.
En ce moment, c'est l'échange de pièces gratuites qui a le vent en poupe. De manière générale, les arnaques naissent et disparaissent rapidement, pour renaître sous une autre forme. Du fait de leur jeune âge, les utilisateurs n'ont pas les filtres cognitifs qui leur permettraient de déceler le caractère grossier de la promesse qui leur est faite.
TikTok limite le nombre de cadeaux virtuels qu'un utilisateur peut acheter ou recevoir et en interdit la revente en dehors de l'application. Les règles de la communauté ont été un peu étoffées sur ce point afin, selon TikTok, de sensibiliser les utilisateurs à ces pratiques.
En tout état de cause, tant que les cadeaux virtuels pourront être transformés en diamants qui pourront eux-mêmes être transformés en euros, ces pratiques perdureront, même si l'on encadre leur nombre. La seule solution consisterait à supprimer la possibilité de transformer les diamants en dollars ou en euros.
M. Alain Bazot. - Il y a aussi arnaque dans la mesure où la valeur d'un cadeau peut grandement varier entre le moment où il est fait et celui de sa conversion en monnaie réelle.
Mme Toine Bourrat, présidente. - Je vous remercie pour ces échanges nourris.
La réunion est close à 13 h 05.
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.