B. LA PERTINENCE D'UNE RÉGULATION EX ANTE DES PLATEFORMES LES PLUS STRUCTURANTES
La commission des lois du Sénat a été saisie au fond de l'ensemble du texte. Le rapporteur pour avis renvoie donc à ses travaux pour une présentation plus détaillée du texte, en particulier de son volet pénal. La proposition de loi appelle trois grandes observations du point de vue du rapporteur de la commission des affaires économiques.
1. D'importants doutes sur la « disposition phare » du texte : l'obligation de retrait en 24 heures (article 1er)
a) La « disposition phare » du texte fait peser un risque disproportionné d'atteinte à la liberté d'expression
La disposition la plus commentée de la proposition de loi, mais également la plus contestée, tant publiquement que lors des auditions menées par le rapporteur, figure aux alinéas 3 et 6 de l'article premier : l'obligation de retrait en 24 heures d'un contenu haineux notifié qui serait manifestement illicite sous peine de sanctions pénales .
Contenus concernés par l'obligation de retrait
Article |
Contenu |
Dans le champ du régime
|
Dans le champ du blocage administratif |
Cinquième alinéa de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse |
Apologie des crimes suivants : - atteinte volontaire à la vie ou à l'intégrité de la personne, agression sexuelle, vol aggravé, extorsion, destruction, dégradation ou détérioration volontaire dangereuse pour les personnes, - crimes de guerre, crimes contre l'humanité, crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage, ou crimes et délits de collaboration avec l'ennemi, y compris si ces crimes n'ont pas donné lieu à la condamnation de leurs auteurs. |
Oui |
Non |
Septième alinéa de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse |
Provocation à la discrimination, à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion |
Oui |
Non |
Huitième alinéa de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse |
Provocation à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l'égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du code pénal |
Oui |
Non |
Article 222-33 du code pénal |
Harcèlement sexuel |
Oui |
Non |
Article 225-4-1 du code pénal |
Traite des êtres humains |
Oui |
Non |
Articles 225-5 et 225-6 du code pénal |
Proxénétisme |
Oui |
Non |
Article 227-23 du code pénal |
- Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d'image pornographique d'un mineur - Consultation habituelle ou en contrepartie d'un paiement d'un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs |
Oui |
Oui |
Article 227-24 du code pénal |
Fabrication, transport, diffusion ou commerce de message violent ou pornographique susceptible d'être vu ou perçu par un mineur |
Oui |
Non |
Article 421-2-5 du code pénal |
Provocation directe à des actes de terrorisme ou apologie publique de ces actes |
Oui |
Oui |
Troisième et quatrième alinéas de l'article 33 de la loi du 29 juillet 1881 sur la liberté de la presse |
Injure publique commise envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée ou à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap |
Non |
Non |
Il apparaît que cette disposition est surtout critiquée au regard des risques qu'elle fait peser sur la protection de la liberté d'expression considérée comme « un des droits les plus précieux de l'homme » par l'article 11 de la Déclaration des droits de l'Homme et du Citoyen de 1789 31 ( * ) . Le rapporteur fait siens les mots tenus par le professeur Annie Blandin lors de son audition : sur de tels sujets, il faut légiférer « la main tremblante ».
L'exemple de la loi allemande a d'ailleurs fait l'objet d'appréciations contrastées . Centrée sur les réseaux sociaux ayant plus de deux millions d'inscrits, elle prévoit, entre autres, une obligation supprimer dans les 24 heures les contenus manifestement illégaux, au regard d'une liste de plus de vingt infractions. Cependant, seuls les réseaux sociaux qui ne rempliraient pas leurs obligations de façon systématique peuvent être sanctionnés d'une amende pouvant aller jusqu'à 50 millions d'euros : la sanction n'est pas encourue à chaque absence de retrait. De plus, le dispositif permet aux plateformes de saisir un organisme agréé en cas de doute sur la qualification du contenu.
Bien que moins contraignant que le dispositif de la présente proposition de loi, la loi allemande a fait l'objet de très nombreuses critiques, notamment au regard des risques qu'elle ferait peser sur la liberté d'expression et sur la « privatisation » de la censure. Son application a déjà donné lieu à quelques polémiques à propos de retraits non justifiés. Lors d'une audition par la commission des lois de l'Assemblée nationale, le secrétaire d'État chargé du numérique Cédric O avait lui-même souligné les imperfections de la loi allemande : selon lui, celle-ci « n'a pas fait la preuve son efficacité » 32 ( * ) . Selon les informations recueillies par le rapporteur, une seule sanction a été prononcée, contre Facebook, pour défaut de motivation de suppression de contenu. En revanche, de nombreux recours ont été intentés contre la suppression de contenus. Compte tenu de certains de ses défauts, le Gouvernement allemand souhaiterait d'ailleurs déjà faire évoluer la loi.
Du point de vue de la commission des affaires économiques, la critique quant au risque d'atteinte à la liberté d'expression appelle les remarques suivantes :
- il apparaît évident que les plateformes tiendront un raisonnement de nature économique : elles préféreront retirer un contenu en cas de doute plutôt que de risquer le paiement automatique d'une amende dont le montant serait d'1,25 million d'euros par contenu non retiré dans les temps, sans que le contexte du retrait ne puisse être analysé - ce que permet, à l'inverse, la notion de « prompt retrait » figurant dans la LCEN. Autrement dit, il existe bien, en l'état du texte, un risque de sur-censure ;
- le principe du retrait en 24 heures après notification ne semble pas réellement efficace par rapport à l'objectif poursuivi : d'une part, cela ne permettrait pas aux opérateurs de prioriser les notifications en fonction de leur degré de gravité et d'importance, les obligeant à traiter tous les signalements de façon uniforme ; d'autre part, un contenu odieux et manifestement répréhensible par la loi, propagé massivement sur les réseaux sociaux, ne devrait-il pas être retiré dès que la plateforme en a connaissance, et non 24 heures après ? Quelle serait la réaction de nos concitoyens victimes de propos répréhensibles s'il leur était répondu que la plateforme ne sera pas condamnée car elle a retiré le contenu 23 heures et 59 minutes après la notification ?
- enfin, le retrait ou le déréférencement ne constituent pas les seuls moyens de lutter contre la diffusion d'un contenu : comme l'a souligné le rapport de la « mission Facebook », il y a également la mise en quarantaine, la décélération, la démonétisation, le rappel au règlement de la communauté, la pédagogie ciblée...
Par ailleurs, une telle disposition risquerait de conférer une responsabilité exorbitante, s'apparentant à une compétence régalienne, à des entreprises déjà qualifiées de « souveraines » par certains observateurs 33 ( * ) . En effet, elles se substitueraient au juge dans l'analyse des limites à poser à la liberté d'expression, sans que soit garanti le respect des droits de la défense. Pour le cas particulièrement grave des contenus terroristes, le projet de règlement présenté par la Commission européenne déjà évoqué envisage de se passer du contrôle du juge, mais il ne ferait partir le délai de retrait d'une heure qu'à compter de la notification par une autorité administrative compétente.
D'un point de vue économique en revanche, cette disposition ne semblerait pas disproportionnée tant qu'elle ne s'appliquerait qu'aux plus grandes plateformes . Le rapporteur rejoint cependant l'analyse du rapporteur de la commission des lois quant aux risques pesant sur la préservation des libertés fondamentales et de manque d'efficacité de la sanction pénale.
b) Une conformité au droit européen perfectible, soulignée par la Commission européenne
L'avis de la commission européenne, dont le rapporteur n'a eu connaissance que par voie de presse malgré la demande de transmission envoyée au Gouvernement, émet de substantielles réserves quant à la conformité de la proposition de loi au droit européen : elle « conclut qu'il existe un risque que le projet (...) viole les articles 3, 14 et 15§1 de la directive "e-commerce" ».
Selon l'avis, il n'est pas certain que l'exception au principe du pays d'origine que constitue la proposition de loi soit suffisamment ciblée dans son champ d'application personnel et proportionnée à l'objectif poursuivi dans les obligations mises à la charge des plateformes.
L'avis conteste en particulier les dispositions suivantes de la proposition de loi :
- l'article 1 er , en ce qu'il prévoit un délai de retrait obligatoire sans ménager une certaine flexibilité dans certains cas justifiés , « par exemple lorsque la nature du contenu nécessite une évaluation de son contexte plus conséquente qui ne pourrait être raisonnablement effectuée dans le délai », ce qui créerait une charge disproportionnée sur les plateformes et constituerait un risque d'atteinte à la liberté d'expression ;
- les articles 1 er bis et 1 er ter A, qui diminuent les exigences légales quant au contenu de la notification en vue de la simplifier, se heurteraient à la jurisprudence de la Cour de justice de l'Union européenne 34 ( * ) selon laquelle une notification ne saurait se révéler insuffisamment précise et étayée, en ce qu'il ne serait pas nécessaire d' identifier l'emplacement exact du contenu faisant l'objet de la notification ou d' identifier les dispositions légales prétendument enfreintes, ce qui, du reste, pourrait entraîner une violation du principe selon lequel les plateformes ne sont pas soumises à une obligation de surveillance générale des contenus.
Le rapporteur de la commission des lois propose des modifications des articles premier et suivants permettant de rendre le texte conforme aux observations de la Commission européenne, que le rapporteur soutient.
2. Une régulation ex ante pertinente, à rendre plus efficace et davantage proportionnée (articles 2, 3 et 4).
Les articles 2, 3 et 4 proposent de mettre un régulateur là où il n'y en a pas. Ce régulateur aurait la charge de préciser et de vérifier la bonne application des obligations définies par la loi. Il s'agirait d'une régulation dite ex ante , centrée sur des obligations de moyens, sur le modèle de la régulation bancaire, qui présenterait l'avantage de s'adapter à la réalité des pratiques et des modèles d'affaires en fonction de leur évolution.
La grande majorité des personnes auditionnées ont soutenu ce volet de la proposition de loi. Pour le rapporteur, c'est là que se situe le coeur de la proposition de loi et c'est de ces dispositions que dépendra l'efficacité de cette nouvelle régulation de la haine en ligne . C'est d'ailleurs l'approche prônée tant par la « mission Facebook » que par le livre blanc britannique sur les dommages en ligne 35 ( * ) . La régulation ex ante faisait également partie des orientations prônées par la commission d'enquête sénatoriale sur la souveraineté numérique pour mieux réguler ce secteur, et en particulier ses géants. Enfin, c'est également cette philosophie qui anime la proposition de loi visant à garantir la liberté de choix du consommateur dans le cyberespace précitée.
a) De nouvelles obligations de moyens à la charge des plateformes, dont la proportionnalité doit être assurée.
Les articles 2 et 3 introduisent un nouvel article 6-3 dans la LCEN. Cet article définirait les obligations à respecter par les opérateurs entrant dans le champ d'application de la loi.
Ils devraient :
- se conformer aux prescriptions édictées par le Conseil supérieur de l'audiovisuel ;
- mettre en place un dispositif de notification directement accessible et uniforme ;
- se conformer à des exigences procédurales une fois la notification reçue : accuser réception, informer le notifiant des suites données à la notification, des risques encourus en cas de notification abusive et des motifs de la décision dans un certain délai, permettre au notifiant comme à l'auteur du contenu de contester la décision ;
- mettre en oeuvre les procédures et les moyens humains et, le cas échéant, technologiques proportionnés permettant de garantir le traitement approprié et dans les meilleurs délais des notifications reçues ;
- mettre à disposition une information publique, claire et détaillée, facilement accessible et visible, permettant d'informer leurs utilisateurs sur les modalités générales du dispositif qu'ils mettent en place pour la modération de ces contenus, sur les sanctions encourues par les auteurs des contenus ou par les auteurs de notifications abusives, sur les dispositifs de recours et sur les acteurs en mesure d'accompagner les victimes de propos haineux illicites ;
- rendre compte auprès du régulateur des moyens humains et technologiques mis en oeuvre et des résultats obtenus, le régulateur décidant ensuite lesquelles de ces informations peuvent être rendues publiques ;
- formuler en termes précis les conditions générales d'utilisation relatives aux contenus haineux ;
- désigner un représentant légal exerçant les fonctions d'interlocuteur référent des pouvoirs publics ;
- prévoir une information du mineur ou des titulaires de l'autorité parentale lors de son inscription sur les risques encourus en cas de diffusion de contenus haineux illicites.
En l'état, le texte ne prévoit pas de modulation de ces obligations selon la gravité des contenus et leur niveau d'exposition ou selon le type de plateforme concernée. Or, les modèles d'affaires des plateformes susceptibles d'être concernées par le texte sont souvent différents. Il serait ainsi contestable que Wikipédia ait à respecter des obligations strictement similaires à Facebook, alors que les enjeux de lutte contre les contenus haineux sont bien différents sur l'une et l'autre plateforme 36 ( * ) . Pis, une application uniforme à toutes les plateformes risquerait de favoriser les plus importantes d'entre elles et les mieux avancées dans la modération, au détriment de leurs concurrents actuels et futurs. Il ne faudrait pas conférer un avantage aux plateformes les plus avancées sur le marché de la modération en érigeant des barrières réglementaires disproportionnées.
C'est pourquoi la commission a adopté un amendement exigeant que les obligations mises à la charge des plateformes soient proportionnées et nécessaires au regard tant des capacités dont elles disposent que de l'atteinte susceptible d'être portée à la dignité humaine par les contenus concernés ( AFFECO.2 ) .
Par ailleurs, conformément aux observations de la Commission européenne, la commission a adopté un amendement supprimant l'obligation de « mettre en oeuvre les moyens appropriés pour empêcher la rediffusion de contenus » haineux illicites (dite obligation de « stay-down »), car, en ce qu'elle imposerait aux plateformes une obligation de surveillance générale, elle contreviendrait au droit européen 37 ( * ) ( AFFECO.3 ).
b) La nécessité d'un régulateur en vue de créer un dialogue pérenne et encadré entre les pouvoirs publics, les acteurs régulés et la société civile
L'article 4 de la proposition de loi confie au Conseil supérieur de l'audiovisuel (CSA) la charge de réguler les acteurs économiques dans leurs comportements de modération des propos haineux illicites en ligne. Autrement dit, le régulateur ne devra pas apprécier au cas par cas les contenus notifiés mais, de façon systémique, les moyens mis en oeuvre pour lutter contre la haine en ligne.
Le CSA est apparu le régulateur le plus indiqué dans la mesure où il s'agit d'une régulation se situant davantage dans le champ des libertés fondamentales que dans le champ économique, dans la continuité de la mission qui lui a été confiée par la loi de 1986 relative à la liberté de communication 38 ( * ) . De plus, le CSA régule de plus en plus d'activités en ligne (loi sur la manipulation de l'information 39 ( * ) , directive « services de médias audiovisuels » révisée dont la transposition devra encore être assurée 40 ( * ) ).
Il serait doté d'un pouvoir réglementaire d'application de la loi, d'un pouvoir de recommandation permettant d'orienter les acteurs et d'un pouvoir de sanction en cas de manquement des acteurs à leurs obligations. Il pourra, par ailleurs, pratiquer le « name and shame » en publiant chaque année un bilan de l'application de leurs obligations. Il sera, enfin, en mesure de recueillir toutes les informations nécessaires au contrôle de leurs obligations, sans que le secret des affaires puisse lui être opposé. Il aura également la tâche d'encourager la coopération entre plateformes. La commission a proposé de préciser ce dernier point en insérant que cette coopération pouvait porter sur le partage d'informations afin de rendre le dispositif plus efficace ( AFFECO.4 ).
Le dispositif de régulation ne sera crédible qu'à la condition de prévoir une sanction potentiellement très élevée. Le seuil de 4 % du chiffre d'affaires global, qui s'inspire, entre autres, de l'article 18 du projet de règlement relatif au retrait de contenus terroristes, apparaît bienvenu à cet égard.
Enfin, afin d'éviter le report d'usagers coutumiers des propos haineux illicites vers des plateformes qui échapperaient à toute obligation de lutte contre la diffusion de tels contenus, la commission a entendu doter le régulateur d'un pouvoir d'évocation pour les opérateurs ne dépassant pas les seuils définis par décret qui détermineront le champ d'application ( AFFECO.1 ).
Il conviendra cependant que le régulateur soit doté des moyens suffisants pour exercer ses nouvelles fonctions. Le rapport visant à renforcer la lutte contre le racisme et l'antisémitisme sur internet estimait le besoin entre 30 et 50 personnes. Selon le jaune budgétaire relatif aux autorités administratives et publiques indépendantes annexé au projet de loi de finances 2020, en prévision de la nouvelle mission confiée par la proposition de loi, « un relèvement du plafond des emplois autorisés à 290 équivalents temps plein travaillé (ETPT) au lieu de 284 ETPT, soit 6 équivalents temps plein (ETP) supplémentaires ». Selon les informations transmises au rapporteur, le CSA devrait renforcer ses équipes en profils disposant d'une expertise forte en matière de traitement de la donnée en masse ( data scientists ), de connaissance des algorithmes et de modalités techniques de fonctionnement des plateformes. La fusion à venir avec l'Hadopi dans le cadre du projet de loi audiovisuel pourrait également permettre à l'Autorité de redéployer quelques emplois. Enfin, le Gouvernement entend mettre en place, à l'occasion du projet de loi sur l'audiovisuel, un service à compétence nationale mutualisant les compétences numériques de haut niveau pour répondre aux besoins des administrations et des régulateurs, qui pourra être mobilisé.
Par ailleurs, il conviendrait que l'observatoire de la haine en ligne prévu à l'article 7 soit hébergé par le CSA. La nécessité de créer un tel observatoire, qui serait une instance de dialogue et de collecte des données pertinentes relatives à la manifestation de la haine en ligne, fait l'objet d'un certain consensus. Les associations professionnelles du numérique ont d'ailleurs souligné l'existence informelle d'une telle instance en matière de lutte contre le terrorisme depuis 2015 (« groupe de contact permanent » avec le ministère de l'Intérieur), dont cet observatoire pourrait s'inspirer.
c) Un nouveau modèle de régulation du numérique ?
Le texte examiné propose un nouveau modèle de régulation du numérique, qui comporte trois grandes caractéristiques : un régulateur spécialisé, des obligations de moyens et une régulation qui s'applique en priorité aux acteurs les plus structurants du marché.
Une régulation qui s'applique de façon prioritaire aux plus grands, c'est-à-dire une régulation asymétrique, est la seule façon de permettre à d'éventuels nouveaux entrants de pénétrer le marché 41 ( * ) ! Sur ce point, le texte est assez évasif quant aux critères que le Gouvernement entend retenir pour déterminer ces plateformes structurantes.
En l'état, la proposition de loi s'appliquerait à toutes les plateformes 42 ( * ) « qui proposent un service de communication au public en ligne reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics ou sur le classement ou le référencement, au moyen d'algorithmes informatiques, de contenus proposés ou mis en ligne par des tiers et dont l'activité sur le territoire français dépasse des seuils déterminés par décret sont tenus ». Autrement dit, sont principalement visés les réseaux sociaux et les moteurs de recherche 43 ( * ) , s'ils dépassent les critères qui seront définis par décret.
L'argumentaire transmis à la Commission européenne par le Gouvernement se limite à expliquer que le dispositif a « vocation à s'appliquer essentiellement aux grandes plateformes qui disposent de ressources substantielles pour faire face à leur responsabilité. La loi épargnera en revanche les plus petites plateformes. » La commission européenne a soulevé, dans son avis, que « le champ d'application du projet notifié reste vague ».
Il apparaît nécessaire que le Gouvernement retienne une pluralité de critères afin de bien cibler le dispositif sur les plateformes sur lesquelles les enjeux sont les plus prégnants. Un simple seuil de connexion ne suffirait pas à éviter d'imposer des obligations disproportionnées à des services émergents, sauf à ce qu'il soit particulièrement élevé. Le rapporteur souligne que l'association d'un critère relatif à la viralité des contenus à celui de l'audience de la plateforme serait conforme à l'idée « d'accélérateurs de contenus » dégagée par le rapport visant à renforcer la lutte contre le racisme et l'antisémitisme sur internet.
Les seuils actuellement en vigueur Le code de la consommation et le décret d'application de la loi sur les fausses informations retiennent un critère unique de cinq millions de visiteurs uniques par mois, par plateforme, calculé sur la base de la dernière année civile 44 ( * ) . Médiamétrie publie une liste des 50 marques les plus visitées en France, ce qui correspond à un seuil de 13,2 millions de visiteurs uniques par mois 45 ( * ) . Y figurent notamment le coeur de cible de la proposition de loi, à savoir Facebook, YouTube, Instagram, Snapchat, Twitter, mais aussi d'autres sites reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics, tels que Wikipédia, Leboncoin.fr, LinkedIn. |
3. Un dispositif peu lisible et inapplicable de lutte contre les « contenus miroirs »
Aujourd'hui, les FAI coopèrent pleinement aux demandes de blocage judiciaire pour tout contenu illicite ou de blocage administratif pour les contenus terroristes et pédopornographiques.
L'article 6 du texte examiné propose, d'une part, de supprimer le principe de subsidiarité inscrit dans la LCEN - qui exige du juge judiciaire de se tourner en premier lieu vers l'hébergeur du contenu, et dans un second temps, vers le fournisseur d'accès à internet ; d'autre part, de créer un nouveau dispositif de blocage mixte, c'est-à-dire mélangeant demande administrative et décision judiciaire 46 ( * ) .
Sur le premier point, la jurisprudence permet au juge d'ordonner le blocage directement à l'opérateur s'il a de fortes raisons de croire que l'hébergeur ne se conformera pas à l'injonction de blocage. Le droit en vigueur ménage donc un équilibre satisfaisant entre, d'une part, la nécessité d'agir vite, d'autre part, celle d'agir d'abord à la source - c'est-à-dire vers l'auteur et l'hébergeur. La nécessité de supprimer le principe pour tous les cas d'illicéité constatés dans la loi mériterait une instruction plus approfondie .
Sur le second point, il s'agit de lutter plus efficacement contre la propagation de « contenus miroirs » en permettant à l'autorité administrative d'obtenir le blocage de la reprise partielle ou totale de contenus reconnus comme propos haineux illicites. En l'état, il apparaît à la fois ambigu et inapplicable.
Il est ambigu car il vise à bloquer l'accès à « tout site, tout serveur ou à tout autre procédé électronique donnant accès aux contenus jugés illicites », autrement dit, il permettrait de bloquer un site entier pour la simple raison qu'un contenu illicite y figure. Or, le blocage dit « DNS » (pour Domain Name Server ) 47 ( * ) actuellement pratiqué par les FAI ne permet pas de bloquer des contenus particuliers sur une page (ex : un tweet ) ou une seule et unique page d'un site (ex : une page Facebook) : il permet seulement le blocage d'un site entier.
De plus, il vise les fournisseurs de nom de domaine mais, d'une part, compte tenu des attributions respectives de l'Icann 48 ( * ) , de l'Afnic 49 ( * ) et des différents bureaux d'enregistrement comme de l'absence de définition juridique des fournisseurs de noms de domaine, l'obligation de blocage serait difficile à mettre en oeuvre. Elle serait, d'ailleurs, largement inefficace dans la mesure où ils ne pourraient que remettre en cause l'attribution de l'adresse URL et non procéder à un blocage.
Au demeurant, s'il revêtait une portée obligatoire, il serait sans doute nécessaire de prévoir une compensation des coûts de mise en conformité, comme cela existe dans le cadre des procédures de blocage des sites de jeux illégaux 50 ( * ) .
En réalité, cette disposition n'est accompagnée d'aucune sanction : elle n'est donc pas contraignante. De plus, elle prévoit seulement que l'autorité administrative « peut demander » à ces acteurs de prendre ces mesures, contrairement aux blocages dits « mixtes » actuellement en vigueur, qui reposent sur une mise en demeure par une autorité administrative indépendante de régulation sectorielle. Or, une autorité administrative peut, dans les faits, déjà demander à ces acteurs d'agir pour faire cesser un dommage. En cas de refus, elle doit alors se tourner vers le juge. La disposition proposée apparaît donc superfétatoire en ce qu'elle ne semble rien ajouter au droit en vigueur.
C'est pour ces raisons que la commission soutient la suppression de l'article 6 proposée par le rapporteur de la commission des lois.
Comme l'a souligné la Fédération Française des Télécoms devant le rapporteur, il est surtout nécessaire de renforcer les moyens alloués à la justice et à l'OCLCTIC afin de mieux lutter contre la réapparition d'un site manifestement haineux, à l'image de l'exemple souvent cité du site « Démocratie participative » ouvertement raciste et antisémite.
* 31 En témoignent notamment les prises de position publiques du Conseil national du numérique ou de La Quadrature du Net, auditionnés par le rapporteur.
* 32 NextInpact, La réforme de la future loi contre la cyberhaine se confirme, 5 juin 2019.
* 33 Voir, sur ce point, le rapport Gérard Longuet au nom de la commission d'enquête du Sénat sur la souveraineté numérique, présidée par Franck Montaugé, intitulé « Le devoir de souveraineté numérique » et déposé le 1 er octobre dernier.
* 34 CJUE, 12 juillet 2011, L'Oréal contre eBay.
* 35 Secretary of State for Digital, Culture, Media & Sport, Secretary of State for the Home Department, Online Harms White Paper , avril 2019.
* 36 Selon le rapport de transparence de la Wikimedia foundation , Wikipédia n'a reçu que 292 demandes de modification ou de retrait de contenu entre janvier et juin 2019, dont 13 en France, et pour tout type de motifs. Cela semble démontrer l'efficacité du dispositif de modération, qui repose sur la communauté des contributeurs.
* 37 Article 15§1 de la directive sur le commerce électronique.
* 38 Loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.
* 39 Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information.
* 40 Directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels»), compte tenu de l'évolution des réalités du marché.
* 41 Comme l'a souligné le rapport de la « mission Facebook », il est essentiel de limiter le champ d'application d'obligations nouvelles mises à la charge des plateformes à celles qui sont « les plus structurantes par leur taille, et donc potentiellement les plus dangereuses par leur impact massif en cas d'abus de langage ».
* 42 Plus précisément, à tous les opérateurs de plateformes en ligne au sens de l'article L. 111-7 du code de la consommation.
* 43 Les moteurs de recherche ont été insérés lors des travaux de l'Assemblée nationale en vue de se conformer aux recommandations du Conseil d'État, qui voyait un risque d'atteinte injustifiée au principe d'égalité devant la loi. Il convient également de noter que l'acception de réseau social ici retenue correspond à celle décrite par le rapport de la « mission Facebook », à savoir les réseaux sociaux « à titre principal » - Facebook, Twitter, Instagram, Snapchat, TikTok, Youtube, Dailymotion ... - et les autres plateformes de partage de contenus publics, qualifiés de « réseaux sociaux à titre accessoire », tels que des forums de discussion ou des espaces de commentaires sur les sites de presse.
* 44 Article D. 111-15 du code de la consommation, issu du décret n° 2017-1435 du 29 septembre 2017 relatif à la fixation d'un seuil de connexions à partir duquel les opérateurs de plateformes en ligne élaborent et diffusent des bonnes pratiques pour renforcer la loyauté, la clarté et la transparence des informations transmises aux consommateurs ; décret n° 2019-297 du 10 avril 2019 relatif aux obligations d'information des opérateurs de plateforme en ligne assurant la promotion de contenus d'information se rattachant à un débat d'intérêt général.
* 45 Médiamétrie, Audience Internet Global en France en septembre 2019, communiqué de presse du 31 octobre 2019.
* 46 Des cas de blocage mixte existent déjà en matière de jeux en ligne (article 61 de la loi n° 2010-476 du 12 mai 2010 relative à l'ouverture à la concurrence et à la régulation du secteur des jeux d'argent et de hasard en ligne) et en matière d'investissements financiers (article L. 621-13-5 du code monétaire et financier).
* 47 Au regard des architectures réseaux françaises, seul le blocage DNS peut être utilisé par les FAI.
* 48 Internet Corporation for Assigned Names and Numbers.
* 49 Association française pour le nommage Internet en coopération.
* 50 Décret n° 2011-2122 du 30 décembre 2011 relatif aux modalités d'arrêt de l'accès à une activité d'offre de paris ou de jeux d'argent et de hasard en ligne non autorisée.