CHAPITRE IV
DISPOSITIONS RELATIVES À LA LUTTE
CONTRE LES DISCOURS
DE HAINE
ET LES CONTENUS ILLICITES EN LIGNE
Article 18
Sanction de la divulgation d'informations permettant
d'identifier
ou de localiser une personne dans le but de l'exposer à
un risque immédiat d'atteinte à la vie ou à
l'intégrité physique ou psychique, ou aux biens
Cet article tend à protéger toute personne contre la divulgation malveillante de données personnelles et prévoit des peines renforcées lorsque cette divulgation touche les personnes dépositaires de l'autorité publique, chargées d'une mission de service public ou titulaire d'un mandat électif public.
La commission l'a adopté en le complétant afin que les journalistes puissent bénéficier dans ce cadre des garanties de la loi sur la liberté de la presse et qu'une peine aggravée soit prévue lorsqu'ils sont victimes d'une telle infraction.
1. Le dispositif initial
La divulgation malveillante de données personnelles est un phénomène qui s'est accru avec le développement des réseaux sociaux. Plusieurs tentatives pour prendre en compte ce phénomène ont vu le jour, dont la nouvelle rédaction de l'article 226-4-1 du code pénal issu de la loi du 30 juillet 2020 385 ( * ) qui réprime le fait « de faire usage d'une ou plusieurs données de toute nature permettant de l'identifier en vue de troubler [la tranquillité d'une personne] ou de porter atteinte à son honneur et à sa considération ». Conçue dans le cadre de la répression des violences faites aux femmes, cette infraction ne permet cependant pas de judiciariser l'ensemble des cas dans lesquels des données identifiantes sont diffusées dans l'intention de nuire. L'assassinat du professeur Samuel Paty a récemment et tragiquement illustré ce point.
Cet article prévoit donc une protection la plus large possible contre ce type d'agissements, appréhendé de la manière la plus objective possible. Il insère au sein du code pénal un nouvel article 223-1-1 qui réprime le fait de révéler, diffuser ou transmettre des informations permettant d'identifier ou de localiser une personne « aux fins de l'exposer, elle ou les membres de sa famille, à un risque direct d'atteinte ou aux biens » . Cette infraction est punie de trois ans d'emprisonnement et de 45 000 euros d'amende.
Ces peines seraient aggravées - et ainsi portées à 5 ans d'emprisonnement et 75 000 euros d'amende - lorsque les faits sont commis à l'encontre soit d'une personne dépositaire de l'autorité publique, chargée d'une mission de service public ou titulaire d'un mandat électif public, soit d'une personne mineure .
À l'initiative de ses rapporteurs, la commission spéciale de l'Assemblée nationale a introduit l'exigence que le risque d'atteinte soit direct et qu'il ne puisse avoir été ignoré par l'auteur. Ceci introduit un élément subjectif dans la caractérisation de l'infraction .
2. La position de la commission
La commission partage pleinement l'objectif de cet article ; elle est convaincue de sa nécessité et de son efficacité juridique .
À l'initiative des rapporteures, elle a néanmoins souhaité que les journalistes puissent, dans le cadre des poursuites fondées sur cette infraction, bénéficier des garanties procédurales prévues par la loi du 19 juillet 1881 garantissant la liberté de la presse (amendement COM-403 ).
À l'initiative de René-Paul Savary, elle a également souhaité que les peines renforcées s'appliquent dans les cas où la victime est un journaliste détenteur de la carte de presse (amendement COM-116 rect. bis ).
La commission a adopté l'article 18 ainsi modifié .
Article 18 bis A
Possibilité d'action en justice
des associations
de défense des fonctionnaires
Cet article tend à permettre aux associations dûment déclarées dont l'objet est de protéger et conseiller les fonctionnaires, de pouvoir se constituer parties civiles lors d'actions en justice concernant les atteintes volontaires à la vie ou à l'intégrité de la personne, les agressions et autres atteintes, l'enlèvement et la séquestration ou la diffusion d'images portant atteinte à l'intégrité physique et psychique.
La commission l'a adopté sans modification.
1. Le dispositif proposé par l'Assemblée nationale
Cet article est issu de l'adoption en séance publique à l'Assemblée nationale de trois amendements identiques déposés par plusieurs députés et sous-amendés par les rapporteures.
Il tend à insérer dans le code de procédure pénale, à la suite des vingt-quatre cas déjà prévus permettant à des associations d'exercer les droits reconnus à la partie civile dans certains contentieux, un article 2-25 afin de permettre à des associations d'agir en ce qui concerne les atteintes à la vie, à l'intégrité, les agressions et autres atteintes visant les agents chargés d'une mission de service public.
Comme pour les autres articles ayant un objet similaire déjà inscrits dans le code de procédure pénale, les associations habilitées à exercer ce droit doivent répondre à un double critère :
- d'une part, une durée d'existence d'au moins cinq ans à la date des faits ;
- d'autre part, comporter dans leur objet statutaire la lutte contre les violences, injures, diffamations, harcèlement moral, discours de haine ou la divulgation d'information dont sont victimes les agents chargés d'une mission de service public.
Ces critères de durée et le caractère précis, explicite et donc restrictif de l'objet qui doit figurer au sein des statuts de l'association, sont liés au caractère dérogatoire de cette procédure par rapport au principe qui impose d'avoir qualité pour agir en justice et donc d'avoir soi-même subi un préjudice.
Le développement de la possibilité pour des associations de se substituer à la victime pour exercer les droits reconnus à la partie civile est lié à la volonté d'aider les victimes à faire valoir leur droit et de mieux réprimer certaines infractions. Il s'agit en l'occurrence de mieux protéger les agents chargés d'une mission de service public en lien avec les protections prévues par le projet de loi et notamment le nouvel article 222-33-1 du code pénal.
2. La position de la commission
Tout en s'interrogeant sur le nombre et la nature des associations qui pourront exercer le droit visé par cet article, la seule association citée étant l'Autonome de solidarité laïque, ensemble associatif intervenant auprès des personnels de l'Éducation nationale, la commission a estimé cette mesure pertinente pour accompagner les agents victimes d'infractions dans l'exercice ou à l'occasion de leurs fonctions.
La commission a adopté l'article 18 bis A sans modification .
Article 18 bis
Circonstance aggravante lorsque certains délits de
presse
sont commis par une personne dépositaire de l'autorité
publique
ou chargée d'une mission de service public
Cet article tend à faire de la qualité de dépositaire de l'autorité publique ou chargé d'une mission de service public une circonstance aggravante pour les infractions de provocation, négationnisme et insulte.
La commission l'a adopté sans modification.
1. Le dispositif proposé par l'Assemblée nationale
Cet article est issu de l'adoption par la commission d'amendements identiques des rapporteures et des membres du groupe La République en Marche.
Il tend à compléter l'article 24 de la loi du 29 juillet 1881 relative à la liberté de la presse par une circonstance aggravante lorsque des provocations à la haine, à la violence ou à la discrimination, à raison notamment de l'origine, de la religion, de la nation, ou à raison du sexe, de l'orientation sexuelle ou du handicap, sont commises par une personne dépositaire de l'autorité publique ou chargée d'une mission de service public, dans l'exercice ou à l'occasion de l'exercice de sa mission.
La même circonstance aggravante est introduite aux articles 24 bis , qui réprime le négationnisme de génocide et de crimes contre l'humanité, et 33 de cette même loi qui concerne les injures en raison notamment de l'origine, de la religion, de la nation, du sexe, de l'orientation sexuelle ou du handicap .
La peine encourue, d'un an d'emprisonnement et de 45 000 euros d'amende, serait alors portée à trois ans d'emprisonnement et à 75 000 euros d'amende .
2. La position de la commission
Comme l'indique le rapport de la commission spéciale de l'Assemblée nationale il « s'agit, notamment à la suite de plusieurs affaires marquantes, de rappeler le devoir d'exemplarité de ces personnes et de renforcer le lien de confiance qui les unit aux citoyens français ». C'est en fait une mesure de circonstance , qui ne se rattache qu'imparfaitement à la lutte contre le séparatisme.
La commission a néanmoins relevé que la mise en oeuvre de sanctions renforcées pour les personnes dépositaires de l'autorité publique ou chargées de l'exécution d'un service public est déjà prévue pour d'autres infractions du code pénal, notamment l'article 432-7 du code pénal en matière de discriminations, avec le même quantum de peines. La nouvelle circonstance aggravante s'inscrivant dans la logique du droit existant , la commission ne l'a en conséquence pas remise en cause.
La commission a adopté l'article 18 bis sans modification .
Article 19
Lutte contre les « sites miroirs »
contournant des décisions de justice
ordonnant le blocage et le
déréférencement de contenus haineux
L'article 19 du projet de loi vise à renforcer les moyens de lutte contre les « sites miroirs » reproduisant des contenus haineux déjà jugés illicites par une décision exécutoire : il permet à l'autorité administrative de demander aux intermédiaires techniques (fournisseurs d'accès à internet et hébergeurs) d'en bloquer l'accès.
La commission a approuvé ces dispositions au bénéfice de précisions indispensables pour assurer leur constitutionnalité et préserver la liberté de communication (définition de la notion de contenu « équivalent » ; compensation des surcoûts incombant aux intermédiaires techniques ; possibilité pour l'éditeur du site bloqué de présenter ses observations à l'administration).
1. L'obligation pour les intermédiaires techniques de répondre aux demandes « ciblées et temporaires » de l'autorité judiciaire
En l'état du droit, la loi pour la confiance dans l'économie numérique (LCEN) du 21 juin 2004 386 ( * ) , qui transpose en France la directive « e-commerce » du 8 juin 2003, prévoit pour les fournisseurs d'accès à internet 387 ( * ) (FAI) et les hébergeurs 388 ( * ) un régime de responsabilité spécifique 389 ( * ) à raison des contenus à la diffusion desquels ils contribuent .
Ce régime juridique protecteur est destiné à éviter que l'engagement trop systématique de leur responsabilité soit un frein à la libre expression sur internet des citoyens qui dépendent d'eux pour échanger.
À ce titre, le droit européen et la LCEN interdisent de soumettre les intermédiaires techniques à une obligation générale de surveillance des informations qu'ils stockent ou de recherche des activités illicites. Ces intermédiaires restent toutefois soumis à l'obligation de répondre à des demandes « ciblées et temporaires [de l'] autorité judiciaire » (7 du I de l'article 6 de la LCEN).
Le droit en vigueur ménage ainsi plusieurs possibilités de blocage de l'accès à des contenus illicites sur internet , majoritairement décidées par le juge judiciaire. Les blocages dits « administratifs », plus rapides, sont aujourd'hui réservés aux situations d'illicéité les plus manifestes de sites faisant l'apologie du terrorisme ou pédopornographiques, et coexistent avec des régimes procéduraux accélérés sous contrôle du juge (jugements rendus selon la procédure accélérée au fond, en référé, voire sur requête).
Les dispositifs juridiques de blocage de contenus illicites sur internet
a. « Référé internet » et référés spécifiques : des blocages ciblés sous le contrôle du juge judiciaire
Le blocage judiciaire de contenus illicites est expressément prévu par la LCEN : « l'autorité judiciaire peut prescrire en référé ou sur requête [à tout hébergeur] ou, à défaut, [à tout fournisseur d'accès à internet] toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d'un service de communication au public en ligne » (8 du I de l'article 6).
Ce « référé internet » relève de la compétence du juge civil qui peut l'ordonner à l'égard de tout type de contenu susceptible de causer un dommage à un tiers ; compte tenu de l'interdiction de mettre une obligation de surveillance générale à la charge des intermédiaires techniques, la mesure prescrite doit demeurer limitée dans son étendue matérielle et dans le temps.
Le législateur a instauré un principe de subsidiarité, dont la jurisprudence a inégalement tenu compte à ce jour : alors que certaines juridictions en font application stricte, pour la Cour de cassation, « la prescription de ces mesures n'est pas subordonnée à la mise en cause préalable des prestataires d'hébergement ».
Distinct du référé de droit commun (article 809 du code de procédure civile), ce « référé internet » coexiste également avec d'autres référés spécifiques : le référé « droit d'auteur » (dans le domaine de la lutte contre la contrefaçon de droits d'auteur ou de droits voisins, en application de l'article L. 336-2 du code de la propriété intellectuelle), le référé spécial de la loi du 29 juillet 1881 (permettant l'arrêt d'un site internet en cas de trouble manifestement illicite résultant de messages constituant des infractions de presse particulièrement graves), ainsi que le référé spécial autorisant le blocage d'un site internet provoquant au terrorisme ou en en faisant l'apologie.
b. Le champ étroit du blocage administratif : une exception au contrôle du juge justifiée par l'extrême gravité et l'évidence des infractions combattues
La LCEN autorise l'administration à ordonner directement aux intermédiaires techniques le blocage de certains sites véhiculant des contenus de nature terroriste ou pédopornographique (article 6-1).
Cette exception au contrôle préalable par un juge des atteintes à la liberté d'expression est possible, exceptionnellement 390 ( * ) , en raison du caractère particulièrement grave et d'évidence de l'illicéité alléguée.
L'administration responsable de l'émission et du suivi de ces notifications est l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC).
À ce titre, le blocage administratif est soumis à des conditions et garanties particulières :
- un principe de subsidiarité : l'autorité administrative doit d'abord demander aux éditeurs de service internet ou aux hébergeurs le retrait de ces contenus, en en informant simultanément les fournisseurs d'accès internet (FAI) 391 ( * ) ; c'est en l'absence de retrait de ces contenus dans un délai de 24 heures qu'elle peut notifier la liste des adresses des contenus incriminés aux FAI, qui « doivent alors empêcher sans délai l'accès à ces adresses » ;
- un contrôle administratif indépendant : une personnalité qualifiée, désignée en son sein par la Commission nationale de l'informatique et des libertés, « s'assure de la régularité des demandes de retrait et des conditions d'établissement, de mise à jour, de communication et d'utilisation de la liste [liste des adresses des contenus incriminés]» et peut, à tout moment, recommander à l'autorité administrative d'y mettre fin, voire saisir la juridiction administrative si l'autorité administrative ne suit pas cette recommandation.
c. Le blocage mixte, ordonné sur décision de l'autorité judiciaire sollicitée par l'autorité administrative
De création récente, ces dispositifs de blocage « mixtes » ont un caractère sectoriel :
- le référé « jeux en ligne », instauré en 2010, permet au président de l'Autorité de régulation des jeux en ligne, après avoir enjoint, en vain, les hébergeurs de prendre toute mesure propre à empêcher l'accès à un site de jeux ou de paris en ligne illégal, de demander au président du Tribunal judiciaire de Paris d'ordonner aux FAI, en la forme des référés, l'arrêt de l'accès à ce site ainsi que « toute mesure destinée à faire cesser le référencement du site » de l'opérateur par un moteur de recherche ou un annuaire ;
- le référé « services d'investissement en ligne », ouvert depuis 2016 au bénéfice du président de l'Autorité des marchés financiers à l'égard des sites d'investissement en ligne illégaux, est identique au référé « jeux en ligne », à l'exception de la possibilité de demander le déréférencement de ces sites ;
- le référé « consommation », permet, depuis 2014, à la direction générale de la concurrence, de la consommation et de la répression des fraudes de saisir le président du Tribunal judiciaire de Paris, en référé ou sur requête, afin qu'il ordonne aux hébergeurs ou aux FAI « toutes mesures proportionnées propres à prévenir un dommage ou à faire cesser un dommage causé par le contenu d'un service de communication au public en ligne » .
- dernier en date, et introduit à l'initiative de la sénatrice Marie Mercier à l'article 24 de la loi n° 2020-936 du 30 juillet 2020 visant à protéger les victimes de violences conjugales, un référé autorise désormais le Conseil supérieur de l'audiovisuel à obtenir le blocage de sites « permettant à des mineurs d'avoir accès à un contenu pornographique en violation de l'article 227-24 du code pénal ».
2. Le projet de loi transmis : un nouveau mécanisme de blocage « mixte » pour les sites « miroirs », ordonné par un juge sur demande de l'administration
Le présent article 19 vise à étendre la faculté de procéder au blocage ou au déréférencement de contenus haineux jugés illicites, pour viser en particulier les « sites miroirs » dupliquant des contenus déjà précédemment jugés comme tels.
Il reprend en substance un article déjà adopté lors de la discussion de la proposition de loi dite « Avia », en y intégrant d'ailleurs certaines des améliorations rédactionnelles alors suggérées par le Sénat à l'initiative de son rapporteur, Christophe-André Frassa.
Le mécanisme figurant dans un nouvel article inséré au sein de la LCEN prévoit la nécessité, au préalable, d'une décision de justice exécutoire ayant ordonné toute mesure propre à empêcher l'accès à un service de communication au public en ligne dont le contenu relève des infractions prévues au 7 du I de l'article 6 de la LCEN 392 ( * ) .
L'autorité administrative (d'elle-même, ou saisie par tout intéressé) peut alors adresser aux intermédiaires techniques (fournisseurs d'accès à internet, mais aussi hébergeurs) une demande aux fins d'empêcher l'accès à tout service de communication au public reprenant un contenu identique ou équivalent à tout ou partie du contenu visé par cette décision de justice.
L'administration peut également saisir les moteurs de recherche d'une demande de déréférencement des adresses électroniques donnant accès à ces sites. Elle a aussi pour tâche d'établir et de tenir à jour une « liste noire » des sites ayant fait l'objet d'une demande de blocage d'accès et de la mettre à disposition des différents acteurs de la chaîne de la publicité en ligne, afin de les sensibiliser à leur rôle dans la valorisation économique qu'ils offrent à ces contenus illicites (logique de « name and shame », ou « mise au pilori »).
La durée de validité des mesures demandées est plafonnée à celle restant à courir pour les mesures ordonnées par la décision de justice.
À défaut d'obtenir le blocage du site après cette demande, l'autorité administrative peut saisir l'autorité judiciaire, en référé ou sur requête, aux mêmes fins.
3. La position de la commission : compléter le dispositif pour s'assurer de son efficacité et de sa constitutionnalité
La commission a approuvé ces dispositions au bénéfice d'une amélioration rédactionnelle ( amendement COM-381 des rapporteures) et des précisions indispensables pour renforcer leur efficacité et s'assurer de leur constitutionnalité en préservant la liberté de communication.
Elle a d'abord complété le dispositif afin de renforcer le mécanisme de « liste noire » des sites miroirs tenue par l'autorité administrative, imposant désormais aux acteurs de la publicité numérique de rendre publiques annuellement leurs relations commerciales , le cas échéant, avec un site qui y serait inscrit.
La commission a également précisé la notion de « contenu équivalent » , en reprenant les éléments caractéristiques dégagés par la jurisprudence de la Cour de justice de l'Union européenne en la matière 393 ( * ) ( amendement COM-380 des rapporteures).
Insuffisamment circonscrites, ces dispositions auraient été susceptibles de porter une atteinte disproportionnée à la liberté de communication, constitutionnellement protégée, si elles autorisaient l'administration à demander le blocage de tout contenu n'entretenant qu'un vague lien avec des images ou propos déjà jugés illicites.
La commission a explicitement renvoyé au pouvoir réglementaire la compensation des surcoûts exposés par les intermédiaires techniques sollicités ( amendement COM-378 des rapporteures). Ces nouvelles obligations de blocage peuvent en effet avoir un coût pour les intermédiaires techniques (personnel dédié à la réception, au traitement, à l'ajout et au retrait des adresses de pages ou de sites figurant sur listes fournies par l'administration). Or la jurisprudence du Conseil Constitutionnel impose de compenser les opérateurs qui agissent à la demande de la puissance publique pour un motif de sauvegarde de l'ordre public 394 ( * ) . Une compensation est ainsi déjà prévue pour certaines obligations imposées aux fournisseurs d'accès et liées à la conservation des données de connexion 395 ( * ) ou à la lutte contre services illicites de jeux en lignes 396 ( * ) .
Enfin, la commission a tenu à prévoir le principe d'une information du responsable du service faisant l'objet d'une demande administrative de blocage , uniquement s'il est identifiable ( amendement COM-379 des rapporteures).
En effet, faute de respecter les exigences minimales du contradictoire, ce dispositif très efficace de suppression par les intermédiaires techniques des « sites miroirs » sur simple demande de l'administration porterait une atteinte disproportionnée à la liberté de communication, constitutionnellement protégée.
La demande de blocage étant adressée aux hébergeurs ou aux fournisseurs d'accès internet, un éditeur de bonne foi pourrait ainsi ne pas avoir connaissance de la mesure et être, de ce fait, dans l'incapacité de signaler une erreur ou de contester le blocage de contenus qui ne sont ni identiques ni équivalents à des contenus déjà jugés illicites.
La commission a adopté l'article 19 ainsi modifié .
Article 19 bis A
Ajout du négationnisme à la
liste
des contenus haineux figurant dans la LCEN
L'article 19 bis A du projet de loi vise à étendre le champ matériel des contenus haineux que les intermédiaires techniques doivent contribuer à combattre en application de la LCEN, en y ajoutant la négation et la banalisation des crimes contre l'Humanité.
Constatant que l'apologie de tels crimes était déjà incluse dans les infractions visées par la LCEN, la commission a pleinement approuvé cet ajout, qu'elle avait déjà elle-même proposé l'an dernier lors de l'examen de la proposition de loi relative à la lutte contre les contenus haineux sur internet. Elle a procédé, à l'article 19 bis , aux coordinations rendues nécessaires par le présent article.
La commission a adopté l'article 19 bis A sans modification .
Article 19 bis B (nouveau)
Transfert au CSA du contrôle du
blocage et du déréférencement
administratifs de sites
terroristes ou pédopornographiques
L'article 19 bis B du projet de loi vise à transférer au CSA la compétence dévolue à une personnalité qualifiée de la CNIL pour le contrôle du blocage et du déréférencement administratifs des sites terroristes ou pédopornographiques.
Il est issu de l'adoption par la commission d'un amendement présenté par Christophe-André Frassa reprenant une disposition adoptée par les deux assemblées lors de la discussion de la loi visant à lutter contre les contenus haineux sur internet.
L'article 6-1 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN) autorise l'administration à ordonner directement aux intermédiaires techniques le blocage de certains sites véhiculant des contenus de nature terroriste ou pédopornographique 397 ( * ) .
Cette exception au contrôle préalable par un juge des atteintes à la liberté d'expression est possible, exceptionnellement 398 ( * ) , en raison du caractère particulièrement grave et d'évidence de l'illicéité alléguée.
À ce titre, le blocage administratif est soumis à des conditions et garanties particulières, et notamment un contrôle administratif indépendant : une personnalité qualifiée , désignée en son sein par la Commission nationale de l'informatique et des libertés (CNIL), « s'assure de la régularité des demandes de retrait et des conditions d'établissement, de mise à jour, de communication et d'utilisation de la liste [liste des adresses des contenus incriminés]» et peut, à tout moment, recommander à l'autorité administrative d'y mettre fin, voire saisir la juridiction administrative si l'autorité administrative ne suit pas cette recommandation.
Portant sur la période du 2 février au 31 décembre 2019, le 5 e rapport d'activité présenté par la personnalité qualifiée de la CNIL, Alexandre Linden, fait état de 18 177 demandes émanant de l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) et visant à restreindre l'accès à des contenus à caractère terroriste ou pédopornographique. Les contenus à caractère pédopornographique représentent 68 % des contrôles opérés. Les demandes se décomposent de la façon suivante :
- 420 demandes de blocage de sites ;
- 11 874 demandes de retrait de contenus ;
- et 5 883 demandes de déréférencement d'adresses.
Cette mission aurait dû être confiée à compter du 1 er janvier 2021 à une personnalité qualifiée du Conseil supérieur de l'audiovisuel , mais la disposition qui procédait à ce transfert de compétence dans la loi visant à lutter contre les contenus haineux sur internet a été censurée par le Conseil constitutionnel, pour des raisons de forme.
La commission a adopté l' amendement COM-328 de Christophe-André Frassa visant à réintroduire ces dispositions dans le présent texte.
La commission a adopté l'article 19 bis B ainsi rédigé .
Article 19 bis
Régulation des plateformes
numériques
L'article 19 bis du projet de loi, introduit en commission par l'Assemblée nationale à l'initiative de Laetitia Avia et du Gouvernement, vise à instaurer une régulation administrative des grandes plateformes numériques .
Il vise à mettre de nouvelles obligations de moyens en matière de lutte contre la diffusion de certains contenus haineux à la charge des grandes plateformes numériques (réseaux sociaux, moteurs de recherche) dès lors qu'elles sont accessibles en France : obligations de prompte coopération avec les autorités et de transparence , mécanismes de notification des contenus illicites, obligation d'évaluer les risques de diffusion de contenus illicites et obligation de mettre en place des mesures pour les atténuer.
Leur supervision serait désormais confiée au CSA , doté de nouveaux moyens de contrôle et pouvant prononcer des sanctions pécuniaires (jusqu'à 6 % du chiffre d'affaires mondial).
Les rapporteures ont vivement regretté l' extrême fragilité juridique de la méthode suivie par le Gouvernement, qui prétend anticiper et « pré-transposer » en droit français le futur cadre juridique européen issu du « Digital Service Act » alors que ce dernier commence à peine à être négocié, tout en violant la directive « e-commerce » actuellement en vigueur, en espérant parvenir à convaincre la Commission européenne de sa bonne foi.
Prenant acte de ce pari risqué, la commission des lois a néanmoins souhaité améliorer, à l'initiative de ses rapporteures, le dispositif proposé :
- en recentrant la régulation du CSA sur les grands réseaux sociaux vecteurs de haine, et en excluant les encyclopédies en ligne et les moteurs de recherche ;
- en renforçant l'obligation de désigner des « signaleurs de confiance » dont les notifications font l'objet d'un traitement prioritaire ;
- en confiant au CSA la mission d'inciter les plateformes à lutter plus efficacement contre la viralité de certains contenus haineux (en limitant le partage et l'exposition du public à certains contenus illicites qui leurs sont notifiés) et à favoriser l' interopérabilité (afin de fluidifier le passage des utilisateurs de l'une à l'autre pour qu'ils puissent réellement choisir celles ayant les politiques de modération des contenus qui leur conviennent le mieux).
1. La régulation des grandes plateformes : un dispositif ambitieux, une méthode contestable, un risque de fragilité juridique
1.1. La régulation des plateformes par des obligations de moyens
Le texte adopté par l'Assemblée nationale contient un ambitieux dispositif visant à instaurer une régulation administrative des grandes plateformes numériques .
L'article 19 bis leur imposerait ainsi de nouvelles obligations de moyens en matière de lutte contre la diffusion de certains contenus haineux :
- prompte coopération avec les autorités (mise en oeuvre des injonctions administratives et judiciaires, identification des utilisateurs, conservation des preuves, établissement d'une personne physique servant de point de contact aux sollicitations des autorités publiques) ;
- transparence des règles relatives à la modération des contenus mais aussi obligation d'informer le public sur les moyens humains et techniques qui y sont consacrés ;
- mise en place de mécanismes de notification , de contre-notification et de recours (permettant de signaler les contenus illicites repérés par les utilisateurs, mais aussi de contester les décisions de retrait ou de maintien de contenus) ;
- évaluation des risques « systémiques » de diffusion de contenus illicites et mise en place des mesures générales adaptées pour les atténuer.
Les plateformes numériques concernées seraient celles reposant « sur le classement, le référencement ou le partage de contenus », c'est-à-dire les plateformes de partage d'images, de texte ou de vidéos (réseaux sociaux) et les moteurs de recherche , sans que soient exclus expressément à ce stade certains sites d'échanges marchands (comme par exemple les places de marché ou les sites de cagnotte en ligne) ou communautaire à but non lucratif (forums, blogs, encyclopédies en ligne).
Toutefois, seules les plateformes ayant une activité importante sur le territoire français (mesurée par un seuil minimal de connexions 399 ( * ) ) seraient soumises à cette régulation et ce, quel que soit leur lieu d'établissement, ce qui confère une portée extraterritoriale à la régulation.
La liste des contenus haineux illicites contre lesquels ces plateformes devront lutter est fixée par référence à la LCEN, sous réserve de quelques ajustements.
Sont ainsi concernés les injures aggravées, apologies de certains crimes, provocations à la discrimination, à la haine ou à la violence, le harcèlement sexuel, l'exposition de mineurs à des messages violents ou pornographiques, la traite des êtres humains, le proxénétisme, la pédopornographie et la provocation au terrorisme (infractions visées, par référence, au 7 du I de l'article 6 de la LCEN qui prévoit la mise en place de dispositifs de notification par les hébergeurs au titre de leur devoir de coopération dans la lutte contre certains contenus illégaux). À ces infractions sont ajoutés les injures à caractère discriminatoire (troisième et quatrième alinéas de l'article 33 de la loi du 29 juillet 1881) et le négationnisme (article 24 bis de la même loi) 400 ( * ) .
Types de contenus haineux concernés par les
obligations
imposées aux plateformes dans le cadre de leur
régulation
(Comparaison entre la proposition de loi
« Avia » et le projet de loi transmis)
Fondement textuel |
Description de l'infraction |
PPL Avia : Texte initial |
PPL
|
PJL
|
Infractions de presse
|
||||
Cinquième alinéa de l'article 24 |
Apologie de certains crimes (atteinte volontaire à la vie, atteinte volontaire à l'intégrité de la personne, agression sexuelle, vol aggravé, extorsion, destruction, dégradation ou détérioration volontaire dangereuse pour les personnes), des crimes de guerre, des crimes contre l'Humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage ou des crimes et délits de collaboration avec l'ennemi, y compris si ces crimes n'ont pas donné lieu à la condamnation de leurs auteurs |
OUI |
OUI |
OUI |
Sixième alinéa de l'article 24 |
Cris ou chants séditieux |
OUI |
NON |
NON |
Septième alinéa de l'article 24 |
Provocation à la discrimination, à la haine
ou à la violence à l'égard d'une personne ou d'un groupe
de personnes à raison de leur origine ou de
leur appartenance ou
|
NON |
OUI |
OUI |
Huitième alinéa de l'article 24 |
Provocation à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l'égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du code pénal |
NON |
OUI |
OUI |
Article 24 bis |
Contestation de l'existence d'un ou plusieurs crimes contre l'humanité |
NON |
OUI |
OUI |
Troisième alinéa de l'article 33 |
Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée |
OUI |
OUI |
OUI |
Quatrième alinéa de l'article 33 |
Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap |
OUI |
OUI |
OUI |
Infractions relevant du droit pénal
général
|
||||
Article 222-33 |
Harcèlement sexuel |
NON |
OUI |
OUI |
Article 225-4-1 |
Traite des êtres humains |
NON |
NON |
OUI |
Articles 225-5
|
Proxénétisme |
NON |
NON |
OUI |
Article 227-23 |
Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d'image pornographique d'un mineur ; consultation habituelle ou en contrepartie d'un paiement d'un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs |
NON |
OUI |
OUI |
Article 227-24 |
Fabrication, transport, diffusion ou commerce de message violent, incitant au terrorisme, à des jeux dangereux ou pornographique susceptible d'être vu ou perçu par un mineur |
NON |
OUI
|
OUI |
NON
|
||||
Article 421-2-5 |
Provocation directe à des actes de terrorisme ou apologie publique de ces actes |
NON |
OUI |
OUI |
La supervision des opérateurs de plateforme en ligne serait désormais confiée au CSA, chargé de veiller au respect de leurs obligations en prenant en compte de façon proportionnée les caractéristiques de chacun des services et l'adéquation des moyens mis en oeuvre par l'opérateur avec ces caractéristiques.
L'autorité serait aussi dotée de nouveaux moyens de contrôle renforcés, ayant accès aux principes de fonctionnement des outils automatisés de modération, tels que les algorithmes, ainsi qu'aux informations et indicateurs chiffrés permettant d'évaluer les politiques de modération des plateformes. En outre, un accès aux informations des plateformes nécessaires à ses missions pourra se faire soit via une interface de programmation applicative dédiée (« API ») mise à disposition par la plateforme, soit par une collecte automatisée de données publiquement accessibles.
En cas de manquement, le CSA serait doté de sanctions dissuasives : après mise en demeure d'un opérateur de se conformer à ses obligations dans un délai qu'il déterminera, il peut prononcer une sanction pécuniaire plafonnée à 20 millions d'euros ou 6 % du chiffre d'affaires annuel mondial total de l'exercice précédent (cette sanction sera plafonnée à 1 % du chiffre d'affaires annuel mondial total de l'exercice précédent en cas de refus de communiquer des informations). Le CSA pourra rendre publiques les mises en demeure et sanctions qu'il prononce.
Enfin , l'article 19 bis fixe une date de fin de vigueur anticipée de ses dispositions, au 31 décembre 2023 , que le Gouvernement justifie par la nécessité de ne pas empiéter sur l'adoption à venir du « Digital Services Act » (« DSA »), auquel le droit national devra nécessairement être conforme.
1.2. Un pari audacieux mais juridiquement risqué
Très volumineux, et présentant avec le projet de loi initial un lien très indirect , l'article 19 bis a été introduit en cours de discussion à l'Assemblée nationale, sans étude d'impact, ni avis du Conseil d'État , ce que les rapporteures regrettent vivement, considérant les enjeux considérables des innovations proposées pour la liberté d'expression en ligne de nos concitoyens et leur insertion incertaine dans le droit européen.
L'article 19 bis reprend une large part des dispositions figurant au chapitre II de la proposition de loi visant à lutter contre les contenus haineux sur internet : celles instaurant une régulation administrative des grandes plateformes, et qui avaient pleinement reçu l'approbation du Sénat 401 ( * ) .
Le Gouvernement s'inspire en outre du futur cadre juridique européen issu du « DSA » (ou « Législation sur les services numériques ») qu'il prétend ainsi anticiper et « pré-transposer » dans notre droit national 402 ( * ) , alors que ce texte commence à peine à être négocié.
Les rapporteures prennent acte du pari que fait le Gouvernement sur la solidité juridique de ce dispositif et ne peuvent que regretter l'extrême fragilité de la méthode ainsi suivie, dès lors que la compatibilité du projet de loi avec le cadre juridique européen actuel reste très incertaine .
La dérogation à la directive
« e-commerce »
et sa justification par le
Gouvernement
Le Gouvernement reconnaît lui-même qu'en conférant une portée extraterritoriale à la régulation qu'il instaure, l'article 19 bis de ce projet de loi déroge à la directive « e-commerce » 403 ( * ) actuellement en vigueur , et en particulier écarte l'application du principe du « pays d'origine » : en l'état du droit, en effet, la possibilité pour un État membre de réglementer lui-même l'activité d'un prestataire donné établi dans un autre État membre ne peut être admise qu'en cas de carence ou d'insuffisance de cet État, après lui avoir préalablement et en vain demandé de prendre des mesures, et une fois opérée la notification auprès de la Commission.
Interrogé par les rapporteures, le Gouvernement, pour justifier sa position, a avancé que cette procédure n'était pas adaptée à la régulation d'entreprises établies pour l'essentiel dans des pays, comme l'Irlande, qui n'ont pas adopté de législation en matière de haine en ligne. Rappelant les précédents que constitueraient les lois allemande (NetzDG) et autrichienne en matière de lutte contre la haine en ligne, et mettant en avant l'urgence de la situation (dont témoignent certains actes terroristes récents), le Gouvernement se prévaut de la procédure d'urgence prévue par la directive « e-commerce » (qui impose seulement une notification à l'État d'établissement et à la Commission européenne, sans passer par un constat de carence).
Il est donc à craindre que les actes réglementaires d'application de l'article 19 bis (décret fixant les seuils, modalités d'application des obligations de moyens) et les décisions du CSA (lignes directrices, contrôles et sanctions) soient rapidement contestés et considérablement fragilisés par cette éventuelle contrariété au droit européen.
2. Les apports de la commission des lois : recentrer la mission du régulateur sur les grands réseaux sociaux et compléter sa boite à outils
Prenant acte de ce pari risqué, la commission des lois ne s'est pas résolue à supprimer l'ensemble de ces dispositions, déjà adoptées, en substance, par le Sénat et a plutôt tenté d'améliorer le dispositif proposé.
La commission a d'abord recentré les nouvelles missions du Conseil supérieur de l'audiovisuel sur la régulation des grands réseaux sociaux vecteurs de haine, en excluant les encyclopédies en ligne (amendement COM-384) et les moteurs de recherche (amendement COM-383) en raison de leurs différences radicales de fonctionnement par rapport à ces derniers.
Concernant d'abord les moteurs de recherche, ni le projet de règlement européen « DSA » (que cet article prétend « pré-transposer ») ni l'actuelle loi allemande « NetzDG » ne les incluent en l'état dans leur périmètre. Par leur fonctionnement technique, leur finalité et leur effet sur la viralité d'un contenu, ils se distinguent nettement des réseaux sociaux :
- la hiérarchisation des contenus affichés par les moteurs n'a pas un caractère social (l'utilisateur n'a pas de possibilité directe d'y poster du contenu, de partager ou d'y réagir pour en augmenter l'audience) ;
- les caractéristiques techniques des moteurs de recherche rendent généralement impossible de contacter les auteurs des sites (les contenus sont référencés automatiquement et non publiés à la demande) ;
- enfin, il reste techniquement difficile de désindexer un seul propos haineux précis (un commentaire ou une image sur la page d'un média, d'un forum ou d'un site de débat participatif) sans rendre inaccessible tout le reste et donc tous les autres contenus pourtant licites, multipliant ainsi les risques de « sur-blocage ».
Concernant, d'autre part, les encyclopédies en ligne (comme Wikipedia), les obligations envisagées risquaient de poser des obstacles insurmontables à des sites à but non lucratif aux moyens plus modestes.
Si le dispositif proposé semble particulièrement bienvenu pour réguler les réseaux sociaux dont le modèle économique repose sur l'économie de l'attention, la viralité et la valorisation des données personnelles de leurs utilisateurs, une plateforme comme Wikipédia repose pour l'essentiel sur le travail de millions de contributeurs bénévoles. Comme ses représentants l'ont expliqué lors de leur audition, elle n'est absolument pas confrontée aux mêmes problèmes de diffusion massive de la haine en ligne que les grands réseaux sociaux. Les obligations complexes imposées par le texte (notification, contre-notification) semblent ainsi particulièrement mal adaptées à son organisation (collaborative) et à son fonctionnement technique (modération interne et rapide et possibilité de modification des contenus par tous les utilisateurs eux-mêmes).
Par comparaison, les encyclopédies en ligne sont d'ailleurs déjà explicitement exclues du statut de « fournisseur de services de partage de contenus en ligne » par la directive de 2019 sur le droit d'auteur et les droits voisins dans le marché unique numérique.
La commission a ensuite souhaité renforcer l'obligation pour les plateformes de désigner des « signaleurs de confiance », dont les notifications font l'objet d'un traitement prioritaire ( amendement COM-387 ). Cette obligation figure bien dans le projet de règlement européen « DSA », et de nombreuses plateformes ont déjà, en pratique, mis en place des procédures techniques prévoyant un traitement accéléré des plaintes et des signalements provenant de certaines entités publiques (comme PHAROS) ou privées (associations de lutte contre la haine ou les discriminations sur internet).
À l'initiative de Christophe-André Frassa, ancien rapporteur de la loi relative à la lutte contre les contenus haineux sur internet, la commission a réintroduit dans ce texte les dispositions déjà votées par le Sénat visant à conférer au CSA, au titre de sa nouvelle mission de régulation des plateformes, une mission plus souple d'encouragement ( amendement COM-329 ) pour :
- pousser les plateformes à mettre en place des outils de partage d'information dans un format ouvert sur les contenus haineux illicites (bases de données de « hash » d'images illicites, bonnes pratiques de modération, listes noires d'adresses de sites illicites, etc. ) ;
- les inciter à lutter plus efficacement contre la « viralité » de certains contenus haineux en limitant le partage et l'exposition du public aux certains contenus illicites qui leurs sont notifiés ;
- et favoriser l'interopérabilité des grandes plateformes (afin de fluidifier le passage des utilisateurs de l'une à l'autre pour qu'ils puissent réellement choisir celles ayant les politiques de modération des contenus qui leur conviennent le mieux).
Outre des amendements de coordination (COM-382) ou de précision (COM-385) de ses rapporteures, la commission a modifié à la marge les mécanismes de notification imposés aux plateformes afin de ménager une exception d'ordre public permettant de déroger à l'obligation d'informer l'auteur de contenus haineux retirés, et ce pour préserver l'efficacité de certaines investigations en cours ( amendement COM-236 de Christophe-André Frassa, reprenant une disposition adoptée par le Sénat lors de la discussion de la proposition de loi visant à lutter contre les contenus haineux sur internet).
La commission a enfin fixé l' entrée en vigueur de l'article 19 bis trois mois après la publication du décret pris pour son application (décret qui fixera les seuils de connexions depuis la France au-delà desquels les plateformes, même étrangères, seront soumises aux nouvelles obligations) ( amendement COM-386) .
Eu égard à la nouveauté des obligations mises à la charge des plateformes et à l'ampleur des modifications techniques et organisationnelles imposées, il lui a paru raisonnable et nécessaire au respect du principe de sécurité juridique de prévoir ce bref délai d'adaptation : la proposition de loi visant à lutter contre les contenus haineux sur internet laissait d'ailleurs un délai identique de trois mois aux opérateurs pour se mettre en conformité avec ses dispositions.
La commission a adopté l'article 19 bis ainsi modifié .
Article 19 ter A (nouveau)
Compétences de l'observatoire de
la haine en ligne
L'article 19 ter A du projet de loi, introduit en commission à l'initiative de Christophe-André Frassa, vise à corriger une référence manquante dans les dispositions définissant les compétences de l'observatoire de la haine en ligne placé sous la responsabilité du Conseil supérieur de l'audiovisuel (CSA).
Rare initiative de la loi du 24 juin 2020 visant à lutter contre les contenus haineux sur internet ayant survécu à la censure du Conseil constitutionnel en juin 2020, l'observatoire de la haine en ligne est un organe administratif placé auprès du CSA qui fixe ses missions et sa composition.
Selon les informations communiquées par le CSA aux rapporteures, cet observatoire a tenu sa première réunion plénière le 23 juillet 2020, en associant des représentants des administrations, des opérateurs, des chercheurs et des associations. Quatre groupes de travail ont été mis en place à compter de l'automne (« Réflexion autour de la notion de contenus haineux : définir et approfondir la notion de contenus haineux » ; « Amélioration de la connaissance du phénomène des contenus haineux » ; « Analyse des mécanismes de diffusion et des moyens de lutte » ; « Prévention, éducation et accompagnement des publics »). Les travaux de l'observatoire devraient donner lieu à des productions (guides, recueils de données, etc. ) dans le courant de l'année 2021.
Les propos haineux relevant de la compétence de cet observatoire sont fixés par un renvoi à l'article 1 er de la loi du 24 juin 2020 pourtant désormais vidé de son contenu par la censure du Conseil constitutionnel.
La commission a donc adopté l'amendement COM-327 de Christophe-André Frassa pour corriger cette référence erronée, en visant désormais les contenus haineux mentionnés à l'article 6-5 de la LCEN dans sa rédaction issue de la présente loi.
La commission a adopté l'article 19 ter A ainsi rédigé .
Article 19 quater
Sensibilisation des mineurs lors de leur
inscription sur une plateforme
L'article 19 quater du projet de loi est issu d'un amendement de séance présenté par les députés du groupe La République en Marche, sous-amendé sur la forme par le Gouvernement.
Il impose aux plateformes sur lesquelles peuvent s'inscrire des mineurs de moins de quinze ans (ce qui requiert le consentement conjoint du mineur et de ses parents lorsque sont traitées des données personnelles), de sensibiliser à cette occasion ces mineurs ainsi que leurs parents à l'utilisation civique et responsable de leurs services, ainsi que de délivrer une information sur les risques juridiques encourus par le mineur et ses parents en cas de diffusion de contenus haineux.
La commission a adopté l'article 19 quater sans modification .
Article 20
Extension des procédures rapides de jugement des
délits
à certains délits prévus par la loi du 29
juillet 1881
Cet article introduit une exception à l'interdiction des procédures de jugement rapide pour certains auteurs d'infractions prévues par la loi du 29 juillet 1881 relative à la liberté de la presse.
La commission a adopté cet article après avoir précisé le champ d'application de cette mesure.
1. Le dispositif proposé
Le code de procédure pénale connaît trois procédures de jugement rapide : la convocation par procès-verbal, la comparution immédiate et la comparution différée (articles 393 à 397). La loi dite « Sécurité et liberté » du 2 février 1981 404 ( * ) a précisé que ces mesures, d'ordre général, sont inapplicables aux infractions commises par les mineurs et aux délits de presse qui relèvent d'un droit procédural spécial. Cette disposition est désormais énoncée à l'article 397-6 de ce code.
Le présent article tend à modifier l'article 397-6 pour permettre l'application des mesures de jugement rapide pour certaines des infractions visées par l'article 24 de la loi du 29 juillet 1881 relative à la liberté sur la presse lorsque les auteurs ne sont pas journalistes. Seraient concernées :
- la provocation directe, non suivie d'effet, à commettre l'une des infractions suivantes : les atteintes volontaires à la vie, les atteintes volontaires à l'intégrité de la personne et les agressions sexuelles, définies par le livre II du code pénal ; les vols, les extorsions et les destructions, dégradations et détériorations volontaires dangereuses pour les personnes, définis par le livre III du code pénal (alinéas 1 à 3 de l'article 24) ;
- la provocation à l'un des crimes et délits portant atteinte aux intérêts fondamentaux de la nation prévus par le titre Ier du livre IV du code pénal (alinéa 4 de l'article 24) ;
- l'apologie des crimes visés au premier alinéa de l'article 24 (atteintes volontaires à la vie, à l'intégrité physique, etc.), des crimes de guerre, des crimes contre l'humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage ou des crimes et délits de collaboration avec l'ennemi (alinéa 5 de l'article 24) ;
- la provocation à la discrimination, à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée (alinéa 7 de l'article 24) ;
- la provocation à la discrimination, à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap (alinéa 8 de l'article 24).
À l'initiative de plusieurs députés du groupe La République en Marche, la commission spéciale de l'Assemblée nationale a étendu la possibilité de recourir au jugement rapide pour les délits visés par l'article 24 bis (négationnisme des crimes contre l'humanité et génocides) et par les troisième et quatrième alinéas de l'article 33 (injure proférée envers les personnes à raison de leur origine, de leur appartenance ou non-appartenance à une ethnie, une nation, une race ou une religion, avérée ou supposée, ou à raison de leur sexe, de leur orientation sexuelle, de leur identité de genre ou de leur handicap) de la loi du 29 juillet 1881.
Pour l'ensemble de ces infractions c'est donc le droit commun qui s'appliquera en matière de procédure pénale, notamment pour la comparution immédiate qui s'applique uniquement pour des délits punis d'au moins 2 ans de prison et d'au moins 6 mois de prison pour un flagrant délit.
2. La position de la commission
La loi du 29 juillet 1881 relative à la liberté de la presse est en fait la loi qui définit les conditions de la liberté d'expression. Elle ne concerne donc pas uniquement les infractions susceptibles d'être commises par des journalistes.
La distinction entre journalistes et non journalistes est donc artificielle pour les infractions qu'elle contient. La seule distinction véritable est celle prévue par l'article 42 de la loi. Il prévoit le régime dit de « responsabilité en cascade » qui tend à permettre la mise en cause de celui qui détermine le contenu d'une publication avant celle du seul rédacteur.
La multiplication des cas infractions et appels à la haine, notamment sur les réseaux sociaux a montré que l'application d'un régime spécifique à des propos qui sont en fait individuels empêche de faire cesser rapidement l'infraction et d'obtenir rapidement la condamnation des auteurs. La commission partage donc la volonté de faire entrer dans le droit commun le traitement judiciaire de ces infractions .
À la suite des auditions qu'elle a menées, elle a cependant estimé utile d'adopter une rédaction de nature à mieux distinguer ceux qui, relevant du régime de la responsabilité en cascade , doivent continuer à bénéficier de garanties procédurales et ceux qui, seuls responsables de leurs propos relèvent du droit commun . Elle a donc adopté l' amendement COM-404 des rapporteures.
La commission a adopté l'article 20 ainsi modifié .
Article 20 bis (supprimé)
Extension des cas dans lesquels le
ministère public peut agir d'office
aux actes diffamatoires envers
une personne ou un groupe de personnes
en raison de l'identité de
genre
Cet article introduit par la commission spéciale de l'Assemblée nationale tend à procéder à une harmonisation afin que le ministère public puisse poursuivre d'office les propos diffamatoires en raison de l'identité de genre, comme il le peut pour les autre injures et insultes réprimées par la loi de 1881.
La commission l'a supprimé.
1. Le dispositif proposé par l'Assemblée nationale
La loi n° 2017-86 du 27 janvier 2017 relative à l'égalité et à la citoyenneté a inclus parmi les provocations à la haine ou à la violence, insultes et injures réprimées par la loi du 29 juillet 1881 sur la liberté de la presse, celles relatives à l'identité de genre.
Le présent article, introduit par la commission spéciale à l'initiative de plusieurs députés membres du groupe La République en Marche, complète l'article 48 de la loi de 1881 pour prévoir la possibilité pour le ministère public de poursuivre d'office les insultes et injures portant sur l'identité de genre.
Peuvent déjà être poursuivies d'office les injures et insultes proférées pour les autres motifs visés dans la loi de 1881.
2. La position de la commission
Malgré le caractère procédural de cette mesure, la commission a considéré que son adoption dépasse le cadre de ce texte et trouverait plus sa place dans le cadre du futur projet de loi relatif à la justice.
La commission a donc adopté l' amendement COM-401 de suppression présenté par les rapporteures.
La commission a supprimé l'article 20 bis .
Article 20 ter
Extension de la durée de prescription à un an
pour l'ensemble des délits prévus à l'article 24 de la loi
du 29 juillet 1881 sur la liberté de la presse
Cet article introduit par la commission spéciale de l'Assemblée nationale tend à porter de trois mois à un an le délai de prescription de l'ensemble des infractions prévues à l'article de la loi de 1881, durée actuellement prévue pour les infractions les plus graves.
La commission l'a adopté sans modification.
1. Le dispositif proposé par l'Assemblée nationale
Cet article introduit par la commission spéciale de l'Assemblée nationale à l'initiative de plusieurs membres du groupe Agir ensemble tend à aligner l'ensemble des durées de prescription des infractions prévues par l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse.
À cette fin, il modifie l'article 65-3 de la loi du 29 juillet 1881. Cet article prévoit des dérogations à l'article 65 de la loi, lequel comporte l'une des principales garanties procédurales, en matière de droit de la presse, à savoir la prescription de l'action après trois mois révolus.
Ne serait donc prescrites qu'au bout d'un an, et avec une plus grande facilité procédurale d'interruption de la prescription, l'ensemble des infractions prévues par l'article 24, là où seules celles relatives aux appels à la discrimination, à la violence ou à la haine figurent actuellement.
Seraient concernées :
- d'une part, les provocations à commettre :
. les atteintes volontaires à la vie, les atteintes volontaires à l'intégrité de la personne et les agressions sexuelles, définies par le livre II du code pénal ;
. les vols, les extorsions et les destructions, dégradations et détériorations volontaires dangereuses pour les personnes, définis par le livre III du code pénal ;
. l'un des crimes et délits portant atteinte aux intérêts fondamentaux de la nation prévus par le titre Ier du livre IV du code pénal ;
- d'autre part, l'apologie des crimes visés par l'article 24 de la loi du 29 juillet 1881, c'est-à-dire des crimes de guerre, des crimes contre l'humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage ou des crimes et délits de collaboration avec l'ennemi, y compris si ces crimes n'ont pas donné lieu à la condamnation de leurs auteurs ;
- enfin, les cris ou chants séditieux proférés dans les lieux ou réunions publics.
2. La position de la commission
Cet article comporte une évolution importante du droit de la presse, dont les garanties procédurales protègent la liberté d'expression.
Néanmoins l'allongement de la durée de prescription pour les infractions prévues à l'article 24 paraît proportionnée au regard de leur gravité, à la possible exception des cris et chants séditieux dans les manifestations publiques.
La commission a donc approuvé la modification proposée .
La commission a adopté l'article 20 ter sans modification.
* 385 Loi n°2020-936.
* 386 Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur.
* 387 À savoir les personnes dont l'activité est d'offrir un accès à des services de communication au public en ligne.
* 388 À savoir les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services.
* 389 Les hébergeurs, en particulier, bénéficient d'une exonération facilitée de leur responsabilité civile et pénale : celle-ci ne peut être engagée en l'absence de connaissance de l'illicéité des contenus stockés ou, en cas de connaissance de l'illicéité manifeste des contenus stockés, s'ils ont procédé promptement à leur retrait. Ce régime protecteur s'applique ainsi à un spectre d'acteurs extrêmement large, qui englobe désormais les grandes plateformes bien connues : les moteurs de recherche (Google, Qwant), les réseaux sociaux (Facebook, Twitter), les plateformes de diffusion de vidéos (YouTube, Dailymotion), etc.
* 390 Décision n° 2011-625 DC du 10 mars 2011, Loi d'orientation et de programmation pour la performance de la sécurité intérieure (LOPPSI ), cons. 5 à 8.
* 391 La notification peut intervenir sans demande préalable de retrait si l'éditeur de service n'a pas fourni les informations permettant de l'identifier et de le contacter.
* 392 Pour la liste détaillée de ces contenus haineux illicites, voir le commentaire de l'article 19 bis .
* 393 Dans son arrêt du 3 octobre 2019, C-18/18, Glawischnig-Piesczek , la Cour a ainsi estimé que le droit de l'Union ne s'opposait pas à ce qu'il soit enjoint à un hébergeur comme Facebook de supprimer des commentaires identiques et, sous certaines conditions, équivalents à un commentaire précédemment déclaré illicite. Elle a estimé qu'un contenu devait être qualifié d'« équivalent » s'il était « en substance, inchangé » par rapport au contenu précédemment jugé illicite et à condition que « les différences dans la formulation de ce contenu par rapport à celle caractérisant l'information déclarée illicite précédemment ne [soient] pas de nature à contraindre l'hébergeur à procéder à une appréciation autonome de ce contenu »).
* 394 Décision n° 2000-441 DC du 28 décembre 2000, cons. 40 à 42.
* 395 Article L. 34-1 du code des postes et des communications électroniques.
* 396 Article 61 de la loi n° 2010-476 du 12 mai 2010 relative à l'ouverture à la concurrence et à la régulation du secteur des jeux d'argent et de hasard en ligne.
* 397 Voir le commentaire de l'article 19.
* 398 Décision n° 2011-625 DC du 10 mars 2011, Loi d'orientation et de programmation pour la performance de la sécurité intérieure (LOPPSI ), cons. 5 à 8.
* 399 Un second seuil, « supérieur » au premier, devant déclencher certaines obligations plus contraignantes pour les très grandes plateformes (évaluation des risques systémiques et remédiation appropriée).
* 400 Un autre article du présent projet de loi vise précisément à intégrer le négationnisme à la liste des contenus illicites figurant au 7 du I de l'article 6 de la LCEN (voir le commentaire de l'article 19 bis A).
* 401 À la différence du chapitre 1 er qui créait un nouveau délit sanctionnant l'absence de retrait en 24 heures de tout contenu haineux, repoussé par le Sénat, adopté par l'Assemblée nationale en lecture définitive (« dernier mot »)... puis déclaré contraire à la Constitution par le Conseil constitutionnel en juin 2020.
* 402 Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques) et modifiant la directive 2000/31/CEhttps://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52020PC0825
* 403 Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »).
* 404 Loi n° 81-82 renforçant la sécurité et protégeant la liberté des personnes.