III. RÉGULATION ET RÉSILIENCE : UNE IMPLICATION INÉGALE DES DIFFÉRENTS ACTEURS DES POLITIQUES PUBLIQUES

Nos politiques publiques concourant à la lutte contre les influences étrangères malveillantes ne se limitent pas aux actions, par essence régaliennes de détection et de réponse, détaillées dans les sections précédentes.

S'agissant d'un phénomène qui concerne la société dans son ensemble, la commission d'enquête s'est attachée à passer en revue les principales politiques publiques mobilisables pour concourir à la résilience de la société face à ces opérations, sans prétendre à l'exhaustivité.

A. LA RÉGULATION DE L'ESPACE MÉDIATIQUE ET DES PLATEFORMES : DES PROGRÈS IMPORTANTS RÉALISÉS AU COURS DES DERNIÈRES ANNÉES

1. Le contrôle des médias étrangers : un renforcement important au cours des dernières années

La façon la plus évidente de lutter contre les influences étrangères malveillantes dans la sphère médiatique est d'exercer un contrôle sur les médias étrangers. En France, ce contrôle relève de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

a) Un cadre juridique complexe, qui confère à l'Arcom d'importantes prérogatives

Le droit français permet d'opérer une distinction entre les médias français et les médias étrangers.

En premier lieu, celui-ci tend à protéger les premiers d'influences étrangères possibles en régulant la structure de leur capital. Aussi, l'article 40 de la loi du 30 septembre 1986 relative à la liberté de communication prévoit que, sous réserve des engagements internationaux de la France, l'autorisation relative à un service de radio ou de télévision par voie hertzienne terrestre assuré en langue française ne peut être accordée à une société dans laquelle plus de 20 % du capital social ou des droits de vote sont détenus, directement ou indirectement, par des personnes de nationalité étrangère. Sous la même réserve, il prévoit qu'aucune personne de nationalité étrangère ne peut procéder à une acquisition ayant pour effet de porter, directement ou indirectement, la part du capital détenue par des étrangers à plus de 20 % du capital social ou des droits de vote dans les assemblées générales d'une société titulaire d'une telle autorisation.244(*)

Le droit applicable aux chaînes étrangères (en l'occurrence extra-européennes) est fondé sur le principe de liberté de réception. Toutefois, ces chaînes doivent respecter les règles découlant de la directive sur les services de médias audiovisuels (directive « SMA »)245(*), transposée dans les droits nationaux, et qui prennent en compte, en particulier, les exigences liées à la protection du public et à l'ordre public.

S'agissant de ces médias, le premier enjeu qui se pose est celui de la compétence du régulateur national.

La détermination de l'État membre compétent à l'égard d'une chaine extra européenne reçue dans l'Union européenne ou sur le territoire d'un État partie à la convention européenne sur la télévision transfrontière (CETT) relève de règles fondées sur la seule diffusion satellitaire. S'agissant plus particulièrement de l'Union européenne, la directive SMA fixe comme critère principal celui de la localisation de la liaison montante entre le lieu d'émission du service et le satellite chargé d'en assurer la diffusion, et comme critère secondaire celui de la nationalité de la capacité satellitaire.

Ainsi, en application de ces critères, repris à l'article 43-4 de la loi du 30 septembre 1986 précitée, si la liaison montante est localisée sur le territoire d'un État membre de l'Union européenne, c'est cet État membre qui est compétent à l'égard du service. Si la liaison montante est située en dehors du territoire de l'Union européenne, c'est l'État membre dans lequel est établi l'opérateur de capacités satellitaires qui est compétent. Lors de son audition devant la commission d'enquête, le président de l'Arcom a souligné la grande complexité et la difficulté d'application de ces dispositions246(*).

En tout état de cause, il résulte de ces règles, compte tenu de l'activité de l'opérateur satellitaire Eutelsat, et, dans une moindre mesure, de l'activité de liaisons montantes en France de l'opérateur Globecast (Orange), la France est compétente sur plusieurs centaines de services de télévision extra européens, en particulier de chaînes d'Afrique du Nord et du Moyen-Orient diffusées par des satellites d'Eutelsat centrés sur cette région mais pouvant être reçues dans le sud de l'Europe, ou, par exemple, de chaînes russes reçues sur le territoire ukrainien, État partie à la CETT.

Si ces services sous compétence française sont dispensés de conventionnement avec l'Arcom, ils sont cependant soumis aux obligations de la même loi du 30 septembre 1986 et au contrôle du régulateur247(*).

Pour mémoire, l'Arcom dégage de cette loi (en particulier ses articles 1er et 3) et des normes supérieures sept principaux thèmes déontologiques : le respect de la dignité de la personne humaine, la sauvegarde de l'ordre public, la lutte contre les discriminations, l'honnêteté et l'indépendance de l'information, le traitement des affaires judiciaires et le respect du droit à la vie privée248(*). Comme le relève cependant la commission d'enquête, le rattachement d'un contenu à une opération d'ingérence étrangère ne figure à ce stade pas explicitement parmi ces thèmes, bien que celle-ci puisse être appréhendée indirectement au travers de la sauvegarde de l'ordre public ou encore l'honnêteté et l'indépendance de l'information.

En cas de méconnaissance d'une de ces obligations, l'Arcom peut mettre en oeuvre les prérogatives prévues par la loi du 30 septembre 1986, soit :

- mettre en oeuvre une procédure de sanction à l'égard du service (article 42) ;

- mettre en demeure Eutelsat de faire cesser la diffusion de ce service (article 42-1) ;

- demander au président de la section du contentieux Conseil d'État qu'il ordonne en référé à Eutelsat de le faire (article 42-10).

La prérogative de mise en demeure prévue à l'article 42-1 de la loi précitée a récemment été mise en application à l'encontre de deux chaînes russes au titre de manquements pouvant être considérés comme participant d'une politique d'influence étrangère :

-  la mise en demeure d'Eutelsat par l'Arcom, par une décision n° 2022-491 du 27 juillet 2022, de cesser la diffusion du service « NTV Mir » ;

- la mise en demeure d'Eutelsat par l'Arcom, par une décision n° 2022-763 du 14 décembre 2022, de cesser la diffusion des services « Rossiya 1 », « Perviy Kanal » et « NTV ».

Dans le cadre du dispositif de contrôle des médias étrangers, les services de médias audiovisuels à la demande (SMAD), diffusés sur Internet uniquement, ont longtemps constitué un « angle mort ».

L'article 14 de la loi du 21 mai 2024 visant à sécuriser et réguler l'espace numérique (SREN)249(*) est très récemment venue combler cette lacune, afin de prévoir que les prérogatives conférées par l'Arcom par la loi du 30 septembre 1986 soient bien applicables à ces services dès lors qu'ils sont diffusés en France et ne relèvent pas de la compétence d'un autre État membre de l'Union européenne, d'un autre État partie à l'accord sur l'Espace économique européen ou d'un autre État partie à la convention européenne sur la télévision transfrontière du 5 mai 1989 (CETT).

b) La nécessité d'une articulation avec la politique étrangère de l'Union européenne est mise en évidence par l'offensive informationnelle liée au conflit en Ukraine

L'offensive menée par la Russie dans les espaces informationnels occidentaux dans le cadre du conflit en Ukraine a impliqué l'adoption d'une mesure forte par l'Union européenne, avec l'interdiction de diffusion des médias d'État russes menant des actions de propagande, soit en l'espèce Russia Today et Sputnik, bien que la portée effective de ces sanctions doive être nuancée compte tenu des manoeuvres de contournement opérées par ces chaînes (voir Première partie, IV).

Au plan juridique, cette mesure a revêtu la forme d'un règlement de l'Union européenne pris non pas au titre d'une compétence de régulation des médias mais de la politique étrangère et de sécurité commune (PESC)250(*).

S'est ainsi posée la question de l'articulation des compétences entre l'Union et le régulateur national au titre de l'application de ces sanctions, qui a également trouvé une réponse avec l'article 14 de la loi SREN précité, prévoyant expressément que l'Arcom peut mettre en demeure puis sanctionner les opérateurs soumis à la loi du 30 septembre 1986 (éditeurs, distributeurs, opérateurs satellitaires...) qui ne font pas cesser la diffusion de médias sous sanction européenne et, d'autre part, que l'Arcom peut saisir en référé le président de la section du contentieux à cette même fin.

Le récent règlement européen relatif à la liberté des médias (dit règlement « EMFA »), qui entrera en vigueur en 2025, entend également améliorer la gestion commune des problématiques liées à la propagande déployée par les médias étrangers, citant expressément dans ses considérants la problématique des « campagnes internationales systématiques de manipulation de l'information et d'ingérence menées depuis l'étranger en vue de déstabiliser l'Union dans son ensemble ou certains de ses États membres ». Son article 17 créée à cette fin un cadre de coordination de l'action des régulateurs nationaux via le futur Comité européen pour les services de médias, qui permet un partage accru d'information et favorise le développement d'une approche commune par les États membres251(*).

c) La lutte contre les manipulations de l'information par les médias étrangers

Par ailleurs, la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information252(*) a introduit dans la loi du 30 septembre 1986 des dispositions visant à lutter contre la participation à des actes de manipulation de l'information de services établis en France et donc conventionnés par l'Arcom, mais qui sont contrôlés ou placés sous l'influence d'un État étranger. À ce titre, l'Arcom peut en particulier :

- ordonner, pendant les trois mois qui précèdent un scrutin national et durant ce scrutin, la suspension de la diffusion d'un tel service s'il diffuse, de façon délibérée, de fausses informations de nature à altérer la sincérité du scrutin (article 33-1-1 de la loi du 30 septembre 1986) ;

- résilier unilatéralement la convention d'un tel service, après mise en demeure, lorsqu'il porte atteinte aux intérêts fondamentaux de la Nation, dont le fonctionnement régulier de ses institutions, notamment par la diffusion de fausses informations (article 42-6 de la même loi).

D'après les informations transmises par l'Arcom à la commission d'enquête, ces dispositifs n'ont cependant pas trouvé lieu à s'appliquer à ce jour.

Les travaux de la commission d'enquête ont cependant permis de mettre en évidence les moyens limités de l'Arcom pour accomplir pleinement son rôle de régulateur vis-à-vis des médias étrangers relevant de sa compétence, en particulier en termes de compétences linguistiques internes. D'après ses réponses au questionnaire du rapporteur, l'Arcom ne dispose que d'un agent arabisant. En revanche, elle doit faire appel à un traducteur extérieur pour les besoins d'analyse de programmes dans d'autres langues étrangères (mandarin, russe...).

2. La lutte contre les manipulations de l'informations sur les plateformes en ligne : des moyens juridiques renforcés, dans le cadre d'une approche encore trop timorée

Les médias étrangers constituent certes un vecteur important des opérations d'influence malveillante conduits par nos compétiteurs étrangers, mais pas le principal. Comme l'a largement montré le présent rapport, ces opérations se déploient de façon massive sur les plateformes numérique, en exploitant leur modèle économique, notamment en recourant à des trolls ou en produisant des contenus humoristiques répondant aux caractéristiques de la culture des usagers des plateformes (mèmes).

Comme le résume l'ambassadeur pour le numérique, Henri Verdier, lors de son audition par la commission d'enquête : « les réseaux sociaux sont extraordinairement vulnérables aux opérations de désinformation, et ce pour plusieurs raisons. Tout d'abord, leur modèle économique repose sur l'économie de l'attention. Or pour capter l'attention, le sensationnalisme, le conspirationnisme, les propos excessifs et la colère sont efficaces. C'est humain de notre côté ; c'est mécanique du leur, avec des algorithmes qui présentent plus souvent aux utilisateurs ce qu'ils regardent le plus, créant ainsi des montées aux extrêmes. Ensuite, des mécanismes sont liés au design même de ces solutions, avec des bulles de filtres, qui enferment les utilisateurs dans un entre-soi où ils ne voient plus que des gens qui pensent comme eux »253(*).

La difficulté posée par les contenus de désinformation sur les plateformes et mis au service d'opérations d'ingérence étrangères résulte du fait que ceux-ci ne sont pas nécessairement en soi illégaux, et peuvent très bien relever du champ de la liberté d'expression. Face à des contenus violant la loi (contenus racistes ou incitant à la haine, faisant l'apologie du terrorisme, etc.) les autorités, notamment alertées par la voie d'un signalement sur la plateforme Pharos ou directement par la plateforme, peuvent demander à celle-ci le retrait des contenus concernés et engager des poursuites pénales contre les auteurs.

Si des dispositifs contraignants ont été pris pour contrôler certaines opérations de désinformation, en particulier dans un contexte électoral ou dans le cadre d'un régime de sanctions européennes, le régime de régulation des plateformes à l'échelle européenne, qui a fait d'importants progrès au cours des années récentes, reste trop timoré.

a) L'existence du dispositifs contraignants dans des contextes bien déterminés
(1) Les manipulations de l'information en contexte électoral

La loi précitée du 22 décembre 2018 relative à la lutte contre la manipulation de l'information a mis en place plusieurs outils pour lutter contre les campagnes de désinformation massives dans les contexte électoraux, propices aux opérations d'ingérence informationnelle.

Outre la possibilité, mentionnée supra, de faire cesser la diffusion de tels contenus par un média étranger, cette loi permet également d'agir en direction des principales plateformes.

Ainsi, l'article L. 163-1 du code électoral prévoit certaines obligations applicables aux opérateurs de ces plateformes pendant les trois mois précédant le premier jour du mois d'élections générales et jusqu'à la date du tour de scrutin où celles-ci sont acquises :

- fournir à l'utilisateur une information loyale, claire et transparente sur l'identité de la personne physique ou sur la raison sociale, le siège social et l'objet social de la personne morale et de celle pour le compte de laquelle, le cas échéant, elle a déclaré agir, qui verse à la plateforme des rémunérations en contrepartie de la promotion de contenus d'information se rattachant à un débat d'intérêt général ;

- fournir à l'utilisateur une information loyale, claire et transparente sur l'utilisation de ses données personnelles dans le cadre de la promotion d'un contenu d'information se rattachant à un débat d'intérêt général ;

-  rendre public le montant des rémunérations reçues en contrepartie de la promotion de tels contenus d'information lorsque leur montant est supérieur à un seuil déterminé.

L'article L. 163-2 du même code prévoit quant à lui un dispositif permettant à l'autorité judiciaire, au cours de la même période, de demander à ce que les plateformes fassent cesser la diffusion de contenus de désinformations diffusées de façon massive et artificielle. Sont ainsi visées les « allégations ou imputations inexactes ou trompeuses d'un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d'un service de communication au public en ligne ».

Il est prévu que le juge des référés peut être saisi à cette fin par le ministère public, de tout candidat, de tout parti ou groupement politique ou de toute personne ayant intérêt à agir. Le juge des référés se prononce dans un délai de 48 heures à compter de la saisine. En cas d'appel, la cour se prononce dans un délai de 48 heures à compter de la saisine.

Ce dispositif marque une rupture importante puisqu'il s'agit d'un cas unique permettant au juge de demander la cessation de la diffusion de fausses informations par les plateformes quand bien même ces contenus ne sont pas illégaux. Il est à noter que le dispositif ne cible pas spécifiquement des contenus d'origine étrangère. La référence à une diffusion « artificielle ou automatisée et massive » fait écho à la notion d'ingérence numérique étrangère (voir Première partie, IV).

De nouvelles règles en la matière ont notamment été adoptées au niveau de l'Union européenne avec le récent règlement sur la publicité politique254(*), qui trouve notamment à s'appliquer sur les plateformes.

Ce texte pose comme une nouvelle exigence de droit commun, applicable aux acteurs européens comme extra-européens, que la publicité politique soit clairement étiquetée, permettant aux citoyens de voir pourquoi ils ont été ciblés, qui a sponsorisé la publicité, les montants engagés et les scrutins concernés. En outre, les nouvelles règles n'autorisent le ciblage des utilisateurs que si ces derniers ont consenti à la collecte de leurs données personnelles

Pour lutter contre la désinformation et les ingérences de commanditaires non européens, est notamment prévue l'interdiction pour les entités de pays tiers de parrainer la publicité politique dans l'Union européenne au cours des trois mois précédant une élection qu'elle soit locale, nationale ou européenne, ainsi que les référendums.

Si cette législation constitue une avancée très positive, la commission d'enquête relève que sa correcte application pourrait s'avérer complexe dans la pratique et donc peu efficace en l'état.

(2) Le cas des contenus relayés par des médias sous sanction européenne

En matière de mesures contraignantes à l'égard des plateformes, il convient également de souligner qu'une nouvelle étape a été franchie avec l'article 14 de la loi SREN précitée avec la possibilité pour l'Arcom de demander d'utiliser ses pouvoirs, de mise en demeure, de demande de blocage, de déréférencement et de sanction à l'égard d'un opérateur de plateforme afin de faire cesser la diffusion ou la mise à disposition des contenus dont la diffusion est interdite en application des dispositions des sanctions prises par le Conseil de l'Union européenne.

b) La régulation aux niveaux national et européen : des progrès importants, mais une approche qui reste encore timorée
(1) Dès 2018, la France a mis en place un cadre juridique instituant une obligation de moyens pour les plateformes en matière de lutte contre la désinformation

En adoptant la loi précitée du 22 décembre 2018 relative à la lutte contre la manipulation de l'information, la France a instauré un cadre précurseur fondé sur des obligations de moyens et de transparence qui incombent aux opérateurs de plateforme en ligne en France.

Cette loi impose aux plateformes de mettre en place toute une série de mesures en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou d'altérer la sincérité d'un scrutin, sans cibler expressément l'origine étrangère de ces contenus.

Dans le détail, son article 11 prévoit notamment que celles-ci mettent en place un dispositif facilement accessible et visible permettant à leurs utilisateurs de signaler de telles informations, notamment lorsque celles-ci sont issues de contenus promus pour le compte d'un tiers.

Il prévoit également que celles-ci mettent en oeuvre des mesures complémentaires pouvant notamment porter sur :

1° la transparence de leurs algorithmes ;

2° la promotion des contenus issus d'entreprises et d'agences de presse et de services de communication audiovisuelle ;

3° la lutte contre les comptes propageant massivement de fausses informations ;

4° l'information des utilisateurs sur l'identité de la personne physique ou la raison sociale, le siège social et l'objet social des personnes morales leur versant des rémunérations en contrepartie de la promotion de contenus d'information se rattachant à un débat d'intérêt général ;

5° l'information des utilisateurs sur la nature, l'origine et les modalités de diffusion des contenus ;

6° l'éducation aux médias et à l'information.

Il est prévu que ces mesures, ainsi que les moyens qu'ils y consacrent, soient rendus publics, et que l'Arcom en dresse un bilan périodique, le dernier en date ayant été publié en décembre 2022 au titre de l'année 2021255(*).

(2) Une approche reprise par le Règlement sur les services numériques, dit « DSA »

Cette approche a été reprise par le Règlement européen sur les services numériques (RSN), communément appelé « DSA » (pour Digital Service Act)256(*), qui a conduit à une adaptation du cadre français via la loi SREN précitée.

Dans le cadre de ce règlement, les très grandes plateformes et très grands moteurs de recherche (dit « VLOPSEs ») désignés par la Commission en avril 2023 sont soumis à des exigences renforcées d'identification et d'évaluation des risques systémiques liés à la diffusion de contenus affectant « le discours civique, les processus électoraux et la sécurité publique », ce qui inclut plus particulièrement les contenus de désinformation, y compris ceux qui, sans être illégaux, seraient préjudiciables. En revanche, le DSA et la loi SREN ne confient ni à l'Arcom, ni à la Commission compétence pour intervenir sur un contenu individuel donné.

La loi SREN désigne l'Arcom comme autorité en charge de superviser la mise en oeuvre du règlement en France, aux côtés des autres autorités compétentes que sont la Commission nationale de l'informatique et des libertés (CNIL) et la direction générale de le concurrence, de la consommation et de la répression des fraudes (DGCCRF), et lui confie plus généralement le soin, en la désignant coordinateur pour les services numériques (CSN), de veiller à l'application cohérente du règlement en France, ce qui apparait essentiel dans un contexte où la réussite du DSA supposera une coordination efficace des autorités compétentes.

En lien avec le Comité des coordinateurs pour les services numériques, l'Arcom est désormais en mesure d'exercer ses compétences, notamment en signalant une infraction supposée, étant entendue que celle-ci ne peut porter que sur les moyens mis en oeuvre par les plateformes et non sur les contenus eux-mêmes, ou en demandant le déclenchement du protocole de crise, et de proposer son expertise en matière d'analyse des risques systémiques à la Commission, qui détient une compétence exclusive en la matière sur les VLOPSEs.

La loi SREN maintient également ainsi le pouvoir de recommandation de l'Arcom à l'attention des VLOPSEs en matière de lutte contre la désinformation, tout en continuant de lui confier la mission de publier un bilan périodique. Il est toutefois à noter qu'alors que ce bilan a jusqu'ici été présenté par l'Arcom comme annuel, celui relatif à l'année 2022 n'a toujours pas été publié.

Par ailleurs, l'Arcom participe à l'évaluation des engagements des mesures du Code européen renforcé de bonnes pratiques contre la désinformation du 16 juin 2022257(*), révisé et adopté avant le DSA, qui sont susceptibles de constituer des mesures d'atténuation des risques systémiques. L'Autorité a indiqué à la commission d'enquête avoir pu analyser les rapports de septembre 2023 des VLOPSEs signataires du Code (comme Instagram, Facebook, LinkedIn, Bing, Google Search, YouTube et TikTok), en partenariat avec d'autres régulateurs européens.

Au titre spécifique de la manipulation de l'information liée à des opérations d'ingérence numérique étrangères, l'Arcom et Viginum ont signé fin 2023 une convention pour travailler à un renforcement de leur collaboration permettant des échanges respectifs d'informations, notamment en vue de la mise en oeuvre du DSA et dans la perspective des événements majeurs de 2024 (élections européennes, jeux Olympiques et Paralympiques). Cette convention a pour principal objectif de faire en sorte que les travaux de détection conduits par Viginum puissent nourrir l'analyse des techniques, tactiques et procédures de manipulation de l'information dans le cadre de l'application du DSA.

Il est enfin à noter que, dans la perspective des élections européennes de juin 2024, l'Arcom a publié le 7 mars 2024 des préconisations qui permettent de relayer les mesures prévues dans le projet de lignes directrices sur les risques spécifiques aux processus électoraux soumis par la Commission européenne à consultation publique en février 2024, en appelant les opérateurs à tirer toutes les conséquences des règles relatives à l'organisation du scrutin prévues spécialement en France, comme la période de silence électoral258(*).

(3) Les enjeux liés à la mise en oeuvre du DSA ont conduit l'Arcom à renforcer sa coopération avec Viginum

Le cadre réglementaire applicable à Viginum prévoit expressément que ce service est tenu de fournir toute information utile à l'Arcom dans l'accomplissement des missions qui lui sont confiées par la loi du 30 septembre 1986 précitée259(*).

L'exercice de mission a déjà donné lieu à la transmission de plusieurs notes par Viginum, au titre d'opérations d'ingérences numériques étrangères qu'elle a détectées dans le contexte de périodes sensibles (voir tableau ci-dessous).

Il est à noter qu'une note de Viginum relative à des manquements à la modération de la plateforme X (ex-Twitter) a donné lieu à une transmission à la Commission européennes.

Notes transmises par Viginum à l'Arcom

Catégories

Notes transmises

Notes relatives aux élections présidentielles et législatives

- 18 notes de détection élections présidentielles

- 15 notes de caractérisation élections présidentielles

- 7 notes de détection élections législatives

- 1 note de caractérisation élections législatives

Notes relatives à certains évènements/crises

1 note relative au conflit Israël/Hamas

Notes relatives aux risques systémiques engendrés par les plateformes

1 note relative aux manquements à la modération de la plateforme X (transmise à la Commission européenne)

Source : commission d'enquête, d'après les réponses de Viginum au questionnaire du rapporteur.

Les missions confiées à l'Arcom au titre de la mise en oeuvre du DSA ont également conduit à un rapprochement avec Viginum, qui a donné lieu à la signature d'une convention cadre de partenariat signée le 4 juillet 2024260(*).

(4) La Commission européenne a déjà fait un usage effectif des pouvoirs qui lui sont conférés par la DSA

Il est à noter que la Commission européenne, où s'est rendue une délégation de la commission d'enquête dans le cadre d'un déplacement effectué à Bruxelles, a déjà fait un usage effectif de ces pouvoirs pour appliquer le DSA.

Premièrement, elle a ouvert plusieurs procédures formelles à l'égard des différentes plateformes, soit une procédure qui habilite la Commission à prendre de nouvelles mesures d'exécution, telles que des mesures provisoires, et des décisions de non-conformité, si nécessaire.

En décembre 2023, la Commission a d'abord ouvert une procédure formelle afin d'évaluer si X pourrait avoir enfreint la législation sur les services numériques dans des domaines liés à la gestion des risques, à la modération des contenus, aux interface truquée (« dark patterns »), à la transparence de la publicité et à l'accès aux données pour les chercheurs. Le 12 juillet 2024, elle a informé X de son avis préliminaire selon lequel la plateforme enfreint les règles du DSA.

En avril 2024, elle a ouvert une procédure formelle afin d'évaluer les infractions présumées aux politiques et pratiques de Meta en matière de publicité trompeuse et de contenu politique sur ses services.

En outre, la Commission a ouvert deux procédures formelles à l'encontre de TikTok, en se concentrant particulièrement sur la protection des mineurs.

Enfin, en ce qui concerne spécifiquement l'utilisation des techniques d'intelligence artificielle (IA) pour diffuser des hypertrucages (deep fakes), la Commission a officiellement envoyé, en mars, des demandes de renseignements horizontales au titre de la législation sur les services numériques à deux très grands moteurs de recherche en ligne et à six très grandes plateformes en ligne, leur demandant de fournir des informations détaillées sur leurs mesures respectives visant à atténuer les risques associés à l'IA générative, telles que les « hallucinations », dans lesquelles l'IA fournit de fausses informations, la propagation virale des trucages bruyants, ainsi que la manipulation automatisée de services susceptibles d'induire les électeurs en erreur.

c) Une approche qui reste timorée et lacunaire
(1) Des plateformes qui restes de simples hébergeurs, sans responsabilité à l'égard des contenus qu'elles diffusent

Si le DSA doit permettre d'accomplir de grands progrès dans la régulation des plateformes en France et à l'échelle européenne, la philosophie du dispositif, fondée sur la seule obligation de moyens, reste insatisfaisante.

En effet, le rapporteur considère que, compte tenu du mode de fonctionnement des plateformes, leur statut de simple « hébergeur », sans responsabilité sur les contenus diffusés par leur intermédiaire, ne permet pas de caractériser adéquatement leur activité.

Comme l'explique en effet Thomas Huchon journaliste spécialiste de ces questions auditionné par la commission d'enquête : « Il faut arrêter de considérer que ces plateformes sont des tuyaux et plutôt les faire rentrer dans la loi de 1881 sur la liberté de la presse. Pour savoir si ces plateformes doivent entrer dans la loi de 1881, il faut répondre à trois questions. La première est de savoir si ces plateformes diffusent de l'information, ce qui est le cas. La deuxième question est de savoir si elles hiérarchisent et éditorialisent ces informations, ce qui est également le cas, car l'information que voit une personne n'est pas nécessairement la même que celle que voit une autre personne naviguant sur la même plateforme. La troisième question est de savoir si elles gagnent de l'argent en réalisant ces deux premières opérations, ce qui est le cas. Il semble difficile de considérer qu'une plateforme qui diffuse de l'information, hiérarchise et éditorialise de l'information et gagne de l'argent en le faisant ne serait pas un média, mais un simple tuyau. Je pense qu'il existe une forme de contradiction inacceptable, que nous avons acceptée, et que nous sommes aujourd'hui dans un état de fait très désagréable, dans lequel nous sommes un peu pris au piège de nos incompréhensions technologiques depuis quinze ans et de notre passivité sur tous ces sujets »261(*).

David Chavalarias, chercheur, a également pu détailler ce mode de fonctionnement devant la commission d'enquête, et la raison pour laquelle il s'avère particulièrement propice aux ingérences étrangères : « les plateformes ont mis en place depuis 2018 un fil d'actualité. C'est l'endroit où les personnes consultent la majorité de leurs contenus. Ce que quelqu'un voit sur son fil d'actualité, ce n'est qu'un petit pourcentage de ce que produit son environnement social, moins de 10 %. Il y a donc un filtre entre ce que produisent les personnes auxquelles vous êtes abonné et ce que vous voyez effectivement. Comment ce filtre est-il élaboré ? Nous avons montré qu'entre vos abonnements et ce que vous recevez dans votre fil d'actualité, il y a 50 % de contenus toxiques en plus sur le réseau Twitter, c'est-à-dire des insultes, du dénigrement, des attaques personnelles, etc. Par conséquent cela va déformer la perception des utilisateurs de millions d'utilisateurs. Facebook et Instagram fonctionnent de la même manière et modifient la perception de millions d'utilisateurs vers un environnement plus hostile. Dès que les plateformes optimisent l'engagement, c'est-à-dire dès qu'elles mettent dans les fils d'actualité des utilisateurs les contenus qui ont le plus de clics, de « likes » et de partages, ce qu'elles font depuis 2018, ces biais de négativité apparaissent. C'est un gros problème parce que cela renforce l'hostilité des échanges et, indirectement, les personnalités et les comptes qui s'expriment de manière hostile. La circulation de l'information est modifiée, comme la structure du réseau. Dans le top des 1 % des influenceurs, il y a une surreprésentation de 40 % de personnes qui s'expriment de manière hostile.

Avec les plateformes comme Facebook, Twitter ou Instagram, qui réunissent plusieurs milliards d'utilisateurs, l'opinion publique se forme dans des environnements où, de manière centralisée, changer une ligne de code permet de changer complètement la manière dont l'information circule mais aussi la manière dont les personnes s'expriment puisque les journalistes et les politiques vont changer leur manière de s'exprimer pour éviter leurs discours ne soient pas diffusés »262(*).

Le caractère anonyme des profils inscrits sur les plateformes constitue un facteur de risque supplémentaire. David Chavalarias considère à cet égard que, sans aller jusqu'à lever cet anonymat, il pourrait être envisagé de forcer les plateformes à permettre aux utilisateurs de « s'authentifier en tant que Français, tout en restant anonyme, sans donner d'autres d'informations, par exemple en passant par un intermédiaire comme France Connect qui certifie que l'utilisateur est français. Les utilisateurs pourraient ainsi filtrer les contenus en disant qu'ils ne veulent voir que les contenus émis par leurs compatriotes, ce qui permettrait d'éliminer de nombreuses ingérences propagées à partir de faux comptes »263(*).

Il souligne également l'importance de mieux modérer les publicités ciblées, alors que circuleraient aujourd'hui « des milliers de celles-ci sur le territoire français, en Italie, en Pologne et en Allemagne ». À cet égard, s'agissant par exemple de Facebook, il estime que la plateforme « ne modère qu'à peine 20 % des publicités politiques ».

David Chavalarias a enfin mentionné plusieurs axes de propositions structurantes pour assainir le modèle de fonctionnement des plateformes : défendre les utilisateurs contre les clauses abusives des réseaux sociaux et imposer la portabilité des données et de l'influence sociale

(2) Le cas de TikTok : des recommandations de la commission d'enquête sénatoriale de 2023 qui sont restées lettres mortes

S'agissant en particulier de TikTok, dont le lien à la Chine a été rappelé supra (voir Première partie, II), la commission d'enquête du Sénat sur l'utilisation du réseau social TikTok, son exploitation des données, sa stratégie d'influence264(*) a ainsi expressément recommandé que cette plateforme soit traitée en éditeur au titre de son fil « Pour toi », qui opère une telle sélection personnalisée de contenus.

Son rapport préconise également d'imposer des obligations positives à la plateforme, à rebours de la philosophie du DSA, et notamment de modifier son algorithme pour promouvoir des contenus certifiés comme provenant de sources d'information fiables.

Enfin, ce rapport avait recommandé la suspension de TikTok en France et la demande par la France de sa suspension au sein de l'Union européenne pour des raisons de sécurité nationale :

- si TikTok, avant le 1er janvier 2024, n'a pas répondu aux principales questions soulevées par cette commission d'enquête (capital et statuts de la maison-mère ByteDance ; propriété intellectuelle et localisation des ingénieurs qui élaborent l'algorithme ; nature des entités chinoises avec lesquelles TikTok est en relation permanente ; nature des données des utilisateurs transférées en Chine et raison de ces transfert...) ;

- si TikTok, dans le même délai, n'a pas pris les principales mesures demandées par le rapport.

La commission d'enquête ne peut que regretter que ces recommandations soient restées lettres mortes.

(3) Faute d'obligations spécifiques, les plateformes n'ont pas d'obligation de retirer des contenus liés à des opérations d'ingérence étrangères qui ne revêtent pas de caractère illégal

Viginum a indiqué au rapporteur qu'il entretient des relations avec les plateformes reposant sur des échanges ponctuels, visant le plus souvent à solliciter des actions à l'encontre de comptes impliqués dans des manoeuvres informationnelles caractérisées. Ces sollicitions peuvent prendre la forme de partages d'éléments techniques, à l'image de ce qui a pu être fait à la suite de la dénonciation publique de la campagne de manipulation de l'information RRN (voir Première partie, IV). Viginum peut également être amené à réaliser des actions de sensibilisation des plateformes sur les tentatives de manipulation de leurs services par des acteurs étrangers, comme ce fut le cas aux côtés de l'Arcom et du ministère des affaires étrangères le 2 mai 2024, dans la perspective des élections européennes.

Toutefois, si les opérateurs de plateforme semblent davantage tenir compte des risques liés à la menace de manipulation de l'information, probablement depuis la mise en oeuvre effective du DSA, leur relation avec Viginum demeure encore trop épisodique. Dans le détail, seule une plateforme a offert un accès API à ses agents : Google/YouTube.

Dans l'hypothèse d'un contenu qui revêtirait un caractère illicite, Viginum a récemment signé une convention avec la plateforme Pharos du ministère de l'Intérieur le 7 décembre 2023, afin d'intégrer Viginum à la liste des « signaleurs de confiance ». Cette qualification permet notamment à Viginum d'obtenir un traitement plus rapide par Pharos.

(4) L'enjeu des manipulations de l'information recourant à l'intelligence artificielle : un problème encore devant nous

Une autre lacune actuelle de la réglementation concerne le recours à l'intelligence artificielle dans le cadre des opérations de manipulation de l'information conduites sur les plateformes, en particulier au moyen d'hypertrucages (deepfakes) et d'amplification.

Lors de son audition devant la commission d'enquête, l'ambassadeur pour le numérique, Henri Verdier, alertait ainsi : « Je ne voudrais effrayer personne, mais il faut se dire que nous n'avons encore rien vu en matière de numérique : la facilité à créer de fausses vidéos très probantes grâce à l'intelligence artificielle, ou encore générer et animer de faux comptes est préoccupante »265(*).

Comme cela a en effet été rappelé supra (voir Première partie, IV) de tels contenus peuvent désormais être produits avec une grande facilité, en quelques minutes et sans débourser un euro.

Le règlement européen sur l'IA apporte un premier élément de réponse, en imposant aux personnes « qui déploient un système d'IA générant ou manipulant un contenu image, audio ou vidéo constituant une contrefaçon profonde (...) d'indiquer que le contenu a été généré ou manipulé artificiellement ». En pratique, la Commission européenne a d'ailleurs récemment appelé les grandes plateformes à prendre des mesures pour contrer les risques de manipulations en ligne au moment des élections européennes de juin 2024, visant notamment les contenus générés par l'intelligence artificielle tels que les hypertrucages.

Cependant, comme l'Arcom l'a indiqué au rapporteur, force est de constater que l'« identification des contenus artificiellement généré ou manipulé pose des questions techniques qui n'ont pas encore été éprouvées »266(*).

C'est d'autant plus nécessaire que le recours à l'IA générative, qui est propice aux manipulations de l'informations, en particulier dans le cadre d'opérations d'influence étrangères, est susceptible de prendre une part croissante dans les campagnes électorales. À titre d'exemple, un récent rapport de l'organisation non gouvernementale AI Forensics a fait état d'un usage significatif de l'intelligence artificielle dans le contexte des élections législatives françaises de 2024 par certaines formations politiques classées à l'extrême droite (Rassemblement national, Reconquête ! et Les Patriotes), sans jamais indiquer que les publications concernées avaient été générées par l'IA267(*).

3. La promotion d'une information de qualité : une responsabilité incombant largement aux médias eux-mêmes, même si l'État peut jouer un rôle d'impulsion et de soutien
a) La définition de méthodologies journalistiques communes

Dans un pays tel que la France, où l'information est libre, la lutte contre les manipulations de l'information dans la sphère médiatique relève avant tout des médias eux-mêmes.

À cet égard, la Journalism Trust Initiative (JTI) initiée et déployée par Reporters sans frontières (RSF) doit être mise en exergue.

Créée en décembre 2019, JTI constitue la première et la seule norme internationale pour la fiabilité de l'information. Elle fournit un dispositif transparent pour faire reculer la désinformation et récompenser concrètement le respect d'un journalisme éthique et professionnel. Plus de 1 000 médias dans 85 pays se sont engagés dans la JTI à ce jour en évaluant leurs pratiques, notamment leurs processus éditoriaux. Parmi eux, 250 ont déjà publié leurs rapports de transparence.

Les représentants de RSF auditionnés par la commission d'enquête268(*) ont souligné que ce système leur permet non seulement de s'autoévaluer, mais aussi, le cas échéant, d'obtenir le label de la part d'un certificateur indépendant, selon les règles classiques du marché de la certification. Il évalue le respect de 130 indicateurs de méthode. Il est précisé que cette démarche ne concerne en rien le contenu des médias : elle ne porte que sur la méthode. Il s'agit en particulier des exigences de transparence : propriété du média concerné, règles de fonctionnement éditorial ou encore respect de la déontologie professionnelle. Enfin, cette norme a été élaborée sous l'égide du Comité européen de normalisation (CEN). En France, cette mission a ainsi été confié à l'Agence française de normalisation (Afnor).

Il est à noter que le Code européen renforcé de bonnes pratiques contre la désinformation (voir supra) s'y réfère expressément.

Selon les représentants de RSF : « désormais, la norme JTI couvre presque 100 % de l'audience audiovisuelle en France : elle commence à faire autorité ».

Ils considèrent ainsi que « à ce jour, les plateformes sont seulement invitées à prendre part à cette amplification des sources fiables d'information. Selon nous, leur participation devrait devenir obligatoire. Ce n'est pas un excès de régulation ou de normativisme, mais une leçon de l'expérience ».

b) La montée en puissance de la vérification des faits dans les médias français

La commission d'enquête a également souhaité s'intéresser services de vérifications des faits (fact-checking) ou de démystification (debunking) de plusieurs médias.

En France, le journal Libération a été précurseur en lançant dès 2008 sa rubrique Désintox, devenu CheckNews à compter de 2017, dont la rédactrice en chef adjointe a été auditionnée par la commission d'enquête. Cette rédaction compte aujourd'hui 7 postes à temps plein, à rapporter aux 250 journalistes qui y travaillent. D'autres grands médias français ont lancé une rubrique équivalente en ligne (Les Décodeurs du journal Le Monde, La Vérification, du journal Le Figaro etc.)

Si ces rubriques n'ont pas vocation à traiter les seules manipulations de l'information relevant d'opérations d'ingérence étrangères, elles peuvent y contribuer. Ainsi, lors de son audition devant la commission d'enquête269(*), la rédactrice en chef adjointe de CheckNews a pu revenir sur l'action d'investigation menée en 2023 par sa rédaction concernant l'affaire d'ingérence étrangère à BFMTV, dite « affaire M'Barki », qui a largement été décrite par le rapport de la commission d'enquête de l'Assemblée nationale relatives aux ingérences étrangères270(*).

Les médias français remplissant des missions d'intérêt général mènent une activité importante de vérification des faits, y compris à l'international.

L'Agence France-Presse (AFP) joue à cet égard un rôle clé. Sa direction Investigation numérique emploie 140 journalistes à plein temps, travaillant en 24 langues, couvrant 80 pays et produisant 25 vérifications par jour, ce qui fait du réseau de l'AFP le plus important au monde en la matière. Ces vérificateurs peuvent en outre s'appuyer sur l'expertise du réseau global de l'Agence, qui compte 1 700 journalistes dans 151 pays.

Lors de son audition par la commission d'enquête, le directeur Investigation numérique de l'AFP, Grégoire Lemarchand, a relevé que le rapport de force vis-à-vis des désinformateurs n'en restait pas moins déséquilibré : « que la désinformation soit sophistiquée ou non, le combat que nous menons est très inégal : désinformer prend quelques secondes, il suffit d'une capture d'écran et d'un message sur WhatsApp, sans sources, criant au chaos ; en face, nous devons répondre avec des faits, de la nuance et du contexte : cela prend beaucoup plus de temps, a fortiori quand il faut détecter les manipulations, pointer les incohérences avec des faits et de la nuance et recouper notre démonstration avec des sources fiables »271(*).

Par ailleurs, même si les mentalités évoluent au sein de la profession, la culture de la vérification des faits ne fait pas encore l'unanimité. Grégoire Lemarchand ajoute qu'il reste au sein de la profession, même si cela tend à s'amenuiser, une vieille garde qui est un peu réticente ou méprisante à l'égard de notre travail et qui estime que s'occuper de « deux ou trois zozos pro-russes qui s'agitent sur internet » n'a pas d'intérêt.

Pour autant, la convention d'objectifs et de moyens (COM) 2024-2028 passée entre l'Agence et l'État souligne la nécessité de poursuivre les efforts en ce sens : l'investigation numérique « n'est pas une goutte d'eau dans l'océan, comme on l'entend encore trop souvent : les fact-checks atteignent désormais une masse critique, preuve en est qu'il n'est pas une infox significative sur la Covid ou l'Ukraine qui n'ait été contrée ». 

La commission d'enquête relève cependant un point de vigilance concernant le modèle économique de cette activité de l'AFP : celle-ci est essentiellement financée par les plateformes, en tant que clientes de ces investigations numériques dans le souci de montrer publiquement qu'elles luttent contre la désinformation. Ces financements permettent à l'Agence de rendre ces contenus gratuits. Ces ressources provenaient essentiellement de Facebook, mais se sont diversifiées depuis (X, Whatsapp, TikTok), conformément aux orientations prévues par la COM, considérant que cette diversification constitue une garantie d'indépendance. La COM fixe l'objectif de poursuivre cette diversification au-delà des plateformes, dont l'engagement à long terme reste incertain comme en témoigne les moyens encore trop limités que celles-ci consacrent à cet enjeu (voir Troisième partie, III), en recherchant notamment des financements auprès d'institutions ou de fondations philanthropiques, objectif auquel la commission d'enquête ne peut que souscrire.

Les médias audiovisuels de France Médias Monde jouent également, à l'international, un rôle important en la matière. Ses différentes chaînes produisent des contenus de vérifications des faits et de démystification, regroupés sous le label « Stop Infox ». La rubrique « Les Observateurs » de France 24, qui produit ce type de contenus dans les quatre langues de la chaîne (français, anglais, arabe, espagnol), compte 10 ETP mais s'appuie sur un réseau de 5 000 observateurs dans le monde. Plusieurs chaînes RFI sont dotées de rubriques comparables (RFI en persan et RFI en kiswahili notamment).

France Médias Monde s'est également dotée d'une procédure d'alerte interne, qui a été communiquée à la commission d'enquête, en cas de manipulations ou d'attaques visant ses médias (voir Première partie, IV).

Le groupe enfin finance des actions de formation des médias locaux afin de favoriser la production d'une information libre et démocratique au travers de sa filiale CFI, dont le budget était en 2023 de 18,9 millions d'euros.

c) Une structuration de coopérations bienvenues entre médias à l'échelle européenne

La commission d'enquête se félicite de la structuration de coopérations bienvenues entre médias pour le développement de pratiques communes de vérification des faits à l'échelle européenne.

En témoigne la mise en place en 2022, par l'AFP et quatre autres médias spécialisés en Espagne, Pologne, Allemagne et Italie, du European Fact-Checking Standards Network (EFCSN).

Cette organisation a établi un code déontologique de la vérification des faits. Elle vérifie, par des audits, l'indépendance réelle des médias pratiquant la vérification des faits en Europe et leur aspiration aux standards d'objectivité les plus élevés.

Elle compte aujourd'hui 47 membres, dans une trentaine de pays européens, parmi lesquels l'ensemble des États membres de l'Union européenne. Elle se concentre sur la surveillance locale de la désinformation, en fournissant non pas des points de vue abstraits, mais un état actuel des choses. Ses 47 membres fournissent des informations vérifiées et collectent des données sur les contenus, les acteurs, les récits et les formats de désinformation, données ensuite utilisées par presque tous les acteurs de la lutte contre la désinformation, des éducateurs aux grandes plateformes numériques et aux régulateurs et autres autorités publiques. Sa vérification des faits permet de détecter des mensonges et d'enquêter sur eux, dans toutes les langues officielles de l'Union européenne. Nous mettons à la disposition de nos lecteurs des points de contact pour nous alerter.

Son trésorier, Vincent Couronne, a souligné lors de son audition par la commission d'enquête qu' « un tel réseau est sans précédent dans le monde »272(*).

d) L'État peut jouer un rôle d'accompagnement, d'orientation voire d'expertise auprès de ces médias
(1) Un rôle d'accompagnement et d'orientation des médias réalisant des missions d'intérêt général, qui ne concerne pas spécifiquement la question des ingérences étrangères

Auditionnée par la commission d'enquête, la Directrice générale des médias et des industries culturelles (DGMIC) a indiqué que l'État encourageait, par le biais des conventions d'objectifs et de moyens passés avec les médias réalisant des missions d'intérêt général, les activités de vérification des faits.

Cette activité constitue un « axe prioritaire » de la convention passée avec l'AFP. Les conventions passées entre France Médias Monde et France info intègrent également expressément cet enjeu.

La commission d'enquête relève cependant que ces COM traitent de la lutte contre la désinformation de façon générale, sans aborder la question des ingérences étrangères, alors que celles-ci comportent des problématiques spécifiques et induisent des modes opératoires particuliers, parmi lesquels l'usurpation de l'identité visuelle de ces médias.

S'agissant de la formation des médias locaux, il faut souligner que le ministère des affaires étrangères soutient également la filiale CFI de France Médias Monde (mentionnée supra) via une dotation financée sur ses crédits à hauteur de 7,2 millions d'euros en 2023.

(2) Avec Viginum, une mise à disposition d'une expertise auprès des médias qui n'a pas encore déployé toutes ses potentialités

Avec Viginum, l'État s'est doté d'une structure capable d'apporter aux médias une expertise spécifique sur les manoeuvres d'ingérences numériques étrangères, permettant de mettre à profit ses moyens juridiques exorbitants du droit commun en matière de traitement automatisé de données à caractère personnel dans le cadre de ses investigations en source ouverte273(*).

Le travail de ce service est fortement relayé au sein des médias, qui utilisent et commentent largement ses rapports publics.

Suite à la détection de la campagne Olympiya conduite en ligne par des acteurs pro-Azerbaïdjan et visant à discréditer l'organisation des jeux Olympiques et Paralympiques (voir Première partie, IV), Viginum avait notamment fait le choix, pour des raisons stratégiques, de ne pas diffuser de rapport public, mais de communiquer à la presse ses analyses techniques, pour laisser le soin aux médias de divulguer l'opération.

4. L'enjeu de l'éducation aux médias et à l'information : une prise en compte insuffisante des influences étrangères malveillantes

La dernière dimension de la politique des médias et de l'information pouvant être mobilisée dans le cadre de la lutte contre les influences étrangères malveillantes concerne l'éducation aux médias et à l'information (EMI).

La loi précitée du 22 décembre 2018 relative à la manipulation de l'information a renforcé les exigences posées par le code de l'éducation en matière d'EMI, notamment en :

- intégrant l'EMI le cadre de l'enseignement moral et civique ;

- prévoyant expressément que la formation dispensée à tous les élèves des collèges comprend obligatoirement une EMI, intégrant une formation à l'analyse critique de l'information disponible ;

- inscrivant la thématique de l'EMI dans le cadre de la formation des enseignants ;

- prévoyant que les conventions passées entre l'Arcom et les médias audiovisuels puissent comprendre des mesures relatives à l'EMI.

Cependant le constat, ancien, d'un défaut de pilotage de cette politique a été conforté par une « mission flash » récente de la commission de la culture de l'Assemblée nationale consacrée à cette thématique : « l'éducation aux médias connait donc une offre très abondante et émanant d'acteurs divers : nous ne plaidons pas pour son uniformisation, car cette diversité est aussi une richesse, qui permet d'atteindre le public par différents biais ; et quand bien même il y aurait des répétitions, elles peuvent être utiles. Cette offre gagnerait pourtant à être mieux structurée »274(*). La communication relative à cette mission souligne en outre, que l'offre d'EMI, en dépit de son caractère « pléthorique », est inégalement répartie sur le territoire.

Le ministère de l'éducation nationale a cependant produit des efforts pour mieux structurer les enseignements apportés dans ce cadre, en lien avec le Centre pour l'éducation aux médias et à l'information (Clemi), qui est indépendant du ministère. Cette impulsion s'est notamment traduite par la publication d'une circulaire visant à généraliser l'EMI275(*), prévoyant notamment la désignation par chaque recteur d'un référent EMI en charge du premier et du second degré, ainsi que la mise à disposition de ressources pédagogiques nationales (guide pratique pour l'EMI).

La démarche est résumée par le directeur général de l'Enseignement scolaire (DGESCO), Edouard Geffray, dans le cadre de son audition par la commission d'enquête : « notre démarche d'éducation à l'information est plus préventive que curative. Nous ne sommes pas en mesure de déconstruire en classe chaque fausse information qui circule sur les réseaux sociaux. Cependant, notre action court sur toute la scolarité, dès le primaire, sous la forme d'ateliers de sensibilisation. Nos deux approches principales sont les suivantes : la connaissance de la construction de l'information et l'utilisation des médias, et la mise en pratique et la pédagogie des usages, pour que les enfants puissent distinguer ce qui relève du faux et du vrai »276(*).

Le Clemi joue un rôle décisif dans le dispositif, en organisant dans les collèges une « semaine de la presse et des médias », qui bénéficie chaque année à 4,5 millions d'élèves, soit presque l'intégralité d'entre eux. Ces actions associent des professeurs et des partenaires extérieurs, comme des journalistes de quotidiens ou de chaînes de télévision, pour que les élèves comprennent comment authentifier une vraie information. Le déploiement de ce type de dispositifs associe l'Arcom, et les acteurs des médias.

L'Arcom a indiqué au rapporteur qu'il veille, depuis 2020, à ajouter une stipulation en matière d'EMI dans les conventions qu'elle signe avec ces dernières. Ainsi, un éditeur est tenu de « [...] [transmettre] chaque année à l'Arcom des éléments d'information relatifs à son action, ou celle du groupe auquel il appartient, en vue de contribuer à l'éducation aux médias et à l'information ». L'Arcom rend compte chaque année des actions menées dans ce cadre via un rapport ad hoc277(*).

S'agissant de l'éducation au numérique, le ministère de l'éducation nationale a développé l'outil Pix, qui permet aux élèves de développer des compétences et de bons réflexes numériques - par exemple le fait de ne pas partager des contenus susceptibles de contenir de la désinformation - dès la fin du primaire, avec une attestation délivrée en fin de sixième, généralisée en 2024 à tous les collèges, une certification en fin de troisième et une autre en fin de terminale.

Le DGESCO a précisé lors de son audition que Pix était désormais obligatoire et que Parcoursup demande de plus en plus les attestations afférentes.

En matière de formation des professeurs, le ministère a instauré un plan national de formation, dont l'EMI constitue, selon le DGESCO, « une dimension fondamentale », et qui monte en puissance. Ainsi,
en 2021 2022, 393 modules de formation ont été réalisés, pour 4 938 agents formés. En 2022-2023, 359 modules de formation ont été dispensés, à destination de 18 148 agents formés.

Si la commission d'enquête se félicite de ces contenus, elle ne peut que regretter l'absence de prise en compte de la thématique des manipulations de l'information procédant de stratégies d'influences étrangères malveillantes.

Le guide pratique de l'EMI278(*), publié par le ministère, présente en effet neuf propositions de thématiques à étudier dans le cadre de séquences pédagogiques liées à l'EMI. Parmi elles, aucune ne porte sur les influences étrangères. Il existe bien une thématique « désinformation », dans le cadre de laquelle plusieurs projets éducatifs sont proposés (« comment démêler l'info de l'intox en jouant ? », « décrypter la rhétorique complotiste », « détecter les biais liés aux enjeux environnementaux »). Là encore, le traitement de la question des influences étrangères malveillantes n'est pas proposé.

Cette lacune témoigne d'une forme de naïveté du ministère quant à l'ampleur de cette menace sur l'intégrité de notre espace informationnel, ce qui est d'autant plus regrettable que l'École a un rôle décisif à jouer pour assurer la résilience de la nation face à celle-ci.

En tout état de cause, la commission d'enquête tient à rappeler que si l'EMI a son importance, il ne saurait se substituer à l'exigence de développement de l'esprit critique dès le plus jeune âge, et ce au travers de l'ensemble des enseignements scolaires.


* 244 Loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

* 245 Directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels.

* 246 Audition du 19 mars 2024.

* 247 Conformément aux dispositions du III de l'article 33-1 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

* 248 Pour plus de détails, voir la page dédiée sur le site internet de l'Arcom.

* 249 Loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique.

* 250 Règlement (UE) 2022/350 du Conseil du 1er mars 2022 modifiant le règlement (UE) n° 833/2014 concernant des mesures restrictives eu égard aux actions de la Russie déstabilisant la situation en Ukraine.

* 251 Règlement (UE) 2024/1083 du Parlement européen et du Conseil du 11 avril 2024 établissant un cadre commun pour les services de médias dans le marché intérieur et modifiant la directive 2010/13/UE (règlement européen sur la liberté des médias).

* 252 Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information.

* 253 Audition du 28 mars 2024.

* 254 Règlement (UE) 2024/900 du Parlement européen et du Conseil du 13 mars 2024 relatif à la transparence et au ciblage de la publicité à caractère politique.

* 255 Arcom, Lutte contre la manipulation de l'information sur les plateformes en ligne. Bilan annuel des moyens et des mesures mises en oeuvre par les plateformes en ligne en 2021

* 256 Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement

sur les services numériques)

* 257 Commission européenne, Code européen renforcé de bonnes pratiques contre la désinformation du 16 juin 2022 (disponible en version anglaise).

* 258 Arcom, Préconisations relatives à la lutte contre la manipulation de l'information sur les plateformes en ligne en vue des élections au Parlement européen du 6 au 9 juin 2024.

* 259 Article 3 du décret n° 2021-922 du 13 juillet 2021 portant création, auprès du secrétaire général de la défense et de la sécurité nationale, d'un service à compétence nationale dénommé « service de vigilance et de protection contre les ingérences numériques étrangères ».

* 260 Convention cadre de partenariat entre l'Arcom et Viginum, 4 juillet 2024.

* 261 Audition du 9 avril 2024.

* 262 Audition du 4 juin 2024.

* 263 Dans le compte-rendu de son audition par la commission d'enquête du 4 juin 2024, David Chavalarias évoque la possibilité de « forcer les utilisateurs à s'authentifier en tant que Français ». Dans un courriel en date du 12 juin 2024 adressé au président et au rapporteur de la commission d'enquête, David Chavalarias a précisé que sa proposition consistait à contraindre les plateformes à permettre aux utilisateurs français de s'authentifier en tant que Français, et non à contraindre les utilisateurs eux-mêmes à utiliser cette fonctionnalité.

* 264 Rapport n° 831 (2022-2023) fait par Claude Malhuret au nom de la commission d'enquête du Sénat sur l'utilisation du réseau social TikTok, son exploitation des données, sa stratégie d'influence, déposé le 4 juillet 2023.

* 265 Audition du 28 mars 2024.

* 266 Réponses de l'Arcom au questionnaire du rapporteur.

* 267 AI Forensics, Artifical Elections. Exposing the Use of Generative AI Imagery in the Political Campaigns of the 2024 French Elections, 4 juillet 2024

* 268 Audition du 13 juin 2024.

* 269 Audition du 14 mai 2024.

* 270 Rapport n° 1311( seizième législature) fait par Constance Le Grip au nom de la commission d'enquête de l'Assemblée nationale relative aux ingérences politiques, économiques et financières de puissances étrangères - États, organisations, entreprises, groupes d'intérêts, personnes privées - visant à influencer ou corrompre des relais d'opinion, des dirigeants ou des partis politiques français, déposé le 1er juin 2023, Tome I.

* 271 Audition du 14 mai 2024.

* 272 Audition du 14 mai 2024.

* 273 Décret n° 2021-1587 du 7 décembre 2021 portant autorisation d'un traitement automatisé de données à caractère personnel dans le but d'identifier les ingérences numériques étrangères

* 274 Communication de la mission flash sur l'éducation critique aux médias, au nom de la commission des affaires culturelles de l'Assemblée nationale, par Mme Violette Spillebout et M. Guillaume Ballard, déposé le 15 février 2023.

* 275 Circulaire consultable sur le site Internet du ministère de l'Éducation nationale.

* 276 Audition du 2 mai 2024.

* 277 Arcom, L'éducation aux médias et à l'information, rapport sur l'exercice 2022-2023 (publication la plus récente à date).

* 278 Ministère de l'Éducation nationale, de la Jeunesse et des Sports, Vademecum Éducation aux médias et à l'information.

Les thèmes associés à ce dossier

Partager cette page