III. DEUXIÈME CERCLE : LA DIFFUSION D'UNE CULTURE DE LA PROTECTION DANS L'ENSEMBLE DE L'ACTION PUBLIQUE

A. LIMITER L'AMPLIFICATION DES OPÉRATIONS D'INFLUENCE DANS LES MÉDIAS ET SUR LES PLATEFORMES

Les médias et les plateformes numériques constituent le vecteur principal des opérations d'influence étrangères malveillantes. Pour cette raison, la stratégie préconisée par la commission d'enquête ne peut faire l'économie d'une réflexion sur les moyens de cette politique.

1. Renforcer les capacités de contrôle par l'Arcom des médias audiovisuels étrangers

Comme cela a été montré supra (voir Deuxième partie, III, A), les moyens juridiques de l'Arcom pour contrôler les médias étrangers ont été renforcés, tant par la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information que par la loi du 21 mai 2024 visant à sécuriser l'espace numérique.

Néanmoins, les travaux de la commission d'enquête ont identifié plusieurs pistes pour renforcer les capacités de contrôle de l'Arcom en la matière.

En premier lieu, le mandat de l'Arcom pourrait être complété, en intégrant directement, à l'article 1er de la loi du 30 septembre 1986 la mention de la prévention des ingérences étrangères parmi les éléments susceptibles de justifier une limitation de la liberté de communication. En pratique, cela permettrait à l'Arcom d'utiliser ses pouvoirs (mise en demeure, sanction etc.) à l'encontre d'un média, extra-européen ou non, qui se ferait le relais d'une opération d'ingérence étrangère dans le débat public. En l'état du droit, cette thématique ne peut être appréhendée qu'indirectement au travers de celles, déjà prévues par la loi, de la sauvegarde de l'ordre public ou encore de l'honnêteté et de l'indépendance de l'information. Il est d'ailleurs à noter que le dispositif institué par la loi du 22 décembre 2018 permettant à l'Arcom de suspendre la diffusion d'une chaîne étrangère se livrant à des opérations de désinformation en contexte électoral a déjà, de facto, élargi le mandat de l'Arcom à cette thématique dans le cadre de cette procédure particulière. Pour exercer cette compétence, l'Arcom pourrait s'appuyer sur la convention cadre de partenariat signée le 4 juillet 2024 entre l'Arcom et Viginum. En tout état de cause, l'utilisation des pouvoirs de régulation resterait décidée par l'autorité indépendante, sous le contrôle du juge administratif.

En deuxième lieu, le rétablissement d'une obligation de conventionnement pour l'ensemble des médias extra-européens relevant de la compétence de l'Arcom serait souhaitable, l'existence d'une telle convention constituant une garantie pour le public. Pour mémoire, cette obligation avait été supprimée par une loi de 2006386(*) dont l'objectif, paradoxalement, était de permettre de suspendre plus rapidement la diffusion de chaînes étrangères dont les contenus faisaient l'apologie du terrorisme. Entre temps, le droit a évolué et la loi du 22 décembre 2018 a notamment permis à l'Arcom de demander au président de la section du contentieux du Conseil d'État qu'il ordonne en référé à l'opérateur satellitaire de faire cesser la diffusion d'un contenu ou la distribution d'un média extra-européen si ce service porte atteinte aux intérêts fondamentaux de la Nation, dont le fonctionnement régulier de ses institutions, notamment par la diffusion de fausses informations. Une telle évolution, qui suppose une modification de l'article 33-1 de la loi du 30 septembre 1986, concourrait à atteindre l'objectif proposé par Reporters sans frontières, lors de son audition par la commission d'enquête387(*), d'assurer une égalité de traitement entre tous les médias audiovisuels au sein de l'Union européenne.

Enfin, une simplification des critères de détermination de la compétence du régulateur serait souhaitable. En l'état, comme cela a été rappelé, l'article 2 de la directive SMA fixe comme critère principal celui de la localisation de la liaison montante entre le lieu d'émission du service et le satellite chargé d'en assurer la diffusion, et comme critère secondaire celui de la nationalité de la capacité satellitaire. Ses règles sont sources de complexité, comme le Président de l'Arcom l'a exposé lors de son audition devant la commission d'enquête. Dans ses réponses au questionnaire du rapporteur, l'Arcom précise en effet que ces règles soulèvent une difficulté liée à la volatilité de la localisation de liaison montante vers le ou les satellites de diffusion et suggère que l'ordre des critères soit inversé afin de privilégier la nationalité de la capacité satellitaire. Une telle simplification pourrait être prévue dans le cadre d'une prochaine révision de la directive SMA.

Recommandation n° 21 :  Compléter le mandat de l'Arcom pour y intégrer la thématique de la prévention des ingérences étrangères.

Recommandation n° 22 :  Rétablir une obligation de conventionnement avec l'Arcom pour les médias audiovisuels extra-européens.

Recommandation n° 23 :  À l'occasion d'une prochaine révision de la directive « SMA », proposer une simplification de l'application des critères utilisés pour déterminer l'État membre compétent au titre d'un média audiovisuel extra-européen.

2. Assumer une politique ambitieuse de régulation de l'espace numérique

La nocivité des grandes plateformes, qui constituent par nature, du fait de leur modèle économique, un terreau fertile pour le déploiement d'opérations d'ingérences étrangères.

La stratégie de lutte contre les influences étrangères se doit de penser ce problème majeur dans toutes ses composantes, en se dotant d'une vision claire des objectifs de moyen et de court-terme, et en définissant un ordre d'actions précis.

a) Dans l'immédiat, prendre des mesures pour renforcer la protection du débat public numérique français

En l'état du droit, un seul dispositif législatif contraignant permet de protéger le débat public numérique français en cas d'opération d'ingérence numérique étrangère en dehors du cas spécifique de médias sous sanction européenne.

Pour mémoire, il s'agit du dispositif prévu à l'article L. 163-2 du code électoral permettant à l'autorité judiciaire saisi par le procureur ou par toute personne mentionnée par cet article ou ayant intérêt à agir, au cours des trois mois qui précèdent un scrutin, de demander à ce que les plateformes fassent cesser la diffusion de contenus de désinformations diffusées de façon massive et artificielle.

Ce dispositif comporte deux caractéristiques essentielles :

- il est limité à la période des trois mois précédant un scrutin ;

- il est limité à la diffusion d'informations qui satisfont les deux critères cumulatifs suivants : leur caractère faux ou trompeur de nature à altérer la sincérité d'un scrutin des informations (i) et le caractère massif et artificiel de cette diffusion (ii), et ce indépendamment de tout rattachement à la caractérisation d'une ingérence étrangère ;

La commission d'enquête considère que, s'agissant d'ingérences numériques étrangères, le cantonnement du dispositif à la seule période électorale n'est pas pleinement satisfaisant, en ce qu'elle est mal adaptée à la menace. Le cas des ingérences étrangères constatées dans le cadre de la crise en Nouvelle-Calédonie montre bien que celles-ci peuvent porter une grave atteinte aux intérêts fondamentaux de la Nation en dehors d'un contexte électoral.

Pour cette raison, il préconise l'adoption d'un second dispositif d'inspiration similaire de cessation de diffusion d'informations sur décision du juge qui :

- ne serait pas limité, dans son application, à la période électorale mais devrait concerner des contenus rattachables à des opérations d'ingérence numérique étrangères caractérisées ;

- conserverait les mêmes deux critères cumulatifs concernant la caractérisation des informations diffusées, à ceci près que leur caractère faux ou trompeur devrait être de nature non pas à altérer la sincérité du scrutin, mais à porter atteinte aux intérêts fondamentaux de la Nation.

En période électorale, le dispositif de l'article L. 162-3 du code électoral, de portée plus large puisque non limité aux opérations d'ingérence numérique étrangères, continuerait de s'appliquer.

Recommandation n° 24 :   Sur le modèle du dispositif prévu à l'article L. 163-2 du code électoral, mettre en place un dispositif permettant à l'autorité judiciaire de faire cesser la diffusion massive et artificielle de contenus faux ou trompeurs rattachables à une ingérence numérique étrangère et de nature à porter atteinte aux intérêts fondamentaux de la Nation.

b) À court terme mettre pleinement en oeuvre le DSA pour lutter contre les influences étrangères malveillantes sur les plateformes

Si l'approche retenue par le DSA ne saurait être pleinement satisfaisante, celui-ci recèle néanmoins des potentialités intéressantes pour renforcer la lutte contre les opérations d'ingérence numérique étrangères.

La commission d'enquête a entendu les représentants des affaires publiques pour la France de quatre grandes plateformes : Meta388(*), Google/Youtube389(*), X (ex-Twitter)390(*) et TikTok391(*). Ces auditions ont témoigné que les plateformes ont pleinement intégré, dans leur communication publique, la nécessité de mettre en avant l'existence d'actions destinées à lutter contre la désinformation. Cette évolution des discours témoigne bien du fait qu'avec de la volonté politique, le législateur européen est bien en mesure de peser dans le rapport de forces engagé avec les plateformes.

Certes, dans les faits, la réalité est plus nuancée. Si la procédure n'est pas encore menée à son terme, l'avis préliminaire de non-conformité au DSA adressé par la Commission européenne par X (ex-Twitter) illustre bien l'existence de problématiques importantes et persistantes (voir supra).

Comme cela a également été rappelé, la coopération des plateformes avec Viginum est encore inégale et, à ce jour, seul Google/Youtube a offert un accès API à ses agents.

Se pose notamment à cet égard la question des moyens concrets que se donnent les plateformes pour se conformer au DSA.

Interrogées par écrit sur leurs moyens en la matière, les plateformes ont indiqué au rapporteur :

- s'agissant de X, en avril 2024, la direction Safety supervisait une équipe d'environ 1 700 personnes travaillant dans la modération de contenu, parmi lesquels 52 personnes dont la langue principale est le français

- s'agissant de Meta, les équipes compétentes comptent 40 000 personnes, dont 15 000 au titre de Facebook. Dans ses réponses, Meta a ajouté avoir constitué, pour contrer les opérations d'influence clandestines, « des équipes mondiales spécialisées pour identifier les comportements inauthentiques coordonnés » ;

- s'agissant de TikTok, les équipes Trust and Safety comptent également 40 000 personnes, parmi lesquels 650 modérateurs francophones ;

- Google/Youtube n'a pas répondu au questionnaire du rapporteur. Mais lors de son audition, le directeur des relations institutionnelles de Youtube a néanmoins indiqué que 20 000 personnes travaillaient sur les enjeux de modération392(*).

En ce qui concerne les modérateurs, Tariq Krim, fondateur du laboratoire d'idées Cybernetica a indiqué, lors de son audition par la commission d'enquête qu'il fallait néanmoins garder à l'esprit que « en général les personnes qui s'occupent de ces tâches ne font pas partie des plateformes. [Celles-ci] utilisent des entreprises implantées aux Philippines ou dans le centre des États-Unis. Les opérateurs voient tous les immondices de la planète, ce que personne ne doit voir, et ont souvent des chocs psychologiques (...) Les plateformes cherchent à utiliser l'intelligence artificielle pour limiter ce travail, cela fonctionne mais pas complètement »393(*).

S'agissant des actions concrètes des plateformes, la commission d'enquête ne peut que regretter que l'Arcom n'ait pas encore publié de rapport bilan sur les actions des plateformes en matière de lutte contre les manipulations de l'information depuis celui relatif à l'année 2021, qui date de la fin de l'année 2022, alors même que celui-ci constitue une source d'information et de recommandations précieuses.

La commission considère qu'il est donc indispensable de mobiliser pleinement en oeuvre les outils conférés par le DSA, aussi bien au niveau national qu'européen. Cela suppose notamment :

- d'accorder une vigilance particulière aux moyens concrets que se donnent les plateformes pour lutter effectivement contre les manipulations de l'information et la publicité ciblée détournée dans le cadre d'opérations d'influence étrangères malveillantes ;

- de veiller à ce que le régulateur national dispose bien des moyens de mettre pleinement en oeuvre ses compétences de contrôle des plateformes, ce qui passe par un renforcement de ses moyens, et puisse en rendre compte au travers de la remise annuelle du rapport relatif au bilan des mesures prises par les plateformes : en l'état du droit, il est simplement prévu que la remise de ce rapport soit seulement « périodique »394(*) ;

- d'encourager les plateformes à mettre en place des mesures permettant effectivement de promouvoir la qualité de l'information diffusée. En termes méthodologiques, elles devraient être plus fortement incitées à s'appuyer sur le Journalism Trust Initiative (voir Deuxième partie, III, A).

En matière de lutte contre les hypertrucages (deep fakes), les plateformes pourraient en outre être encouragées à développer des technologies dites de « tatouage numérique » (digital watermarking), qui permettent d'attester de l'authenticité d'un contenu numérique. Pourrait également être explorée dans ce cadre la piste proposée lors de son audition par David Chavalarias, évoquée précédemment, et consistant à permettre aux utilisateurs de s'authentifier en tant que Français, tout en restant anonyme, sans donner d'autres d'informations - par exemple en passant par un intermédiaire comme France Connect, de telle sorte que les utilisateurs pourraient ainsi filtrer les contenus en disant qu'ils ne veulent voir que les contenus émis par leurs compatriotes, ce qui permettrait d'éliminer de nombreuses ingérences propagées à partir de faux comptes.

Il appartiendra également au régulateur de s'assurer que les plateformes, dans le cadre des obligations qui leur sont imposées par le DSA, se donnent effectivement les moyens de détecter et supprimer les contenus consistant à usurper l'identité visuelle d'un média existant.

Interrogée par le rapporteur sur la question de ses moyens, l'Arcom, dans ses réponses au questionnaire, a indiqué que : « l'Arcom a beaucoup renforcé ses équipes en charge de la régulation des plateformes en ligne, en particulier grâce aux moyens humains et financiers complémentaires qui lui ont été accordés par le Parlement au titre des lois de finances pour 2023 et 2024. Elle s'est ainsi dotée en février 2021 d'une direction des plateformes en ligne dont les effectifs, en croissance, s'élèvent aujourd'hui à une douzaine d'agent. (...) Les exigences liées à la bonne mise en oeuvre de cette régulation justifient de poursuivre, dans les années à venir, la montée en puissance des moyens qui y sont affectés, sans qu'il soit possible à ce stade de quantifier précisément les besoins. La mise à contribution légitime de l'Arcom à l'amélioration de la situation des finances publiques est toutefois susceptible d'entraver ce mouvement, malgré les efforts de redéploiement interne que l'Autorité a engagés ».

c) À moyen terme : porter, au niveau européen, une ambition de réforme du statut des plateformes

Comme cela a été rappelé supra, l'approche retenue par le DSA, fondée sur une simple obligation de moyens pour les plateformes, reste trop timorée et n'est pas à la hauteur des enjeux (voir Deuxième partie, III, A).

À moyen-terme, un consensus se dégage parmi les membres de la commission d'enquête pour porter, au niveau européen, une position tendant résolument à réformer le statut des plateformes, qui, cela a été largement montré, ne sauraient être considérées comme de simples « hébergeurs » des contenus.

Il s'agit d'une préoccupation ancienne du Sénat qui a déjà formulé cette recommandation à de multiples reprises. Celle-ci a notamment été portée dès 2021 par une résolution européenne adoptée par le Sénat sur une initiative de Florence Blatrix-Contat et Catherine Morin-Desailly, qui « [déplorait] que le règlement [sur les services numériques] ne remette pas en cause le principe de responsabilité limitée des hébergeurs, y compris des plateformes et des très grandes plateformes en ligne » ; et « [appelait] à nouveau à créer un régime européen de responsabilité renforcée » pour celles-ci395(*).

Le Sénat avait également voté, la même année dans le cadre de l'examen du projet de loi confortant le respect des principes de la République, un amendement du Président Claude Malhuret tendant à conférer à celle-ci le statut d'éditeur, au même titre que les médias régis par la loi du 29 juillet 1881 relative à la liberté de la presse, au titre des contenus qu'elles proposent à leurs utilisateurs par le biais non de ses abonnements propres mais d'un traitement algorithmique.

Au terme de cet amendement, finalement non retenu dans le texte finalement adopté, les plateformes seraient ainsi « civilement et pénalement responsables des informations qu'elles stockent pour mise à disposition du public, dès lors qu'elles effectuent sur ces informations un traitement par algorithme, modélisation ou tout autre procédé informatique, afin de classer, ordonner, promouvoir, recommander, amplifier, ou modifier de manière similaire la diffusion ou l'affichage de ces informations, à moins qu'il ne soit chronologique, alphabétique, aléatoire, ou fondé sur la quantité ou la qualité des évaluations attribuées par les utilisateurs »396(*).

Cette position a été réaffirmée s'agissant de la plateforme TikTok dans le cadre de la commission d'enquête du Sénat consacrée à cette plateforme397(*).

Deux pistes peuvent être mises sur la table à cet égard, et portées par la France au niveau européen.

La première serait de conférer aux plateforme le statut d'éditeurs, et de les rendre pleinement responsables des contenus diffusés au moyen d'une méthode de ciblage reposant sur un procédé informatique, en s'inspirant des critères de l'amendement mentionné supra. Il convient cependant de relever que cette piste, qui était au coeur des débats lors de l'examen du DSA, n'a pas permis de rassembler une majorité au Parlement européen et parmi les États membres.

Une seconde option, préconisée par les représentants de Reporters sans frontières leur de leur audition, consisterait à instituer un statut hybride et ad hoc, qui resterait à construire, d'« entités structurantes de l'espace informationnel ». Selon ces derniers : « même si elles s'approchent par certaines dimensions du statut d'éditeur et par d'autres de celui d'hébergeur, il ne faut ni déresponsabiliser les plateformes ni en faire les rédacteurs en chef du monde. C'est toute la complexité de la chose »398(*).

Il s'agirait d'une forme de « ni-ni » : ni simple hébergeur, ni éditeur.

N'étant pas éditeurs, elles ne seraient par principe pas responsables des contenus diffusés.

N'étant pas simples hébergeurs, elles pourraient se voir appliquer des obligations spécifiques qui ne se limiteraient pas à des obligations de moyens comme c'est le cas dans le cadre de la logique du DSA. À titre d'exemple, la promotion de contenus sur la base de la Journalism Trust Initiative, ou d'une autre norme à définir, pourrait désormais leur être imposée. De même, ce cadre pourrait permettre de donner obligation aux plateformes de vérifier le nom des sites, pages et comptes lors de l'inscription, et refuser tout nom de site ou de page qui emprunteraient le nom et le logo d'un média existant.

En tout état de cause, il convient de souligner que les contenus liés aux ingérences étrangères ne se limitent pas à de la désinformation - les opérations de manipulation et de diffusion massives peuvent dans certains cas porter sur des informations qui ne sont pas fausses - et que la désinformation n'est pas en soi illicite. Ainsi, la question du statut des plateformes, et en particulier celle de leur responsabilité civile et pénale vis-à-vis des contenus, ne saurait résoudre l'ensemble de la question. In fine, l'approche consistant à développer la résilience de la population (voir infra), doit primer sur l'approche régulatoire.

d) Pour s'attaquer à la racine du problème, la nécessité d'agir résolument en faveur de la souveraineté numérique française et européenne

Au plan structurel, il convient de rappeler que la racine du problème réside dans le fait que notre espace informationnel est en pratique structuré par des outils numériques, les grandes plateformes, qui sont pour l'essentiel d'origine extra-européenne et qui reposent fondamentalement sur un modèle économique nocif ainsi que sur des valeurs qui ne sont pas les nôtres.

La régulation reste possible, le DSA le montre, mais ne permet pas de remédier à une forme de vice de construction de ces plateformes.

Aussi, la commission d'enquête tient à souligner que la seule solution positive et structurelle de long terme pour l'Europe est celle qui consiste à trouver le moyen de sortir enfin de l'état de « colonie du monde numérique », pour reprendre l'expression d'un rapport fait par Catherine Morin-Desailly au nom de la commission des affaires européennes du Sénat il y a désormais plus de dix ans, mais dont le constat reste en large partie vérifié399(*).

Comme le résume bien Bernard Benhamou lors de son audition par la commission d'enquête : « nous ne pouvons pas être uniquement sur un rôle défensif, avec tout le respect que j'ai pour les textes importants qui ont été adoptés : règlement sur les services numériques (DSA), règlement sur les marchés numériques (DMA), règlement sur la gouvernance des données (DGA) ou règlement sur l'intelligence (AIA)... Nous devons être en mesure de développer une politique volontariste à l'échelle de l'Union européenne sur les segments critiques, dont l'intelligence artificielle qui deviendra d'un point de vue industriel un élément central des stratégies des différents blocs. Si nous ne le faisons pas, toutes les mesures de régulation seront contournées. La politique industrielle est un élément clé de la régulation de ce secteur »400(*).

L'atteinte de cet objectif de long terme passe nécessairement par une stratégie de politique industrielle adaptée, dont la détermination des éléments précis excède toutefois le champ de la commission d'enquête. Lors de son audition Bernard Benhamou prône notamment la mobilisation de la commande publique, qui pourrait être favorisée au moyen d'un European Business Act, sur le modèle du Small Business Act états-unien qui permettrait de réserver certains marchés publics aux petites entreprises nationales. Mobiliser ainsi le levier de la commande publique permettrait de donner priorité aux acteurs français et européens avant de conclure avec un opérateur étranger. En particulier, l'hébergement des données de santé, l'équipement des ministères sensibles doivent faire l'objet d'une vigilance particulière.

Une telle politique doit se fixer pour objectif de long terme de se doter de capacités françaises et européennes tant sur les segments software que hardware, notamment d'informatique en nuage (cloud), et ce prioritairement pour l'équipement des entités publiques : État, Parlement collectivités territoriales, hôpitaux, établissements d'enseignement supérieur et de recherche etc.

Recommandation n° 25 :  À court terme, exploiter pleinement les nouvelles prérogatives de régulation conférées par le règlement de l'Union européenne sur les services numériques (DSA) pour s'assurer que les plateformes se donnent les moyens de lutter contre les manipulations de l'information liées à des opérations d'ingérences informationnelles.

Recommandation n° 26 :   À moyen terme, porter au niveau européen une position tendant à conférer aux plateformes un statut d'éditeur au titre d'une partie des contenus qu'ils diffusent ou, a minima, leur conférer un statut hybride d'« entités structurantes de l'espace informationnel » (ni-hébergeur, ni éditeur) assorti d'obligations spécifiques permettant de prévenir les ingérences informationnelles.

Recommandation n° 27 :  Se donner les moyens d'une politique industrielle volontariste en faveur de la souveraineté numérique française et européenne, avec pour objectif de long terme que notre espace informationnel cesse d'être structuré par des opérateurs extra-européens.

Au plan prospectif, plusieurs autres pistes peuvent être esquissées pour assainir l'espace numérique.

En premier lieu, au vu de l'importance stratégique déterminante prise par les données et l'IA, dont les opérations d'ingérences étrangères ne constituent qu'une illustration parmi d'autres, la France et l'Europe se doivent d'agir pour mettre un frein aux stratégies de puissance débridées dans l'espace numérique et faire en sorte qu'en tant qu'arme 2.0, l'IA soit enfin saisie par le droit international public au moyen d'un véritable traité sur international sur l'IA.

L'Europe a ouvert la voie, à cet égard, avec l'adoption récente de deux instruments importants :

- le règlement de l'Union européenne du 13 juin 2024 sur l'intelligence artificielle sur l'intelligence artificielle401(*) ;

- la convention-cadre sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit adoptée dans le cadre du Conseil de l'Europe le 17 mai 2024 et sera ouvert à la signature des États à compter du 5 septembre 2024402(*).

Il est à noter que ce dernier traité, qui comporte une stipulation interdisant les usages de l'IA destinés à saper les processus démocratiques, notamment via des opérations de désinformation, sera ouvert à la signature de l'ensemble des États, y compris au-delà du Conseil de l'Europe. Il pourra donc être opportun de s'appuyer sur cet instrument.

Un second enjeu prospectif identifié concerne la mémoire et la préservation de la vérité historique dans l'espace numérique, alors que les potentialités falsificatrices de l'IA peuvent être mises au service de narratifs mensongers déployés par des puissances révisionnistes, la France et l'Europe se doivent d'agir pour éviter la falsification des archives de l'Internet, ce qui suppose une plus grande souveraineté sur ses structures.

Lors de son audition, Tariq Krim a partagé avec la commission d'enquête des réflexions stimulantes en la matière :

« Si vous cherchez en Chine, sur l'internet chinois, des informations sur Jack Ma, qui est l'équivalent de Jeff Bezos, l'un des entrepreneurs les plus connus, il n'y a plus aucune occurrence, il a disparu. Nous sommes dans un monde où, avec la censure [sur Internet], il n'y a pas de mémoire. (...) Or, aujourd'hui, la mémoire du web français, c'est « archive.org » aux États-Unis. Que se passera-t-il si demain Wikimedia disparaît et que nous n'avons plus que les IA génératives pour répondre à telle ou quelle question ?

L'un des antidotes est de s'assurer de conserver une archive numérique de qualité. (...) La question de la mémoire est fondamentale puisqu'avec les images générées peut-être que dans dix ans, le monde réel, ce que j'appelle parfois l'internet analogique, qui est en lien avec une réalité du monde, sera ultra-minoritaire dans le nouvel Internet. Dans ce nouvel Internet, rechercher la vérité, ce sera finalement comme des fouilles archéologiques aujourd'hui, c'est-à-dire aller chercher dans des milliards de données synthétiques les données qui seront réelles et dont seule une partie correspondra à la vérité.

Il faut donc préserver la mémoire, préserver les archives correspondant aux textes originaux (...) Si dans quelques années nous ne sommes plus capables d'identifier les éléments qui sont factuellement, les ingérences seront d'une implacable efficacité »403(*).

3. Promouvoir un environnement informationnel de qualité

Comme cela a été évoqué, dans une démocratie comme la nôtre, l'assainissement de l'espace médiatique relève en large partie des médias eux-mêmes. Cependant, l'État peut jouer un rôle d'impulsion et de soutien précédemment (voir Deuxième partie, III, A).

En particulier, la création d'un observatoire des influences étrangères malveillantes préconisée par la commission d'enquête (voir recommandation n° 6), qui serait largement ouvert aux journalistes, permettrait d'améliorer leur appréhension du phénomène, et de mettre à jour leurs connaissances en la matière, ainsi que de partager des bonnes pratiques avec leurs confrères ainsi qu'avec les acteurs du monde académique.

Un autre levier d'action, identifié par la directrice générale des médias et des industries culturelles (DGMIC) lors de son audition, réside dans le conventionnement avec les médias réalisant des missions d'intérêt général, et en particulier ceux du service public audiovisuel.

Néanmoins, comme la commission d'enquête a pu le relever, ces conventions d'objectifs et de moyens ont tendance à traiter la problématique de la désinformation de façon générale, sans aborder explicitement la question des ingérences étrangères, alors que celles-ci comportent des objectifs spécifiques et induisent des modes opératoires particuliers, parmi lesquelles l'usurpation de l'identité visuelle de ces médias, comme dans le cadre des attaques subies par France Médias Monde ou encore des opérations RRN/Döppleganger mises en oeuvre par des acteurs pro-russes.

À titre d'exemple, France Médias Monde a mis en place une procédure d'alerte en cas d'attaque contre ses chaînes, notamment par une opération d'usurpation visuelle. Il est fait référence à cette procédure dans le rapport annuel d'exécution au titre de l'année 2023 du contrat d'objectifs et de moyens signé entre l'État et France Médias Monde.

Sans interférer sur la ligne éditoriale de ces médias, la commission d'enquête considère que les contrats d'objectifs et de moyens passés entre l'État et les médias réalisant des missions d'intérêt général pourraient plus spécifiquement traiter la question des ingérences étrangères, notamment en prévoyant la mise en place de dispositifs internes de protection et d'alerte.

Recommandation n° 28 :  Identifier spécifiquement les menaces liées aux ingérences étrangères dans les contrats d'objectifs et de moyens passés entre l'État et les médias réalisant des missions d'intérêt général, en prévoyant notamment la mise en place de dispositifs internes de protection sur le modèle de la procédure d'alerte mise en place par France Médias Monde.


* 386 Loi n° 2006-64 du 23 janvier 2006 relative à la lutte contre le terrorisme et portant dispositions diverses relatives à la sécurité et aux contrôles frontaliers.

* 387 Audition du 10 juin 2024.

* 388 Audition du 23 mai 2024.

* 389 Audition du 28 mai 2024.

* 390 Audition du 30 mai 2024.

* 391 Audition du 4 juin 2024.

* 392 Audition du 28 mai 2024

* 393 Audition du 4 juin 2024.

* 394 Article 58 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

* 395  Rapport d'information n° 274 (2021-2022) fait par Florence Blatrix-Contat et
Catherine Morin-Desailly au nom de la commission des affaires européennes du Sénat sur la proposition de législation européenne sur les services numériques, déposé le 8 décembre 2021 ;
Résolution n° 70 (2021-2022), devenue résolution du Sénat le 14 janvier 2022.

* 396 Amendement n° 250 rect sexies déposé sur le texte de la commission n° 455 (2020-2021) au stade de la première lecture au Sénat, intégré à l'article 19 bis AA du texte n° 94 (2020-2021) adopté.

* 397 Rapport d'information n° 831 (2022-2023) fait par Claude Malhuret au nom de la commission d'enquête du Sénat sur l'utilisation du réseau social TikTok, son exploitation des données, sa stratégie d'influence, déposé le 4 juillet 2023.

* 398 Audition du 13 juin 2024.

* 399 Rapport d'information n° 443 (2012-2013) fait par Catherine Morin-Desailly au nom de la commission des affaires européennes du Sénat, sur « l'Union européenne, colonie du monde numérique ? », déposé le 20 mars 2013.

* 400 Audition du 4 juin 2024.

* 401 Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin établissant des règles harmonisées concernant l'intelligence artificielle et modifiant les règlements (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE)

2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur

l'intelligence artificielle)

* 402 Convention-cadre sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit adoptée dans le cadre du Conseil de l'Europe

* 403 Audition du 4 juin 2024.

Les thèmes associés à ce dossier

Partager cette page