II. UN PHÉNOMÈNE DÉMULTIPLIÉ PAR INTERNET
A. L'IMPORTANCE PRISE PAR LES FAUSSES INFORMATIONS EST RENDUE POSSIBLE PAR LA CONJONCTION DE TROIS FACTEURS
Les réseaux sociaux sont devenus un vecteur essentiel de diffusion de l'information. Selon la Commission européenne, 57 % des utilisateurs dans l'Union européenne privilégient ce canal pour collecter de l'information .
Le phénomène des fausses informations est rendu possible par la convergence de trois phénomènes :
- d'abord, le modèle économique des plateformes rend possible, utilise et détourne les fausses informations , probablement involontairement, mais sans réelle capacité ou volonté de réponse et de distinction entre ce qui relève du vrai, du probable, du plausible ou du faux, de la bonne foi ou de la manipulation ;
- ensuite, l'hypothèse toujours évoquée d'une influence étrangère , qui chercherait à déstabiliser le processus électoral des démocraties ;
- enfin, un terreau fertile au développement d'une « société de défiance » , à l'égard des institutions et de tout ce qui se considère comme une vérité établie et « officielle ».
1. Premier facteur : un modèle économique des plateformes qui encourage les fausses informations
Si la manipulation est souvent évoquée à propos des fausses informations sur Internet, elle est elle-même rendue possible par l'exploitation délibérée et économique du phénomène . Il serait ainsi « rentable » de fabriquer et de diffuser des fausses informations, bien plus que des travaux sérieux et argumentés réalisés dans les règles de l'art par des journalistes professionnels. Le journaliste et chercheur Evgeny Morozov synthétise ce constat : « À croire que cette économie gouvernée par la publicité en ligne a produit sa propre théorie de la vérité : la vérité, c'est ce qui attire le plus de paires d'yeux .» Le Conseil national du numérique s'est également inquiété dans son rapport de 2014 du fait que « beaucoup de ces plateformes, par leur rôle prescripteur, façonnent et déterminent les conditions d'accès aux informations, associant parfois utilité et opacité », sans permettre toujours de « déterminer facilement si ce qui est présenté relève de la publicité, d'une sélection algorithmique générique, d'une adaptation personnalisée ou d'une préférence pour l'offre de la plateforme hôte » .
« Code is law » Dans un article célèbre et précurseur paru en 2000 7 ( * ) , Lawrence Lessig, Professeur à l'université Harvard, a introduit le concept, devenu très populaire, que l'on peut traduire par « le programme informatique est la loi ». Il souligne que, sur Internet, toutes les interactions entre les acteurs et toutes les informations diffusées ne dépendent plus de relations physiques ou légales, mais de programmes informatiques sophistiqués qui déterminent en totalité le champ de liberté des utilisateurs. Ainsi, loin de l'image d'un monde ouvert et accessible à tous, Internet est devenu un espace fermé où les règles, jamais clairement connues et mouvantes, s'imposent à tous. Votre Rapporteure a pu auditionner à l'occasion du présent rapport le Professeur Lessig, qui a confirmé les craintes que lui inspirent les récents développements des plateformes et son impact sur les processus électoraux . Source : commission de la culture, de l'éducation et de la communication |
Le modèle économique actuel de l'Internet repose sur un triptyque : gratuité de l'accès, publicités ciblées et revente ou utilisation peu claire des données personnelles connectées. Ces caractéristiques rendent possible , et entretiennent la diffusion de fausses informations. Au-delà, l'ergonomie même des plateformes est conçue pour maximiser l'attention de l'internaute, à l'aide de « dark patterns 8 ( * ) », en usant de mécanismes psychologiques précisément pensés, comme a pu le montrer Nir Eyal dans son ouvrage « Comment créer un produit ou un service addictif ».
Sont ainsi apparues des « fermes à contenus », c'est-à-dire des sites conçus pour maximiser leur référencement par les moteurs de recherche et attirer avec un contenu de très faible qualité un public nombreux générateur de revenus. Une étude d'avril 2018 du Pew Research Center 9 ( * ) montre que deux-tiers des liens reçus sur Twitter sont le fait de robots, ou « bots », et non pas d'humains. L'étude n'a pas cependant montré de « biais politique » en faveur de tel ou tel parti, ou bien de tendance de ces robots à privilégier les sites à contenu politique.
Deux séries d'exemples permettent d'illustrer ce que l'on peut considérer comme une dérive.
• D'une part, la création ex nihilo de fausses informations dans un objectif purement mercantile.
Un article du New York Times 10 ( * ) évoque ainsi le cas d'un jeune diplômé américain de 23 ans qui aurait très délibérément créé et diffusé des fausses informations en faveur du candidat républicain. Sa motivation première n'était pas idéologique, mais financière : Cameron Harris estime avoir gagné 1 000 dollars par heure de travail, en raison du nombre de « clics » et des revenus publicitaires ainsi générés. La revue Wired a consacré une enquête 11 ( * ) à la ville de Veles, en Macédoine, qualifiée « d'usine à fausses nouvelles », où un grand nombre de sites anti Clinton ont été créés et alimentés par des étudiants, avec pour seul objet d'augmenter les revenus publicitaires.
Philippe Askenazy, dans l'article du Monde précité, souligne également que : « ce qu'ont apporté les réseaux sociaux, Internet en général, au thème classique de la mésinformation, c'est qu'inventer et faire circuler des "fake news" génère du trafic et, in fine, une rémunération au clic. En dehors de toute idéologie, elles rapportent d'autant plus que le marché des lecteurs est vaste. Or, l'électorat populiste est justement friand d'informations alternatives à celles des médias installés. Ainsi, il est bien plus rentable d'inventer et diffuser des "fake news" contre Hillary Clinton, contre l'Europe, contre les réfugiés ».
Tristan Harris, ancien employé de Google, a théorisé cette approche par le marché par le terme « économie de l'attention ». Il a montré que les algorithmes des réseaux sociaux et des moteurs de recherche étaient conçus pour capter en permanence l'attention des internautes, ce qui les incite à rester connectés le plus longtemps possibles et à suivre les liens proposés, qui doivent être les plus « accrocheurs » possible. In fine , la publicité en ligne, financée par des annonceurs qui n'ont pas la maitrise de leur exposition, permet de dégager des bénéfices très importants en peu de temps.
Des algorithmes aux fonctionnements différents mais au but identique Fabrice Epelboin établit une distinction entre les algorithmes de Facebook et de Google. Le premier aurait intérêt à « optimiser le conflit », afin d'inciter les gens à passer plus de temps pour convaincre leurs relations de la fausseté de leurs positions, le second tendrait plus à enfermer ses utilisateurs dans une « bulle informationnelle ». La différence d'approche entre les deux algorithmes vise cependant toujours à maximiser la durée de présence sur le site. Source : Libération , 8 juin 2018 |
Les journalistes eux-mêmes semblent démunis face à ce phénomène. Valérie Jeanne-Perrier, dans son ouvrage « Les journalistes face aux réseaux sociaux », note qu'aux blogs des journalistes, qui permettaient une expression structurée et pédagogique, ont succédé, depuis 2005, les nouveaux médias que sont les tweets et les posts . Or ces modes d'expression, s'ils présentent l'avantage de la simplicité, sont très largement dépendants des plateformes qui les hébergent. Les règles de présentation, de remontée des informations et l'exposition sont dépendantes d'algorithmes dont les règles sont fréquemment modifiées et, a minima , peu claires, voire opaques. On assisterait donc au triomphe d'une « forme brève » de communication, qui place les journalistes dans la même position que le citoyen.
• D'autre part, l'utilisation frauduleuse de données collectées par les plateformes.
L'affaire « Cambridge Analytica » a permis une prise de conscience non seulement de la masse de données collectées par les plateformes, en l'occurrence Facebook, mais a également démontré la capacité de ces réseaux, via les systèmes de publicité ciblée, à s'adresser directement aux électeurs les plus susceptibles de faire basculer une élection .
Le mécanisme mis en place est le suivant : par le biais d'une application de tests psychologiques, les internautes ont, sans le savoir, donné accès non seulement à leurs données personnelles, mais également à celles de leurs contacts. La société Cambridge Analytica s'est donc retrouvée en possession de plusieurs dizaines de millions de profils . Cette masse de données lui a permis de déterminer le « profil psychologique » d'électeurs, et de cibler avec une grande précision certaines publicités politiques essentiellement malveillantes à l'encontre de la candidate démocrate à l'élection présidentielle américaine de 2016 . Cette capacité à connaitre très finement l'électorat a pu avoir une importance cruciale dans un système électoral américain où quelques centaines de voix peuvent modifier le résultat dans un État, et donc emporter la totalité des grands électeurs appelés à élire le Président.
Mark Zuckerberg, président-directeur général de Facebook, a été auditionné par le Sénat américain le 10 avril et devant la Chambre des représentants le 11 avril, puis le 22 mai par les présidents de groupes du Parlement européen. Il est encore trop tôt pour savoir si les excuses présentées et renouvelées en ces occasions entraineront une modification des pratiques du plus grand réseau social du monde.
Intrinsèquement donc, le modèle économique des plateformes et de l'Internet en général encourage donc la diffusion de fausses informations, au-delà même de toute volonté idéologique , et au-delà du champ politique, comme en témoigne la vigueur des débats autour de l'opportunité de la vaccination obligatoire.
2. Deuxième facteur : l'hypothèse de tentatives de déstabilisation venues de l'étranger
Dans un article devenu célèbre du 17 novembre 2016, le Washington Post a clairement attribué aux services russes la responsabilité de la dissémination massive de fausses informations destinées à affaiblir la candidature d'Hillary Clinton et à promouvoir celle de Donald Trump. Ces accusations, qui n'ont pas pour l'heure pas été démontrés, font actuellement l'objet d'enquêtes approfondies.
La possibilité d'une interférence de la Russie a cependant plané sur toutes les dernières élections américaines et européennes, par le biais d'une utilisation intensive des médias sociaux ou de la chaine « Russia Today », qui a lancé son antenne française le 18 décembre 2017.
La manipulation en période électorale traduit en effet une réelle stratégie d'influence, que l'on peut qualifier de « malveillante ». Le chercheur Nicolas Vanderbiest, auteur du blog « Reputatiolab » et cofondateur avec Alexandre Alaphilippe du « Disinfolab », a mené une étude poussée sur les mécanismes de propagation des fausses informations durant la campagne électorale française de 2017. À partir de l'analyse de la diffusion par Twitter de neuf rumeurs manifestement fausses, il montre la sophistication des méthodes employées par diverses communautés numériques , idéologiquement proches de la Russie, qui recoupent en partie les soutiens de certains candidats et répercutent massivement les rumeurs. Les nouvelles «manifestement fausses » sont cependant difficiles à isoler, les comptes relayant également tout ce qui, opinions, faits peu ou pas vérifiables, tend explicitement à nuire au candidat finalement élu. Auditionné par votre rapporteure, Nicolas Vanderbiest a par ailleurs indiqué que plusieurs comptes particulièrement actifs durant la campagne avait été créés dès 2014 , et avaient depuis cessé toute activité, ce qui tend à consolider l'idée d'une vaste entreprise de manipulation, pensée très en amont .
Certains soupçonnent par ailleurs la Russie d'avoir également oeuvré activement à l'élection du candidat républicain via Cambridge Analytica.
Si aucune preuve n'a encore été apportée de l'influence réelle de ces manipulations sur le résultat des élections, force est de constater que le système rend possible si ce n'est la réalité, à tout le moins la possibilité d'une influence déstabilisatrice .
3. Troisième facteur : une méfiance à l'égard des institutions qui entretient et renforce la dynamique
Ces effets pervers suscités par le modèle dominant de rémunération sur Internet n'est cependant possible que dans le cadre d'une société fragmentée, où les institutions sont contestées et leur message dévalorisé, soit la « société de défiance » identifiée par Yann Algan et Pierre Cahuc en 2007 dans le cas français.
Marc Bloch, cité à juste titre par notre collègue député Pierre-Yves Bournazel à l'occasion de l'audition de la ministre de la culture devant la commission des affaires culturelles et de l'éducation de l'Assemblée nationale, écrivait ainsi :
« Une fausse nouvelle naît toujours de représentations collectives qui préexistent à sa naissance ; elle n'est fortuite qu'en apparence, ou, plus précisément, tout ce qu'il y a de fortuit en elle c'est l'incident initial, absolument quelconque, qui déclenche le travail des imaginations ; mais cette mise en branle n'a lieu que parce que les imaginations sont déjà préparées et fermentent sourdement 12 ( * ) ».
On peut considérer que l'émergence d'Internet, multipliée par les réseaux sociaux et les nouveaux environnements numériques, constitue une révolution au sens propre du terme, dont les effets n'ont encore été perçus que très imparfaitement . L'historienne Elizabeth Eisenstein 13 ( * ) a montré que l'arrivée de l'imprimerie avait profondément bouleversé le XVI e siècle et présidé aussi bien à l'invention de la presse, qu'au statut de l'auteur, sans même parler de la Réforme protestante. Luther lui-même s'étonne, dans une lettre au pape Léon X, que ses 95 thèses, initialement publiées pour son université, « se sont répandues presque dans le monde entier ».
La violence des dernières campagnes électorales, la fragmentation qui en résulte dans la société, sont peut-être les signes que le monde numérique entraine, à son tour, des évolutions d'une ampleur comparable à l'imprimerie.
* 7 « Code is law, on liberty in cyberspace », Lawrence Lessig, Harvard Magazine, janvier 2000.
* 8 L'expression est de Harry Brignull, et peut être traduite par « sombre conception ».
* 9 « Bots in the Twittersphere », 9 avril 2018, Stefan Wojcik, Solomon Messing, Aaron Smith, Lee Rainie etPaul Hitlin.
* 10 From Headline to Photograph, a Fake News Masterpiece, New York Times, 8 janvier 2017.
* 11 « Inside the macedonian fake news complex », Wired, 15 février 2017.
* 12 Marc Bloch, 1921, « Réflexions d'un historien sur les fausses nouvelles de la guerre ».
* 13 « La Révolution de l'imprimerie dans l'Europe des premiers temps modernes ».