Jeudi 10 octobre 2024

- Présidence de Mme Christine Lavarde, présidente de la délégation à la prospective, et de Mme Corinne Féret, vice-présidente de la délégation aux collectivités territoriales et à la décentralisation -

La réunion est ouverte à 8 h 35.

Table ronde sur le thème : « L'intelligence artificielle va-t-elle transformer nos villes et nos villages ? »

Mme Corinne Féret, vice-présidente de la délégation aux collectivités territoriales et à la décentralisation. - La présidente de notre délégation ayant été appelée à d'autres fonctions, elle m'a chargée d'introduire à sa place cette réunion, aux côtés de Christine Lavarde. Nous nous retrouvons pour une table ronde organisée conjointement avec la délégation à la prospective. Nos échanges vont nous projeter dans l'avenir - peut-être pas si éloigné ! - puisque nous allons tenter de répondre à cette question, qui taraude nombre d'élus locaux : l'intelligence artificielle (IA) va-t-elle transformer nos villes et nos villages ?

Je remercie la présidente de la délégation à la prospective, Christine Lavarde, pour son implication dans cette réflexion, ainsi que nos collègues Amel Gacquerre et Jean-Jacques Michau, rapporteurs d'une mission sur l'IA et les territoires. La délégation aux collectivités territoriales n'est pas en reste sur ce thème : nos collègues Pascale Gruny et Ghislaine Senée conduisent, depuis ce printemps, une mission d'information sur l'IA dans l'univers des collectivités territoriales.

J'ai le plaisir d'accueillir nos invités, qui vont avoir la lourde tâche d'éclairer pour nous un avenir incertain. Monsieur Jean-Gabriel Ganascia, vous êtes professeur d'informatique à la faculté des sciences de Sorbonne Université et vous avez été membre du Comité national pilote de l'éthique du numérique (CNPEN). Vous êtes aussi l'auteur d'un ouvrage au titre évocateur, « L'IA expliquée aux humains ». Dans ce livre, vous traitez de questions qui s'inscrivent en toile de fond de nos échanges à venir : les machines nous dépasseront-elles ? Acquerront-elles une conscience ? Supprimeront-elles des emplois ? Nous feront-elles entrer dans une société de surveillance ? Autant de questions d'autant plus anxiogènes qu'elles n'ont peut-être pas encore de réponses.

L'univers du livre, c'est aussi le vôtre, madame Catherine Dufour. Vous êtes romancière et auteure de science-fiction, et l'IA constitue pour vous une source d'inspiration, mais vous avouez également qu'avec l'IA, les auteurs de science-fiction courent le risque de se retrouver systématiquement dépassés par la réalité, avant même d'avoir écrit le premier chapitre de leur roman ! Si tel est le cas alors, que devraient dire les élus ?

Justement, nous avons voulu faire réagir un élu local à cet emballement de la science. Ce sera votre rôle, monsieur Pierre Jannin, en tant que conseiller municipal délégué à l'innovation et au numérique de la commune de Rennes. Vous serez notre grand témoin et vous nous direz, en partant de votre expérience locale, comment un élu peut se positionner pour ne pas rester à la traîne de l'IA. Je précise que vous êtes un membre actif de l'association Les Interconnectés, qui rassemble de nombreuses intercommunalités et qui a engagé depuis plusieurs mois un travail de fond sur l'IA dans les collectivités territoriales.

Mme Christine Lavarde, présidente de la délégation à la prospective. - Notre délégation apprécie beaucoup les travaux conjoints avec d'autres instances, comme c'est le cas aujourd'hui. Nous avons travaillé avec la délégation aux droits des femmes, avec la délégation aux entreprises, nous menons des travaux communs avec l'Office parlementaire d'évaluation des choix scientifiques et technologiques (Opecst), nos rapporteurs ont présenté leurs recommandations devant la commission des affaires sociales... L'IA est un sujet transverse qui nous touche tous dans nos usages personnels et professionnels. Les travaux de notre délégation commencent à être connus : j'ai reçu hier une invitation à participer à un panel d'experts à la fin du mois de novembre et, au nom de la délégation, je serai auditionnée par le Conseil économique, social et environnemental (CESE) dans quelques jours, dans le cadre de la préparation du Sommet mondial sur l'IA que la France accueillera au mois de février.

Nous avons déjà organisé des auditions sur le sujet d'aujourd'hui ; lors de la première d'entre elles, notamment, on nous a fait une démonstration de ce qu'on pouvait demander à l'IA. L'intervenant s'était mis dans la peau d'un élu local qui doit présenter un projet d'urbanisme à ses administrés. Il avait demandé à ChatGPT quelles questions ces derniers pourraient lui poser, et lui avait commandé de préparer des réponses. Nous avons pu voir en quoi l'IA apportait des réponses, mais nous avons vu aussi qu'il fallait les compléter par de l'intelligence humaine pour affiner son travail. Mais l'IA avait énuméré tous les thèmes qui pourraient être évoqués et auxquels on n'aurait pas forcément pensé au moment de préparer cette réunion de concertation locale...

M. Jean-Gabriel Ganascia, professeur d'informatique à la faculté des sciences de Sorbonne Université. - Je suis chercheur en IA depuis quarante-cinq ans : cette discipline n'est pas ancienne sans doute, mais elle n'est pas neuve, et elle a une histoire. J'ai également une formation de philosophe. Or le déploiement de l'IA dans nos sociétés soulève des questions éthiques. J'ai siégé au CNPEN, qui a désormais achevé ses travaux et devrait être transformé en un comité d'éthique du numérique pérenne, dont les membres ne sont pas encore nommés. J'ai présidé le comité d'éthique du Centre national de la recherche scientifique (CNRS), je préside celui de France Travail et celui de Docaposte, et je siège dans plusieurs autres.

L'IA est avant tout une discipline scientifique, née en 1956, qui a pour but de simuler les capacités cognitives humaines et non de fabriquer une machine intelligente. On suppose que l'intelligence est la résultante d'un certain nombre de fonctions mentales. Ce sont ces fonctions mentales que l'on simule et que l'on confronte avec la modélisation. Il s'agit donc avant tout d'un grand domaine scientifique. Puis, une fois que ces fonctions mentales sont simulées, on les introduit à l'intérieur de différents dispositifs technologiques : sur votre téléphone portable, par exemple, il y a de la reconnaissance faciale ou vocale. L'IA est désormais présente dans toute la société. Ce n'est pas le futur, c'est le présent ! Internet, par exemple, résulte du couplage des réseaux de télécommunications avec un modèle de mémoire, l'hypertexte. Or la mémoire est une faculté cognitive.

L'IA a évolué récemment. D'abord, avec les « réseaux de neurones profonds », il y a une dizaine d'années. Les réseaux de neurones sont une technique qui a plus de quatre-vingts ans, puisqu'elle date de 1943. À l'origine, elle reposait sur une image assez grossière de notre cerveau, et ne fonctionnait pas très bien. Progressivement, on a amélioré les technologies correspondantes. Il y a deux jours, le prix Nobel de physique a été décerné aux deux personnes qui ont contribué au renouveau des réseaux de neurones formels, dans les années 1980, en utilisant les théories de la physique statistique pour essayer de modéliser leur dynamique.

Dans les années 2010, une nouvelle étape a été franchie avec ce qu'on a appelé les « réseaux de neurones profonds », notamment avec le Français Yann Le Cun. À partir de 2017, on a utilisé ces réseaux de neurones formels pour constituer des modèles, d'abord les réseaux antagonistes génératifs, qui permettent de fabriquer des images, et surtout des modèles de langue, qui extraient l'esprit de la langue, c'est-à-dire les relations invisibles entre les mots, comprises comme un immense réseau comportant des milliers de milliards de connexions, grâce à un entraînement sur d'énormes corpus de textes. On fait alors de l'auto-encodage, pour affiner les relations entre les mots et, à partir de cela, on déploie de nouvelles technologies de traitement de la langue, dont la génération de texte, que vous avez certainement tous utilisée.

Quels services l'IA peut-elle rendre aux collectivités ? Dans les comités d'éthique auxquels j'ai participé, au cours des échanges que j'ai eus avec Les Interconnectés il y a quelque temps, lors des présentations que j'ai faites, j'ai pu identifier trois axes principaux. Le premier, ce sont les outils internes, par exemple d'aide à la rédaction. Une petite enquête a montré que, chez France Travail, ces outils étaient très utilisés pour écrire les courriels, les rapports, etc. L'usage est également heuristique : la génération d'idées. En outre, l'IA peut contribuer à la fabrication de résumés. On peut, enfin, s'en servir pour s'informer, mais il existe déjà des moteurs de recherche et l'IA produit des erreurs, qu'on appelle à tort des « hallucinations » - il n'y a pas de conscience dans les machines !

Viennent ensuite les usages externes. Une administration peut utiliser l'IA pour gérer ses contacts avec ses administrés, avec des chatbots par exemple. Cela pose beaucoup de problèmes, à commencer par un risque de déshumanisation, puisqu'il n'y a plus de contact direct avec les personnes. La machine peut également affabuler, ce qui peut emporter des effets désastreux, la responsabilité de l'administration se trouvant engagée. Récemment, un jeune homme ayant ainsi reçu de fausses informations a intenté un procès à Air Canada. Imaginez le nombre de procès de ce type qui pourraient survenir... On peut aussi utiliser l'IA pour rechercher des informations juridiques. Pour cela, on spécialise les outils de génération de textes sur un corpus particulier, ce qui peut rendre des services considérables.

Il existe enfin un troisième type d'applications, plus innovantes, consistant à interpréter des signaux faibles avec des outils d'IA. C'est très prospectif à ce stade, mais cela pourrait être utile aux collectivités territoriales, par exemple pour savoir si un dispositif donné a été utile ou inefficace.

Quels risques comporte l'utilisation de ces techniques par les collectivités ? Tout le monde a en tête certaines inquiétudes, comme celle de voir une machine acquérir une conscience... Il y a surtout des risques de mécompréhension, d'inquiétude chez les usagers ou dans les administrations elles-mêmes. France Travail a mis en place un comité d'éthique, de crainte que les agents s'inquiètent de l'utilisation d'outils d'IA. Certains comités d'éthique ont pour but de concevoir des chartes générales ou des principes ; d'autres se focalisent sur des applications, et les personnalités extérieures qui y siègent aident à identifier les difficultés. Il faut alors que les équipes internes relaient les exigences formulées par le comité.

Il y a aussi des questions techniques de robustesse : il faut alors mener des tests. On a affaire à des systèmes qui pratiquent l'induction, c'est-à-dire qu'ils passent du particulier au général, et on n'a jamais de certitude. Il faut donc une démarche rigoureuse pour s'assurer que les dispositifs fonctionnent bien. L'IA n'est jamais une solution miracle ; il faut confronter ses solutions au réel et la comparer avec d'autres dispositifs. Le CNPEN a rédigé un rapport sur la reconnaissance faciale, comportementale et posturale, en suivant une démarche empirique, ce qui nous paraît essentiel.

Mme Catherine Dufour, romancière et auteure de science-fiction. - Je suis auteure de science-fiction et ingénieure en informatique. Je vais vous parler de ce que la science-fiction met en scène concernant le sujet qui nous occupe aujourd'hui. La science-fiction est représentative de l'imaginaire commun actuel sur un sujet donné. Elle ne nous renseigne pas sur l'avenir, mais sur nos angoisses du présent.

L'IA dans la ville et dans les villages, c'est ce qu'on appelle les smart cities. On cite souvent Oslo, Barcelone, Montréal, Singapour, et beaucoup de villes se revendiquent comme telles. Dans le contexte urbain, l'IA peut constituer un vecteur de transformation des services publics de plusieurs manières. Elle aidera les villes à optimiser ce dont elles disposent, à activer les ressources sous-utilisées, à adapter l'offre à la demande et à réduire les frictions entre les deux : c'est ce que l'on appelle le matching ou, en français, l'appariement. Ensuite, l'IA urbaine peut favoriser la participation des citoyens et des citoyennes, vue comme vertueuse. Enfin, elle peut aussi être employée par des agents commerciaux pour vendre de façon ciblée, sans demander l'avis des consommateurs. Tels sont les trois axes de transformation que l'IA pourra apporter à nos villes et nos villages dans les années à venir, sachant qu'elle a déjà commencé à le faire.

Les champs d'application sont immenses. L'IA pourra intervenir dans le pilotage du tissu urbain, la santé, le logement, le transport, l'énergie, la qualité de l'air, les déchets, l'éclairage, la sécurité. Pour vous donner un exemple, des drones pilotés par l'IA peuvent survoler les toits, surveiller leurs dégradations et prioriser des travaux, par exemple pour les repeindre en blanc afin de faire baisser la température urbaine. C'est une technologie de la prévision, donc de la gouvernance. Ses détracteurs ne s'y trompent toutefois pas, c'est aussi une technologie de la surveillance, à l'instar du fameux Panopticon étudié par Michel Foucault dans « Surveiller et punir ». La surveillance venue du ciel n'est pas qu'un cauchemar futuriste et paranoïaque : la Chine surveille les Ouïghours et cible ceux qui respectent le ramadan, ce qui indique une immixtion dans la vie quotidienne et intime, rendue possible par l'IA, qui fait froid dans le dos. Cela fonctionne bien dans un espace étroit et artificialisé, c'est beaucoup plus difficile en milieu rural. Ainsi, les élus locaux se heurteront sans doute, au gré du développement de l'IA, à une méfiance, parfois justifiée, des citoyens et des citoyennes.

La meilleure représentation du futur de l'IA en milieu urbain est développée dans « Les furtifs » d'Alain Damasio. L'IA y est vue comme une sorte de ver à soie, une araignée qui génère un techno-cocon qui vous protège, mais qui vous isole aussi du monde. Dans ce livre, l'IA urbaine n'est considérée que sous un angle commercial. On y oublie totalement l'IA qui fait participer les citoyens, qui leur facilite l'accès aux services publics, qui économise des ressources, alors que c'est tout de même un aspect souhaité de nos futures IA urbaines.

Dans « Au bal des actifs », on voit une ville recyclée, plutôt verte et inventive par ailleurs, mais le contrat social y implique l'adhésion à un réseau d'IA urbaine. Cette adhésion permet de tout obtenir, à chacun selon ses besoins, mais celui qui la refuse doit payer tous les services de base à plein tarif. Cela pose le problème de la liberté d'adhérer ou non à ce contrat, une problématique poussée magnifiquement jusqu'à l'absurde dans « LoveStar » de Magnason, et dans « Ubik » de Dick, dont on peut aussi citer « Minority Report », où l'on voit des IA urbaines présentées systématiquement comme agressives et invasives.

Avec ce point de vue science-fictif, qui met l'accent sur une invasion de l'IA dans l'urbain, l'humain se retrouve dans une logique irrespirable. Il est surveillé sans cesse et sa liberté a fondu devant une intervention qui se veut bienveillante, mais qui se révèle totalitaire et tenue par des sociétés privées. On assiste à la mise en scène d'une importante mainmise du privé sur les libertés publiques. C'est, bien sûr, de la dystopie.

Heureusement la fictionalisation du futur ne vit pas que de dystopie : place à l'utopie ! La société Bluenove a créé Bright Mirror, par contraste avec « Black Mirror », une série dystopique. Il s'agit d'une série d'ateliers d'écriture dont le principe est simple : on rassemble quatre-vingts personnes, on constitue des équipes de trois et chaque équipe a une heure pour écrire une microfiction sur un thème précis. Le ministère de la transition écologique et de la cohésion des territoires a fixé un thème, par exemple, avec une seule obligation : être optimiste. Du coup, l'IA y est vue de façon positive, à condition qu'elle se fasse oublier, qu'elle ne participe pas à la gouvernance et qu'elle facilite la vie de chacun.

En résumé, l'IA et le tissu urbain, quelles difficultés science-fictives ? Si la fictionalisation de l'IA apparaît souvent si dystopique, c'est que c'est là le travail de la science-fiction : celle-ci ne parle pas des voitures, mais des embouteillages. Elle est là pour mettre en scène les conséquences possibles d'innovations technologiques actuelles, afin que le peuple des lecteurs et des citoyens, nous tous, prenne des dispositions en amont de la diffusion de ces innovations dans la sphère sociale. Chaque avancée peut avoir des dérives, en effet, et il faut les prévenir.

Pour l'IA urbaine, les difficultés prospectives s'articulent sur quatre axes. Premièrement, il n'est pas possible d'y échapper si l'on vit dans un tissu urbain ou rurbain. Deuxièmement, si elle tombe entre de mauvaises mains, les choses peuvent mal tourner, même avec des garde-fous comme l'AI Act de 2023, qui peut avoir le même effet que les lois sur la non-brevetabilité du vivant : ces textes sont formidables, mais ils ne sont appliqués que par un tiers de la planète. Le troisième problème est le poids. Les sociétés qui développent et qui implémentent à grande échelle des IA ne sont pas petites, ce ne sont pas des PME. Le souci est politique, si cela tombe entre de mauvaises mains, publiques ou privées - on pense aux sociétés de la tech, les Google, Apple, Facebook, Amazon, Microsoft (Gafam). Comme citoyens, nous vivons en démocratie, mais dès que l'on franchit le seuil d'une société privée ou d'un régime dictatorial, on se retrouve dans une monarchie, avec ses princes de sang, ses lettres de cachet, son népotisme, son opacité, etc. Certes, les dirigeants des sociétés de la tech sont en général des gens sensés, mais certains semblent n'avoir pas résisté à la pression... La quatrième problématique est écologique. L'IA contribue à l'artificialisation des sols, mais on peut parler aussi des terres rares que son fonctionnement requiert, ou du refroidissement des serveurs. L'IA urbaine crée un problème écologique au carré, qu'il faut résoudre. C'est pour cela que les auteurs de science-fiction tirent la sonnette d'alarme, alors qu'elle peut avoir un usage vertueux.

Le travail des agents territoriaux est-il susceptible d'être impacté par l'IA ? D'abord, leur travail sera facilité et optimisé. Puis, il sera davantage qualifié. Enfin, il y aura une légitimité à défendre pour ne pas s'abriter derrière l'IA.

En conclusion, je voudrais parler des villages, dans une optique de décroissance. Sur ce point, on peut toujours lire ce très vieux livre qu'est « Demain les chiens ». Il date de la grande angoisse nucléaire, et non climatique, mais le résultat est le même. L'humanité y vit dans un tissu villageois étendu, avec beaucoup de bonheur et de réussite. Beaucoup plus récent, puisqu'il a été publié cette année, « Obsolète », de Sophie Loubière, décrit un tissu urbain très vertueux. C'est un vrai catalogue de techniques de remédiation urbaine et villageoise pilotée par l'IA et par les citoyens. Chaque citoyen, au fond, y devient un agent territorial.

M. Pierre Jannin, conseiller municipal délégué à l'innovation et au numérique de la commune de Rennes. - Je suis chargé du numérique pour la ville de Rennes. Je représente aussi l'association Les Interconnectés, qui travaille avec France urbaine et Intercommunalités de France. Enfin, je suis directeur de recherche à l'Institut national de la santé et de la recherche médicale (Inserm), où je fais des recherches sur l'application de l'IA dans le domaine de la santé. Nous ne sommes pas ici pour discuter de technique, mais pour aborder l'IA sur le plan politique. Très tôt, les élus chargés du numérique des grandes villes et des communes de France ont posé la problématique du numérique comme un sujet politique. Le numérique est une politique sectorielle comme une autre dans nos villes et nos territoires et, en tant que telle, cette politique doit être responsable, sur le plan social, éthique, écologique même. C'est le sens du manifeste que nous avons publié, pour un numérique plus responsable.

Mme Lavarde relatait une expérience dans laquelle ChatGPT formulait les questions que poseraient les citoyens. Je pense qu'il faut demander l'avis des citoyens et des citoyennes, mais directement à eux-mêmes et à elles-mêmes ! Je pousse pour une approche démocratique venant des territoires où les craintes autour de l'IA, du numérique en général ou de toute technologie nouvelle, soient exprimées par les citoyennes et les citoyens eux-mêmes. Cela permet de les former, de les sensibiliser, de les rendre acteurs de la société que nous construisons toutes et tous ensemble. Et cela les place dans une approche de consultation, de participation, pour mieux définir à la fois les intérêts et les risques.

À Rennes, cette démarche a commencé par la discussion autour de la 5G, il y a quelques années. Les échanges furent très tendus, comme d'ailleurs au niveau national. Des communes, des territoires ont alors décidé de s'approprier cette question : comme elle n'était pas appréhendée au niveau national avec les citoyens, nous l'avons fait au niveau des territoires. Écoutons la voix des territoires et prenons-la en compte dans les politiques nationales ! Sur la 5G, cinquante citoyens furent tirés au sort et formulèrent des recommandations. Parmi celles-ci, nous avons identifié la volonté que ce débat se poursuive de manière pérenne, notamment sur le numérique en général.

Nous avons donc créé il y a trois ans, à Rennes, le Conseil citoyen du numérique responsable (CCNR), qui étudie des questions autour du numérique, en autosaisine, à la demande des citoyens ou de la ville. En parallèle, en 2021 et 2022, nous avons rédigé un rapport sur la promotion d'une société civile du numérique.

Sur la 5G, les citoyennes et les citoyens nous indiquaient qu'ils n'y pouvaient rien, que tout était décidé en haut. Le numérique et l'IA peuvent aussi donner cette impression. Nous devons donc aller chercher ensemble des marges de manoeuvre. Dès lors, nous pouvons constater que les territoires ont leur mot à dire, qu'ils ont des responsabilités, qu'ils peuvent faire des choses. Aujourd'hui, je viens porter une voix de la province à Paris, mais nous pouvons aussi conduire des actions localement autour de ces enjeux.

Le CCNR rassemble des citoyens tirés au sort, qui représentent la diversité de la population rennaise. Ils travaillent sur des sujets comme l'impact de la dématérialisation des démarches administratives, ou l'impact du numérique sur la santé mentale des jeunes. Je les ai saisis sur le sujet de l'IA, en demandant quel sera son impact pour la ville de Rennes, dans les vies des Rennaises et des Rennais. Ils ont identifié trois axes principaux. Premièrement, l'IA peut être mise au service des territoires : pour les déchets, l'énergie, l'urbanisme, la gestion des cantines, la gestion des effectifs dans les crèches... Ce sont autant d'exemples d'« IT for good », comme on dit. Le deuxième axe de travail identifié est l'impact de l'IA sur les métiers et le travail, et le troisième, celui de l'IA sur les décisions politiques, la justice, la sécurité et l'espace public. Les citoyens ont décidé de travailler sur ce dernier point. Le rapport a été publié. En ressort un besoin de gouvernance et de transparence, pour que l'IA, pharmakon, médicament et poison à la fois, reste encadrée.

Au sein de l'association Les Interconnectés, association des élus du numérique des communes métropoles et villes de France, nous avons entamé il y a quelques semaines des concertations territoriales sur l'IA, pour que les collectivités lancent des débats, avec une grande liberté de thèmes et de publics ; nous avons réalisé un site web, pour accompagner le lancement des concertations à partir d'un canevas de documentation. Ces concertations vont courir jusqu'en mars 2025, date à laquelle aura lieu le prochain forum de l'association à Rennes. Une trentaine de territoires se sont engagés. Ainsi, nous pourrons produire un manifeste de l'IA au service des territoires. Telle est notre méthode.

Mme Pascale Gruny, rapporteur. - L'IA me donne le vertige. Les questions sont si nombreuses, et touchent à tant de domaines ! Il est difficile de définir un cadre de réflexion. Comme élus, nous cherchons à répondre aux besoins de la population. Or les craintes liées aux nouveaux outils nous éloignent davantage les uns des autres, dans une société où les personnes se referment sur elles-mêmes. Je viens d'un département très rural, qui compte 789 communes et une « grande » ville de 58 000 habitants. Notre population a de grandes difficultés à utiliser l'informatique. Ainsi, comment rassurer la population, par exemple en matière de fiabilité des informations, et comment encourager l'esprit critique ?

L'Éducation nationale, en France, n'est pas encore entrée dans l'ère de l'IA. Les enfants ne semblent pas préparés, alors que l'apprentissage de l'esprit critique devrait se faire très tôt, dès la maternelle.

Les collectivités risquent, après avoir financé des outils nouveaux, d'être bloquées à cause d'une défaillance de l'entreprise. J'ai déjà testé des outils dans les collectivités ; malheureusement, le résultat n'est pas très bon.

J'en viens à la protection des données. Je m'y suis intéressée au Parlement européen en 2009. Comment protéger nos données personnelles, mais sans pénaliser l'IA, qui doit aussi nous apporter des solutions ?

Enfin, j'ai de grandes inquiétudes en matière de cybersécurité.

Mme Ghislaine Senée, rapporteure. - En matière de soutenabilité et d'impact, je n'ai eu aucune réponse concrète à mes interrogations lors de nos auditions, notamment sur la consommation des ressources : eau, silice, énergie. Par ailleurs, les Gafam accaparent les nouveaux contrats d'énergie renouvelable. Je pense à l'éolien et au solaire, tandis que Microsoft est en train d'acheter une centrale nucléaire. Ce niveau d'accaparement des Gafam atteint 30 %.

Finalement, on a donné un accès à l'IA à l'ensemble de la population. Ce serait cependant une folie de penser que tous pourront l'utiliser. Nous créons aujourd'hui un besoin, mais les services deviendront payants à terme, ne serait-ce que pour respecter l'Accord de Paris. Les implications sont vastes en matière de responsabilité écologique et sociale : comment éviter une fracture sociale ? S'y ajoutent les questions liées à la responsabilité éthique et démocratique. Ainsi, comment faire pour respecter nos engagements climatiques et sociaux ?

Ensuite, l'absence d'évaluation me frappe, malgré l'évolution spectaculaire des technologies. Il faut s'adapter à de nouveaux produits, qui arrivent sur le marché avant même que nous ayons pu légiférer.

Mme Amel Gacquerre, rapporteure. - La fracture territoriale est déjà prégnante. L'IA repose sur la collecte de données et leur traitement. Or toutes les collectivités n'ont pas les mêmes moyens. Comment pallier ce biais ? Tous les territoires n'avancent pas de la même manière.

L'IA comme outil d'aide à la décision politique ne fait-elle pas courir un risque de déresponsabilisation des élus et des agents ainsi que de standardisation des décisions ? La démocratie locale est-elle menacée, si les algorithmes dictent demain la conduite des responsables locaux ?

Enfin, ne craignez-vous pas une forme de déshumanisation ? Voyez les chatbots. Jusqu'où aller ? Nous risquons de couper un lien essentiel pour notre société.

Enfin, quel est le risque en matière de libertés fondamentales et de respect des droits de l'homme ? Devons-nous légiférer davantage ?

M. Jean-Gabriel Ganascia. - Nous n'avons pas de solution clé en main pour obtenir l'adhésion des citoyens. En revanche, nous avons répondu de manière parcellaire dans des rapports, par exemple dans notre avis sur les enjeux éthiques des technologies de reconnaissance faciale, posturale et comportementale, ou dans nos discussions au sein du comité d'éthique, où nous nous posons la question de manière très concrète.

L'IA est un domaine très vaste. Il faut se demander de manière très précise, sur chaque point, ce que l'on veut faire. Par exemple, installer des caméras dans les villes doit répondre à un but précis, explicite, présenté de manière transparente. L'objectif doit toujours être très clair. Souvent, les administrations, parce qu'elles veulent être modernes, proposent des solutions sans savoir exactement ce qu'elles veulent en faire. Dans une ville du Sud, la reconnaissance faciale a été utilisée pour des situations où elle reste inexploitable : elle ne fonctionne pas quand, au cours d'un événement festif, les personnes se griment, par exemple.

Il faut aussi comparer les solutions technologiques avec les solutions alternatives, et expliquer les gains envisagés. Enfin, il faut mener des évaluations et des expérimentations.

Dans notre avis sur la reconnaissance faciale, posturale et comportementale, nous distinguons deux types d'expérimentation : sociale et scientifique. Une telle démarche, transparente et rigoureuse, est la seule qui pourra recueillir l'adhésion des populations ; sinon nous courons à la catastrophe.

Dans le cadre de France Travail, nous avons établi une charte, dont le premier point est la centralité de l'humain. Voilà un bon guide.

Concernant le monde rural, l'IA joue déjà un rôle dans l'agriculture.

En matière de soutenabilité, certaines solutions restent sobres, tandis que les grands modèles de langage ou de génération de textes sont dramatiquement consommateurs. L'apprentissage des modèles comme les requêtes sont très coûteux du point de vue énergétique. Les effets peuvent être désastreux. Cependant, l'IA peut aussi contribuer à une meilleure soutenabilité, par exemple pour mieux réguler des flux énergétiques, notamment pour les énergies renouvelables, qui sont discontinues. Il faut faire de la pédagogie ; voyez le cas des compteurs Linky, qui ont suscité une forme de panique, alors qu'ils sont essentiels pour mieux gérer les consommations.

Mme Catherine Dufour. - Vos interrogations décrivent bien toutes les angoisses liées à l'IA. Le premier problème de l'IA, c'est son nom : l'IA n'est pas de l'intelligence ; en anglais, « intelligence » signifie « renseignement ». Nous aurions dû dire « apprentissage » ou « renseignement » artificiel. Une véritable intelligence implique d'avoir des perceptions, une mémoire associative, un modèle du monde, une capacité à se fixer des objectifs en fonction d'enjeux personnels. L'IA ne dispose pas de ces facultés ; elle reste un outil statistique.

J'ai vu l'informatisation déferler dans nos sociétés, pour le meilleur comme pour le pire. J'ai vu des secrétaires et des chargés de saisie se retrouver définitivement au chômage. Avec l'IA viendront les pertes d'emplois : après les cols bleus, les cols blancs y passent... Je connais nombre de traducteurs et d'illustrateurs qui, en un an, ont perdu l'intégralité de leur chiffre d'affaires. Je vois déjà du chômage de masse. Les conséquences seront sanglantes.

Nous sommes un peu effrayés par la vitesse à laquelle la science avance. Dès 1931, « Le Meilleur des mondes » parlait de modifications génétiques et de biotechnologies, ainsi que de leurs dangers. Ainsi, nous étions préparés quand les biotechnologies ont réellement émergé dans nos sociétés ; nous avons légiféré en amont. La fiction permet d'anticiper ce qui se passe dans les laboratoires. Aujourd'hui, nous n'avons plus cette capacité d'anticipation : quand j'ai une nouvelle idée, je constate sur Google qu'elle a déjà été réalisée. Les plus jeunes auteurs le disent aussi, nous nous prenons le mur du réel en plein visage. Notre science commence à aller plus vite que notre capacité de projection dans le champ social.

Enfin, les données, c'est de l'or dans notre poche, et cela fait longtemps qu'on nous les a volées ! L'État lui-même vend les données de votre carte grise à des traders. C'est pourquoi ceux qui manipulent les données personnelles, notamment les Gafam, nous font rêver, par exemple d'aller sur Mars, simplement pour nous détourner du fait qu'ils sont en train de fouiller l'or qui est dans notre poche, et qu'ils ont pris nos données sans rien nous rendre en échange, si ce n'est des rêves : voilà ce que l'on nomme la mythopoesis de la Silicon Valley.

M. Jean-Gabriel Ganascia. - Cependant, l'IA ne vise pas à recréer une machine. L'intelligence est un mot polysémique. On peut parler d'esprit ou d'ingéniosité, ou de renseignement. La traduction française reste exacte.

Cette conception de l'intelligence est introduite à la fin du XIXe siècle : il s'agit alors de naturaliser la philosophie et d'étudier l'esprit avec les méthodes des sciences physiques. On suppose alors que l'esprit est un ensemble de facultés mentales. Hippolyte Taine, dans « De l'intelligence », a voulu étudier ces facultés cognitives : perception, mémoire, raisonnement, communication, avec une méthode scientifique expérimentale. L'IA reprend cette idée, avec l'ambition non seulement de réaliser des expériences, mais aussi de simuler ces facultés cognitives.

L'IA reste une discipline scientifique. Il faut l'expliquer et désamorcer les craintes. Il ne s'agit pas de créer un jour des machines qui auront une conscience.

Mme Catherine Dufour. - Il faut légiférer très vite, mais le chiffre d'affaires des Gafam est de 1 600 milliards d'euros, soit la moitié du PIB français. Les lois ne pourront plus rien, les Gafam font ce qu'elles veulent. Voilà le plus grand problème.

M. Pierre Jannin. - Tout va très vite, les développements scientifiques en laboratoire sont absolument vertigineux. Nous nous sommes laissé emporter dans le numérique sans véritable recul sur les limites et les impacts des technologies. Aujourd'hui, nous perdons le contrôle. Il est nécessaire de réfléchir, de s'arrêter un instant. Cela fait partie de notre responsabilité d'élus. Oui, il faudra légiférer et rester vigilant. On nous vend du rêve, des emplois, du développement économique, mais ne cédons pas à l'aveuglement.

Il faut systématiquement s'interroger sur les usages, et l'intérêt de telle ou telle solution. Il faut savoir quelle est la finalité : démocratique, sociale ou économique par exemple. On estime que les gains financiers sont de 20 % pour les smart cities, mais quel est le coût énergétique d'un tel gain ?

Il faut donc évaluer. Les performances de l'IA sont moyennes, voire mauvaises. En santé, en imagerie médicale, les performances ne sont pas bonnes. La transférabilité n'est pas satisfaisante. Par ailleurs, l'IA n'est pas explicable : on ne comprend pas les causes d'une décision, car ces modèles manipulent des milliards de paramètres que l'on ne peut pas décrire sous la forme d'une simple équation.

L'IA doit rester un assistant, ce qui ne va pas de soi. Nous avons tendance à céder à une forme de confiance excessive, par facilité. Voilà un biais humain courant.

Il n'est jamais trop tard pour légiférer, nous avons encore des marges de manoeuvre. Cependant, un État n'aura pas les moyens de développer les modèles de langage les plus avancés. Il faut donc que le public se réapproprie les questions du numérique comme service public. Je suis un partisan d'un service public du numérique qui puisse être contrôlé. Aujourd'hui, nos centres communaux d'action sociale (CCAS) connaissent de très longues files d'attente. Comment faire dans une société à deux ou trois vitesses ? Peut-être faudra-t-il freiner pour un temps.

Dans certains domaines, comme les automates, l'IA est utile. La vidéosurveillance algorithmisée, autorisée pendant les jeux Olympiques et Paralympiques, sera peut-être prolongée ; or c'est une porte ouverte à des dérives. Il relève de notre responsabilité d'élus de légiférer, de contrôler et de nous approprier l'ensemble de ces questions.

M. Louis-Jean de Nicolaÿ. - Dans la Sarthe, dans le cadre des territoires éducatifs ruraux (TER), nous avons choisi, avec l'Éducation nationale, de lancer une expérimentation sur l'intérêt de l'IA pour les collégiens, avec une volonté de la démocratiser. L'expérimentation prévoit une sensibilisation des élèves aux limites de l'IA générative et une formation des enseignants. Auriez-vous des conseils à nous donner ? La méthode est-elle la bonne ? Dans ce territoire, les inquiétudes sont grandes, notamment en matière de fake news, ou d'orientation des votes. Comment être le plus efficace possible ?

M. Bernard Delcros. - Vous avez établi un parallèle entre l'arrivée du numérique et celle de l'IA. Il faut en effet tirer des leçons de la numérisation de la société qui s'est opérée sans que l'on se préoccupe des risques qu'elle comportait. Elle a, par exemple, créé des fractures sociales et territoriales. L'arrivée de l'IA constitue une nouvelle transformation de la société dont la progression est exponentielle par rapport à celle du numérique et qui présente des risques encore plus grands, comme l'accaparement de l'outil par des entreprises peu scrupuleuses ou encore l'atteinte portée aux libertés fondamentales. Surtout, de nouvelles fractures sociales et territoriales sont à craindre. Quelles seraient les mesures d'accompagnement à prévoir pour éviter ces risques accrus ?

Mme Anne-Catherine Loisier. - L'IA est déjà partout dans notre quotidien. Nous appartenons tous, ici, à une génération qui est née sans le numérique et sans l'IA. Or les générations qui exerceront des responsabilités dans les années à venir n'auront connu que cela. Comment anticiper ce changement ? Par exemple, que pensez-vous des subventions que les collectivités territoriales consacrent au développement du numérique dans les écoles maternelles ?

M. Jean-Gabriel Ganascia. - Certes, il faut une bonne législation, mais trop légiférer n'est pas forcément la meilleure manière d'y parvenir. Le règlement européen sur l'IA est contestable : il se fonde sur le principe du risque, c'est-à-dire sur l'anticipation des dangers, mais est-ce bien pertinent, alors que les nouvelles technologies ne cessent de nous surprendre, de sorte que l'on ne peut rien prévoir ? De plus, il interdit certaines utilisations de l'IA, dont les techniques subliminales, alors que celles-ci ne sont qu'une fiction qui date des années 1950 et n'existent pas. Si on légifère, il faut bien le faire et les citoyens doivent pouvoir comprendre la loi.

Je vous remercie d'avoir mentionné l'expérimentation qui a lieu dans le sud de la Sarthe. J'ai participé à la commission chargée d'élaborer le programme de seconde en matière de technologie numérique. Le premier axiome qu'il fallait respecter était de faire plaisir à tous les membres de la commission, chacun d'entre eux ayant sa propre marotte, de sorte que le programme est devenu pléthorique. Le deuxième était de ne pas blesser les enseignants et pour cela, mieux valait ne pas leur donner le mode d'emploi du programme. Troisièmement, il n'y a eu aucune prise en compte des lycéens, alors qu'il faudrait au contraire lancer des expérimentations pour déterminer les modes d'appropriation des technologies par tel ou tel public.

Nous devons développer une culture de la vigilance. La situation évolue et il nous faut anticiper. Ce n'est pas en réactivant de vieilles craintes que nous obtiendrons l'adhésion de la population.

Quant aux craintes que suscitent les Gafam, elles relèvent d'un problème de souveraineté et des évolutions qui sont en cours dans ce domaine. Il est nécessaire d'avoir une réflexion de fond sur le sujet.

Mme Catherine Dufour. - J'ai assisté à des modules de formation sur les deepfakes destinés aux jeunes. Cela les intéressait beaucoup et ils en sortaient pour ainsi dire « vaccinés ». Les générations qui suivent la nôtre ont développé des anticorps que nous n'avons pas. Certains jeunes savent faire preuve d'une fluidité absolue pour éviter d'être piégés, en changeant d'adresse électronique tous les jours, par exemple. Ils agissent un peu comme des mutants...

Au sujet du risque de fractures sociales et territoriales, vous demandez quel remède trouver pour faire face au chômage de masse qui s'accentuera. Je n'en sais rien. Toutefois, si le développement de l'IA agit comme un accélérateur de cette tendance, on ne peut pas considérer qu'il en soit la seule cause. La robotisation visait d'abord à ce que l'être humain ait plus de temps pour ses loisirs, pas à ce qu'il y ait plus de chômage. Les causes profondes du problème sont politiques tout comme ses solutions.

M. Pierre Jannin. - La dépendance par rapport à l'outil et le risque de perte de compétences sont des sujets importants. En cas de panne ou de « hackage » de l'outil, comment maintenir le service public ? C'est un problème que nous devrons résoudre.

Il faut que tous les types de public soient sensibilisés au numérique et à l'IA. En interne, les agents des collectivités territoriales doivent être formés à l'usage, aux risques et aux limites de ces technologies. La solidarité envers les exclus qui représentent entre 10 % et 15 % de la population est essentielle.

Enfin, s'il faut éclairer nos concitoyens, il convient aussi de les consulter. Il ne s'agit pas de chercher l'acceptabilité à tout prix en les persuadant des bienfaits de l'IA, mais de cerner leurs attentes et leurs craintes. C'est un message que la France pourra porter lors du prochain sommet international sur l'IA qui se déroulera au mois de février prochain et auquel participeront de grands États qui ne pensent qu'à leurs intérêts financiers et économiques. Rien n'empêche de générer du business autour de technologies plus responsables et plus éthiques.

Mme Catherine Dufour. - Il y aura toujours des exclus. C'est votre rôle d'élus de les protéger des visées purement financières de ceux qui développent ces nouveaux outils. Votre responsabilité est grande !

Mme Corinne Féret, vice-présidente de la délégation aux collectivités territoriales et à la décentralisation. - Nous vous remercions de vos éclairages. Il est important que le Sénat se soit emparé de ce sujet éminemment présent dans nos territoires et dans notre quotidien. Nous devons continuer d'informer et de sensibiliser nos concitoyens pour faire face à l'aspect anxiogène de ces nouveaux outils.

M. Jean-Gabriel Ganascia. - Vous remplacerez ainsi l'inquiétude et la peur par la réflexion et la prospective.

Mme Christine Lavarde, présidente de la délégation à la prospective. - C'est bien là notre objectif.

La réunion est close à 10 h 10.