M. le président. La parole est à M. Pierre-Antoine Levi. (Applaudissements sur les travées du groupe UC, ainsi que sur des travées du groupe Les Républicains.)
M. Pierre-Antoine Levi. Monsieur le président, monsieur le ministre, mes chers collègues, avec l’émergence de l’intelligence artificielle dans nos vies, le monde va vivre une quatrième révolution industrielle. Il la vit d’ailleurs déjà, des outils conversationnels ou de génération d’images particulièrement innovants et bluffants d’efficacité ayant vu le jour ces dernières semaines.
Nous aurions d’ailleurs tous pu demander à ChatGPT-4 de préparer ce discours – cela nous aurait fait gagner du temps. (Sourires.) Au-delà du temps gagné, je pense que nous nous serions tous – ou presque – retrouvés avec le même discours, ce qui aurait rendu ce débat d’actualité fort ennuyeux.
Face aux capacités extrêmement impressionnantes de l’intelligence artificielle, nous voyons naître de nombreuses inquiétudes – et cela est légitime. L’humain sera-t-il dépossédé de son travail au fur et à mesure du développement de l’IA ? Penserons-nous de moins en moins ? Allons-nous vers un monde où nous ne serons plus maîtres de nos avis et de nos destins ?
Monsieur le ministre, il y a quelques semaines, vous avez qualifié ChatGPT de « perroquet approximatif ». Peut-être aviez-vous testé la version 3, car je peux vous assurer que de nombreuses réponses, dans la version 4, sont teintées de bon sens, de réflexion et de précision.
Aussi, je n’ose pas imaginer ce que donnera la version 5 de ChatGPT, dont la mise en ligne est annoncée pour le mois de décembre prochain et qui, d’après OpenAI, son développeur, serait d’un niveau équivalant l’intelligence humaine.
Il y a donc de quoi avoir peur : que vont devenir les secteurs dont des milliers d’emplois pourront être remplacés efficacement par les intelligences artificielles ? Comment allons-nous apprendre, maintenant que l’intelligence artificielle est censée savoir faire à peu près tout ce qui demande de la réflexion ?
Si elles sont réelles, ces craintes doivent être nuancées, car notre perception de l’intelligence artificielle varie selon les pays. Les chiffres suivants proviennent d’un sondage international réalisé par Ipsos en 2022 : en Chine, 79 % des personnes sondées considèrent que l’intelligence artificielle est plus bénéfique que nocive ; elles sont 71 % en Inde, 65 % en Malaisie, seulement 31 % en France, et c’est à peine mieux chez nos voisins européens…
Ce chiffre, symptomatique de notre rapport à l’innovation et aux nouvelles technologies, me fait penser à la phrase de la dirigeante de la Confindustria – le patronat italien – Emma Marcegaglia : « Lorsqu’il y a une innovation, les Américains en font commerce, les Chinois la copient, et nous, Européens, nous en faisons un règlement. »
En effet, le commissaire européen Thierry Breton a annoncé, avec une grande fierté, que, en moins de deux ans, l’Union européenne aura créé une réglementation pour encadrer les intelligences artificielles. Je vous avoue que j’aurais tout de même préféré qu’il annonce le lancement d’un grand projet de création d’un champion européen de l’intelligence artificielle.
Nous pouvons faire tous les règlements, toutes les lois, cette nouvelle révolution industrielle est lancée et elle ne pourra pas être arrêtée. Nous avons le choix de l’utiliser comme un merveilleux outil, notamment au service de la médecine et de l’éducation. Dans le monde du travail, les gains de productivité seront énormes.
Ne soyons pas à la traîne, accompagnons le mouvement. Apprenons à nos jeunes à se servir de cet outil de façon intelligente, comme un assistant d’éducation, un instrument au service du savoir et non un producteur de plagiats.
Monsieur le ministre, je salue vos propos refusant d’interdire a priori, comme l’ont fait temporairement nos voisins italiens, l’utilisation de ChatGPT, interdiction qui, du reste, est contournée par l’utilisation de VPN (Virtual Private Network).
Je salue également les travaux colossaux réalisés par nos chercheurs à Paris-Saclay sur Bloom, l’outil français d’intelligence artificielle. Google, qui a lancé sa propre intelligence artificielle pour concurrencer OpenAI a reconnu que ChatGPT était une Ferrari, alors que la sienne était, au mieux, « une Honda Civic améliorée ». (Sourires.)
Ma crainte est donc la suivante : n’avons-nous pas déjà pris trop de retard sur les entreprises américaines ? Aussi, monsieur le ministre, pouvez-vous nous rassurer sur le fait que la France sera au rendez-vous de cette quatrième révolution industrielle ? (Applaudissements sur les travées du groupe UC, ainsi que sur des travées du groupe Les Républicains.)
M. le président. La parole est à M. Jean-Jacques Panunzi. (Applaudissements sur les travées du groupe Les Républicains.)
M. Jean-Jacques Panunzi. Monsieur le président, monsieur le ministre, mes chers collègues, depuis quelques mois, les intelligences artificielles génératives influencent notre quotidien et monopolisent l’espace médiatique : ChatGPT, Lensa ou Midjourney sont autant de logiciels d’IA engagés dans une course frénétique pour devenir la référence en la matière.
Qu’est-ce que l’intelligence artificielle générative ? Elle est un sous-domaine de l’intelligence artificielle, qui crée des contenus tels que des textes, des images, des vidéos, des programmes informatiques. C’est à l’IAG que l’on doit notamment les photos truquées du pape François en doudoune blanche ou de l’ancien président américain Donald Trump menotté, qui ont beaucoup circulé.
Moins de deux mois après son lancement, en janvier 2023, ChatGPT, développé par l’entreprise californienne OpenAI, dépassait les 100 millions d’utilisateurs, ce qui en fait à ce jour l’application ayant connu la croissance la plus rapide.
La nouvelle version GPT-4, dévoilée à la mi-mars, comporte d’incroyables améliorations et nous conduit à nous poser la grande question : l’IA remplacera-t-elle les humains par les machines ?
L’intelligence artificielle est déjà en train de changer le monde du travail. Les machines sont capables d’apprendre et de s’adapter à des tâches qui étaient auparavant réservées aux humains. La question des conséquences sur l’emploi se pose, comme à chaque grande révolution technologique, ce qui déclenche appréhensions et crispations.
Ainsi, dans les rédactions, se posera la question suivante : aura-t-on encore besoin des journalistes et des illustrateurs ? Dans les cabinets d’avocats ou de conseil, on se demandera s’il est encore nécessaire d’avoir des juristes et des consultants. En effet, OpenAI a fait passer le concours du barreau américain à ChatGPT, qui a été brillamment reçu. Les experts de Goldman Sachs estiment ainsi que les IA génératives pourraient supprimer jusqu’à 300 millions d’emplois dans le monde.
Au cours de l’histoire, les grandes innovations ont souvent eu des conséquences sur les emplois. Le cabinet américain McKinsey souligne que le fossé risque de se creuser entre les travailleurs et entre les pays. Les principaux pays qui tireront parti de l’IA seront sans doute les États-Unis et la Chine. Toutefois, la France, le Royaume-Uni ou la Corée du Sud seraient relativement bien positionnés.
D’un point de vue économique en général, l’IA générative peut avoir des impacts considérables. Selon les économistes de Goldman Sachs, l’adoption généralisée de l’IA pourrait accroître la productivité et augmenter le PIB mondial de 7 % par an.
L’IAG, nous l’avons vu, peut être utilisée pour produire des contenus à grande échelle en un temps record ou pour créer des produits et des services personnalisés. Néanmoins, l’utilisation de l’IAG dans les affaires doit être éthique et responsable, afin de minimiser les impacts négatifs potentiels.
Des fake news propagées grâce à l’intelligence artificielle, des images truquées, de fausses révélations, peuvent avoir des répercussions très importantes sur les cours des Bourses mondiales et les faire chuter.
D’un point de vue social ou sociétal, les effets de l’IA générative peuvent également se révéler positifs comme négatifs. Si celle-ci peut contribuer à la création de contenus artistiques et culturels innovants, elle peut aussi, par de faux contenus, semer la désinformation.
En outre, l’IAG peut être utilisée pour propager des discours de haine ou du cyberharcèlement et favoriser la violence des campagnes mensongères. C’est pourquoi la Cnil commence à s’intéresser au cas de ChatGPT et a défini un plan d’action, plaidant pour « une clarification du cadre légal ».
D’un point de vue politique, l’IAG peut avoir des conséquences importantes. Elle peut aider à la prise de décision, mais elle peut aussi véhiculer insidieusement des idéologies dans de très nombreux domaines – santé, environnement… – ou encore être utilisée pour surveiller les citoyens.
Le Parlement européen a créé une commission sur l’intelligence artificielle à l’ère numérique. La Commission européenne a lancé, au mois d’avril 2021, un règlement sur l’IA, qui est en cours d’examen au Parlement européen, et n’a pas fermé la porte à l’usage d’IA recourant à la biométrie. Elle s’est gardé la possibilité d’utiliser la reconnaissance faciale a posteriori, sous contrôle judiciaire.
En France, le ministère des sports et des jeux Olympiques et Paralympiques a affirmé que le recours à la reconnaissance faciale était exclu par le projet de loi relatif aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions. Seules seront utilisées des caméras usant d’algorithmes intelligents.
Par ailleurs, l’agence de police européenne Europol a averti que les criminels étaient prêts à tirer parti de l’intelligence artificielle.
En somme, l’IAG peut avoir une incidence très importante sur la politique, en offrant de nouvelles aubaines. Toutefois, il est nécessaire de veiller à ce qu’elle soit utilisée dans des limites clairement établies et validées légalement.
À l’échelle internationale, une compétition acharnée est prévisible. La Chine est très en avance et déploie de gros moyens, tandis que le président russe Vladimir Poutine estimait dès 2017 que quiconque deviendrait le leader dans ce domaine deviendrait le dirigeant du monde.
Aux États-Unis, Elon Musk, cofondateur d’OpenAI avec Sam Altman, l’inventeur de ChatGPT, a réclamé une pause de six mois dans la recherche sur l’IA, en évoquant « des risques majeurs pour l’humanité ». Le 4 avril dernier, le président Joe Biden a évoqué les risques liés à l’intelligence artificielle et a demandé au Congrès de fixer des « limites strictes » aux données personnelles collectées et d’interdire la publicité ciblée visant les enfants.
En tant que pays leader en matière de technologie et de recherche, la France a un rôle important à jouer. Elle doit continuer de soutenir la recherche, tout en élaborant une réglementation adaptée, et investir dans la formation, tout en assurant la sécurité et la protection des droits des individus.
Monsieur le ministre, compte tenu de ces éléments, estimez-vous que la France a la capacité d’être suffisamment réactive en matière d’IAG ? A-t-elle pris du retard ? Le cas échéant, de quelle manière et avec quels moyens allons-nous le combler ? (Applaudissements sur les travées du groupe Les Républicains. – Mme Catherine Morin-Desailly applaudit également.)
M. le président. La parole est à M. le ministre délégué.
M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé de la transition numérique et des télécommunications. Monsieur le président, mesdames, messieurs les sénateurs, j’ai suivi l’exemple de Monique de Marco et de Pierre-Antoine Levi en ne faisant pas appel à ChatGPT pour répondre à vos interventions – la preuve : papier, crayon ! (M. le ministre délégué brandit un feuillet manuscrit.)
Pourquoi ? Pour bien légiférer, il faut bien comprendre l’intelligence artificielle générative, sujet de notre débat, dire ce qu’elle est, mais aussi ce qu’elle n’est pas. Ce qu’elle n’est pas, ou ne devrait pas être, c’est une nouvelle Pythie qui rendrait des oracles sur tous les sujets du monde.
Elle est une intelligence générative, plutôt que créative, en cela qu’elle réagence des contenus préexistants sans avoir une connaissance structurée du monde, ce qui fait d’elle un perroquet stochastique – ou, en langage commun, un perroquet approximatif, n’en déplaise à Stéphane Ravier qui, restant dans le registre animalier, a évoqué la capacité de ChatGPT à singer les comportements humains.
La différence fondamentale entre l’intelligence humaine et l’intelligence artificielle générative, évoquée par Vanina Paoli-Gagin et soulevée il y a quatre siècles par Blaise Pascal, inventeur de la première machine d’intelligence artificielle – la pascaline –, est l’intention, c’est-à-dire la capacité de volonté.
Mesdames, messieurs les sénateurs, nous entendons apporter à l’irruption de systèmes du type de ChatGPT, que vous avez abondamment cité, des réponses volontaristes, qui reposent sur une position équilibrée. Christian Redon-Sarrazy et Monique de Marco l’ont souligné, la technologie n’est, intrinsèquement, ni poison ni remède. Pour notre part, nous ne sommes donc ni technolâtres ni technophobes : nous considérons que la technologie doit être placée au service de l’homme.
Certes, l’émergence très rapide de cette technologie suscite des questions qui demeurent sans réponse. Cyril Pellevat et Jean-Jacques Panunzi, entre autres, ont par exemple évoqué les effets ambigus que l’on pouvait attendre de cette technologie sur le marché du travail. Des travailleurs seront sans doute soulagés de tâches pénibles, répétitives et fastidieuses, mais des professions entières seront bousculées.
Aussi devons-nous évidemment donner tous les moyens à nos concitoyens de se saisir de ces outils, afin qu’ils puissent en bénéficier. Nous devons nous assurer que l’adoption de ces technologies se fasse dans la justice sociale. Nous ne comptons pas sur la technologie pour nous dicter le cours des choses ; au contraire, nous avons la volonté de dicter le cours des choses à la technologie.
Par ailleurs, l’intelligence artificielle générative n’exclut pas les communs numériques, que Pascal Savoldelli a abordés. Pour preuve, avant ChatGPT est né un modèle open source, collaboratif, et fonctionnant notamment en Français : le modèle Bloom, qui a pu être conçu grâce au soutien du supercalculateur Jean Zay.
Faut-il marquer une pause ou décider d’un moratoire, comme l’a suggéré Catherine Morin-Desailly ? Si la question mérite d’être posée, la réponse apportée par les signataires de la récente pétition est mauvaise. À bien des égards, il nous faut accélérer, car la France dispose de tous les atouts pour maîtriser ces technologies d’intelligence artificielle générative.
Notre action en la matière n’est pas nouvelle, puisque le Président de la République a lancé il y a cinq ans une stratégie nationale pour l’intelligence artificielle, dotée de 1,5 milliard d’euros. Ainsi, nous avons déjà fait émerger des instituts interdisciplinaires d’intelligence artificielle (3IA) à Nice, à Toulouse, à Grenoble et à Paris, qui ont permis d’établir 190 chaires de recherche pour l’intelligence artificielle, de multiplier par deux le nombre de diplômés en intelligence artificielle et d’augmenter de 500 le nombre de doctorants.
Cette stratégie se couple à une stratégie d’accélération pour l’intelligence artificielle inscrite au cœur de France 2030, ce qui répond aux questions de Cyril Pellevat, Jean-Jacques Panunzi ou Pierre-Antoine Levi relatives à nos ambitions en la matière.
Faut-il ou non réguler ? Évidemment qu’il faut le faire. Le règlement sur l’intelligence artificielle impose non seulement des obligations de transparence, de manière à permettre à nos concitoyens de toujours faire la différence entre l’humain et la machine, mais aussi un régime de responsabilité pour les concepteurs des systèmes d’intelligence artificielle en fonction des risques associés aux usages de ces systèmes.
Ainsi, pour certains usages, le recours à l’intelligence artificielle sera proscrit. Pour d’autres, il sera encadré par des obligations de transparence et d’audit préalables à la mise sur le marché de ce type de solution. Pour d’autres encore, l’intelligence artificielle sera plus librement mobilisable.
Ce règlement couvre-t-il tous les sujets ? Non, certains d’entre eux ont d’ailleurs été cités par certains orateurs. C’est notamment le cas de l’empreinte carbone, mentionnée par Sylvie Robert. De même, en ce qui concerne la normalisation avec les États-Unis et la Chine, abordée par Cyril Pellevat et Catherine Morin-Desailly, des discussions ont d’ores et déjà eu lieu avec les États-Unis au sein du Conseil du commerce et des technologies (TTC, pour Trade and Technology Council), mais elles doivent être approfondies.
De plus, nous devrons être vigilants sur la question de l’exploitation des travailleurs des pays du Sud, évoquée par Monique de Marco et Pascal Savoldelli. Nous devrons également traiter la question des droits d’auteur, soulevée par Sylvie Robert et Jean-Claude Requier, ainsi que celle de la protection des données personnelles, qui est la raison invoquée par l’équivalent italien de la Cnil pour interdire ChatGPT sur le sol italien.
Les modèles d’intelligence artificielle sont entraînés sur des jeux de données assemblés sur internet. Or des données personnelles qui alimentent des jeux d’entraînement ont été collectées à une époque où aucun consentement n’était prévu. Il va donc nous falloir concilier la réglementation que nous construisons pour l’intelligence artificielle et celle que nous avons construite – et dont nous sommes très fiers – pour la protection des données personnelles.
Mesdames, messieurs les sénateurs, je vous remercie du temps que vous avez consacré à ce débat. Certaines de vos préoccupations sont d’ores et déjà prises en considération dans la réglementation sur laquelle nous avançons et par le plan d’investissement souhaité par le Président de la République, tandis que d’autres nourriront, à n’en pas douter, les travaux du Sénat dans les mois et les années à venir. (MM. Franck Menonville et Jean-Claude Requier applaudissent.)
M. le président. Nous en avons terminé avec le débat d’actualité sur le thème : « Impacts économique, social et politique de l’intelligence artificielle générative ».
Mes chers collègues, nous allons interrompre nos travaux pour quelques instants.
La séance est suspendue.
(La séance, suspendue à dix-sept heures quarante, est reprise à dix-sept heures quarante-cinq.)
M. le président. La séance est reprise.
5
Mise au point au sujet de votes
M. le président. La parole est à M. Franck Menonville.
M. Franck Menonville. Lors du scrutin n° 270 portant sur les amendements identiques tendant à supprimer l’article 11 de la proposition de loi pour une école de la liberté, de l’égalité des chances et de la laïcité, MM. Emmanuel Capus, Daniel Chasseing, Jean-Pierre Decool, Mme Vanina Paoli-Gagin, MM. Pierre-Jean Verzelen, Dany Wattebled et Franck Menonville souhaitaient voter contre et MM. Joël Guerriau, Claude Malhuret et Mme Colette Mélot souhaitaient voter pour.
M. le président. Acte est donné de cette mise au point, mon cher collègue. Elle sera publiée au Journal officiel et figurera dans l’analyse politique du scrutin concerné.
6
Rappel au règlement
M. le président. La parole est à M. Guy Benarroche, pour un rappel au règlement.
M. Guy Benarroche. Ce rappel au règlement est fondé sur l’article 44 de notre règlement relatif aux motions de procédure.
Sur la proposition de résolution exprimant la gratitude et la reconnaissance du Sénat aux membres des forces de l’ordre déployées sur tout le territoire national, qui sera examinée dans quelques instants, le groupe Écologiste – Solidarité et Territoires a déposé une motion tendant à opposer la question préalable. Celle-ci a été rejetée.
Pourtant, l’alinéa 3 de l’article 44 du règlement du Sénat ne dispose pas que l’emploi de ce type de motion est limité aux seuls projets ou aux propositions de loi. En outre, l’article 50 quater, qui prévoit l’interdiction de déposer des amendements sur une proposition de résolution (PPR), ne traite pas des motions de procédure.
Par conséquent, nous nous interrogeons sur le motif de ce rejet et nous constatons, une nouvelle fois, une certaine imprécision de notre règlement, qui peut devenir problématique.
Nous souhaitions déposer une motion tendant à opposer la question préalable afin de rejeter la proposition de résolution, qui nous paraît à la fois caricaturale et manichéenne. Au-delà des outrances et des attaques graves et infondées dirigées contre nombre de nos collègues parlementaires, ce qui nous paraît le plus inquiétant est l’agenda dangereux, mais délibéré, d’examen de ce texte.
Mes chers collègues, dans cette période de tensions sociales et politiques extrêmes, notre rôle de représentant de la Nation n’est pas de créer de la division.
La violence que connaît notre pays et que nous condamnons est le symptôme d’une démocratie malade. Il n’est plus possible de voter des lois contre la majorité du pays ni de réprimer la contestation sociale par la force.
Il nous faut donc appeler le pouvoir exécutif à l’apaisement, plutôt que de l’inviter à poursuivre sa dérive autoritaire et illibérale.
Contrairement aux intentions des auteurs de cette proposition de résolution, ce n’est pas rendre service à nos forces de l’ordre, qui ne font que respecter les consignes de leur autorité.
À l’opposé de cette démarche contre-productive, nous demandons au Gouvernement de faire des gestes d’apaisement pour protéger à la fois les forces de l’ordre et les manifestants.
Nous lui demandons également de revoir de fond en comble la doctrine de maintien de l’ordre pour revenir à un usage proportionné de la force, afin de restaurer la confiance entre la police et la population.
Pour toutes ces raisons, nous ne participerons pas au débat qui va s’ouvrir et nous ne prendrons pas part au vote. (Marques d’ironie sur des travées du groupe Les Républicains. – M. Stéphane Ravier s’exclame.)
M. Jérôme Bascher. Très bien !
Un sénateur du groupe Les Républicains. Courage, fuyons !
M. le président. Acte vous est donné de votre rappel au règlement, mon cher collègue.
Sur la partie de votre intervention relative au règlement, une réponse sera apportée par la présidence. (Mmes et MM. les sénateurs du groupe GEST se lèvent et quittent l’hémicycle.)