M. le président. La parole est à M. Stéphane Ravier.
M. Stéphane Ravier. L’avenir, la liberté et la souveraineté : voilà, monsieur le président, monsieur le ministre, mes chers collègues, les défis majeurs que suscite l’essor de l’intelligence artificielle générative.
À l’heure où 100 millions de personnes ont les yeux rivés sur leur écran pour admirer les prouesses aussi extraordinaires qu’effrayantes du robot ChatGPT, la société semble programmée pour une forme d’obsolescence de ses modes de production et d’éducation.
Monsieur le ministre, vous avez qualifié l’intelligence artificielle générative, de façon assez légère et péremptoire, de « perroquet approximatif »… Je crois que vous n’avez pas pris la mesure de la révolution en cours.
Les balbutiements de cette technologie – car nous n’en sommes qu’aux balbutiements – dépassent déjà les performances de tous les outils que nous connaissions jusqu’ici. Les équilibres économiques du monde vont être bouleversés, et Google pourrait être remisé au rang de curiosité du passé.
Alors que la parole publique et les fonctions électives sont plus que jamais remises en question dans notre pays, le peuple va chercher les réponses à ses questions auprès d’algorithmes pré-entraînés dont la capacité stupéfiante à singer l’intelligence humaine crée les conditions d’une dystopie nouvelle.
Les craintes que nous éprouvons, mais aussi les chances que nous entrevoyons avec une telle technologie ne font que rappeler l’intrusion du numérique dans nos vies depuis de nombreuses années.
Nous assistons à l’extension de l’ubérisation au domaine de la pensée. Cela pose la question de la liberté et du rapport à la réalité. Créées dans la Silicon Valley, ces technologies diffusent un conformisme idéologique fidèle au progressisme de ses concepteurs et aux références anglo-saxonnes. C’est donc l’esprit critique et notre souveraineté qui sont menacés.
L’intelligence artificielle générative représente aussi une occasion de développer le secteur de la santé et de refondre l’éducation nationale en un système d’instruction tourné vers l’innovation et l’ingénierie. Le monde accélère. Monsieur le ministre, il faudrait vous mettre, ou vous remettre, en marche ! (Sourires.)
Aussi, qu’avez-vous prévu pour promouvoir le développement des entreprises françaises dans ce domaine et réfléchir aux limites éthiques que nous devons mettre en place pour empêcher l’effondrement de notre pays et assurer notre compétitivité ?
M. le président. La parole est à M. Jean-Claude Requier.
M. Jean-Claude Requier. Monsieur le président, monsieur le ministre, mes chers collègues, de ChatGPT à Midjourney en passant par DeepMind, l’intelligence artificielle a franchi des étapes inimaginables il y a encore quelques années, une évolution qui suscite à la fois intérêt et inquiétudes.
Intérêt, car l’intelligence artificielle dite « générative » – celle qui nous intéresse aujourd’hui – est une nouvelle révolution industrielle, porteuse d’innovations à venir tant pour les biens que pour les services.
Inquiétudes, car son mode de fonctionnement est de prendre ses propres décisions indépendamment de l’homme. Dit ainsi, cela peut faire peur. À force de progrès, dans quel univers allons-nous basculer ? Sera-ce celui dépeint par Aldous Huxley dans Le meilleur des mondes, où technologie et humanité se fondent ?
Nous n’en sommes pas là, heureusement, mais n’attendons pas que certains des enjeux de l’intelligence artificielle soient hors de contrôle. Au moment où nous parlons, je ne pense pas que la question soit encore celle de savoir si cette technologie est souhaitable ou non. Elle est déjà à l’œuvre, et les investisseurs s’y engouffrent avec allégresse. Par conséquent, nous en sommes plutôt à savoir comment l’encadrer, afin de ne pas la subir.
L’éthique est un des premiers enjeux de l’intelligence artificielle générative. Par exemple, doit-on permettre ses usages pour des prescriptions médicales, des fonctions d’encadrement du travail, ou encore des programmes de surveillance ? Ce dernier point me conduit à celui de la protection des données personnelles.
Tout d’abord, on doit se réjouir que deux plaintes aient été récemment déposées en France auprès de la Commission nationale de l’informatique et des libertés, la Cnil, par deux spécialistes de la protection des données personnelles.
Ensuite, faisons confiance à l’Union européenne, qui travaille aussi sur ce sujet au travers de l’Artificial Intelligence Act.
Bien entendu, on sait que la mise en place d’un cadre réglementaire va prendre du temps, alors que le caractère exponentiel de cette technologie lui est presque intrinsèque. L’Italie a purement et simplement interdit ChatGPT. Quelle est aujourd’hui votre position, monsieur le ministre, sur le principe d’un moratoire ?
À une autre échelle que celle des pays, on observe également que des institutions se mobilisent. Je pense par exemple à l’interdiction par Sciences Po d’utiliser le robot conversationnel d’OpenAI en dehors d’un encadrement pédagogique.
En effet, l’une des grandes craintes suscitées par cette technologie est l’appauvrissement des cerveaux, dans la mesure où l’intelligence artificielle générative inviterait à la paresse de l’esprit critique et de l’effort de construction intellectuelle. Une vaste réflexion menée au sein de l’éducation nationale pourrait permettre d’en circonscrire l’usage, au moins durant le temps scolaire. Il faut en tout cas rapidement s’intéresser à cet enjeu.
Le RDSE, attaché à l’esprit des Lumières, souhaite que la question des sources soit également bien appréhendée vis-à-vis de cette technologie, qui peut alimenter contre-vérités et mauvaises informations. Dans nos sociétés démocratiques, le rapport à la vérité est essentiel. On le sait, il doit absolument être maîtrisé, ce qui est complexe quand on ne connaît pas le cheminement de l’intelligence artificielle générative dans la confrontation des sources.
Enfin, je n’oublie pas une autre question cruciale : l’intelligence artificielle peut-elle être une réponse à la pénurie de compétences dans certains secteurs, ou est-ce au contraire une terrible promesse de destruction d’emplois ?
Les avis des experts sont partagés. Selon certains, près de 46 % des tâches administratives et 44 % des emplois juridiques seraient susceptibles d’être automatisés. D’autres études affirment que les développements de l’intelligence artificielle créeraient de nouveaux métiers en compensation de ces pertes, ne serait-ce que pour accompagner le développement de cette technologie et ses impacts.
Au fond, la question est celle-ci : comment partager équitablement les gains de productivité ? On se demande aussi ce que cette innovation peut offrir à la société : une nouvelle organisation du travail, par exemple une semaine de quatre jours ? Il faut en tout cas se préparer à une évolution des emplois, le plus important étant d’éviter leur précarisation, cette ubérisation que l’on a pu regretter dans certains secteurs.
Aussi, monsieur le ministre, il revient à la puissance publique de s’engager fermement sur ce chantier, afin de rappeler que tout n’est pas permis à l’intelligence artificielle et que sa vocation devrait être de supprimer des tâches et non des métiers.
En attendant, le groupe RDSE ne souhaite pas verser dans la technophobie, sous réserve que l’humanisme reste la valeur centrale du progrès.
M. le président. La parole est à M. Cyril Pellevat. (Applaudissements sur les travées du groupe Les Républicains. – M. Franck Menonville applaudit également.)
M. Cyril Pellevat. Monsieur le président, monsieur le ministre, mes chers collègues, depuis quelques mois, les intelligences artificielles sont au centre de l’actualité.
Qu’il s’agisse de logiciels conversationnels tels que ChatGPT ou Eliza, de modèles de génération d’images et de vidéos, ou encore d’auto-encodeurs, pas une semaine ne passe sans que l’on mette à la une les prouesses de ces nouvelles technologies pouvant produire des contenus de manière autonome, suscitant tour à tour admiration et inquiétudes.
En réalité, la très probable révolution industrielle que représentent les intelligences artificielles s’est amorcée il y a plusieurs années déjà. Nous en utilisons chaque jour sans le savoir. Au fil des mises à jour et de la collecte toujours plus massive de données, elles ne cessent de se perfectionner.
Si elles partagent des similitudes avec les intelligences artificielles plus traditionnelles, les IA génératives soulèvent des problèmes spécifiques, notamment en matière d’éthique, de désinformation, de protection des données, ou encore de productivité et d’impact sur les emplois.
Bien que des améliorations soient encore nécessaires pour qu’elles soient utilisables à une échelle industrielle, de nombreuses études montrent que leur éventuelle généralisation aura des impacts d’une ampleur inédite depuis l’arrivée de l’ordinateur.
Ainsi, une étude menée par OpenAI, Open Research et l’université de Pennsylvanie avance que 80 % de la main-d’œuvre américaine pourraient voir au moins 10 % de leurs tâches réalisées par une intelligence artificielle générative. Pour 19 % des travailleurs, 50 % de leurs tâches pourraient être prises en charge par ces nouvelles technologies, en particulier dans les domaines des services administratifs et juridiques, du management, des services financiers, du marketing, de la communication, ou encore du graphisme et de la conception.
D’après une autre étude de la banque Goldman Sachs, 300 millions d’emplois pourraient à terme être menacés, mais la productivité au travail pourrait progresser de 1,5 point chaque année pendant dix ans, tandis que la hausse annuelle du PIB mondial pourrait atteindre 7 %, contre 2,9 % prévus pour 2023 par le FMI.
Sans qu’il puisse être affirmé que certains métiers disparaîtront inévitablement, puisqu’un gain de productivité n’entraîne pas nécessairement la disparition d’un emploi, il est certain que le marché du travail sera bouleversé.
De même, de nouveaux métiers apparaîtront et compenseront probablement le nombre de postes supprimés. Si une étude du Forum économique mondial estime que 87 millions d’emplois seront remplacés par des intelligences artificielles, elle met en exergue que celles-ci permettront la création de 95 millions d’emplois.
Bien sûr, il ne s’agit à ce stade que de prévisions ; les effets de ces technologies sur le marché du travail devront de toute évidence être suivis de près, afin que nous puissions nous adapter à des conséquences imprévues de leur usage.
En outre, si la France veut profiter pleinement des externalités positives de l’intelligence artificielle générative, il ne faut pas qu’elle loupe le coche en matière d’innovation comme de formation à ces nouveaux métiers.
Les géants de la tech sont déjà dans les starting-blocks et, malgré l’existence de certaines start-up françaises prometteuses, notre pays et, plus largement, l’Europe font bien pâle figure face aux compagnies américaines et chinoises, qui investissent des milliards de dollars dans ces technologies.
Ma première question, monsieur le ministre, porte donc sur les moyens que le Gouvernement compte mettre en œuvre, pour, d’une part, soutenir l’innovation des entreprises françaises dans le domaine de l’intelligence artificielle, et, d’autre part, favoriser la formation à ces métiers d’avenir, ainsi que la reconversion pour les travailleurs dont l’emploi deviendrait obsolète.
Abordons désormais certains aspects de l’intelligence artificielle générative qui sont autrement moins réjouissants que la hausse de la productivité et que la création de nouveaux emplois.
Il apparaît en effet que des usages malveillants de ce type d’IA, ainsi que des erreurs du programme lui-même, peuvent avoir des conséquences dramatiques pour les libertés fondamentales, notamment le droit à la protection des données personnelles.
Les expériences de ces dernières semaines, voire de ces dernières années, nous prouvent que ces dangers sont réels : qu’il s’agisse du non-respect du RGPD par ChatGPT, du jeune homme poussé au suicide par le chatbot Eliza en Belgique, des images devenues virales du Président de la République et du pape, créées par intelligence artificielle, des deep fakes de personnalités publiques, du logiciel de recrutement d’Amazon qui s’est révélé discriminatoire envers les femmes, ou encore du scandale des allocations familiales aux Pays-Bas, où un algorithme d’auto-apprentissage ciblait les minorités et les accusait à tort de fraude, les exemples sont nombreux et se multiplient.
Que ces problèmes découlent d’une non-conformité du logiciel avec la réglementation, d’erreurs faites par l’intelligence artificielle ou d’usages sciemment malveillants qu’en font ses utilisateurs, il est nécessaire de trouver des solutions et de légiférer pour éviter ces effets de bord, sans pour autant interdire les intelligences artificielles génératives.
Il s’agirait en effet d’une grave erreur d’un point de vue économique, qui ferait une nouvelle fois perdre à la France du temps dans la course effrénée à l’innovation. Les entreprises développant des intelligences artificielles sont elles-mêmes en faveur de l’élaboration d’une réglementation, comme l’a récemment fait savoir OpenAI, car ce n’est qu’avec un cadre clair, assurant une sécurité juridique, que les potentialités économiques et sociétales de l’intelligence artificielle pourront pleinement se réaliser.
Le RGPD apporte un premier échelon de réponse en matière de protection des données utilisées par les intelligences artificielles, mais il n’est pas suffisant pour éviter l’ensemble des potentielles externalités négatives et peut, parfois, se révéler contre-productif en matière d’innovation, notamment parce que ce n’est qu’en traitant certaines données personnelles que les entreprises pourront lutter contre les biais de certains systèmes d’intelligence artificielle.
Des dérogations au RGPD devront donc être prévues, mais il faut qu’elles soient encadrées strictement pour nous prémunir de toute utilisation détournée de ces données sensibles, notamment à des fins commerciales.
Ces dangers réels ou prévisibles des IA et cette inadaptation du RGPD ont conduit l’Union européenne à se saisir de la question des intelligences artificielles au sens large, par le biais d’une proposition de règlement.
Avec mes collègues André Gattolin, Catherine Morin-Desailly et Elsa Schalck, dans le cadre des travaux de la commission des affaires européennes, j’ai été chargé d’élaborer une proposition de résolution européenne et un rapport relatif à ce règlement. Ce dernier est assurément un pas dans la bonne direction pour sécuriser les intelligences artificielles, mais mes corapporteurs et moi avons relevé certaines lacunes.
Faute de temps, je ne m’arrêterai pas sur chacune d’entre elles, mais je souhaiterais, monsieur le ministre, connaître la position du Gouvernement sur nos propositions, ainsi que les points principaux que vous souhaitez soutenir au Conseil au sein de ce règlement.
En outre, j’insiste sur l’absolue nécessité pour la France comme pour l’UE d’engager des discussions avec les pays tiers au sein des instances internationales de normalisation, pour les inviter à adopter des réglementations similaires. En effet, si nous sommes les seuls États à imposer des normes aussi ambitieuses, cela protégera certes les citoyens européens, mais cela pourrait nous désavantager d’un point de vue concurrentiel.
Aussi, monsieur le ministre, pourriez-vous m’indiquer si des échanges ont déjà été entamés avec d’autres pays, notamment les États-Unis et la Chine, afin de promouvoir l’élaboration de législations similaires dans ces États ? (Applaudissements sur les travées du groupe Les Républicains. – M. Franck Menonville applaudit également.)
M. le président. La parole est à Mme Vanina Paoli-Gagin.
Mme Vanina Paoli-Gagin. Monsieur le président, monsieur le ministre, mes chers collègues, en 2017, le groupe Les Indépendants – République et Territoires avait organisé en ces murs un débat sur le thème : « Intelligence artificielle, enjeux économiques et cadres légaux ».
Au vu de l’accélération de ces technologies et des enjeux y afférents, nous avons jugé opportun de proposer de nouveau un débat sur ce thème. Je salue donc le choix collectif d’évoquer, ensemble, les défis de l’intelligence artificielle générative.
J’ai eu personnellement la chance d’assister, dans ma pratique professionnelle, au forum mondial sur l’intelligence artificielle qui s’est tenu en Chine, à Wuzhen, en 2017, avec d’éminents chercheurs du monde entier, dont Yuval Noah Harari, que vous connaissez tous, mes chers collègues. J’ai cru y comprendre que la différence majeure entre l’intelligence artificielle et le cerveau humain était l’intention, apanage de ce dernier. C’est sur cet élément, me semble-t-il, que nous devons nous concentrer d’un point de vue éthique, monsieur le ministre.
Dès 2016, l’OCDE, l’Organisation de coopération et de développement économiques, prévenait que 9 % des emplois en France présentaient un « risque élevé de substitution » par des robots. Avec l’amélioration permanente de l’intelligence artificielle, cette proportion augmentera.
Cette vérité est à nuancer, car ces prévisions pessimistes n’évoquent que les destructions et non les nouvelles créations d’emplois. J’ai un exemple frappant de cette dynamique positive dans mon département de l’Aube, où l’entreprise familiale Gamba et Rota a investi 10 millions d’euros pour robotiser son outil logistique via l’IA, ce qui permettra d’envisager la création d’une centaine d’emplois.
Nous sommes à l’aube d’une vaste révolution de l’emploi et du rapport au travail. Cela vaut particulièrement pour les jeunes, qui sont plus que jamais en quête de sens dans leur vie professionnelle.
La dichotomie entre technophiles béats et détracteurs outranciers est bien évidemment dépassée. L’immense défi de l’intelligence artificielle nous invite, au contraire, à la nuance et à la précision, dans un univers en perpétuelle mutation.
Il s’agit d’anticiper les grandes évolutions sociétales, économiques et politiques qui en découleront. L’importance des progrès permanents entraînés par l’intelligence artificielle fait écho à l’ampleur des craintes qu’elle nous inspire.
À ces inquiétudes, il nous faut répondre avec pédagogie, pour tirer profit des perspectives positives ouvertes par cette technologie. Il nous faut aussi répondre avec lucidité, pour anticiper les changements d’ampleur qui surviendront, notamment sur le marché du travail. Il nous faut enfin répondre avec fermeté, par un cadre réglementaire solide, pour garantir à nos concitoyens une intelligence artificielle fiable et sûre.
L’Europe doit développer une approche éthique des données, avec une méthode et un cadre réglementaire propres. Cela implique de s’affranchir de la Chine et des États-Unis, qui nous imposent, depuis un certain temps, leur calendrier et leurs objectifs.
Les Gafam – Google, Apple, Facebook, Amazon et Microsoft – conservent leur puissance par les supports qu’ils fournissent au monde depuis tant d’années. ChatGPT est d’ailleurs financé par Microsoft. L’Europe a perdu la bataille des données personnelles ; celle des données professionnelles est en cours. Les géants y abusent de leur position dominante.
Nous devons aborder avec une grande vigilance le recours à l’intelligence artificielle, via des outils tels que ChatGPT, dans nos entreprises. Les gains de productivité espérés ne doivent pas masquer l’aspirateur à données qu’est cet outil.
La France est également pénalisée par la fuite de certains de ses cerveaux, alors même que leur formation a été assurée sur les deniers publics. Nous finançons, en partie, notre propre dépendance.
Notre pays dispose pourtant d’atouts essentiels et d’un vivier d’acteurs spécialisés. Selon l’association France Digitale, l’écosystème français rassemble 590 start-up et plus de 80 laboratoires de recherche en intelligence artificielle, ce qui nous place en pole position à l’échelle européenne.
Nous avons des compétences réelles et pointues dans certaines niches. Cela fait notre force. Nous pouvons également dynamiser ces forces grâce au droit. Nous attendons ainsi beaucoup de l’Artificial Intelligence Act. Ce cadre nouveau doit nous redonner une longueur d’avance.
Je profite de cette occasion pour saluer la mobilisation de Thierry Breton, commissaire européen au marché intérieur, sous l’impulsion duquel nous avons, en deux ans – un temps record ! – bâti une réglementation de l’intelligence artificielle dont la précision et la complétude sont inégalées.
Les prochaines années s’annoncent décisives. Il n’est pas question de se laisser distancer davantage, sous peine de rater définitivement l’occasion de rester dans la course.
Dès lors, monsieur le ministre, comment la France s’engage-t-elle pour ériger l’Europe en chef de file, tout en garantissant la sécurité et les droits des utilisateurs ? Que pensez-vous à cet égard des récentes positions de l’Italie ? Et pouvez-vous nous indiquer précisément notre feuille de route sur ce sujet, à l’échelle tant nationale qu’européenne ? (Applaudissements sur les travées du groupe INDEP.)
M. le président. La parole est à Mme Monique de Marco.
Mme Monique de Marco. Monsieur le président, monsieur le ministre, mes chers collègues, vous connaissez mon appétence pour l’intelligence artificielle. J’ai d’ailleurs moi aussi tenté de rédiger mon intervention avec ChatGPT, mais j’ai trouvé le résultat décevant. (Sourires.)
En revanche, je l’avais fait il y a quelques mois pour rédiger la question d’actualité que j’avais posée au ministre de l’éducation nationale et de la jeunesse afin de l’alerter sur la suppression de la technologie en classe de sixième, alors même que cette matière est directement liée aux enjeux du numérique. En effet, la France a plus que jamais besoin d’une jeunesse ouverte aux sciences et aux technologies.
En tant qu’enseignante, je suis impressionnée par les résultats obtenus par le recours à l’intelligence artificielle. Les perspectives semblent sans limites, dans des domaines aussi variés que l’agriculture, la logistique ou la santé.
À l’inverse, en tant que citoyenne, l’essor fulgurant de ces nouvelles technologies m’interroge : dans quel cadre les circonscrire, par quelle réglementation, pour quels objectifs et avec quelles conséquences pour notre société ?
Aussi, en tant que parlementaires, devons-nous mener un travail colossal sur ce sujet.
À cet égard, je salue les parlementaires européens, qui examinent en ce moment même l’Artificial Intelligence Act (AI Act), une proposition de règlement pour encadrer l’usage et la commercialisation des intelligences artificielles.
De même, je regarde avec intérêt la décision de l’Italie, qui vient de bloquer ChatGPT pour respecter la législation sur les données personnelles. L’interdiction n’est probablement pas la bonne solution, mais elle doit nous interroger sur les limites de cet outil.
Malgré la fascination que suscitent de telles innovations technologiques, nous devons garder les pieds sur terre et légiférer dans l’intérêt général.
Il y a dix ans, nous nourrissions de grands espoirs vis-à-vis des assistants numériques comme Siri ou Alexa ; il y a encore quelques mois, nous parlions des cryptomonnaies avec des étoiles dans les yeux. Pourtant, ces innovations n’ont fait que créer de nouveaux besoins, sans apporter de solutions concrètes.
Malgré la révolution informatique et la généralisation d’internet, la croissance de la productivité ralentit depuis trente ans. Si certains prophétisent de formidables gains de productivité et voient l’intelligence artificielle comme une poule aux œufs d’or, la réalité sera certainement tout autre.
Par ailleurs, nous devons nous interroger sur les conséquences sociales d’un développement massif de l’intelligence artificielle. Dans une récente étude, Goldman Sachs estimait que 300 millions d’emplois seraient menacés par l’essor de l’intelligence artificielle.
S’il ne sert à rien de crier au loup, nous ne pouvons ignorer cette alerte, d’autant qu’une partie des emplois qui sont créés par ces nouvelles technologies sont ingrats et mal payés. Derrière les ingénieurs, les petites mains de l’intelligence artificielle sont à l’ouvrage.
Des Kenyans employés par OpenAI sont ainsi payés entre 1 et 2 dollars par jour pour repérer les contenus toxiques, à un rythme soutenu et dans des conditions de travail déplorables. Si l’intelligence artificielle ne remplace pas nos emplois, elle pourrait être à l’origine d’une nouvelle dégradation du travail.
Enfin, l’intitulé de notre débat oublie un aspect fondamental, qu’il n’est plus acceptable d’ignorer au XXe siècle : je parle bien sûr de l’impact environnemental et climatique de l’intelligence artificielle.
En effet, le numérique représente d’ores et déjà 4 % des émissions de gaz à effet de serre dans le monde, dont une partie est imputable à l’intelligence artificielle. Entraîner un modèle tel que celui de ChatGPT pendant quatre à sept jours émettrait autant de gaz à effet de serre qu’un être humain en produit en 57 ans, et cette estimation progresse à mesure que les modèles d’intelligence artificielle se perfectionnent et accumulent des connaissances.
Derrière la chimère d’un numérique durable, dont les applications feraient disparaître par magie les risques environnementaux, il y a la réalité des chiffres. Ainsi, si les possibilités permises par l’intelligence artificielle nous font rêver, nous devons être pleinement conscients des impacts économiques, sociaux et environnementaux de cette technologie.
L’intelligence artificielle est là, elle fait déjà partie de nos vies. Il n’est donc pas question de l’interdire ou de la réserver à une élite. Toutefois, nous devons la réguler et la conditionner à sa plus-value sociale et environnementale. La technique n’est pas neutre, mais elle n’est ni bonne ni mauvaise en soi non plus. Elle est, comme l’a souligné le penseur Jacques Ellul, « ambivalente ». (Applaudissements sur les travées des groupes GEST et SER. – Mme Catherine Morin-Desailly applaudit également.)
M. le président. La parole est à Mme Sylvie Robert. (Applaudissements sur les travées du groupe SER.)
Mme Sylvie Robert. Monsieur le président, monsieur le ministre, mes chers collègues, en 2018, le Grand Palais organisait une exposition intitulée « Artistes & Robots ». En 2019, c’était au tour du Barbican Centre, à Londres, de présenter au public une exposition interactive intitulée « AI : More than Human ».
À la curiosité et à l’enthousiasme suscités par l’émergence de ces nouvelles technologies, d’abord perçues comme récréatives et utiles en matière de productivité, ont succédé l’inquiétude, la méfiance et, surtout, les questionnements.
Ne soyons pas dupes des intentions cachées de l’entrepreneur qui a orchestré la tribune tonitruante cosignée par plus de 1 000 experts du secteur de l’IA, même si elle a eu une vertu, celle de frapper les esprits en évoquant un moratoire. Il nous faut vraiment prendre du recul sur l’IA générative afin d’en mesurer les conséquences et de la réguler en mettant en place des garde-fous.
C’est d’ailleurs le sens de la décision de l’équivalent italien de la Cnil, qui a temporairement bloqué ChatGPT, pour deux motifs principaux. D’une part, aucun mécanisme de vérification de l’âge des mineurs n’est prévu, alors que le droit et la protection des mineurs en ligne sont un sujet politique majeur. D’autre part, ChatGPT a récolté indûment les données personnelles des utilisateurs italiens.
La protection des données personnelles et le respect de la vie privée des utilisateurs d’IA génératives sont des enjeux fondamentaux, au cœur de la régulation et du contrôle de ces dernières par les autorités de protection des données personnelles des différents États.
La difficulté de réguler l’IA – et les outils numériques dans leur ensemble – procède du fait que les usages se développent bien plus vite que la réglementation. Ainsi, ChatGPT est apparu dans le débat public après avoir été utilisé par les étudiants pour rédiger divers devoirs.
À cet égard, en matière éducative, l’IA générative pose plusieurs questions sérieuses.
Tout d’abord, elle est très souvent configurée pour fonctionner selon la technique du machine learning. En d’autres termes, elle est nourrie de contenus dont la fiabilité et la véracité peuvent être sujettes à caution, voire complètement fantaisistes.
Ensuite, ces contenus pouvant être orientés, l’IA peut apporter des réponses comportant des biais importants, notamment sociaux, raciaux et de genre, ce qui peut avoir des conséquences dramatiques dans la formation des élèves et dans leurs représentations.
Enfin, en l’état, l’usage d’IA génératives est contradictoire avec deux fondements essentiels de l’instruction, qui doit reposer sur des faits – et non de fausses informations – et favoriser l’acquisition d’aptitudes et de compétences par l’expérience. Dans le domaine de l’éducation, l’encadrement du recours aux IA se révèle donc primordial ; le fait de recourir à la médiation constitue un préalable minimal.
Par ailleurs, l’une des incidences les plus visibles de l’IA générative a trait au secteur culturel, singulièrement à la définition de l’acte de création et à la protection du droit d’auteur.
Sur ce point, je tiens à affirmer une position claire et sans ambiguïté : le cadre juridique, notamment européen, n’est ni adapté ni suffisant. Il est indispensable que l’Artificial Intelligence Act, en cours de discussion au Parlement européen et percuté de plein fouet par l’émergence des IA génératives, comporte des dispositions qui protègent les artistes-auteurs.
Au regard de la révolution que constituent ces IA, il n’est pas possible d’en rester à une simple possibilité d’opt-out pour les titulaires de droits qui ne souhaitent pas que leurs œuvres alimentent ces machines. Le statu quo serait synonyme de déséquilibre et de renoncement à l’effectivité du droit d’auteur.
Néanmoins, cet impératif de protection renforcée des créateurs, qui concerne l’ensemble des champs culturels, n’épuise aucunement la réflexion sur l’impact culturel de l’IA générative. À ce titre, le Conseil supérieur de la propriété littéraire et artistique a produit en 2020 un rapport sur l’intelligence artificielle et la culture, dans lequel il soulevait deux questions majeures, qui devront être traitées : quel statut accorder aux créations réalisées à partir d’une IA et aux personnes qui en sont à l’origine ? Surtout, un processus créatif est-il réellement à l’œuvre lorsque l’IA est utilisée ?
Ainsi, l’IA générative bouscule et interroge jusqu’à notre conception même de l’acte de création. Bien qu’elle en soit encore à ses prémices, il me semble que nous partageons l’intuition et la conviction qu’il nous faut impérativement l’encadrer, de sorte qu’elle soit porteuse du meilleur et non du pire. À nous de lui donner du sens ! (Applaudissements sur les travées des groupes SER, CRCE et GEST. – Mme Catherine Morin-Desailly applaudit également.)