C. L'ÉTAT ET LES ACTEURS DU SECTEUR S'ACCORDENT TOUS QUANT AU BESOIN DE STABILITÉ NORMATIVE
1. La réglementation applicable aux logiciels d'intelligence artificielle générative, qu'elle leur soit spécifique ou non, apparaît déjà substantielle
a) Les outils d'intelligence artificielle générative doivent se conformer au règlement sur l'intelligence artificielle comme à d'autres textes européens et nationaux applicables
Le droit européen contient plusieurs textes qui trouvent à s'appliquer en matière d'intelligence artificielle générative, qu'il s'agisse du RIA, spécifique à l'intelligence artificielle, ou, principalement, du RGPD, qui régit le traitement des données à caractère personnel.
Le règlement (UE) 2024/1689 du 13 juin 2024
établissant des règles harmoniées concernant
l'intelligence artificielle, dit RIA, ou en anglais AI Act,
entré en vigueur le 1er août 2024, connaîtra une
application progressive, entre février 2025 et août 2027. Cet acte
de l'Union européenne vise à établir un cadre
juridique général applicable en matière d'intelligence
artificielle. La direction des affaires civiles et du sceau a
souligné à cet égard qu'une série d'actes
complémentaires - les actes délégués et
d'exécution de
la Commission européenne comme la doctrine
des régulateurs - devra encore être adoptée pour
déterminer précisément les modalités d'application
du RIA à certains secteurs, dont celui de la
justice141(*).
Le RIA repose sur une structure pyramidale, qui distingue les intelligences artificielles « interdites », « à haut risque », « à risque limité » et « à risque faible ou minimal » - et retient, pour chacune d'entre elles, des règles juridiques différentes, de manière à ce que la contrainte réglementaire soit proportionnée aux risques que chacune de ces catégories entraîne. Le Conseil d'État a signifié aux rapporteurs qu'une telle approche le satisfaisait142(*). Les outils d'intelligence artificielle utilisés par l'administration de la justice - qui comptent donc naturellement les autorités juridictionnelles - appartiennent à la catégorie des logiciels « à haut risque »143(*), comme le prévoit le point 8 a) de l'annexe III du RIA.
Extrait de l'annexe III du RIA
« 8. Administration de la justice et processus démocratiques :
a) systèmes d'intelligence artificielle destinés à être utilisés par les autorités judiciaires ou en leur nom, pour les aider à rechercher et à interpréter les faits ou la loi, et à appliquer la loi à un ensemble concret de faits, ou à être utilisés de manière similaire lors du règlement extrajudiciaire d'un litige ».
Il apparaît donc que le régime des intelligences artificielles « à haut risque » s'applique aux autorités juridictionnelles, mais pas aux professions réglementées du droit. Les rapporteurs considèrent, comme le secrétariat général du ministère de la justice, que les codes de bonne conduite des professions réglementées et des juristes d'entreprise devront suppléer cette différence réglementaire.
Le régime de systèmes d'intelligence artificielle « à haut risque » est en effet le plus restrictif du RIA, après l'interdiction prévue pour certaines applications éventuelles de l'intelligence artificielle, que sont, par exemple, la notation sociale ou la police prédictive ciblant des individus. Le développement de tels systèmes d'intelligence artificielle, générative ou non, sera donc en vertu du RIA soumis à des exigences renforcées en matière d'évaluation de conformité, de documentation technique ou de mécanisme de gestion des risques.
Les fournisseurs de systèmes d'intelligence artificielle à haut risque peuvent toutefois établir que leur algorithme n'influence pas directement le résultat d'un processus de prise de décision, comme le prévoit le RIA en l'article 6, de la section 1 du chapitre III.
Paragraphe 3 de l'article 6, de la section 1 du chapitre III du RIA
« 3. Par dérogation au paragraphe 2, un système d'intelligence artificielle visé à l'annexe III n'est pas considéré comme étant à haut risque lorsqu'il ne présente pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n'ayant pas d'incidence significative sur le résultat de la prise de décision.
Le premier alinéa s'applique lorsqu'une des conditions suivantes est remplie :
a) le système d'intelligence artificielle est destiné à accomplir une tâche procédurale étroite ;
b) le système d'intelligence artificielle est destiné à améliorer le résultat d'une activité humaine préalablement réalisée ;
c) le système d'intelligence artificielle est destiné à détecter les constantes en matière de prise de décision ou les écarts par rapport aux constantes habituelles et n'est pas destiné à se substituer à l'évaluation humaine préalablement réalisée, ni à influencer celle-ci, sans examen approprié ; ou
d) le système d'intelligence artificielle est destiné à exécuter une tâche préparatoire en vue d'une évaluation pertinente aux fins des cas d'utilisation visés à l'annexe III.
Nonobstant le premier alinéa, un système d'intelligence artificielle visé à l'annexe III est toujours considéré comme étant à haut risque lorsqu'il effectue un profilage des personnes physiques ».
Le RIA prévoit donc plusieurs cas d'application de l'intelligence artificielle - générative ou non - qui soustraient les solutions en cause au régime des algorithmes « à haut risque ». Ces cas de figure, énoncés au paragraphe 3 de l'article 6, de la section 1 du chapitre III du RIA, correspondent aux cas d'usage identifiés par les professionnels du droit auditionnés par les rapporteurs.
L'entrée en application graduelle du RIA, l'évolution rapide de la technologie en cause et les questions juridiques qui pourraient progressivement s'élever en la matière justifient a priori d'observer une stabilité normative avant d'envisager de nouvelles évolutions réglementaires144(*).
Les systèmes d'intelligence artificielle générative doivent en outre se conformer à d'autres textes européens, au premier rang desquels le RGPD145(*). Si le RGPD est d'application directe en droit national, il laisse toutefois plusieurs « marges nationales d'appréciation » qui ont justifié l'adaptation de la loi « informatique et libertés » du 6 janvier 1978 par la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles et l'ordonnance n° 2018-1125 du 12 décembre 2018, prise en application de l'article 32 de la loi n° 2018-493 précitée.
Les professionnels du droit doivent donc, tout d'abord, en vertu de ce cadre général, veiller à la conformité de l'usage d'un traitement de données à caractère personnel aux articles 5 et 6 du RGPD. L'article 5 du RGPD établit plusieurs principes structurants auquel le traitement de données doit obéir. Il énonce ainsi les principes de licéité, de loyauté et de transparence. Les données doivent par ailleurs avoir été « collectées pour des finalités déterminées, explicites et légitimes » - et elles doivent être également « traitées de façon à garantir une sécurité appropriée ». L'article 6 du RGPD dispose par ailleurs qu'un traitement de données « n'est licite que si, et dans la mesure où, au moins une des conditions » qu'il mentionne est satisfaite. Les métiers du droit devraient a priori tous pouvoir satisfaire une condition de licéité au regard des cas d'usage évoqués supra ; les professions juridiques réglementées pourront arguer du fait que « la personne concernée a consenti au traitement de ses données à caractère personnel pour une ou plusieurs finalités spécifiques » ; les autorités juridictionnelles, que « le traitement est nécessaire à l'exécution d'une mission d'intérêt public ou relevant de l'exercice de l'autorité publique dont est investi le responsable du traitement ».
Le RGPD impose par ailleurs en ses articles 12, 13 et 14 une obligation de transparence à l'endroit des responsables de traitement de données à caractère personnel. Aussi doivent-ils transmettre aux personnes concernées par ledit traitement une information compréhensible, aisément accessible et concise.
L'automatisation des décisions et le profilage sont également prohibés par le RGPD. L'article 22 de ce texte dispose ainsi que « la personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire » ; l'interdiction de ces formes de la justice prédictive apparaît ainsi conforme à l'analyse unanime des personnes auditionnées par les rapporteurs, comme ce fut observé supra.
Comme ce fut précisé supra, la loi française prescrivait déjà le profilage, à l'ancien article 10 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés. Cette interdiction, qui figure désormais à l'article 47 de la loi « informatique et libertés », a été étendue, conformément au cadre établi par le RGPD, aux décisions produisant des effets juridiques à l'égard d'une personne prises « sur le seul fondement d'un traitement automatisé de données à caractère personnel, y compris le profilage » - et plus seulement « sur le seul fondement d'un traitement automatisé de données destiné à définir le profil de l'intéressé ou à évaluer certains aspects de sa personnalité ».
La direction des affaires civiles et du sceau a rappelé aux rapporteurs que les différentes professions juridiques ont intégré les exigences du RGPD à leur pratique. Le conseil national des barreaux a diffusé un guide spécifique à ce règlement, tandis que les officiers publics et ministériels, tels que les commissaires de justice et les notaires, ont intégré le respect des obligations de protection des données à caractère personnel à leurs règles déontologiques. La commission nationale de l'informatique et des libertés (CNIL) contrôle enfin le bon respect du RGPD par les professionnels du droit.
Le Conseil d'État a souligné auprès des rapporteurs qu'il sera par ailleurs vraisemblablement nécessaire d'oeuvrer à la conciliation entre le RIA et le RGPD. Le premier entend favoriser l'exploitation des données par les systèmes d'intelligence artificielle, tandis que le second garantit la protection des données ; les prescriptions que ces règlements formulent quant à la conservation des données pourraient donc provoquer quelque contradiction.
Suivant cette logique de conciliation entre le développement de l'intelligence artificielle générative et certaines exigences contradictoires qui découlent du RGPD, les rapporteurs souhaitent qu'il soit remédié à une préoccupation avancée par une entreprise de la legaltech auditionnée146(*). Si le législateur a mis en conformité le traitement des données de justice diffusées en données ouvertes avec le RGPD, il a omis de sécuriser une pratique qui participe de la même démarche. Dans l'attente de l'aboutissement, en 2026, de la politique de diffusion des décisions de justice en données ouvertes, et pour les décisions antérieures à 2021, les éditeurs juridiques et les entreprises de la legaltech obtiennent directement des juridictions communication des décisions non encore diffusées, conformément aux articles L. 111-14 du code de l'organisation judiciaire et L. 10-1 du code de justice administrative. Or, comme l'a signalé la CNIL au Gouvernement dans une note du 27 avril 2021, ces transmissions méconnaissent vraisemblablement les exigences du RGPD, car elles ne sont pas prévues par les articles 44 et 46 de la loi « informatique et libertés ». Les rapporteurs jugent donc opportun de sécuriser cette pratique, qui pallie l'entrée en application progressive de la diffusion des décisions de justice en données ouvertes.
Proposition n° 20 : sécuriser la réutilisation des informations publiques contenues dans les décisions de justice rendues avant l'ouverture des données juridiques, ce au regard de l'interdiction de traitement des données sensibles établie par le RGPD.
b) Les professionnels du droit sont en outre soumis, lorsqu'ils recourent à une intelligence artificielle générative, aux principes déontologiques et aux codes de bonne conduite de leur profession
Lorsqu'il utilise un algorithme d'intelligence artificielle générative, un professionnel du droit doit non seulement se conformer aux réglementations européennes et nationales applicables, mais aussi observer les principes déontologiques et les codes de bonne conduite propres à son métier.
Les principes déontologiques des différentes professions juridiques s'appliquent en effet à l'utilisation des outils d'intelligence artificielle générative. Le principe du secret professionnel, qui vaut pour l'essentiel des professions réglementées147(*), prescrit la communication de données relatives à leurs clients à des intelligences artificielles génératives. Les principes de compétence, de prudence et d'indépendance des avocats, qui figurent à l'article 3 de leur code de déontologie, les contraint par ailleurs à contrôler la fiabilité des productions d'un outil d'intelligence artificielle générative148(*). Des principes similaires sont reconnus dans les codes de déontologie des autres professions du droit149(*). Les codes de déontologie des différents métiers du droit permettent donc déjà d'apporter une régulation significative dans l'usage des logiciels d'intelligence artificielle générative, comme l'a souligné la direction des affaires civiles et du sceau.
Les rapporteurs constatent avec satisfaction que la plupart des représentants des professions réglementées auditionnés a en outre engagé l'élaboration d'un code de bonne conduite spécifique à l'intelligence artificielle générative.
L'existence d'une réglementation européenne et nationale fournie en matière d'intelligence artificielle et l'adaptation des principes déontologiques comme des codes de bonne pratique à l'affirmation de cette technologie expliquent l'opposition quasi-unanime des personnes auditionnées à l'évolution du cadre juridique actuel150(*).
Certaines entreprises du secteur de la legaltech, à l'instar de Tomorro, soulignent en outre que le développement des règles juridiques applicables à l'intelligence artificielle générative pourrait contenir la dynamique d'innovation que connaît actuellement ce secteur - et dont témoigne l'actualité technologique récente151(*).
L'articulation entre les réglementations européennes et nationales et les codes de déontologie et de bonne conduite propres aux différents métiers du droit fournit ainsi un cadre juridique adapté à l'affirmation de l'intelligence artificielle générative. Si l'usage de cette technologie connaît ainsi certaines limites législatives, qui font l'objet d'un consensus global - ainsi du profilage ou de la substitution du traitement algorithmique à la décision juridictionnelle -, il obéit pour le reste aux codes professionnels, qui ont su s'adapter aux précédentes innovations informatiques et numériques.
La satisfaction des professionnels du droit à l'égard du cadre juridique actuel s'est en outre manifestée par leur rejet d'une éventuelle adaptation de ce dernier pour limiter les risques qu'est susceptible d'entraîner le développement de l'intelligence artificielle générative pour leurs métiers.
2. Les potentielles réglementations spécifiques à l'application de l'intelligence artificielle au secteur juridique suscitent l'unanime réprobation des acteurs du droit
Les différents acteurs du droit se sont prononcés au sujet des différentes réglementations qui pourraient a priori remédier aux éventuels effets néfastes de l'intelligence artificielle générative dans le domaine juridique. La question a par exemple été posée de savoir si le risque d'autojuridication devait, selon elles, être limité par l'extension de la représentation obligatoire par avocat ou par la restriction de l'accès aux outils d'intelligence artificielle générative juridiques. Or, les magistrats - judiciaires et administratifs -, les services du ministère de la justice et les avocats sont vivement opposés à de telles réglementations152(*).
Concernant le développement du caractère obligatoire du magistère d'avocat, la seule modeste réserve a été exprimée par le conseil national des barreaux, dont la commission d'accès au droit réfléchit actuellement à des manières d'« éviter l'utilisation intempestive d'outils [d'intelligence artificielle générative] sans avocat ». Le CNB estime en outre que certaines bonnes pratiques suffiraient à tempérer le risque d'autojuridication. Les outils d'intelligence artificielle générative pourraient ainsi mentionner expressément le risque d'erreur, voire recommander la consultation d'un professionnel du droit. Les rapporteurs partagent cette appréciation, dont ils ont tiré la proposition n° 1. Les magistrats administratifs justifient quant à eux leur opposition à une telle réglementation par la tradition d'ouverture du prétoire du juge administratif. Aussi préfèrent-ils intégrer sur « Télérecours citoyen » des maquettes de requête pour remédier aux risques qu'entraînerait le développement de l'autojuridication, plutôt que de prévoir de nouveaux cas dans lesquels la représentation par avocat serait obligatoire.
Les personnes auditionnées jugent également, unanimement, que l'établissement d'un accès restreint aux logiciels d'intelligence artificielle générative serait préjudiciable au principe d'égalité dans l'accès à la justice et au droit. Il a également été observé, comme ce fut évoqué supra, que le coût significatif des solutions juridiques fondées sur cette technologie constitue déjà en pratique une restriction d'accès suffisante.
La réglementation n'apparaît donc pas souhaitable en la matière, selon la quasi-unanimité des personnes auditionnées par les rapporteurs, en dehors des évolutions susceptibles de favoriser le développement des différents acteurs concernés. Clara Chappaz, alors secrétaire d'État chargée de l'intelligence artificielle et du numérique, a précisé dans la réponse écrite qu'elle a transmise aux rapporteurs que ses services identifieraient, en collaboration avec le ministère de la justice, de telles évolutions normatives, en veillant à ce qu'elles ne méconnaissent pas le principe de sécurité juridique et l'exigence d'éthique.
* 141 Contribution écrite de la direction des affaires civiles et du sceau.
* 142 Contribution écrite du Conseil d'État.
* 143 Le chapitre III du RIA, intitulé « Systèmes d'IA à haut risque », précise le cadre juridique de ces derniers.
* 144 Contribution écrite du Conseil d'État.
* 145 Les algorithmes d'intelligence artificielle générative devront aussi, en fonction de leurs caractéristiques, se conformer au règlement sur les données (en anglais, Data Act), au règlement sur les marchés numériques (en anglais, digital markets act, DMA) ou encore au règlement sur les services numériques (en anglais, digital services act, DSA).
* 146 Contribution écrite de Doctrine.
* 147 Articles 4 et 5 du code de déontologie des avocats, articles 12 et 13 du code de déontologie des avocats au Conseil d'État et à la Cour de cassation, article 8 du code de déontologie des notaires, article 5 du code de déontologie des commissaires de justice.
* 148 Pour les avocats au Conseil d'État et à la Cour de cassation, le principe d'indépendance figure aux articles 4 et 5 de leur code de déontologie, et le principe de compétence, en l'article 24 du même code.
* 149 L'article 3 du code de déontologie des notaires prévoit un principe de loyauté et d'impartialité ; les articles 2 et 8 du code de déontologie des commissaires de justice consacrent respectivement un principe d'indépendance et de compétence.
* 150 Tel est le cas de : France Digitale, la chambre des notaires de Paris, du conseil supérieur du notariat, Juriconnexion, Doctrine, Open Law et du professeur Thibaut Massart.
* 151 Contribution écrite de Tomorro.
* 152 Contributions écrites de la direction des affaires civiles et du sceau, de la Cour de cassation, du Conseil d'État, de l'USMA et du conseil national des barreaux.