B. LES MAGISTRATS, GREFFIERS ET AUTRES PROFESSIONNELS DES JURIDICTIONS : AU-DELÀ DU REFUS THÉORIQUE D'UNE JUSTICE DÉSHUMANISÉE, LE BESOIN PRATIQUE D'UN RATTRAPAGE NUMÉRIQUE
1. Le cadre législatif et réglementaire restreint les modalités d'emploi de l'intelligence artificielle générative par les professions juridictionnelles
a) Les contraintes juridiques au développement de la justice prédictive suscitent un consensus global que tous les acteurs concernés souhaitent conserver
La notion de justice prédictive recouvre des réalités diverses qu'il est important de distinguer, car elles ne font pas courir les mêmes risques et, partant, n'appellent pas l'application du même cadre juridique. La forme topique de justice prédictive consiste en la substitution d'un algorithme à une décision juridictionnelle. Le profilage se rattache à cette dernière, car il revient à abandonner à un algorithme l'analyse de la personnalité d'un individu ou d'un juge. Ces deux premières formes de la justice prédictive apparaissent unanimement rejetées par les acteurs du droit - et font l'objet d'interdictions législatives. Il existe toutefois des modalités de justice prédictive moins controversées, qui peuvent être assimilées à la jurimétrie ; il s'agit là par exemple d'identifier la décision la plus probable à partir d'une base de données. Cette démarche poursuit selon certains l'objectif de transparence et de prévisibilité du droit - sans compter qu'elle n'interfère a priori pas avec le processus décisionnel du juge.
Certaines formes de justice prédictive font donc l'objet d'une interdiction, établies tant en droit français, qu'en droit européen. Le droit français proscrit, en premier lieu, toute technique de profilage en matière juridictionnelle. L'article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, dite « informatique et libertés », interdit ainsi au juge de fonder une décision de justice sur une évaluation de personnalité qui serait issue d'un traitement automatisé de données à caractère personnel. De même, il prohibe que des décisions produisant des effets juridiques à l'égard d'une personne soient prises sur ce seul fondement - ce qui ne concerne pas seulement les décisions de justice.
Extrait de l'article 47 de la loi n° 78-17 du 6 janvier 1978
« Aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne.
Aucune décision produisant des effets juridiques à l'égard d'une personne ou l'affectant de manière significative ne peut être prise sur le seul fondement d'un traitement automatisé de données à caractère personnel, y compris le profilage, à l'exception :
1° Des cas mentionnés aux a et c du 2 de l'article 22 du règlement (UE) 2016/679 du 27 avril 2016 [...] ;
2° Des décisions administratives individuelles prises dans le respect de l'article L. 311-3-1 et du chapitre Ier du titre Ier du livre IV du code des relations entre le public et l'administration [...] ».
La loi « Informatique et libertés » du 6 janvier 1978, qui prévoyait en son ancien article 10 l'interdiction du profilage, a été mise en conformité avec le règlement (UE) 2016/679 du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD) par la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles et l'ordonnance n° 2018-1125 du 12 décembre 201884(*). Le paragraphe premier de l'article 22 du RGPD interdit la prise de toute décision produisant des effets juridiques sur le fondement exclusif d'un traitement automatisé de données.
Article 22 du RGPD, paragraphes 1 et 2
« 1. La personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire.
2. Le paragraphe 1 ne s'applique pas lorsque la décision :
a) est nécessaire à la conclusion ou à l'exécution d'un contrat entre la personne concernée et un responsable du traitement ;
b) est autorisée par le droit de l'Union ou le droit de l'État membre auquel le responsable du traitement est soumis et qui prévoit également des mesures appropriées pour la sauvegarde des droits et libertés et des intérêts légitimes de la personne concernée ;
c) est fondée sur le consentement explicite de la personne concernée. »
Cette interdiction, qui concerne au premier chef les décisions de justice, n'est toutefois pas absolue. D'une part, elle renvoie aux décisions fondées « exclusivement » sur un algorithme - ce qui n'interdit a priori pas d'y recourir de manière accessoire, ou, à l'inverse, d'intervenir à titre secondaire, en sus d'un éventuel outil d'intelligence artificielle. D'autre part, le deuxième paragraphe de l'article 22 précité prévoit des exceptions au principe général. Certains magistrats administratifs auditionnés redoutent que ces dernières puissent trouver une application en matière juridictionnelle et suggèrent d'en écarter explicitement la possibilité. Le consensus qui s'affirme quant à la nécessité de préserver le caractère humain de la justice laisse cependant à penser qu'une telle précision serait superfétatoire, spécialement suite à l'adoption du RIA.
La volonté de préserver le caractère humain de l'activité juridictionnelle apparaît partagée aux échelles européenne et nationale. Le RIA précise ainsi en son considérant 61 que si « l'utilisation d'outils d'intelligence artificielle peut soutenir le pouvoir de décision des juges ou l'indépendance judiciaire, [elle] ne devrait pas les remplacer, car la décision finale doit rester une activité humaine ». Cette formule synthétise les arguments qui ont été unanimement exprimés lors des auditions. Le RIA classe ainsi les outils d'intelligence artificielle générative dédiées aux autorités juridictionnelles parmi les systèmes « à haut risque » ; ce régime restrictif prévient le risque de la substitution d'un traitement algorithmique à une décision juridictionnelle.
Les représentants de l'ensemble des professions juridiques ont ainsi exprimé leur attachement au caractère humain de toute décision de justice, qu'il s'agisse des magistrats - administratifs ou judiciaires85(*) -, des greffiers86(*), des avocats87(*), du ministère de la justice88(*) ou d'un professeur d'Université89(*).
Il apparaît en effet que le raisonnement d'un juge n'est ni probabiliste, ni déterminé par les précédentes décisions, spécialement dans un système de droit continental qui repose sur la logique déductive du syllogisme. La décision de justice résulte en effet d'un cheminement spécifique, qui exige du temps et une procédure contradictoire voire délibérative. Cela permet aux juges d'identifier des solutions juridiques nouvelles, qui se traduisent par les évolutions et les revirements jurisprudentiels qui participent à la nécessaire plasticité du phénomène juridique.
La logique probabiliste propre à l'intelligence artificielle générative entraînerait au contraire une cristallisation du droit, qui se doublerait d'une uniformisation de celui-ci. Or, si le système juridique nécessite une certaine forme d'harmonisation de la jurisprudence, qu'il incombe aux cours suprêmes de préserver, une uniformisation de cette dernière nuirait à la confiance des citoyens en la justice, à son caractère symbolique et à son utilité sociale. L'exemple du « bon juge » Magnaud90(*), souvent cité dans les Facultés de droit, atteste de la qualité humaine que les justiciables attendent de la justice - et qu'il est impérieux de préserver grâce au maintien de l'office du juge dans sa dimension humaine.
Le développement de certaines formes de justice prédictive, qui s'attachent uniquement à déterminer la solution juridictionnelle la plus prévisible, est diversement accueilli par les personnes auditionnées par les rapporteurs. Certaines entités entendues par les rapporteurs y voient le moyen d'améliorer la transparence et la prévisibilité du droit, parmi lesquelles la Cour de cassation91(*), qui estime qu'une telle évolution pourrait inciter à recourir aux modes alternatifs de règlement des différends dans les situations où une solution prévisible et harmonisée est attendue. Il s'agit là principalement des contentieux dits de masse, tels que ceux relatifs aux pensions alimentaires, aux indemnités de licenciement ou à l'indemnisation des dommages corporels. Cette logique s'inscrit dans l'ambition pérenne de développer les modes alternatifs de règlement des différends, que la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice a notamment portée. Des organisations représentatives de magistrats et d'avocats rappellent toutefois leur opposition à ce que les décisions de justice soient rendues grâce à de tels outils de jurimétrie92(*). Au-delà de la préservation du rôle du juge, de telles méthodes pourraient dissuader des justiciables d'ester en justice.
Le cadre juridique actuel et la conception de la justice que partagent les différentes professions juridiques assurent que l'acte de juger demeure « une prérogative exclusive du magistrat »93(*). Les outils d'intelligence artificielle générative trouvent toutefois des applications diverses, qui pourraient s'avérer utiles aux personnels judiciaires, sans empiéter sur la décision de justice en elle-même.
b) Les cas d'usage permis et envisagés par les professionnels en juridiction apparaissent similaires à la pratique des autres métiers du droit
Le recours à des logiciels d'intelligence artificielle générative pourrait a priori faciliter l'accomplissement de certaines tâches juridictionnelles chronophages ou fastidieuses. Les autorités juridictionnelles sont toutefois soumises à des contraintes spécifiques d'usage des logiciels d'intelligence artificielle générative, qui résultent notamment de la réglementation relative au traitement des données. La loi « informatique et libertés », le RGPD et, à mesure qu'il entrera en vigueur, le RIA imposent aux juridictions d'observer un cadre particulier de traitement des données à caractère personnel.
Le secrétariat général du ministère de la justice précise, par exemple, qu'un tel encadrement nécessite, en matière civile, un arrêté portant création du traitement par l'autorité réglementaire responsable de celui-ci, conformément à la décision Jamart du Conseil d'État94(*), et en matière pénale, un décret en Conseil d'État pris après l'avis de la commission nationale de l'informatique et des libertés (CNIL)95(*).
Au surplus, l'usage d'un outil d'intelligence artificielle, générative ou non, est proscrit dès lors qu'il implique l'envoi de données - personnelles ou relatives au traitement des dossiers dont la confidentialité doit être garantie - vers des systèmes d'informatique en nuage non sécurisés. Il en va de même lorsque les données, hébergées à l'étranger, peuvent faire l'objet d'une demande de communication. Aussi, le ministère de la justice s'assure que les données sensibles soient traitées par une infrastructure labellisée « SecNumCloud », qui garantit la cybersécurité des services informatiques en nuage96(*). Les autorités juridictionnelles doivent en outre procéder à ces vérifications pour les composants extérieurs du service en question.
Le secrétariat général du ministère de la justice, le Conseil d'État et d'autres personnes auditionnées ont ainsi conclu à la nécessité de développer leurs propres outils d'intelligence artificielle générative au regard du cadre réglementaire actuel. Cela soulève des difficultés qui tiennent aux moyens tant financiers que techniques nécessaires. Les autorités juridictionnelles administratives et judiciaires entendent donc s'assurer du retour sur investissement de tels projets avant d'engager leur développement97(*).
Enfin, en application du RIA, des autorités de surveillance devront être instituées pour contrôler le développement des outils d'intelligence artificielle générative auprès des autorités juridictionnelles. La direction des services judiciaires a précisé qu'il est envisagé de confier cette mission aux autorités créées par la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique98(*).
Les représentants des autorités juridictionnelles auditionnés affirment en conséquence que les personnels ne recourent pas à des outils d'intelligence artificielle - à l'exception du Conseil d'État, qui concède l'usage, par certains de ses membres, de logiciels généralistes pour exécuter certaines tâches, telles que des recherches générales ou la conception de diapositives en vue d'une présentation99(*).
Le Conseil d'État, le secrétariat général du ministère de la justice et le syndicat de la justice administrative estiment par ailleurs que l'offre actuelle des entreprises du secteur de la legaltech manque de résultats probants qui la rendraient attractive pour les juridictions100(*).
Ainsi, du fait de ces contraintes réglementaires et techniques, mais aussi de l'attente des personnels en juridiction à ce sujet, les autorités juridictionnelles s'attachent à identifier des cas d'usage pertinents et réalisables d'outils d'intelligence artificielle générative.
Le secrétariat général du ministère de la justice a procédé, dès 2023, au recensement des cas d'usage de l'intelligence artificielle générative. Cette démarche a permis d'identifier quatre types principaux d'usage de cette technologie, que sont la synthèse, l'interprétariat, la retranscription et l'aide à la recherche.
La Cour de cassation a de surcroît créé une mission de réflexion sur les usages de l'intelligence artificielle, confiée à la directrice du service de la documentation, des études et du rapport (SDER). Si les travaux de cette mission n'ont pas encore abouti101(*), trois principaux types d'usage se sont toutefois distingués : l'amélioration de l'exploitation des mémoires ampliatifs, l'analyse des bases documentaires et l'assistance à la rédaction et à la mise en forme des travaux préparatoires. Les procureurs généraux ont en outre signifié leur intérêt quant à deux outils : l'un, d'aide à l'enregistrement et au traitement des infractions dites de masse ; l'autre, d'assistance à la rédaction de synthèses ou de réquisitoires définitifs102(*).
La magistrature administrative a identifié des cas d'usage similaires, qui rassemblent des outils sommaires - recherche jurisprudentielle, résumé de requête, rédaction de communiqués de presse, téléchargement automatique des écritures des parties - et des logiciels plus complexes - aide à la détection de séries ou de contentieux répétitifs, à l'identification des moyens dans les requêtes, à la rédaction de canevas de décision à partir d'instructions formulées par le magistrat103(*). Le Conseil d'État précise cependant que la rédaction d'une décision ne devrait pas être déléguée à un outil d'intelligence artificielle générative, car elle implique de qualifier juridiquement des faits ou d'interpréter le droit applicable. Il s'agirait plutôt d'une aide ponctuelle, qui apporterait une correction dactylographique, une amélioration de la mise en page et permettrait, grâce à un outil conversationnel, d'accéder à l'ensemble des outils internes d'assistance à la rédaction.
Les utilisations potentielles de l'intelligence artificielle générative au sein des autorités juridictionnelles se concentrent donc sur les recherches juridiques et l'instruction des dossiers, soit la phase préparatoire du jugement, pour que les magistrats puissent se concentrer sur les tâches qui ne peuvent incomber qu'à eux. De tels usages favoriseraient donc une « réhumanisation »104(*) de la justice susceptible d'améliorer la qualité de ce service public structurant de l'État de droit.
2. L'urgence du rattrapage numérique de l'administration de la justice : un préalable à l'adoption de l'intelligence artificielle, générative ou non
a) L'impérieuse nécessité de fournir des moyens informatiques et numériques appropriés aux juridictions judiciaires et administratives
L'appréhension des conséquences potentielles du développement de l'intelligence artificielle générative sur les autorités juridictionnelles implique une attention majeure à l'équipement informatique et numérique des juridictions. En effet, comme l'indiquait le rapport rendu par le comité des États généraux de la justice en avril 2022, l'informatique est « vécue comme un irritant majeur dans les juridictions » judiciaires.
Si le premier plan de transformation numérique du ministère de la justice a permis d'équiper en ultra-portables l'essentiel des agents et que le réseau a été amélioré, certaines juridictions ne sont pas encore reliées à la fibre optique, d'autres ne disposent pas d'un réseau wifi dans l'ensemble de leurs locaux - et surtout, les nombreuses difficultés liées aux applicatifs métiers demeurent.
Extrait du rapport du comité des États généraux de la justice105(*)
« Si un plan très ambitieux de transformation numérique a été engagé pour les années 2018 à 2022 et si certains résultats sont reconnus, les usagers expriment de très vives insatisfactions qui tirent leur origine de plusieurs causes : le dysfonctionnement récurrent, parfois quotidien, des infrastructures et réseaux et des applicatifs (lenteurs, suspensions et interruptions de service) ; l'archaïsme bureautique de certains logiciels, vérifié sur place par les membres du comité et l'obsolescence de certains applicatifs ; le sentiment d'une insuffisante anticipation des besoins des utilisateurs quant aux développements et à leur finition (trames, équipements, incompatibilité des systèmes...) ; le sentiment d'une absence de soutien et d'accompagnement technique, ce problème étant aggravé par le manque de clarté dans la répartition des responsabilités ; le sentiment inévitable, mais profond, que beaucoup de chantiers sont lancés en même temps, mais qu'aucun n'avance réellement, ni n'apporte de réponse aux besoins concrets des utilisateurs. »
La commission des lois et la commission des finances du Sénat, qui évaluent la politique numérique du ministère de la justice lors de l'examen du projet de loi de finances, constatent la permanence des difficultés rencontrées par les personnels en la matière, qu'il s'agisse de la maintenance délicate d'applicatifs souvent obsolètes, ou du développement laborieux des grands projets numériques. Les plus récents rapports en témoignent. La commission des lois observait en 2023 que « certaines difficultés demeurent irrésolues malgré la hausse des moyens » et qualifiait la politique numérique de « chantier sisyphéen de la Chancellerie »106(*). La commission des finances a souligné cette année encore que les manquements identifiés en matière numérique lors des États généraux de la justice et par une enquête de la Cour des comptes de 2022107(*) « demeuraient une réalité quotidienne pour les agents du ministère et qu'ils affectaient leur capacité à assurer un service public de la justice de qualité »108(*). Ce constat est étayé par le dernier avis rendu par la commission des lois, qui alerte quant à « la permanence des difficultés rencontrées par les personnels à l'usage des applicatifs désuets voire dysfonctionnels du ministère », aux « problèmes de développement de ses grands projets numériques » et aux « difficultés pratiques quotidiennes en matière informatique » que rencontrent les agents du ministère109(*).
Les rapporteurs s'inquiètent donc vivement du retard informatique et numérique de la Chancellerie. Au-delà des conséquences qu'il entraîne sur le bon fonctionnement du service public de la justice et de la dégradation des conditions de travail des agents en juridiction qui en résulte, ce retard technologique explique largement le décalage significatif qui s'installe en matière d'intelligence artificielle générative entre les professions judiciaires et les autres métiers du droit. Les premières dépendent de moyens informatiques souvent obsolètes et amorcent leur réflexion relative à l'intelligence artificielle générative, tandis que les seconds s'adaptent déjà à l'usage de cette dernière110(*). Le développement des outils d'intelligence artificielle générative accentue donc l'urgence de combler le retard numérique du ministère de la justice.
Le secrétariat général du ministère de la justice entend à ce titre intégrer l'adoption de l'intelligence artificielle générative à une démarche globale de réduction de la « dette technique » du système d'information de la Chancellerie. Il apparaît en effet avant tout impérieux de poursuivre le second plan de transformation numérique du ministère de la justice, dans la mesure où son succès conditionnera l'intégration des outils d'intelligence artificielle générative à l'environnement numérique de travail des agents du ministère de la justice. Ce plan repose sur trois axes principaux : l'investissement dans l'équipement numérique et les réseaux informatiques des juridictions ; l'amélioration des logiciels nécessaires au travail juridictionnel ; la poursuite de la dématérialisation des actes - signature électronique, transmission de pièces et de décisions - dans le cadre du projet « zéro papier ».
Si la situation apparaît moins préoccupante au sein de la juridiction administrative, où, par exemple, les outils de recherche jurisprudentielle internes sont appréciés - quoiqu'ils puissent être complétés et améliorés -, tant le Conseil d'État que le syndicat des magistrats administratifs signalent toutefois des besoins de personnel, notamment à la direction des systèmes d'information du Conseil d'État, et de matériel, dans la mesure où ils ne disposent pas d'outils de travail dématérialisé performants.
Proposition n° 9 : mettre à niveau les juridictions judiciaires et administratives en matière d'équipement informatique, d'automatisation des tâches et d'outils internes de recherche jurisprudentielle.
b) Les autorités juridictionnelles recourent davantage à l'intelligence artificielle non générative que générative
Si les autorités juridictionnelles ont déjà développé des outils reposant sur une intelligence artificielle non générative et continuent d'en concevoir de nouveaux, elles ne fournissent pas encore à leurs agents de logiciels d'intelligence artificielle générative. Ces derniers font toutefois l'objet de réflexions plus ou moins abouties.
La politique de diffusion des décisions de justice en données ouvertes a nécessité la conception d'outils d'anonymisation fondés sur une intelligence artificielle non générative. La Cour de cassation a donc conçu, dans le cadre de son propre laboratoire d'innovation, un logiciel qui permet d'occulter tous les noms, prénoms et identifiants indirects - numéros de compte bancaire, de sécurité sociale, date de naissance. Cet applicatif est adossé à une interface d'annotation en source ouverte qui permet la vérification et la correction des occultations suggérées. La Cour de cassation estime que les 20 agents annotateurs préposés au fonctionnement de ce logiciel accomplissent un travail qui nécessiterait, sans cette technologie, le concours de près de 300 agents ; ils traitent en effet près de 10 000 décisions par an et par agent. L'ouverture en données ouvertes des décisions de justice a également entraîné des réflexions générales au Conseil d'État en la matière, comme l'a indiqué aux rapporteurs le SJA.
L'intelligence artificielle non générative s'avère par ailleurs utile pour améliorer l'environnement numérique de travail des magistrats. Ainsi en est-il du logiciel « Poste rapporteur », qui permet aux magistrats administratifs de préremplir un modèle de jugement grâce à des données extraites d'un autre applicatif, « Skipper », ou du « portail contentieux », qui se substituera à diverses applications pour améliorer le suivi d'une instruction ou d'un stock. La Cour de cassation a quant à elle développé un algorithme qui procède au tri des mémoires ampliatifs dont elle est saisie.
Aussi, plusieurs autres dispositifs d'intelligence artificielle non générative sont en développement au sein des autorités juridictionnelles. Le Conseil d'État est ainsi en cours de conception d'un logiciel de pseudo-anonymisation des décisions pour améliorer la qualité de l'anonymisation actuelle de celles-ci, et un outil d'optimisation des calendriers d'audience de la Cour nationale du droit d'asile (CNDA). Il envisage au surplus de concevoir des applicatifs permettant de détecter des séries de requêtes, ou d'automatiser le remplissage des formulaires de contestation d'une décision administrative sur « Télérecours citoyens ».
L'autorité judiciaire, aussi, élabore plusieurs instruments d'intelligence artificielle non générative. La direction des affaires civiles et des grâces (DACG) et la direction du numérique (DNUM) développent ainsi un outil numérique qui repose partiellement sur l'intelligence artificielle, « Natinfo ». Celui-ci apporterait aux magistrats et autres agents juridictionnels des renseignements quant aux qualifications pénales, ce à partir de questions non structurées.
Le projet « Épopée », actuellement expérimenté dans le cadre du développement de la procédure pénale numérique (PPN), permettrait en outre l'exploitation de données insérées dans des documents au format « PDF ». Le tribunal judiciaire de Paris expérimenterait par ailleurs un outil de traduction automatique, « Traune ». Le parquet général de Grenoble aurait également suggéré, selon la conférence nationale des procureurs généraux (CNPG), de faciliter le traitement des procédures d'enquête les plus simples au moyen de l'intelligence artificielle non générative.
La Cour de cassation a enfin conduit un projet de recherche intitulé « Divergences » avec l'Institut national de recherche en sciences et technologies du numérique (Inria), après avoir remporté un appel à projets d'Etalab, qui appartient à la direction interministérielle du numérique (Dinum). L'objectif était qu'un algorithme détectât les jurisprudences contradictoires ou divergentes entre les différentes chambres de la Cour111(*). Cette démarche illustre le fait qu'une intelligence artificielle non générative pourrait assister les cours suprêmes dans leur fonction d'harmonisation - et non d'uniformisation - du droit. Le laboratoire d'innovation de la Cour et les magistrats du SDER continuent d'améliorer l'algorithme et entendent y adjoindre un logiciel d'intelligence artificielle générative permettant la rédaction automatique de sommaires.
Certains projets n'aboutissent toutefois pas, comme l'illustre le développement expérimental de « DataJust », permis par le décret n° 2020-356 du 27 mars 2020112(*). Il s'agissait d'élaborer un référentiel relatif à l'indemnisation des préjudices corporels, pour améliorer l'information des justiciables et apporter une aide à la décision juridictionnelle. Cet outil reposait sur un algorithme d'extraction automatique de trois jeux de données : les montants demandés et proposés par les parties, ceux alloués par les juridictions et les évaluations proposées dans le cadre des procédures amiables. L'expérimentation fut cependant abandonnée en janvier 2022, du fait de critiques diverses, qui tenaient principalement au risque de déshumanisation et d'uniformisation de la justice que cet outil charriait, et à la complexité technique que son développement induisait.
Les autorités juridictionnelles considèrent actuellement le développement d'outils d'intelligence artificielle générative à destination de leurs agents. Ces projets, élaborés à partir des cas d'usage exposés supra, apparaissent encore à l'étape de la conception.
Le secrétariat général du ministère de la justice a ainsi choisi, parmi les cas d'usage qu'il a identifiés, d'investir le champ de la retranscription, dit « speech to text ». La perspective retenue par la Chancellerie serait d'intégrer à terme à cet outil une fonction d'interprétariat, ce qui associerait deux cas d'usage des outils d'intelligence artificielle générative identifiés par le ministère de la justice - la retranscription et l'interprétariat. Le ministère de la justice a réalisé dès 2024 les investissements exigés par le développement d'une plateforme appropriée au développement des logiciels. Il est actuellement prévu de conduire les premières expérimentations « en mode projet »113(*) dès 2025 - et d'étudier d'autres applications potentielles de cette technologie dans ce cadre, pour l'aide qu'elle pourrait apporter au magistrat tant au calcul des délais qu'à la connaissance des dossiers114(*).
Le développement significatif des logiciels d'intelligence artificielle, générative ou non, justifie donc la désignation, au sein de chaque juridiction, d'un ou plusieurs référents en la matière. Cette pratique permettrait d'organiser un véritable suivi des usages et des réflexions en la matière ; suivi qui serait précieux dans la perspective de l'élaboration interne d'outils d'intelligence artificielle.
Proposition n° 10 : nommer un ou plusieurs référents en matière d'intelligence artificielle au sein de chaque juridiction.
3. À court terme, des effets potentiellement défavorables de l'intelligence artificielle générative sur l'exercice de la fonction juridictionnelle
a) Des conséquences potentiellement défavorables du recours croissant à l'intelligence artificielle générative des avocats et des justiciables
Le développement des usages de l'intelligence artificielle générative dans le domaine juridique devrait emporter des conséquences indirectes parfois néfastes pour les autorités juridictionnelles. Les représentants de ces dernières qui ont été auditionnés partagent plusieurs craintes, qui tiennent principalement aux effets pervers potentiels des outils d'intelligence artificielle générative sur le contentieux et sur l'utilisation qui pourrait être fait de la diffusion de l'identité du magistrat et du greffier ayant participé à la prise d'une décision de justice.
Les logiciels d'intelligence artificielle générative pourraient ainsi accentuer des phénomènes contentieux défavorables au bon fonctionnement de la justice. Tant le secrétariat général du ministère de la justice, la direction des services judiciaires, la Cour de cassation, l'USM, l'USMA et le SJA anticipent une nouvelle augmentation des entrées contentieuses, de la complexité et du volume des écritures, qui avaient déjà crû du fait de la dématérialisation. La Cour de cassation a par ailleurs produit aux rapporteurs, pour illustrer son propos, une note de la direction des affaires civiles et du sceau du 27 août 2021, et signalé que le ministère de la justice envisage de proposer une normalisation des écritures, quant à leur structure et au nombre de caractères qu'elles contiennent. Si les rapporteurs sont sensibles à l'inquiétude des magistrats à cet égard, ils jugent toutefois préférable de vérifier si ces effets potentiels se concrétisent avant de légiférer. En tout état de cause, ces conséquences entraîneraient, à effectif comparable, une hausse subséquente des délais de jugement qui nuirait au fonctionnement de la justice.
Les représentants du ministère de la justice et des autorités juridictionnelles redoutent par ailleurs que des algorithmes d'intelligence artificielle générative ne permettent d'identifier un plus grand nombre de vices de forme et de procédure, spécialement si les autorités de poursuite et de jugement ne disposent pas d'outils similaires.
Si certaines personnes auditionnées ont manifesté une inquiétude quant au développement de la volonté des justiciables d'ester en justice de manière autonome - l'autojuridication - cette crainte a toutefois été relativisée par plusieurs acteurs. Il apparaît tout d'abord que les logiciels d'intelligence artificielle générative généralistes ne permettent pas, du fait de leurs défauts, d'obtenir des résultats probants en matière juridique. Or, le coût des produits d'intelligence artificielle générative spécialisés en droit prive dans une très large mesure les justiciables de leur accès. Le droit actuel limite, par ailleurs et surtout, le risque d'autojuridication en matière judiciaire, car il impose souvent le ministère d'avocat et ne prévoit que de rares exceptions à cette obligation. La représentation par avocat est ainsi prescrite devant le tribunal judiciaire, en vertu de l'article 761 du code de procédure civile, à l'exception des litiges qui portent sur un montant inférieur ou égal à 10 000 euros et de ceux qui relèvent du juge des contentieux de la protection ou de certaines opérations électorales. Des dispositions similaires sont prévues devant le tribunal de commerce, en vertu de l'article 853 du même code, la cour d'appel et la Cour de cassation, conformément aux articles 899 et 973 dudit code. L'exception générale principale, devant le conseil des prud'hommes, se fonde sur les spécificités de ce contentieux, qui expliquent la possibilité pour les parties d'être assistées notamment par des représentants syndicaux, des salariés ou des employeurs, en vertu de l'article L. 1453-1 du code du travail.
Les autorités juridictionnelles craignent surtout le profilage, voire le ciblage de certains juges et greffiers dont l'identité figure sur les décisions de justice, qui sont désormais diffusées en données ouvertes115(*). Il s'agit là d'une inquiétude qui dépasse la seule question des algorithmes d'intelligence artificielle générative, dans la mesure où elle porte sur le principe même de l'accès, sur internet, à de telles informations.
Certes, l'article L. 10 du code de justice administrative et l'article L. 111-13 du code de l'organisation judiciaire disposent tous deux que « les données d'identité des magistrats et des membres du greffe ne peuvent faire l'objet d'une réutilisation ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. La violation de cette interdiction est punie des peines prévues aux articles 226-18,226-24 et 226-31 du code pénal, sans préjudice des mesures et sanctions prévues par la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés ». Toutefois, cette interdiction de traitement algorithmique des décisions de justice à fin de profilage apparaît insuffisante à certains représentants de magistrats, qui la jugent aisément contournable, en procédant à l'analyse des décisions de la formation de jugement ou de la juridiction.
En outre, ces mêmes dispositions prévoient que, « lorsque sa divulgation est de nature à porter atteinte à la sécurité ou au respect de la vie privée de ces personnes ou de leur entourage, est également occulté tout élément permettant d'identifier les parties, les tiers, les magistrats et les membres du greffe ». Cette possibilité laissée aux autorités juridictionnelles d'anonymiser au cas par cas les magistrats et les membres du greffe ne paraît pas assez protectrice aux autorités juridictionnelles. Le ministère de la justice entend en conséquence engager des réflexions à ce sujet avec la Cour de cassation116(*).
Les rapporteurs, sensibles aux inquiétudes diverses que la publicité de l'identité des magistrats et greffiers suscite, estiment qu'il serait opportun d'étendre à ces derniers l'anonymisation des décisions diffusées en sources ouvertes. Cette évolution législative permettrait de concilier les vertus de la politique d'ouverture des données juridictionnelles et les impératifs qui tiennent à la sécurité des agents en juridiction, comme à la sérénité nécessaire au bon fonctionnement de la justice. Or, celles-ci pourraient être compromises dans les prochaines années, à mesure que les décisions de justice relevant des contentieux pénaux seront diffusées. L'arrêté du 28 avril 2021117(*) prévoit que les décisions rendues en matière criminelle feront l'objet d'une diffusion en données ouvertes à compter du 31 décembre 2025. Les rapporteurs jugeraient donc bienvenu qu'il soit procédé à l'anonymisation des magistrats et des greffiers avant cette échéance, étant précisé que leur nom figurerait toujours dans la décision transmise aux parties.
Proposition n° 11 : anonymiser les magistrats et les greffiers dans les décisions de justice publiées en données ouvertes.
b) Un besoin d'accroissement des personnels des juridictions pour faire face à l'usage de l'intelligence artificielle générative
L'adoption d'outils d'intelligence artificielle générative par les avocats - et les justiciables - pourrait ainsi amplifier les effets pervers indirects que les technologies numériques emportent pour les personnels juridictionnels. Si ces craintes devaient se concrétiser, cela accentuerait le besoin de recrutement que connaissent les autorités juridictionnelles.
Les États généraux de la justice et la loi n° 2023-1059 du 20 novembre 2023 d'orientation et de programmation du ministère de la justice 2023-2017 (LOPJ) ont respectivement souligné et consacré la nécessité de conduire une politique ambitieuse de recrutement au ministère de la justice.
Les magistrats administratifs soulignent aussi les difficultés qu'ils connaissent du fait d'un manque de personnel conjugué à une hausse sensible des saisines. Selon le SJA, les entrées contentieuses auraient ainsi augmenté de 46 % ces dix dernières années, tandis que les effectifs de magistrats n'auraient en moyenne progressé que de 4 %.
Le développement de logiciels d'intelligence artificielle générative au bénéfice des personnels juridictionnels ne devrait pas davantage provoquer la réduction des besoins de recrutement des juridictions administratives et judiciaires. La hausse continue de l'activité contentieuse - qui pourrait s'amplifier au gré de l'adoption de l'intelligence artificielle générative par les avocats et les justiciables - et le déficit chronique de recrutement au sein des juridictions expliquent la persistance vraisemblable du besoin d'augmentation des effectifs juridictionnels.
Les personnels en juridiction estiment au surplus que l'intelligence artificielle générative affectera moins l'essence que la nature de leur emploi. Il s'agit là d'une appréciation partagée par l'essentiel des professions juridiques (voir supra), qui apparaît particulièrement fondée pour les magistrats et autres agents juridictionnels. Le consensus relatif au caractère intrinsèquement humain de la justice suffit à l'établir.
L'adoption réussie de l'intelligence artificielle générative par les juridictions devrait ainsi permettre l'amélioration de la qualité de travail de leurs agents et, partant, des conditions dans lesquelles la justice est rendue. Les magistrats et autres professionnels juridictionnels pourraient donc employer à l'exercice de leurs fonctions essentielles le temps libéré par l'optimisation, voire l'automatisation des tâches les plus répétitives qu'il leur revient d'effectuer118(*). Aussi, l'École nationale des greffes estime que l'affirmation des logiciels d'intelligence artificielle générative pourrait participer à la restauration de l'attractivité de la profession de greffier, dont l'exercice devrait, grâce à ces évolutions, devenir moins « routinier » et solliciter davantage l'« esprit critique »119(*).
L'évolution de la nature des emplois juridictionnels que le développement de l'intelligence artificielle générative pourrait entraîner gagnerait à éclairer les réflexions du ministère de la justice quant à l'organisation des juridictions. L'adoption d'outils d'intelligence artificielle générative pourrait en effet clarifier la répartition des fonctions au sein des juridictions, entre, spécialement, le magistrat, l'attaché de justice et le greffier. La direction de projet « Modélisation des organisations », instituée en 2023 au sein de la direction des services judiciaires pour oeuvrer à l'amélioration de l'organisation du travail en juridiction, devrait ainsi inclure à ses travaux des réflexions relatives au développement de logiciels d'intelligence artificielle générative.
La conception, l'adoption et la maintenance d'outils d'intelligence artificielle générative exigent enfin la création d'emplois spécifiques. Il s'agit par exemple d'informaticiens, nécessaires au développement des directions des systèmes d'information des autorités juridictionnelles, de correspondants informatiques, qui assurent l'assistance technique au sein des juridictions, ou d'autres agents.
La politique de diffusion des décisions de justice en données ouvertes a notamment provoqué le développement des fonctions d'annotateur à la Cour de cassation. L'anonymisation des décisions mobilise ainsi 20 agents annotateurs, qui entraînent l'algorithme et vérifient les suggestions de ce dernier120(*). La Cour de cassation entend par ailleurs conserver et développer son laboratoire de recherche et d'innovation, qui est actuellement rattaché au SDER et compte huit développeurs, ingénieurs et développeurs-opérateurs. Cette volonté est d'autant plus justifiée que les autorités juridictionnelles devront, pour l'essentiel, développer leurs propres solutions d'intelligence artificielle générative, compte tenu de la réglementation qu'elles doivent observer.
Aussi, du fait de la hausse des entrées contentieuses que le développement de l'intelligence artificielle générative pourrait accentuer, du déficit durable de recrutement au sein des autorités juridictionnelles et des nouveaux besoins en personnel qu'engendrera l'adoption de cette technologie, il apparaît vraisemblable que les effectifs des personnels en juridiction connaîtront, ceteris paribus, une augmentation dans les années à venir.
* 84 Ordonnance n° 2018-1125 du 12 décembre 2018 prise en application de l'article 32 de la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles et portant modification de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés et diverses dispositions concernant la protection des données à caractère personnel.
* 85 Contributions écrites du syndicat de la juridiction administrative (SJA) et de l'union syndicale des magistrats administratifs (USMA).
* 86 Contributions écrites de l'union nationale des syndicats autonomes services judiciaires et du syndicat des greffiers de France Force ouvrière.
* 87 Contributions écrites du conseil national des barreaux et de l'Ordre des avocats au Conseil d'État et à la Cour de cassation.
* 88 Contribution écrite du secrétariat général du ministère de la justice.
* 89 Contribution écrite du professeur Thibaut Massart.
* 90 Le juge Paul Magnaud relaxa en 1898 une jeune fille-mère accusée d'avoir volé du pain à un boulanger pour substanter son enfant, qui n'avait rien ingéré depuis plus d'un jour. Il fonda pour ce faire sa décision sur l'état de nécessité de l'intéressée, au gré d'une interprétation constructive de l'ancien article 64 du code pénal.
* 91 Contribution écrite de la Cour de cassation.
* 92 Contributions écrites du CNB, du SJA et de l'USMA.
* 93 Contribution écrite du SJA.
* 94 Conseil d'Etat, Section, du 7 février 1936, N° 43321, publié au recueil Lebon.
* 95 Contribution écrite du secrétariat général du ministère de la justice.
* 96 Ibid.
* 97 Contributions écrites du secrétariat général du ministère de la justice, du Conseil d'État, du SJA et de la conférence nationale des directeurs de greffe (CNDG).
* 98 Les articles 45 à 47 de la loi n° 2024-449 du 21 mai 2024 instaurent des autorités de contrôle des opérations de traitement de données à caractère personnel au sein des juridictions judiciaires, administratives et financières.
* 99 Il convient au surplus de noter que certains outils spécialisés, dont Doctrine, sont libres d'accès aux magistrats.
* 100 Contributions écrites du secrétariat général du ministère de la justice, du Conseil d'État et du SJA.
* 101 Le rapport conclusif de cette mission de réflexion paraîtra a priori à l'issue de l'année 2024 ou au début de l'année 2025.
* 102 Contribution écrite de la conférence nationale des procureurs généraux.
* 103 Contributions écrites du Conseil d'État et du SJA.
* 104 Contribution écrite du Conseil d'État.
* 105 Comité des États généraux de la justice, « Rendre justice aux citoyens », avril 2022, p. 91.
* 106 Avis n° 134 (2023-2024) d'Agnès Canayer et Dominique Vérien, fait au nom de la commission des lois du Sénat, déposé le 23 novembre 2023.
* 107Cour des comptes, Point d'étape du plan de transformation numérique du ministère de la justice, janvier 2022.
* 108 Annexe n° 18 « Justice » d'Antoine Lefèvre, rapporteur spécial, au Tome III du Rapport général n° 144 (2024-2025) sur le projet de loi de finances pour 2025 de Jean-François Husson, rapporteur général, fait au nom de la commission des finances, déposé le 21 novembre 2024.
* 109 Avis n° 150 (2024-2025) de Lauriane Josende et Dominique Vérien, fait au nom de la commission des lois du Sénat, déposé le 21 novembre 2024.
* 110 Voir supra, pp. 41-59.
* 111 Thibault Charmet, et al. « Complex Labelling and Similarity Prediction in Legal Texts : Automatic Analysis of France's Court of Cassation Rulings », LREC 2022.
* 112 Décret n° 2020-356 du 27 mars 2020 portant création d'un traitement automatisé de données à caractère personnel dénommé « DataJust ».
* 113 Cette expression, issue de la gestion d'entreprise, renvoie à une méthode de travail collaborative, qui repose sur de nombreux échanges entre les concepteurs, les développeurs et les utilisateurs d'un produit.
* 114 Contribution écrite du secrétariat général du ministère de la justice.
* 115 Contribution écrite du secrétariat général du ministère de la justice.
* 116 Le secrétariat général du ministère de la justice conduit par ailleurs un groupe de travail qui étudie la cohérence des occultations et la préservation des intérêts que la loi protège, dans le cadre du régime de délivrance des copies d'une décision de justice aux tiers, lequel a été modifié par le décret n° 202-797 du 29 juin 2020 relatif à la mise à la disposition du public des décisions des juridictions judiciaires et administratives.
* 117 Arrêté du 28 avril 2021 pris en application de l'article 9 du décret n° 2020-797 du 29 juin 2020 relatif à la mise à la disposition du public des décisions des juridictions judiciaires et administratives.
* 118 Contribution écrite du secrétariat général du ministère de la justice.
* 119 Contribution écrite de l'école nationale des greffes.
* 120 Voir supra, p. 67.