LA MISE EN PLACE D'UN NOUVEAU CADRE JURIDIQUE HORIZONTAL POUR L'IA, FONDÉ SUR UNE APPROCHE PAR LE RISQUE
La proposition de règlement sur l'intelligence artificielle repose sur une approche fondée sur le risque, en distinguant les systèmes d'IA qui génèrent un risque inacceptable, ceux qui génèrent un haut risque, et ceux dont l'utilisation présente un risque faible.
Cette nouvelle réglementation est conçue comme un instrument horizontal, qui pourra être complété par des réglementations spécifiques dans un certain nombre de secteurs.
· En premier lieu, certaines utilisations de l'IA, jugées particulièrement dangereuses car contraires aux valeurs de l'Union européenne et susceptibles d'affecter gravement les droits fondamentaux, seraient interdites. Il s'agit notamment des systèmes qui influencent de manière subliminale les comportements, qui exploitent les vulnérabilités dues à l'âge ou au handicap physique ou mental de l'utilisateur d'une manière susceptible de lui porter préjudice, aux systèmes de notation sociale, ou d'identification biométrique à distance en temps réel dans des espaces publics, à des fins répressives - la Commission prévoyant néanmoins des exceptions dans ce dernier cas.
· En parallèle, certains systèmes d'IA présentant un risque élevé pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, seraient soumis à des obligations spécifiques, visant à garantir leur mise sur le marché en toute sécurité.
La classification des systèmes d'IA en systèmes « à haut risque » ne reposerait pas sur leur mode de fonctionnement et leurs fonctionnalités in abstracto, mais sur leur finalité et leurs modalités d'utilisation dans leur environnement. Ainsi, pourraient être classés parmi les systèmes d'IA à haut risque des systèmes appartenant aux domaines suivants : l'identification biométrique ; les infrastructures critiques ; l'éducation et la formation professionnelle ; l'emploi ; l'accès aux services publics (y compris les prestations sociales) et aux services privés essentiels ; la migration, l'asile et le contrôle aux frontières ; la justice et les processus démocratiques.
La proposition de règlement prévoit que les fournisseurs de systèmes d'IA à haut risque soient soumis à d'importantes obligations d'évaluation ex ante de la conformité de leurs systèmes, mais aussi de surveillance après commercialisation et tout au long de leur cycle de vie.
· Enfin, certains systèmes d'IA jugés sensibles sans être à haut risque (notamment les systèmes d'IA destinés à interagir avec les personnes ou à manipuler des images ou contenus audio ou vidéo et les systèmes de reconnaissance des émotions ou de catégorisation biométrique) seraient soumis à des obligations de transparence renforcée vis-à-vis de l'utilisateur.
Le contrôle de la mise en oeuvre du règlement incomberait aux autorités nationales compétentes désignées par les États membres. En outre, afin d'harmoniser la mise en oeuvre du règlement, la proposition prévoit la création d'un « Comité européen de l'intelligence artificielle », chargé d'assister les autorités de contrôle nationales et la Commission dans la mise en oeuvre du règlement.