- L'ESSENTIEL
- FAVORISER LE DÉVELOPPEMENT D'UNE INTELLIGENCE
ARTIFICIELLE DE CONFIANCE
- LA MISE EN PLACE D'UN NOUVEAU CADRE JURIDIQUE
HORIZONTAL POUR L'IA, FONDÉ SUR UNE APPROCHE PAR LE RISQUE
- DAVANTAGE DIFFÉRENCIER LE DEGRÉ DE
PROTECTION POUR TENIR COMPTE DES DIFFÉRENTS CAS D'USAGE ET DES
CARACÉTRISTIQUES SPÉCIFIQUES DES CHAÎNES DE VALEUR DE
L'IA
- RENFORCER LES MESURES DE SOUTIEN À
L'INNOVATION,
AFIN DE GARANTIR LA COMPÉTITIVITÉ DE L'UNION EUROPÉENNE EN MATIÈRE D'IA
- AMÉLIORER LA GOUVERNANCE DU RÈGLEMENT
AFIN DE GARANTIR SA MISE EN oeUVRE UNIFORME ET EFFICACE
- FAVORISER LE DÉVELOPPEMENT D'UNE INTELLIGENCE
ARTIFICIELLE DE CONFIANCE
- I. ÉLÉMENT-CLÉ DE LA
CONSTRUCTION D'UNE LÉGISLATION EUROPÉENNE HARMONISÉE SUR
LE NUMÉRIQUE, LA RÉGLEMENTATION SUR L'INTELLIGENCE ARTIFICIELLE
(IA) VISE À FAVORISER LE DÉVELOPPEMENT D'UNE IA DE CONFIANCE
- A. LA LÉGISLATION SUR L'INTELLIGENCE
ARTIFICIELLE S'INTÈGRE DANS UN CADRE EUROPÉEN PLUS LARGE VISANT
À RÉGULER LES USAGES DU NUMÉRIQUE
- 1. Priorité de la mandature de l'actuelle
Commission européenne, la régulation numérique vise
à inventer un modèle européen respectueux des droits
fondamentaux et conforme aux valeurs européennes, tout en encourageant
le développement des technologies et usages numériques
- 2. L'intelligence artificielle, gisement de valeur
particulièrement peu régulé jusqu'à maintenant,
fait l'objet d'une attention soutenue de la part de la Commission
européenne
- 1. Priorité de la mandature de l'actuelle
Commission européenne, la régulation numérique vise
à inventer un modèle européen respectueux des droits
fondamentaux et conforme aux valeurs européennes, tout en encourageant
le développement des technologies et usages numériques
- B. DANS CERTAINS CONTEXTES, L'IA EST SUSCEPTIBLE DE
CAUSER DE GRAVES ATTEINTES AUX DROITS FONDAMENTAUX, CE QUI NÉCESSITE DE
LA RÉGULER AFIN DE MAINTENIR UN HAUT DEGRÉ DE PROTECTION POUR LES
EUROPÉENS
- 1. Reposant sur des modèles statistiques et
susceptible de continuer à « apprendre »
après sa mise en service, l'IA s'accommode mal des schémas
classiques de prévention et d'atténuation des risques
- 2. Les systèmes d'IA constituent un
défi particulier en matière de protection des données
à caractère personnel
- 1. Reposant sur des modèles statistiques et
susceptible de continuer à « apprendre »
après sa mise en service, l'IA s'accommode mal des schémas
classiques de prévention et d'atténuation des risques
- A. LA LÉGISLATION SUR L'INTELLIGENCE
ARTIFICIELLE S'INTÈGRE DANS UN CADRE EUROPÉEN PLUS LARGE VISANT
À RÉGULER LES USAGES DU NUMÉRIQUE
- II. LA COMMISSION PROPOSE UN NOUVEAU CADRE
JURIDIQUE HORIZONTAL POUR L'IA, FONDÉ SUR UNE APPROCHE PAR LE RISQUE ET
REPOSANT SUR DES OBLIGATIONS DE CONFORMITÉ A PRIORI DES SYSTÈMES
D'IA
- A. LA PROPOSITION DE LÉGISLATION SUR L'IA
REPOSE SUR UNE APPROCHE FONDÉE SUR LE RISQUE, AVEC DES OBLIGATIONS
DIFFÉRENCIÉES SELON SON NIVEAU
- 1. Certaines pratiques d'IA seraient
interdites
- 2. Certains systèmes d'IA jugés
sensibles sans être à haut risque seraient soumis à des
obligations de transparence renforcée
- 3. Les systèmes d'IA jugés «
à haut risque » seraient soumis à un certain nombre
d'obligations spécifiques, visant à garantir leur mise sur le
marché en toute sécurité
- 1. Certaines pratiques d'IA seraient
interdites
- B. LES SYSTÈMES D'IA JUGÉS
« À HAUT RISQUE » SERAIENT SOUMIS À UN
CERTAIN NOMBRE D'OBLIGATIONS A PRIORI, INCOMBANT PRINCIPALEMENT AUX
FOURNISSEURS
- A. LA PROPOSITION DE LÉGISLATION SUR L'IA
REPOSE SUR UNE APPROCHE FONDÉE SUR LE RISQUE, AVEC DES OBLIGATIONS
DIFFÉRENCIÉES SELON SON NIVEAU
- III. LA RÉGLEMENTATION PROPOSÉE
DEVRAIT ÊTRE RENFORCÉE AFIN DE PESER DAVANTAGE SUR LES GRANDS
ACTEURS DU NUMÉRIQUE
- A. LA PROTECTION RÈGLEMENTAIRE DEVRAIT
ÊTRE DAVANTAGE DIFFÉRENCIÉE EN FONCTION DES
CARACTÉRISTIQUES SPÉCIFIQUES DES CHAÎNES DE VALEUR DE L'IA
ET DES DIFFÉRENTS CAS D'USAGE, AFIN DE TIRER LE MEILLEUR PARTI DE CETTE
TECHNOLOGIE
- 1. Les applications d'IA à haut risque
devraient être mieux définies, pour plus de sécurité
juridique
- 2. Les capacités d'action des forces de
sécurité et les usages régaliens de l'IA devraient
être préservés, tout en étant assortis des garanties
appropriées
- 3. Les personnes affectées par l'IA sans en
être utilisatrices devraient être mieux prises en compte
- 4. La dynamique des processus d'innovation devrait
être mieux intégrée
- 1. Les applications d'IA à haut risque
devraient être mieux définies, pour plus de sécurité
juridique
- B. LES MESURES DE SOUTIEN À L'INNOVATION,
NOTAMMENT LA POSSIBILITÉ D'EFFECTUER DES EXPÉRIMENTATIONS
CONTRÔLÉES EN CONDITIONS DÉROGATOIRES, DEVRAIENT ÊTRE
RENFORCÉES, AFIN DE GARANTIR LA COMPÉTITIVITÉ
EUROPÉENNE EN MATIÈRE D'IA
- 1. Certaines obligations figurant dans le texte
initial de la Commission sont inapplicables, de par la nature même des
technologies d'intelligence artificielle
- 2. Les mesures de soutien à l'innovation,
notamment la possibilité d'effectuer des expérimentations
contrôlées en conditions dérogatoires, devraient être
renforcées, afin de garantir la compétitivité de l'Union
européenne en matière d'IA
- 1. Certaines obligations figurant dans le texte
initial de la Commission sont inapplicables, de par la nature même des
technologies d'intelligence artificielle
- C. LA GOUVERNANCE DOIT SE FONDER SUR DES
AUTORITÉS NATIONALES CLAIREMENT IDENTIFIÉES ET SUR UN
COMITÉ EUROPÉEN RENFORCÉ, TRAVAILLANT DE CONCERT
- 1. Les autorités nationales et
européennes doivent se donner les moyens de contrôler efficacement
la mise en oeuvre du règlement
- 2. Le Comité européen de
l'intelligence artificielle devrait être renforcé, notamment en
vue de pouvoir accompagner la Commission européenne dans une
réflexion prospective sur les futures évolutions du
règlement
- 1. Les autorités nationales et
européennes doivent se donner les moyens de contrôler efficacement
la mise en oeuvre du règlement
- A. LA PROTECTION RÈGLEMENTAIRE DEVRAIT
ÊTRE DAVANTAGE DIFFÉRENCIÉE EN FONCTION DES
CARACTÉRISTIQUES SPÉCIFIQUES DES CHAÎNES DE VALEUR DE L'IA
ET DES DIFFÉRENTS CAS D'USAGE, AFIN DE TIRER LE MEILLEUR PARTI DE CETTE
TECHNOLOGIE
- CONCLUSION
Pour un déploiement de l'intelligence artificielle conforme aux valeurs européennes
Rapports d'information
Rapport d'information n° 483 (2022-2023), déposé le