Question de M. GUÉRINI Jean-Noël (Bouches-du-Rhône - RDSE) publiée le 06/10/2022
M. Jean-Noël Guérini appelle l'attention de M. le ministre du travail, du plein emploi et de l'insertion sur le manque d'encadrement du management algorithmique.
La mission d'information sénatoriale sur l'uberisation de la société a rendu son rapport fin septembre 2021. Chargée d'étudier l'impact des plateformes numériques sur les métiers et sur l'emploi, elle s'est notamment penchée sur les problématiques liées au management algorithmique. Elle souligne que l'utilisation des algorithmes est protégée par le secret des affaires, ce qui pose la question de leur transparence. En effet, ces algorithmes, au cœur du modèle économique des plateformes, ne servent pas seulement à mettre en relation l'offre et la demande, mais concourent à déterminer les conditions de travail et de rémunération des travailleurs. Reposant sur des notations arbitraires, ils comportent des biais discriminatoires, notamment sexistes et racistes. La mission conclut même : « In fine, le management algorithmique contribue à renforcer la subordination vécue par les travailleurs des plateformes et à précariser leurs conditions de travail. »
Alors que les « intermédiaires de compétence » pourraient porter une nouvelle vague de plateformisation, il s'avère essentiel que les algorithmes demeurent une aide à la décision et ne se substituent en aucun cas à la décision elle-même. C'est pourquoi il lui demande quelles mesures il envisage afin de favoriser l'intelligibilité des algorithmes.
- page 4737
Transmise au Ministère de l'économie, des finances et de la souveraineté industrielle et numérique
Réponse du Ministère de l'économie, des finances et de la souveraineté industrielle et numérique publiée le 09/02/2023
Des dispositions règlementaires et législatives nationales et européennes encadrent d'ores et déjà les pratiques en matière de gestion algorithmique du travail. Le règlement général sur la protection des données « RGPD », impose, de façon générale, au niveau européen, un traitement des données personnelles licite, loyal, transparent et strictement nécessaire au regard de ses finalités (art. 5). Une plateforme numérique de travail doit par ailleurs recueillir le consentement du travailleur pour effectuer un traitement de ses données personnelles, à moins qu'il ne soit nécessaire à l'exécution du contrat qui lie la plateforme au travailleur (art. 6). Au niveau national, les algorithmes utilisés par les plateformes ne peuvent pas sanctionner, en leur proposant des prestations moins rémunératrices, les travailleurs qui se déconnecteraient ou qui refuseraient des courses : les plateformes à responsabilité sociale (article L. 7342-1 du code du travail) ne peuvent en effet pas restreindre la liberté des travailleurs d'accepter ou de refuser une proposition de prestation (article L. 1326-4 du code des transports). Par ailleurs, la France, en tant qu'État membre de l'UE, participe aux négociations européennes portant sur le projet de directive européenne présenté en décembre 2021 par la Commission et relative à l'amélioration des conditions de travail des travailleurs de plateforme. Ce projet vise notamment à améliorer la transparence sur la gestion algorithmique du travail, et prévoit que les plateformes numériques de travail soient tenues d'informer leurs travailleurs de la nature et du fonctionnement des « systèmes de surveillance et de prise de décisions automatisés » utilisés, et qu'elles aient l'obligation d'effectuer un contrôle régulier des effets des décisions prises par ces systèmes automatisés sur les conditions de travail, la santé et la sécurité des travailleurs. Ce projet envisage en outre de donner le droit aux travailleurs des plateformes d'obtenir de la plateforme de travail numérique une explication de toute décision prise ou appuyée par un système de prise de décision automatisé qui aurait une incidence significative sur ses conditions de travail. Par ailleurs, la Commission européenne a présenté, le 21 avril 2021, un projet de règlement de l'Union Européenne sur l'Artificial Intelligence Act (AI Act), actuellement en cours de négociation, et qui prévoit que tout système d'intelligence artificielle utilisés « pour des questions liées à l'emploi, à la gestion de la main-d'uvre et à l'accès à l'emploi indépendant, notamment [ ] pour l'attribution des tâches et pour le suivi ou l'évaluation des personnes dans le cadre de relations professionnelles contractuelles, devraient également être classés comme étant à haut risque », et qui, par conséquent, se verrait imposer des règles spécifiques telles que l'identification et l'analyse des risques connus et prévisibles ainsi que l'adoption de mesures appropriées de gestion des risques (voir article 9). Le Gouvernement entend améliorer les conditions du travail de plateforme, notamment grâce au dialogue social entre représentants des travailleurs et des plateformes. A cette fin, le Gouvernement a créé l'Autorité des relations sociales des plateformes d'emploi (ARPE) en 2021, une autorité chargée de mettre en place les conditions et d'accompagner le dialogue social pour rééquilibrer les relations de travail entre plateformes et travailleurs indépendants. Dans ce cadre, il a doté les représentants des travailleurs du pouvoir de demander une expertise, conformément à l'article L. 7343-56 du code du travail, portant sur les éléments nécessaires à la négociation, relevant de questions d'ordre économique, financier, social, environnemental ou technologique, et financée par l'ARPE. La ou les organisations professionnelles de plateformes concernées, si elles ne sont pas à l'origine de la demande d'expertise, fournissent à l'expert les informations nécessaires à la réalisation de sa mission, et le secret des affaires n'est, dans ce cas, pas opposable à l'expert.
- page 978
Page mise à jour le