EXAMEN EN COMMISSION

Réunie le mercredi 29 mars 2023, sous la présidence de Mme Catherine Deroche, présidente, la commission examine le rapport de Mme Cathy Apourceau-Poly, rapporteure, sur la proposition de loi (n° 770, 2021-2022) relative à la maîtrise de l'organisation algorithmique du travail.

Mme Catherine Deroche, présidente. - Nous en venons à l'examen du rapport de notre collègue Cathy Apourceau-Poly et du texte de la commission sur la proposition de loi de M. Pascal Savoldelli relative à la maîtrise de l'organisation algorithmique du travail.

Ce texte est inscrit à l'ordre du jour au sein de l'espace réservé du groupe communiste, républicain, citoyen et écologiste (CRCE) le jeudi 6 avril prochain.

Mme Cathy Apourceau-Poly, rapporteure. - La proposition de loi de notre collègue Pascal Savoldelli aborde une réalité déjà bien présente et pourtant ignorée de notre droit du travail : l'utilisation de l'intelligence artificielle pour l'organisation du travail et la gestion de la main d'oeuvre.

Notre commission s'est déjà penchée à plusieurs reprises sur la situation des travailleurs qui ont recours, pour l'exercice de leur activité, à des plateformes numériques. L'apparition de ces plateformes n'a pas seulement entraîné une rupture technologique en permettant à une multitude d'acteurs d'être mis en relation en temps réel par l'intermédiaire d'une application. Elle a aussi initié un bouleversement des relations de travail du fait du recours à des algorithmes pour organiser le travail humain.

Ces plateformes sont organisées selon des modèles très divers, notamment au regard de la relation qu'elles entretiennent avec les travailleurs et avec leurs clients. Dans certains secteurs, notamment ceux de la conduite de véhicule de transport avec chauffeur (VTC) et de la livraison de marchandises en véhicule à deux roues, les travailleurs, quoique formellement indépendants, sont soumis à un degré élevé de contrôle et à une nouvelle forme de dépendance. Même s'ils peuvent choisir de se connecter ou non à l'application et à quel moment ils le font, ils sont en réalité privés d'autonomie dans la réalisation de leur prestation.

Ces travailleurs, souvent précaires et contraints de recourir à ces formes d'emploi, cumulent les fragilités : de faibles revenus, une protection sociale incomplète, une absence de garanties en matière de temps de travail et de droit au repos, une forte exposition aux risques professionnels... Isolés, ils sont de surcroît mis en compétition permanente par les algorithmes. Ces derniers apparaissent dès lors comme des « boîtes noires » sur lesquelles les travailleurs n'ont aucune prise ni aucune visibilité.

Le Bureau international du travail distingue cinq éléments constitutifs du management algorithmique : la surveillance constante, l'évaluation permanente des performances, l'application automatique des décisions sans intervention humaine, l'interaction des travailleurs avec un système et la faible transparence des algorithmes.

Ce modèle n'est plus concentré dans quelques secteurs : cette « plateformisation » a vocation à se généraliser à l'ensemble du monde du travail. En effet, les algorithmes sont déjà de plus en plus utilisés pour gérer les ressources humaines au sein des entreprises. L'intelligence artificielle peut ainsi intervenir dans les processus de recrutement, la gestion des évolutions de carrière ou l'évaluation des salariés. Des logiciels sont par exemple proposés aux entreprises pour analyser et comparer les comportements des candidats à un poste lors des entretiens de recrutement.

Si elle permet des gains de productivité, cette gestion algorithmique du travail est porteuse de risques pour les travailleurs : un risque de surveillance abusive et généralisée, rendue possible par le déploiement de puissants outils de collecte et de traitement des données ; un risque de perte d'autonomie, lorsque les travailleurs voient leur travail déterminé par des processus informatiques qu'ils ne maîtrisent pas ; un risque de discriminations accrues du fait de l'opacité des critères de décision des algorithmes, ceux-ci reproduisant et amplifiant, malgré une apparente neutralité, les préjugés et les biais déjà présents dans le monde du travail ; des risques psychosociaux découlant du sentiment d'aliénation qui peut gagner les travailleurs.

En outre, cette gestion algorithmique tend à déresponsabiliser les employeurs et à priver les acteurs du dialogue social de leur rôle en matière de détermination des conditions de travail.

Les risques sont d'autant plus importants que le fonctionnement des algorithmes peut échapper aux employeurs eux-mêmes, qui ont souvent recours à des solutions technologiques développées en externe.

Dans son rapport d'information du 29 septembre 2021 sur l'ubérisation de la société, Pascal Savoldelli a considéré qu'un algorithme n'était pas seulement une suite d'opérations permettant de traiter des volumes importants de données, mais bien une « chaîne de responsabilité humaine » : quel que soit son degré d'automatisation, la gestion algorithmique engage la responsabilité de personnes auxquelles il devrait être possible de se référer. Il a ainsi préconisé de lancer une réflexion pour adapter le droit du travail aux spécificités du management algorithmique et à ses conséquences sur les conditions de travail.

La proposition de loi que nous examinons a pour objet de donner corps à cette conviction et de prévoir des solutions pour reprendre le contrôle de l'intelligence artificielle au travail.

Certes, les algorithmes constituent une aide considérable pour améliorer l'organisation des entreprises et exonérer les travailleurs de tâches parfois répétitives et contraignantes. Lorsqu'ils sont utilisés à des fins d'organisation du travail, ils devraient toutefois être encadrés et contrôlés.

D'une part, les travailleurs devraient être informés de l'utilisation de ces outils et avoir accès à leurs modalités de fonctionnement, dès lors qu'ils affectent leurs conditions de travail.

D'autre part, l'utilisation d'algorithmes devrait être considérée comme un simple outil d'aide à la décision de l'employeur, qui doit demeurer entièrement responsable des décisions qu'il prend dans l'entreprise.

À cette fin, l'article 1er de la proposition de loi inscrit les décisions des employeurs prises à l'aide de moyens technologiques parmi celles relevant de leur pouvoir de direction. Il prévoit de renforcer l'accessibilité du contenu des décisions et d'informer le salarié des motivations des décisions le concernant. Il permet au salarié de demander qu'une nouvelle décision soit prise par un être humain à la suite d'un recours contre une décision résultant de l'utilisation d'algorithmes.

Par ailleurs, l'article 2 vise à assurer le respect du principe de non-discrimination dans l'utilisation des algorithmes.

En effet, les algorithmes ayant pour but d'opérer des tris de données et de proposer des recommandations en fonction d'un ensemble de données, ils peuvent conduire à des discriminations des travailleurs contraires à la loi. Les discriminations induites par l'usage des algorithmes peuvent résulter des critères fixés dès la construction de l'algorithme, mais aussi du traitement des données opéré par l'algorithme pour formuler un tri ou une recommandation.

Une telle situation peut notamment se produire en matière de recrutement : en 2017, l'entreprise Amazon a dû renoncer à l'utilisation d'un algorithme pour le recrutement de salariés, car il induisait une discrimination à l'embauche en privilégiant les hommes aux femmes. Le logiciel s'appuyait sur une base de données recensant les curriculum vitae (CV) reçus par l'entreprise depuis dix ans. Cette base comprenant une grande majorité de CV d'hommes, l'algorithme en a déduit que les candidats masculins étaient préférables et rejetait les candidatures féminines.

Face à de tels risques, il est nécessaire que l'employeur soit responsable des outils technologiques sur lesquels il s'appuie pour le recrutement ou la gestion des salariés dans l'entreprise. La protection des travailleurs contre toutes les formes de discriminations au travail ne saurait être affaiblie par l'utilisation d'outils technologiques pour l'organisation des entreprises.

En conséquence, l'article 2 de la proposition de loi pose le principe selon lequel, en cas de litige portant sur une discrimination au travail, l'employeur doit apporter la preuve que les outils qu'il utilise ne sont pas source de discriminations. À cette fin, il étend la procédure contentieuse sur les discriminations au travail aux litiges portant sur les décisions des employeurs prises à l'aide de moyens technologiques.

La proposition de loi s'attache enfin à mettre en lumière la situation des travailleurs de plateformes, qui est le résultat le plus visible de l'influence des algorithmes sur le monde du travail.

Bien qu'elles se présentent comme de simples intermédiaires, mettant en relation des travailleurs indépendants avec des clients, certaines plateformes jouent un rôle essentiel dans l'organisation des prestations qu'elles proposent. C'est notamment le cas des plateformes exerçant dans les secteurs de la mobilité. Les travailleurs recourant à ces plateformes ne sont généralement pas en mesure de fixer le prix de leur prestation ni de définir les conditions de sa réalisation : ceux-ci sont déterminés par un algorithme dont ils ne connaissent pas les paramètres.

La question de la qualification juridique des travailleurs des plateformes est une question d'ordre public social. L'ambiguïté de leur situation donne lieu à un contentieux abondant, auquel la réponse des juridictions n'est pas univoque.

Plusieurs décisions de la Cour de cassation ont penché dans le sens de la requalification en salariés de livreurs à vélo ou de chauffeurs de VTC : les plus retentissantes sont celles du 28 novembre 2018 concernant l'ancienne plateforme de livraison Take Eat Easy et du 4 mars 2020 concernant Uber. Toutefois, ces décisions n'ont pas de portée plus générale que les circonstances de l'espèce. Intervenant avec plusieurs années de décalage par rapport aux faits, elles laissent le temps aux plateformes de modifier leurs algorithmes et leurs conditions d'utilisation afin d'échapper à un plus large mouvement de requalification.

À défaut de leur reconnaître le statut de salarié, le législateur a progressivement octroyé, depuis 2016, des droits spécifiques aux travailleurs de plateformes en prévoyant que, lorsqu'une plateforme détermine les caractéristiques de la prestation de service et fixe son prix, elle a une responsabilité sociale à l'égard des travailleurs indépendants recourant à ses services.

En particulier, la loi d'orientation des mobilités du 24 décembre 2019 et les ordonnances du 21 avril 2021 et du 6 avril 2022 ont posé le cadre d'un dialogue social d'un nouveau genre entre travailleurs indépendants et plateformes dans les secteurs de la mobilité.

Les premières avancées obtenues dans le cadre de ce dialogue social, notamment la fixation d'un tarif minimal par course pour les chauffeurs VTC, ne sont pas négligeables et les sujets négociés dans ce cadre, qu'il s'agisse de la rémunération des travailleurs ou du contrôle des algorithmes, sont essentiels.

Toutefois, les droits spécifiques qui ont été progressivement accordés à ces travailleurs ont surtout eu pour effet de les enfermer dans un statut d'indépendant amélioré et de conforter le modèle des plateformes, lequel repose sur le contournement du droit du travail et le dumping social.

Ces réponses à l'« uberisation » ne sont donc pas à la hauteur : le statut d'indépendant n'est pas adapté à la situation des travailleurs précaires, qu'ils soient livreurs à vélo ou chauffeurs de VTC, et ne correspond pas à la réalité des relations entre ces travailleurs et les plateformes.

Si le même débat existe dans toute l'Europe, d'autres pays y ont apporté des réponses plus audacieuses. En Espagne, la loi Riders, entrée en vigueur en août 2021, apporte deux garanties nouvelles : une présomption de salariat pour les livreurs à deux roues qui effectuent leur travail via une plateforme numérique et un droit d'accès des travailleurs à l'algorithme.

Au niveau de l'Union européenne, une proposition de directive sur la reconnaissance d'une présomption irréfragable de salariat pour certains de ces travailleurs est en cours de négociation.

Pour que ces travailleurs puissent bénéficier d'une rémunération horaire minimale, d'un encadrement des ruptures, ainsi que d'une protection sociale appropriée, il semble donc possible de faciliter, pour ceux qui le souhaitent - j'y insiste -, la reconnaissance de leur lien de subordination avec les plateformes.

Afin de conforter la dynamique jurisprudentielle en faveur de la requalification de certains travailleurs de plateformes, l'article 3 de la présente proposition de loi vise à introduire une distinction entre, d'une part, les véritables opérateurs de mise en relation et, d'autre part, les plateformes d'emploi qui exercent un contrôle juridique et économique sur les éléments essentiels de la relation, qui les lient aux travailleurs.

En conséquence, un travailleur opérant en lien avec une telle plateforme devrait relever, sous le contrôle du juge, d'une relation de travail salarié et non du régime de la responsabilité sociale des plateformes.

Face à l'opacité du management algorithmique, ce texte esquisse un droit des travailleurs à une intervention humaine. Il vise à améliorer la transparence de nouveaux modes d'organisation du travail, ainsi qu'à responsabiliser les employeurs. Il offre enfin un moyen d'action aux travailleurs ubérisés, qui sont les plus exposés aux dangers liés aux algorithmes.

C'est pourquoi je demande à la commission de bien vouloir l'adopter.

Pour finir, et bien qu'aucun amendement n'ait été déposé à ce stade, il me revient de vous proposer un périmètre pour l'application des irrecevabilités au titre de l'article 45 de la Constitution. Je considère que ce périmètre comprend des dispositions relatives au régime juridique des décisions prises par les employeurs à l'égard des salariés à l'aide de moyens technologiques ou de systèmes de traitement automatisé de données, à la procédure applicable aux litiges fondés sur la méconnaissance par un employeur des dispositions relatives aux discriminations au travail, et à la qualification juridique des opérateurs de plateforme.

Mme Frédérique Puissat. - Il est intéressant d'aborder la question des plateformes numériques sous un angle un peu différent. Je rappelle qu'il s'agit d'un secteur très disparate, dans la mesure où la nature des plateformes elle-même est très variée et où l'approche des usagers, qu'ils soient clients ou professionnels, fluctue beaucoup.

La présente proposition de loi nous permet de réfléchir à cet enjeu algorithmique, qui est à la fois très particulier et pas entièrement nouveau, puisqu'il existe depuis que les sciences mathématiques existent. Ce qui est inédit, en réalité, c'est l'existence d'un intermédiaire, la plateforme digitale, et l'importance qu'ont prise les algorithmes dans notre société.

Autre remarque, les enjeux algorithmiques ont trait à de très nombreux domaines et ne concernent pas que le monde du travail. Ainsi, j'écoutais l'autre jour un chercheur, qui affirmait avoir développé un programme permettant d'évaluer, trois à quatre ans à l'avance, le risque de survenue du cancer du sein chez les patientes.

Aujourd'hui, il nous appartient de répondre à plusieurs questions fondamentales : les algorithmes font-ils la loi ? Leur présence suffit-elle à requalifier en contrat de travail le lien actuel entre travailleurs indépendants et plateformes de mise en relation ?

Ce dernier sujet a déjà été abordé et ne fait pas consensus aujourd'hui, d'autant que les acteurs eux-mêmes, les travailleurs indépendants, sont partagés, certains voulant rester sous ce statut, d'autres non.

C'est pourquoi la requalification globale prévue par le texte conviendra peut-être à une majorité d'entre vous, mes chers collègues des groupes de l'opposition sénatoriale. La majorité sénatoriale défendra, pour sa part, comme elle le fait depuis toujours, une position plus nuancée sur le sujet, un peu différente de celle de Mme la rapporteure.

Mme Pascale Gruny. - Je considère que cette proposition de loi arrive, hélas, un peu trop tôt, car une proposition de directive européenne sur le statut de ces travailleurs est en cours de discussion et pourrait aboutir dans quelques mois lors de la présidence espagnole de l'Union européenne. Il serait dommage de voter un texte qui pourrait entrer en contradiction avec cette directive, voire être caduc d'ici quelques semaines.

Je signale par ailleurs que le débat sur les risques de surveillance par les algorithmes n'est pas nouveau. La même question s'était posée - certains s'en souviennent -lorsqu'il s'est agi de placer des GPS dans les camions pour contrôler les chauffeurs routiers.

Mme Corinne Féret. - Nous avons déjà beaucoup travaillé sur ce sujet, qui est pleinement d'actualité, avec Monique Lubin et Olivier Jacquin.

Selon une étude récente, l'intelligence artificielle menace non seulement des emplois de première ligne, pour reprendre l'expression consacrée, mais également de nombreux emplois de cadres. Il est donc nécessaire de légiférer. Notre groupe soutiendra cette proposition de loi.

M. Philippe Mouiller. - Cette proposition de loi sera l'occasion de débattre en séance publique d'un véritable sujet, qui soulève beaucoup de questions sur l'évolution du travail en général et sur la situation des salariés en particulier. Nous partageons les inquiétudes que vous avez soulevées.

En revanche, les dispositions de cette proposition de loi ne tendent pas, selon moi, à améliorer le cadre existant. Dans le droit actuel, l'algorithme n'exonère pas l'employeur de sa responsabilité - ce point est pourtant l'objet de l'article 1er. Le principe de non-discrimination, abordé dans l'article 2, est déjà inscrit dans le droit et il s'applique aux décisions algorithmiques - un certain nombre de juges ont été saisis dans ce domaine.

Au travers de l'article 3, il s'agit de requalifier le statut de certains travailleurs de plateforme en salariés. Or le juge intervient déjà en la matière. D'ailleurs, je crains que la rédaction de l'article 3 ne limite les pouvoirs du juge, en excluant un certain nombre de travailleurs de plateformes.

À mon sens, il s'agit d'un bon sujet, mais la proposition de loi ne répond pas aux problèmes soulevés ; au contraire, je crains qu'elle ne tende à créer une difficulté juridique. Aussi, le groupe Les Républicains émet un avis défavorable, tout en saluant l'initiative de nos collègues du groupe CRCE de soulever un tel débat.

M. Jean-Marie Vanlerenberghe. - Je remercie Cathy Apourceau-Poly d'avoir permis, au travers de ses constats, de clarifier la situation des travailleurs des plateformes. Pour autant, la classification instaurée par l'article 3 est-elle opportune ?

Nous nous abstiendrons, même si chacun votera selon son choix en séance.

Mme Cathy Apourceau-Poly, rapporteure. - Ce sujet est l'occasion de réfléchir tous ensemble sur une question d'actualité.

Madame Gruny, nous avons déposé ce texte dans notre niche parlementaire non pas hier, mais voilà quelque temps ; nous savons que, depuis, une réflexion similaire a été menée à l'échelle européenne et notre proposition de loi n'est pas incompatible avec ses orientations. D'ailleurs, nous savons que la mise en application des directives prend beaucoup de temps à l'échelle nationale. Nous souhaitions mettre en évidence des sujets bien précis.

Madame  Puissat, le développement de l'intelligence artificielle conduit à une prise de décisions sans intervention humaine. Nombre d'algorithmes sont achetés par les entreprises ; certaines ne les réadaptent pas à leurs services - cela me fait penser aux 248 éditeurs de fiches de paye, dont les modèles étaient presque tous différents, que nous avions découverts, avec René-Paul Savary, lors de notre mission d'information sur l'unification du recouvrement social ; d'autres entreprises font apparaître, par l'utilisation qu'ils en font, des biais potentiellement discriminatoires dans ces algorithmes, comme cela a été le cas chez Amazon.

L'article 3 n'a pas pour objet de requalifier les travailleurs de plateformes en salariés. En revanche, il pourrait éclairer le juge dans son analyse du faisceau d'indices permettant de conclure à la présence d'un lien de subordination.

Ces trois articles ne tendent pas à refonder le système des algorithmes. D'ailleurs, ces derniers ne sont pas l'apanage des plateformes. Ils sont utilisés dans la vie de tous les jours. Les algorithmes font partie de la vie quotidienne des travailleurs et pas seulement chez Amazon.

En ce qui concerne l'article 3, il ne vise pas de secteur particulier, mais des modes d'organisation. Il précise que les plateformes qui exercent un contrôle juridique et économique sur les éléments essentiels de la relation ne peuvent pas être considérées abusivement comme des plateformes de mise en relation.

Je remercie Corinne Féret pour ses propos. Le sujet est en effet d'actualité et c'est la raison pour laquelle nous l'avions inscrit il y a déjà plusieurs mois dans un espace réservé au groupe CRCE.

MM. Vanlerenberghe et Mouiller considèrent que le texte n'apporte pas grand-chose. Nous souhaitions néanmoins pouvoir débattre sur les algorithmes, qui font désormais partie de notre vie quotidienne. J'ai bien compris que cette proposition de loi ne serait pas votée, mais elle a le mérite de poser le problème et d'ouvrir le débat sur un sujet dont les enjeux sont en effet bien plus larges que ceux que traite le texte. La réflexion sur l'intelligence artificielle doit aussi se poursuivre à l'échelle de l'Union européenne.

M. Alain Milon. - J'ai écouté avec attention la rapporteure et ceux qui se sont exprimés. Pour moi, l'intelligence artificielle doit libérer l'homme du travail ; or il semble que pour l'instant elle asservisse de nombreux travailleurs. Par manque d'information, je préfère m'abstenir sur ce texte.

EXAMEN DES ARTICLES

Articles 1er, 2 et 3

Les articles 1er, 2 et 3 ne sont pas adoptés.

La proposition de loi n'est pas adoptée.

Conformément au septième alinéa de l'article 42 de la Constitution, la discussion en séance portera en conséquence sur le texte initial de la proposition de loi déposée sur le Bureau du Sénat.

Les thèmes associés à ce dossier