III. LA PLATEFORMISATION CROISSANTE DE L'ÉCONOMIE IMPLIQUE UNE MEILLEURE RÉGULATION DES ALGORITHMES DES PLATEFORMES

A. LES ALGORITHMES CONTRIBUENT À LA DÉTERMINATION DES CONDITIONS DE TRAVAIL ET DE RÉMUNÉRATION DES TRAVAILLEURS

1. La réglementation de l'utilisation des algorithmes par les plateformes demeure limitée
a) Qu'est-ce qu'un algorithme ?

Au coeur du modèle économique et du fonctionnement des plateformes numériques, les algorithmes sont définis dans le langage courant comme un ensemble de règles mathématiques dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations exprimées dans un langage informatique .

Selon Sébastien Fischman et Barbara Gomes, les algorithmes désignent « une suite d'instructions finies, explicitées dans un langage de programmation intelligible par une machine, visant à effectuer toutes sortes d'opérations » 186 ( * ) , et peuvent être classés selon trois principales catégories, en fonction de leur degré de complexité, de leur capacité de traitement des données et d'autonomie :

- les algorithmes dits « classiques » : la suite d'opérations permet de déduire un résultat uniquement à partir des données et des instructions initiales, sans ajout ni traitement de données extérieures ;

- les algorithmes dits de machine learning ou « d'intelligence artificielle » : la suite d'opérations permet de déduire un résultat à partir de données extérieures et supplémentaires à celles utilisées dans le code source, ce qui est par exemple le cas des algorithmes de reconnaissance d'images ;

- les algorithmes dits « d'intelligence artificielle forte » : ils sont évolutifs et décrits comme « auto-apprenants », mais ces algorithmes correspondent davantage aujourd'hui à une représentation collective d'une technologie autonome qui pourrait se passer à long terme d'une intervention humaine plutôt qu'à des innovations technologiques tangibles.

b) Les algorithmes constituent le principal actif stratégique des plateformes numériques et contribuent à la diversité de leurs modèles économiques
(1) Les algorithmes constituent le principal actif stratégique des plateformes numériques

Les algorithmes développés et utilisés par les plateformes numériques sont au coeur de leur modèle économique. Ce rôle central a été reconnu par l'article 49 de la loi n° 2016-1321 pour une République numérique du 7 octobre 2016 187 ( * ) qui qualifie d'opérateur de plateforme en ligne toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

- le classement ou le référencement, au moyen d'algorithmes informatiques , de contenus, de biens ou de services proposés ou mis ligne par des tiers ;

- ou la mise en relation de plusieurs parties en vue de la vente d'un bien, de la fourniture d'un service ou de l'échange ou du partage d'un contenu, d'un bien ou d'un service.

Les algorithmes utilisés par les plateformes numériques sont multiples et répondent à des usages variés, dont le niveau de complexité et l'importance stratégique dépendent du modèle économique souhaité par la plateforme.

(2) La diversité des usages des algorithmes révèle la diversité des modèles économiques des plateformes

Parmi les principaux usages des algorithmes qui ont pu être identifiés lors des auditions de la mission d'information, les suivants peuvent être mis en évidence, sans toutefois constituer une liste exhaustive.

Premièrement, les algorithmes qui permettent la comparaison, la classification et le référencement de contenus et d'informations issus de différentes sources afin de faciliter les choix des utilisateurs. Par exemple, ces types d'algorithmes sont utilisés par des plateformes intervenant dans le domaine immobilier afin d'identifier les annonces pertinentes des particuliers en fonction de leurs critères de recherche.

Deuxièmement, les algorithmes de mise en relation et d'appariement entre l'offre et la demande , qui sont de plus en plus utilisés pour rapprocher une offre d'une demande de travail par les plateformes numériques de travail.

Par exemple, selon les explications fournies par Wecasa 188 ( * ) , leur algorithme permet la distribution aux professionnels partenaires des propositions de services souhaitées par les clients, selon le raisonnement suivant en deux principales étapes.

La première étape répond à la question suivante : à qui envoyer la proposition de service ? Les principaux paramètres pris en compte par l'algorithme sont la disponibilité potentielle du professionnel au créneau proposé, la compatibilité entre la zone géographique du client et celle du professionnel ainsi que l'adéquation des compétences du professionnel avec le service demandé.

La seconde étape répond à la question suivante : dans quel ordre envoyer la proposition de service aux professionnels sélectionnés à l'issue de la première étape ? Les principaux paramètres pris en compte par l'algorithme sont la proximité géographique du professionnel avec celle du client ainsi que la notation du professionnel basée sur l'évaluation de ses prestations passées.

Troisièmement, les algorithmes de prix , qui permettent d'appliquer une tarification dynamique au produit ou service proposé, en fonction de critères prédéterminés.

Par exemple, selon les éléments d'information transmis par la plateforme Deliveroo 189 ( * ) , leur algorithme organise la manière dont les commandes sont proposées aux livreurs en deux étapes principales. D'une part, l'estimation du temps de collecte en fonction des données historiques des restaurants partenaires relatives à leur temps de préparation des commandes. D'autre part, la détermination du livreur le mieux placé pour livrer la commande dans le délai le plus court, en fonction de la localisation du restaurant, de celle du client et des livreurs potentiels ainsi que du type de véhicule utilisé. Plus qu'une simple mise en relation entre une offre et une demande, ces paramètres, définis selon des critères mesurables, contribuent à fixer le tarif de la prestation.

Quatrièmement, les algorithmes de prédiction , ou de régression qui, à partir de l'exploitation de données présentes et passées, visent à établir des hypothèses sur des évènements futurs. Les algorithmes de prédiction sont par exemple utilisés dans le domaine des ressources humaines, plus spécifiquement du recrutement prédictif, et sont conçus à la fois comme un outil de rationalisation des processus de recrutement et d'aide à la décision.

Par exemple, selon les éléments d'explication transmis à la mission d'information par la plateforme Assessfirst 190 ( * ) , spécialisée dans le recrutement prédictif par algorithme, leur algorithme permet d'évaluer la capacité des candidats potentiels à répondre aux exigences du poste visé. Une telle évaluation de l'adéquation des candidats potentiels est évaluée par l'algorithme prédictif selon au moins trois critères qui sont leurs capacités cognitives, leurs motivations et leur personnalité.

c) Algorithmes : un encadrement juridique ancien mais qui demeure insuffisant
(1) Un encadrement juridique ancien introduit par la loi Informatique et Libertés de 1978

Alors que les algorithmes sont indispensables au fonctionnement des plateformes numériques et que les enjeux liés à leur réglementation et au caractère éthique de leur fonctionnement sont de plus en plus présents dans le débat public, la loi n°78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, adoptée il y a plus de quarante ans, pose déjà des principes et les jalons d'un encadrement du traitement des données à caractère personnel nécessaires à l'élaboration des algorithmes .

À cet égard, l'article premier de cette loi dispose que « l'informatique doit être au service de chaque citoyen. Son développement doit s'opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques ».

Au-delà de ces principes, fixés dans un contexte d'informatisation de l'Etat et d'anticipation de la numérisation de la société, cette loi pose les jalons d'un encadrement du traitement des données qui a été ultérieurement renforcé par le règlement général sur la protection des données à caractère personnel (RGPD) adopté au niveau de l'Union européenne. Par exemple, l'article 3 de la loi de 1978 précise que « toute personne a le droit de connaître et de contester les informations et les raisonnements utilisés dans les traitements automatisés dont les résultats lui sont opposés », consacrant ainsi un droit d'information et de contestation permettant de s'assurer du respect de la vie privée et des libertés individuelles des personnes concernées.

Enfin, cette loi reconnaît déjà le caractère spécifique des traitements automatisés de données utilisés par l'administration , sans pour autant nommer ces traitements automatisés d'algorithmes. Ainsi, l'article 2 dispose qu'aucune décision de justice ou décision administrative « impliquant une appréciation sur un comportement humain ne peut avoir pour fondement un traitement automatisé d'informations donnant une définition du profil ou de la personnalité de l'intéressé ».

Bien que le législateur national se soit intéressé très tôt à la question de l'encadrement des traitements automatisés des données, les évolutions législatives majeures en la matière sont assez récentes, abordées essentiellement sous l'angle de la protection des données à caractère personnel et du secret des affaires.

(2) Des avancées législatives récentes dont la portée demeure limitée par la protection permise par le secret des affaires qui bénéficie aux plateformes numériques

La loi n° 2016-1321 pour une République numérique du 7 octobre 2016 s'inscrit dans la continuité des principes préétablis par la loi de 1978 dans la mesure où elle renforce les exigences de transparence applicables aux algorithmes publics ainsi que les modalités d'information et de communication à l'égard des personnes concernées par le traitement automatique des données .

Ainsi, cette loi prévoit-elle notamment la mention explicite de l'utilisation d'un traitement algorithmique dans le cadre d'une décision administrative 191 ( * ) et la possibilité pour l'usager d'en demander les principales règles, surtout si les traitements algorithmiques sont utilisés par l'administration pour prendre des décisions individuelles 192 ( * ) . L'ensemble de ces dispositions s'inscrit dans le cadre de l'évolution des relations entre l'administration et ses usagers et contribuent à réduire la défiance que peuvent ressentir les citoyens vis-à-vis de l'Etat, mais également des algorithmes, souvent qualifiés de « boîtes noires » en raison de leur opacité et de leur complexité.

Toutefois, les dispositions de la loi pour une République numérique concernent seulement les algorithmes publics, et non les algorithmes utilisés par les acteurs privés tels que les plateformes numériques car leurs algorithmes sont protégés par le secret des affaires .

La directive européenne du 8 juin 2016 sur la protection des savoir-faire et des informations commerciales, transposée en droit interne par la loi française du 30 juillet 2018 relative à la protection du secret des affaires, fixent plusieurs critères permettant de définir les informations susceptibles d'être protégées à ce titre. Il s'agit des informations connues par un nombre restreint de personnes, qui ont une valeur commerciale en raison de leur caractère secret et qui font l'objet de mesures de protection raisonnables permettant de conserver ce caractère secret.

La protection offerte par le secret des affaires est particulièrement appréciée des plateformes numériques dans la mesure où les protections permises par le droit de la propriété intellectuelle sont partielles et insuffisantes concernant les programmes informatiques et les algorithmes. En effet, selon Frédéric Marty 193 ( * ) , « cela est particulièrement le cas pour les algorithmes de recherche et d'appariement utilisés par les plateformes en ligne. Le but d'un tiers mal intentionné pourrait ne pas se limiter à une reproduction du code pour l'insérer dans un produit tiers, mais être plus vraisemblablement de comprendre ses règles de fonctionnement pour pouvoir en altérer de façon stratégique et profitable les résultats ».

Cependant, la protection permise par le secret des affaires tend à réduire les efforts de transparence des algorithmes et de redevabilité des décisions prises sur le fondement des traitements automatisés des données . De ce fait, plusieurs plateformes et entreprises auditionnées par la mission d'information n'ont pas souhaité transmettre des informations relatives au fonctionnement de leur algorithme, ni fournir d'explications même techniques à ce sujet.

(3) Une régulation qui se développe sous l'angle de la protection des données à caractère personnel

Dans la continuité de l'esprit et des dispositions juridiques introduites par la loi Informatique et Libertés de 1978 et la loi pour une République numérique de 2016, le RGPD approfondit l'encadrement des traitements automatisés de données à caractère personnel sous l'angle de leur protection. Parmi les différentes dispositions du RGPD, deux articles poursuivent, précisent et actualisent les travaux effectués plus tôt par le législateur français.

D'une part, l'article 15 du RGPD approfondit le droit à l'information des personnes concernées et renforce les obligations de communication des responsables des traitements automatisés de données . Ainsi, toute personne peut obtenir du responsable du traitement la confirmation que ses données à caractère personnel sont utilisées ou non. Si elles le sont, les personnes concernées peuvent demander que les informations suivantes leur soient communiquées :

- les finalités de traitement des données ;

- les catégories de données utilisées ;

- les destinataires des données utilisées ;

- la durée de conservation des données et les critères utilisés pour déterminer cette durée ;

- l'existence du droit de demander au responsable du traitement la rectification ou l'effacement des données à caractère personnel ;

- le droit d'introduire une réclamation auprès d'une autorité de contrôle ;

- l'existence d'une prise de décision automatisée et les conséquences prévues de ce traitement pour la personne concernée.

D'autre part, l'article 22 du RGPD qui consacre le droit pour les personnes concernées de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire.

Toutefois, ce principe est assorti de plusieurs exceptions, dont celle notable où ce droit ne s'applique pas si la décision est nécessaire à la conclusion ou à l'exécution d'un contrat entre la personne concernée et le responsable de traitement , ce qui peut concerner les contrats commerciaux entre les travailleurs indépendants et les plateformes numériques. Cependant, les asymétries d'informations sont tellement importantes entre les travailleurs indépendants et les plateformes que l'effectivité des droits consacrés par le RGPD se pose.

La mission d'information, tout en prenant acte des avancées importantes de ces dernières années, considère que l'encadrement juridique actuel ne permet pas d'assurer un niveau de compréhension suffisant des décisions prises par les algorithmes et des logiques sous-jacentes qui les déterminent, c'est-pourquoi plusieurs auditions se sont intéressées aux mesures prises par les plateformes numériques pour expliquer le fonctionnement de leurs algorithmes et aux dispositions qui pourraient être adoptées afin de renforcer l'information des travailleurs indépendants et de leurs représentants, y compris concernant les droits qu'ils peuvent exercer.

2. Les algorithmes utilisés par certaines plateformes déterminent les conditions de travail et de rémunération des travailleurs
a) Une contribution à l'organisation de l'activité des travailleurs, surtout pour les plateformes de mobilité, par renforcement du pouvoir patronal
(1) Les plateformes revendiquent avant tout un rôle de mise en relation et d'intermédiaire afin d'éviter toute qualification de subordination de leurs travailleurs

Caractéristique inhérente au fonctionnement des plateformes numériques, le rôle d'intermédiaire et de mise en relation constitue le socle fondamental de leur modèle économique . Ainsi, les différentes définitions et caractéristiques attribuées aux plateformes reconnaissent toutes, au moins, ce rôle d'intermédiaire permis par les traitements massifs et automatisés de données. Pour le Conseil national du numérique, une plateforme se définit comme un « service occupant une fonction d'intermédiaire dans l'accès aux informations, contenus, services ou biens édités ou fournis par des tiers » 194 ( * ) .

Pour le législateur, ce rôle d'intermédiaire est également primordial, c'est pourquoi la loi pour une République numérique du 7 octobre 2016 introduit dans le Code de la consommation la définition suivante des opérateurs de plateforme en ligne : « toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur :

- le classement ou le référencement, au moyen d'algorithmes informatiques, de contenus, de biens ou de services proposés ou mis ligne par des tiers ;

- ou la mise en relation de plusieurs parties en vue de la vente d'un bien, de la fourniture d'un service ou de l'échange ou du partage d'un contenu, d'un bien ou d'un service » 195 ( * ) .

Pour les plateformes numériques, la revendication du seul rôle d'intermédiaire est également affirmée, comme les auditions successives dans le cadre de la mission d'information ont pu le mettre en évidence. En effet, la quasi-totalité des plateformes auditionnées ont insisté sur ce point, la reconnaissance d'un rôle plus important que celui d'intermédiaire est nécessairement liée à la question du statut des travailleurs des plateformes. La mise en évidence d'un lien de subordination peut conduire à une requalification du statut de ces travailleurs en salariat, une telle requalification n'étant pas souhaitée par les plateformes car jugée dommageable à leur modèle économique et contraire aux aspirations d'autonomie et de liberté des travailleurs.

On peut contester le fait que les plateformes, par leurs méthodes de management et l'utilisation de leurs algorithmes, contribuent à encadrer l'activité des travailleurs dont l'autonomie serait ainsi questionnée . Dans cette perspective, les auditions de la mission d'information se sont progressivement orientées vers l'étude du management algorithmique des plateformes numériques.

(2) Les pratiques managériales des plateformes permises par la collecte des données des travailleurs et leurs algorithmes indiquent un rôle au-delà de la simple mise en relation

Selon l'Institut syndical européen (ETUI), le management algorithmique désigne le recours à des outils d'intelligence artificielle pour assurer la gestion et le suivi des travailleurs, et est parfois qualifié de « management par des algorithmes » 196 ( * ) .

Les études menées par le Bureau international du travail (BIT) révèlent que les plateformes numériques ont progressivement mis en place des pratiques managériales qui leur sont propres et qui relèvent du « management algorithmique ». Le BIT définit le management algorithmique comme un « environnement de travail dans lequel des emplois humains sont attribués, optimisés et évalués par l'intermédiaire d'algorithmes et de données suivies » .

Plus spécifiquement, cinq caractéristiques ont été identifiées pour qualifier le management algorithmique :

1. la surveillance constante du comportement des travailleurs ;

2. l' évaluation permanente de leurs performances via les évaluations clients et le taux d'acceptation ou de rejet des tâches ;

3. l' application automatique des décisions sans intervention humaine ;

4. l' interaction des travailleurs avec un « système » et non d'autres êtres humains, ce qui les prive de la possibilité de faire part de leur ressenti ou de négocier avec un responsable ;

5. la faible transparence étant donné la nature évolutive des algorithmes et des pratiques concurrentielles des firmes qui refusent de communiquer toute information sur leur fonctionnement.

Dans cette perspective, les plateformes numériques ne sont pas seulement des intermédiaires assurant un appariement entre une offre et une demande, mais contribuent à organiser l'activité des travailleurs dont l'évaluation et la surveillance par des outils d'intelligence artificielle influencent les modalités mêmes d'intermédiation entre l'offre et la demande. Selon des recherches menées par des sociologues de l'Institut de psychodynamique du travail, « Ce qui est certain en revanche, c'est que les plateformes se chargent de tout ce qui relève de la coordination du travail, renvoyant classiquement à l'organisation du travail prescrit. En procédant de la sorte, les plateformes ne sont donc à aucun moment de simples intermédiaires comme elles le prétendent haut et fort, dans un effort de négation du rapport de subordination dans lequel elles tiennent pourtant des livreurs « indépendants » » 197 ( * ) .

Par ailleurs, le rôle d'intermédiation revendiqué par les plateformes numériques s'appuie sur une représentation idéalisée du travail indépendant, véhiculant un « imaginaire social » 198 ( * ) de simplicité, de liberté et d'autonomie dans le travail dont les espoirs sont déçus par la confrontation avec la réalité des pratiques managériales permises par les algorithmes.

(3) Le management algorithmique des plateformes renforce le pouvoir patronal pour organiser l'activité des travailleurs

Alors que le rôle de simple intermédiation des plateformes est contesté, notamment en raison des pratiques managériales permises par la collecte massive de données des travailleurs, les auditions successives de la mission d'information ont également orienté les débats vers le renforcement de la subordination des travailleurs des plateformes permis par le management algorithmique.

Ainsi, selon les sociologues de l'Institut de psychodynamique du travail, « l'action d'une forme de management désincarné renforce les processus de domination au travail d'une manière inédite : en mettant en jeu la passion pour l'autonomie et le désir de liberté, il peut finalement s'avérer dangereux pour la santé des livreurs » 199 ( * ) .

Ce point de vue est partagé par Sébastien Fischman et Barbara Gomes qui considèrent que « dans les plateformes de travail, la décision algorithmique, avec son caractère dématérialisé et automatisé, n'est pas autre chose que la traduction en langage informatique d'une décision patronale » 200 ( * ) .

Les algorithmes et l'exploitation des données collectées qu'ils permettent constituent des aides à la décision et à la gestion du personnel. Dans le cadre de relations de travail entre un employeur et un salarié, le management algorithme permet d'amplifier les pouvoirs dont l'employeur dispose en droit du travail, c'est-à-dire les pouvoirs de direction, de gestion et de sanction disciplinaire.

Dans le cadre de relations contractuelles entre des plateformes numériques et des travailleurs indépendants, le management algorithmique permet de renforcer l'évaluation, le contrôle et la surveillance de ces derniers et donnerait, selon certains auteurs, les moyens aux plateformes d'exercer des prérogatives qui s'apparenteraient à celles de l'employeur dans le cadre d'un contrat de travail salarié : « en droit du travail, le pouvoir de sanction est caractéristique pour qualifier une relation de subordination et les pouvoirs de l'employeur. Les plateformes de travail, afin de minimiser leur intervention dans les relations contractuelles qui les lient avec les travailleurs indépendants, ont recours à des mécanismes incitatifs et à des systèmes de récompense qui s'apparentent toutefois à des sanctions » 201 ( * ) .

Au regard de ces éléments, le rapporteur de la mission d'information considère, à titre personnel, que le droit du travail pourrait être modifié afin d'intégrer une définition de l'algorithme comme prérogative constitutive du pouvoir patronal. Toutefois, l'introduction d'une telle définition dans le droit du travail demeure l'objet de débats et d'interrogations au sein de la mission d'information, ses membres s'étant toutefois accordés pour engager une réflexion relative à l'adaptation du droit du travail aux spécificités du management algorithmique, reconnaissant ses conséquences sur les conditions de travail et de rémunération.

Proposition n° 9 : engager une réflexion pour adapter le droit du travail aux spécificités du management algorithmique et à ses conséquences sur les conditions de travail.

b) Un impact sur le niveau de rémunération des travailleurs qui interrogent leur niveau d'indépendance
(1) La liberté de fixer les tarifs de ses prestations est caractéristique du travail indépendant

Le rôle de simple intermédiation des plateformes numériques est également difficile à appréhender dans la mesure où des algorithmes de tarification peuvent être utilisés . En effet, parmi les éléments permettant d'apprécier le caractère indépendant d'un travailleur, la liberté de fixer les tarifs de ses prestations et de négocier son contrat est centrale, ce qui a été régulièrement rappelé lors des différentes auditions menées dans le cadre de la mission d'information.

Toutefois, les algorithmes de tarification, utilisées par des plateformes telles qu' Uber ou Deliveroo , ajustent en temps réel l'offre et la demande ainsi que le prix de la prestation en fonction des tensions existantes sur le marché. Si les travailleurs des plateformes bénéficient effectivement de la liberté d'accepter ou non de réaliser la prestation, par exemple parce qu'ils estimeraient que le prix est trop faible, la situation de dépendance économique dans laquelle se trouve la grande majorité de ces travailleurs les contraint à accepter tout de même les missions proposées.

Ainsi, la mission d'information souhaite insister sur le fait que non seulement les travailleurs des plateformes utilisant des algorithmes de tarification ne sont pas libres de fixer leurs prix, mais ils ne sont pas non plus consultés lorsque ces tarifs évoluent, généralement à la baisse . Par exemple, selon le témoignage anonymisé d'un livreur recueilli à l'occasion de manifestations à Paris en octobre 2018, lorsqu'il avait commencé cette activité deux ans auparavant, « il touchait un tarif fixe de 7,50 euros de l'heure plus 2 euros par course. « Au bout d'un an, il a fallu changer » pour un tarif fixe de 5,75 euros par course. En juin, nouvelle formule : le livreur touche désormais 3 euros par commande plus un montant variable, avec un prix plancher fixé à 5,30 euros. Un montant minimal abaissé à 4,80 euros en septembre » 202 ( * ) .

(2) Le développement des algorithmes de tarification remet en cause l'indépendance des travailleurs des plateformes

Alors que les baisses unilatérales des prix décidées par les plateformes numériques et que les modifications algorithmiques opaques permettant de calculer le prix des courses ont motivé les premières manifestations et mobilisations collectives des travailleurs des plateformes, la jurisprudence française a également considéré la liberté tarifaire comme un élément essentiel permettant d'apprécier l'existence d'un lien de subordination .

Par exemple, dans son arrêt du 4 mars 2020, la Cour de cassation détaille le raisonnement utilisé pour requalifier la relation contractuelle entre un chauffeur et la société Uber en contrat de travail, en recourant à la technique dite du « faisceau d'indices ». Il est notamment précisé que le chauffeur n'était pas libre de fixer les tarifs de ses prestations de transport, qui sont fixés contractuellement au moyen d'algorithmes qui permettent à la société d'appliquer des corrections tarifaires en fonction de l'itinéraire choisi, notamment si celui-ci diffère de l'itinéraire recommandé par l'application 203 ( * ) .

La mission d'information souhaiterait toutefois préciser que toutes les plateformes auditionnées ne recourent pas à des algorithmes de tarification et qu'il existe, à cet égard, une diversité de modèles économiques qui se traduisent dans les choix opérés par les algorithmes des plateformes. Par exemple, la plateforme Malt se décrit comme une place de marché permettant de mettre en relation des travailleurs indépendants qualifiés avec des entreprises et précise que ces derniers sont libres de déterminer les conditions tarifaires et d'exécution de leurs prestations.

(3) Les algorithmes de tarification contribuent à la précarisation des travailleurs

Les auditions successives menées dans le cadre de la mission d'information ont démontré que l'utilisation des algorithmes de tarification n'était pas neutre ni sans conséquence pour les travailleurs des plateformes .

En effet, le recours à une tarification dynamique en fonction des tensions entre l'offre et la demande à un moment donné et dans une zone géographique concernée limite la possibilité des travailleurs d'évaluer leurs revenus et d'apprécier leurs revenus disponibles. Selon le sociologue Patrice Flichy, « leurs recettes n'ont pas la régularité d'un salaire et ne sont pas, non plus, définies par des règles simples : temps de travail, nombre de courses... Elles apparaissent aux travailleurs totalement aléatoires. Face à un tel système, la demande des travailleurs, d'une transparence des algorithmes paraît profondément légitime. L'absence de transparence des plateformes-cadres crée une situation de dépendance de ces travailleurs » 204 ( * ) .

Selon Clément Le Ludec, doctorant chercheur à l'Institut polytechnique de Paris, l'impossibilité de négocier les prix, de savoir à l'avance le prix d'une prestation et, in fine , d'avoir simplement une maîtrise sur ses revenus à la fin du mois contribuent à la précarisation des travailleurs des plateformes. Il précise également que les incertitudes relatives à la rémunération des travailleurs sont encore plus marquées parmi ceux travaillant pour des plateformes de microtravail dans la mesure où le client peut refuser de rémunérer une micro-tâche s'il estime que cette dernière n'est pas exécutée de manière satisfaisante 205 ( * ) .

Par conséquent, au regard des éléments qui lui ont été transmis, la mission d'information a également souhaité insister sur l'imprévisibilité des revenus des travailleurs des plateformes, une dimension parfois sous-estimée dans les études portant principalement sur le niveau de revenu de ces travailleurs .

c) Un impact sur les conditions de travail des travailleurs des plateformes
(1) Les promesses déçues d'une amélioration des conditions de travail

La plateformisation de l'économie, qui implique notamment le recours au statut de travailleur indépendant pour exercer une activité professionnelle, séduit de nombreux travailleurs, dont des anciens salariés, en quête de davantage d'autonomie et de liberté dans l'organisation de leurs journées de travail. Ainsi, parmi les principaux arguments avancés par les plateformes et les travailleurs indépendants, la liberté de choisir ses jours et ses horaires de travail, d'accepter ou non la réalisation de certaines tâches ainsi que de ne plus rendre compte à sa hiérarchie de l'avancée de ses missions sont les plus souvent cités. Toutes ces raisons alimentent l'espoir des travailleurs de voir leurs conditions de travail s'améliorer.

Pour certains, les plus qualifiés, les moins dépendants économiquement, ceux qui relèvent de la « Talent Economy », l'exercice d'une ou plusieurs activités professionnelles sous couvert du statut de travailleur indépendant et par l'intermédiaire de plateformes numériques s'avère bénéfique en matière de conditions de travail.

Toutefois, pour la majorité des travailleurs des plateformes, les espoirs d'une plus grande autonomie au travail ont été déçus, et cela s'explique en partie par les spécificités du management algorithmique . En effet, selon l'Agence nationale pour l'amélioration des conditions de travail (ANACT) 206 ( * ) , l'instillation d'une culture permanente du contrôle et de l'évaluation, ainsi que l'absence d'interlocuteurs humains capables d'interagir avec les travailleurs des plateformes, contribuent à la dégradation de leurs conditions de travail, un sentiment accru par leur manque de protection face aux risques maladie et d'accidents du travail.

(2) Les algorithmes contribuent à déterminer l'organisation du temps de travail

Selon l'ANACT, le fonctionnement même des algorithmes d'appariement entre l'offre et la demande, notamment lorsque ces algorithmes permettent d'appliquer une tarification dynamique, incitent les travailleurs à travailler davantage et de manière irrégulière en fonction des perspectives attendues de rémunération : « les algorithmes ont donc un impact déterminant sur les revenus et les horaires de travail des chauffeurs. En effet, même si formellement ce sont les chauffeurs qui choisissent leurs horaires de travail, la « tarification dynamique » et les systèmes d'incitation ont pour objectif de leur faire choisir de travailler aux horaires où la plateforme a besoin d'eux (souvent tôt ou tard dans la journée, le week-end, sur des durées variables et difficile à anticiper) ».

À cet égard, les systèmes d'incitation développés par les plateformes, stimulant de manière ludique la volonté des travailleurs de maximiser leurs revenus, sont particulièrement révélateurs du rôle que peuvent jouer les algorithmes dans l'organisation du temps de travail. Par exemple, « les bonus (surge pricing) attribués aux chauffeurs par Uber correspondent à ce cas. Face à une situation d'augmentation de la demande, Uber cherche à accroître l'offre, en incitant les chauffeurs à se rendre dans telle ou telle zone, sans aucune certitude que le bonus existera encore quand ils arriveront dans ce quartier. Uber prétend, grâce à son algorithme, prévoir le marché et l'application envoie régulièrement des messages prédictifs aux chauffeurs comme ceux-ci : « Get ready for a big week end in New Orleans », « With such high demand, it will be a great night to go out and drive » » 207 ( * ) .

La Fédération des auto-entrepreneurs a également insisté sur les effets pervers de la notation des travailleurs par les clients , dont les conséquences en termes de réputation s'auto-entretiennent en cas de mauvaise note dès lors que la plupart des clients fixent souvent une note sur la base de la moyenne générale du travailleur. Ainsi, il a été suggéré à plusieurs reprises à la mission d'information de permettre la remise à zéro périodique de la notation des travailleurs qui exercent leur activité à travers elles, afin de contribuer à réduire la pression psychologique qu'ils peuvent ressentir au travail.

Proposition n° 10 : imposer aux plateformes de travail l'effacement, à intervalles réguliers, de l'historique des notes attribuées par les clients aux travailleurs qui les utilisent.

L'organisation du temps de travail, qui peut être influencée par les systèmes de notation, est centrale pour apprécier la qualité des conditions de travail, notamment parce que le nombre d'heures travaillées et les horaires de travail décalés accentuent la fatigue des travailleurs, les risques d'accidents du travail et emportent des conséquences importantes en matière de respect de l'équilibre entre vie professionnelle et vie privée.

Récemment, le Parlement européen a adopté le 16 septembre 2021 une résolution sur des conditions de travail, des droits et une protection sociale justes pour les travailleurs de plateformes . Il est particulièrement intéressant de remarquer que le Parlement européen s'est exprimé en faveur d'un plus grand encadrement des algorithmes dans le cadre d'une résolution sur les conditions de travail des travailleurs des plateformes, ce qui a attiré l'attention des représentants syndicaux auditionnés 208 ( * ) . Pour la mission d'information, il s'agit d'une reconnaissance politique du rôle de détermination des conditions de travail joué par les algorithmes des plateformes. Plus précisément, la résolution européenne :

- estime que la gestion algorithmique est source de nouvelles problématiques pour l'avenir du travail et est susceptible de créer des déséquilibres de pouvoir et d'opacifier les processus décisionnels.

- estime que l'utilisation d'algorithmes appliqués au travail doit être transparente, non discriminatoire, digne de confiance et éthique vis-à-vis des travailleurs ;

- invite la Commission et les États membres à garantir une protection appropriée des droits et du bien-être des travailleurs de plateformes, tels que la non-discrimination, le respect de la vie privée, l'autonomie et la dignité humaine vis-à-vis de l'intelligence artificielle et de la gestion algorithmique ;

(3) Le management algorithmique promeut une vision individualisée du travail qui amplifie l'isolement et le mal-être des travailleurs

Au-delà des conséquences du management algorithmique sur l'organisation du temps de travail, qui détermine de manière significative les conditions de travail, la mission d'information a souhaité mettre en valeur les travaux de recherche et contributions qui éclairent sur la dimension psychologique de la gestion algorithmique de l'activité. Au-delà de la question du lien de subordination juridique, qui n'est pas directement abordée, la mission d'information considère cependant « le rapport de subordination n'est jamais qu'un « simple » rapport juridique au travail, il est surtout un rapport subjectif au travail, une expérience vécue de la confrontation au réel du travail » 209 ( * ) .

Premièrement, le management algorithmique accentue fortement l'isolement des travailleurs . En effet, malgré l'ampleur des volumes de données analysées, les algorithmes sont capables d'effectuer un traitement individualisé des travailleurs, ce qui conduit à une certaine forme de concurrence entre eux, notamment lorsqu'il existe des mécanismes incitatifs de tarification en fonction de leurs performances. Une telle vision du travail individualisée se heurte toutefois à une conception plus sociale du travail qui le conçoit comme une expérience collective, permettant des échanges d'informations et de savoir-faire avec d'autres travailleurs et facilitant l'organisation collective des revendications.

Selon les sociologues de l'Institut de psychodynamique du travail, « le caractère atomisé des relations sociales entre livreurs est ce qui permet à la plateforme d'imposer un exercice plus serré et incontrôlable de l'exploitation. En effet, la difficulté à rentrer dans des liens affectifs avec les autres livreurs, à parler de l'expérience du réel du travail entre eux, dans des espaces de discussion dédiés, pose la difficulté à stabiliser des savoir-faire collectifs » 210 ( * ) .

Deuxièmement, le management algorithmique permet des actions directes sur le comportement des travailleurs . Selon les travaux menés par des chercheurs de l'Institut national de recherche et de sécurité (INRS), « c'est ce savoir probabiliste, fruit de l'agrégation de données massives, qui va être utilisé pour définir la norme qui sera appliquée dans la conception des propositions commerciales, de l'offre de transport ou de la définition de la politique de la ville. Un savoir dégagé de toutes considérations telles que la classe sociale, les spécificités professionnelles ou religieuses, les comportements particuliers, etc. » 211 ( * ) . Autrement dit, les modèles statistiques utilisés pour élaborer les algorithmes des plateformes contribueraient à normaliser les comportements des travailleurs afin qu'ils s'agissent dans un sens favorable aux intérêts des plateformes, au risque de perdre leur individualité, ce qui les détermine en tant que personne.

Par conséquent, l'isolement des travailleurs des plateformes et les difficultés qu'ils peuvent rencontrer à s'approprier leur travail ou à nouer des relations avec d'autres travailleurs participent du mal-être qu'ils peuvent ressentir, c'est-pourquoi les travaux de recherche s'intéressant aux conséquences du management algorithmique sur leurs conditions de travail sont nécessaires afin de mieux éclairer les politiques publiques dans ce domaine .

3. Sous une apparente neutralité, le recrutement algorithmique tend à reproduire les biais cognitifs et discriminants dont peuvent être victimes les travailleurs des plateformes
a) Une fausse promesse de neutralité et d'objectivité
(1) L'essor de l'utilisation des algorithmes en matière de ressources humaines

En s'intéressant au développement du management algorithmique, la mission d'information a constaté l'essor important de l'usage des algorithmes et des outils d'intelligence artificielle dans le domaine des ressources humaines, facilité par la numérisation accélérée de ce secteur d'activité. Ces dernières années, se sont développés des éditeurs de logiciel de ressources humaines proposant des solutions dites « clés en main » et permettant d'automatiser les taches les plus répétitives, mais également d'appuyer les décisions prises par les services internes des ressources humaines des entreprises et leurs dirigeants.

Indissociable du mouvement de numérisation des entreprises, l'usage des algorithmes dans les ressources humaines est particulièrement utilisé en matière de recrutement avec, par exemple, le développement d'algorithmes prédictifs tels que celui utilisé par la plateforme Assessfirst , qui a été auditionnée par la mission d'information. En effet, le développement de ces technologies suscite des inquiétudes quant à la possibilité de recruter des personnes exclusivement selon les résultats de traitements automatisés de données et sans l'appréciation d'un responsable humain des ressources humaines qualifié en matière de recrutement, même si ces inquiétudes ne sont pas toujours fondées.

Par ailleurs, « en matière de recrutement, les algorithmes peuvent jouer des rôles différents avec des degrés d'intervention différents : de la simple mise en relation à l'aide à la décision à la prise de décision automatisée » 212 ( * ) . Selon l'Association française des managers de la diversité (AFMD), les algorithmes sont utilisés à des fins différentes en matière de recrutement, par exemple pour gérer les relations avec les candidats, pour détecter leurs compétences ou vérifier l'adéquation de leurs profils avec les fiches de postes à pourvoir 213 ( * ) .

Au-delà du recrutement, les algorithmes et outils d'intelligence artificielle sont également de plus en plus utilisés dans d'autres domaines des ressources humaines et sont conçus comme des outils d'aide à la décision en matière de gestion du personnel, d'évolution des parcours professionnels, d'attribution des promotions, de détermination des choix de mobilité et des formations professionnelles 214 ( * ) .

Ainsi, face à l'extension des métiers des ressources humaines qui sont aujourd'hui susceptibles d'être transformés par le développement des solutions numériques et des algorithmes, et face à l'extension des incertitudes liées à leur utilisation en matière de recrutement, la mission d'information a souhaité comprendre les principaux déterminants d'un tel développement.

(2) La rationalisation des processus de recrutement perçus comme plus neutres et objectifs

L'utilisation de solutions numériques et d'algorithmes dans les processus de recrutement des entreprises est principalement motivée par la recherche d'une plus grande objectivité, d'une plus grande neutralité et d'une plus grande efficacité .

Une plus grande objectivité car les recruteurs souhaitent adopter une attitude dépourvue de partialité en se basant sur des critères explicitement définis, identiques pour tous les candidats et facilitant l'évaluation de leur candidature. Une plus grande neutralité car les recruteurs souhaitent également que le processus de recrutement soit le plus impartial possible, qui ne favorise aucune caractéristique particulière et personnelle chez les candidats.

Une plus grande efficacité car « les avantages associés et attribués à l'utilisation de l'IA dans les RH sont nombreux : optimisation du processus de recrutement et de la gestion des compétences, gains de temps et de productivité, amélioration de la prise en compte des politiques RH dans les décisions stratégiques des entreprises » 215 ( * ) . En automatisant les taches les plus répétitives, les outils numériques permettraient aux recruteurs d'accorder davantage de temps aux entretiens individuels de recrutement, qui demeurent privilégiés parmi les professionnels des ressources humaines pour prendre une décision.

Ce point de vue est également partagé par l'AFMD qui considère que les décisions de recrutement ne sont jamais entièrement automatisées 216 ( * ) .

(3) Les doutes quant à la capacité technique des algorithmes de recrutement à ne pas discriminer

Les auditions successives et les recherches menées dans le cadre de la mission d'information amènent cependant à s'interroger sur la capacité technique des algorithmes à ne pas discriminer en matière de recrutement. Si la clarification des critères utilisés, la simplification des procédés employés et les gains d'efficacité permettent de réduire les erreurs de jugement et d'appréciation humaine, les promesses selon lesquelles les algorithmes permettraient d'éviter les discriminations et les biais de recrutement semblent vaines.

En effet, il y aurait une certaine incompatibilité entre le fonctionnement technique des algorithmes de recrutement, qui ont besoin de données sur les candidats potentiels, et l'encadrement juridique des discriminations. Un employeur peut vouloir utiliser un algorithme de recrutement pour limiter les discriminations. Pour cela, il faudrait pouvoir coder le droit et les motifs de discrimination qui sont prohibés par la loi, ce qui supposerait de collecter des données sensibles et personnelles auprès des candidats, telles que leur genre, leur orientation sexuelle, leur religion ou encore leur situation économique, ce qui est interdit en matière de recrutement. Autrement dit, « C'est la limite juridique majeure pour l'algorithme : pour lui apprendre à ne pas discriminer, il faut lui apprendre ce qu'est la discrimination au sens juridique et surtout lui permettre de la mesurer. L'algorithme ne comprend que les données » 217 ( * ) .

b) Des biais algorithmiques qui commencent à être étudiés
(1) Les biais de conception des algorithmes

La mission d'information souhaite insister sur le fait que les algorithmes sont premièrement et avant tout le résultat d'un travail humain de conception et de traduction en langage informatique de choix qui ont été effectués par des personnes humaines en capacité de prendre des décisions.

Premièrement, il existe des biais de conception inhérents au développement des algorithmes. En effet, de manière générale, « l'algorithme est censé être le reflet des intentions de son créateur » 218 ( * ) , des choix qu'il fait, de ses objectifs et de sa vision politique, économique et sociale.

Dans un colloque organisé en 2020 par le Défenseur des droits et la Commission nationale de l'informatique et des libertés (CNIL) autour du thème « Algorithme, prévenir l'autorisation des discriminations », l'importance de la consolidation des biais existants est notamment mise en évidence : « les données étant le résultat d'un construit social, l'algorithme « apprendra » l'ensemble des biais affectant l'échantillon des données d'apprentissage » 219 ( * ) .

Les biais de conception peuvent également être liés à la qualité des données utilisées pour développer l'algorithme. En effet, il n'est parfois pas possible de recueillir toutes les données directement utiles et précises permettant d'élaborer un algorithme, c'est-pourquoi des « données de rechange » sont parfois utilisées, c'est-à-dire des données qui sont suffisamment proches de celles recherchées pour permettre le fonctionnement de l'algorithme, avec une précision toutefois moindre.

Les biais de conception peuvent aussi s'expliquer par l'uniformisation des algorithmes et des outils numériques développés par des prestataires de services , ce qui permet moins de prendre en compte les spécificités d'une situation, d'une activité professionnelle ou d'un environnement de travail particulier.

(2) Les biais d'utilisation des algorithmes

Deuxièmement, il existe des biais d'utilisation des algorithmes. À cet égard, l'existence de « boucles de rétroaction » est particulièrement significative de la manière dont les utilisateurs des algorithmes peuvent comprendre leurs logiques de fonctionnement, se les approprier, et ainsi orienter les résultats en fonction des données qui seront récoltées et de la manière dont elles seront imputées 220 ( * ) . De telles stratégies de contournement, qui sont par exemple mises en oeuvre par certains candidats lors de processus automatisés de recrutement, contraignent les bénéficiaires de l'algorithme à le mettre régulièrement à jour afin de limiter l'ampleur de ces boucles de rétroaction et de s'assurer de la pertinence des résultats souhaités dans la durée.

Les biais d'utilisation des algorithmes sont toutefois difficiles à identifier, notamment en raison de leur opacité et des difficultés rencontrées par les utilisateurs, pour comprendre les logiques sous-jacentes de fonctionnement.

(3) L'existence de biais algorithmiques implique la reconnaissance d'une chaîne de responsabilité humaine

À la suite de l'audition conjointe du Défenseur des droits et de la Commission nationale de l'informatique et des libertés (CNIL) du 7 septembre 2021, la mission d'information a acquis la conviction qu'un algorithme n'était pas seulement une suite d'opérations permettant de traiter des volumes importants de données, mais bien une chaîne de responsabilité humaine .

En effet, l'existence de biais algorithmiques, qui reflètent les valeurs implicites de l'ensemble des personnes impliquées dans la collecte des données, dans leur sélection, dans leur traduction en langage informatique et dans leur utilisation, démontre qu'il y a toujours une présence humaine et une décision humaine à laquelle il devrait être possible de se référer pour contester les éventuelles discriminations induites par les algorithmes.

Ainsi, contrairement à une vision trop souvent idéalisée de l'automatisation permise par le développement des algorithmes et des outils d'intelligence artificielle, il est essentiel de se rappeler qu'une prise de décision permise par un algorithme est le résultat de l'achèvement de plusieurs micros décisions humaines qui ont contribué à son élaboration. Dans cette perspective, la mission d'information invite à prendre du recul face au terme de plus en plus consacré de « décision algorithmique », c'est-à-dire une décision qui reposerait sur le seul fondement d'un traitement automatisé de données, car une telle expression masque l'existence des décisions humaines prises dans le processus.

Les biais algorithmiques sont cependant difficiles à identifier et, s'ils peuvent résulter explicitement de choix politiques, économiques et stratégiques formulés en amont pour, par exemple, maximiser les profits d'une entreprise, ils sont souvent le résultat de choix inconscients et des déterminismes sociaux. De telles difficultés d'identification des biais algorithmiques et des responsabilités qui peuvent en être déduites sont partagées par la CNIL qui précise que « le caractère spécifique de l'enjeu abordé ici tient au fait qu'il s'agit de décisions et de choix qui peuvent être effectués de manière presque inconsciente (alors que le codage d'un algorithme classique et déterministe est toujours une opération délibérée). Celui qui entraîne un algorithme y insère d'une certaine façon sa propre vision du monde, ses valeurs ou, à tout le moins, des valeurs présentes plus ou moins directement dans les données tirées du passé » 221 ( * ) .

Consciente des défis liés à l'identification d'une responsabilité directe en matière de biais algorithmiques, la mission d'information considère toutefois qu'il y a, a minima , une responsabilité collective et impérieuse de contribuer au recensement des éventuelles discriminations qui résultent de l'utilisation des algorithmes .

Cette responsabilité collective implique l'ensemble des maillons de la chaîne d'élaboration des algorithmes, qui n'est pas seulement une chaîne d'exécution technique, mais bien une chaîne de responsabilités humaines, avec toutes les complexités que cela emporte. Ainsi, les commanditaires d'algorithmes et d'outils d'intelligence artificielle, les prestataires extérieurs, les développeurs informatiques, leurs enseignants et leurs formateurs, les entreprises utilisatrices, les utilisateurs individuels, les chercheurs et les universitaires et, in fine , tous ceux qui peuvent être affectés par des décisions prises à l'aide des algorithmes doivent contribuer à l'identification et à la correction des éventuels biais discriminatoires.

Dans cette perspective, la mission d'information s'est par exemple intéressée à l'utilisation du statut de lanceur d'alerte pour permettre de matérialiser cette chaîne de responsabilité humaine, c'est-à-dire en se donnant la possibilité d'intervenir pour dénoncer, lorsque cela est possible et prouvé, des biais discriminatoires. La directive européenne du 23 octobre 2019 sur les lanceurs d'alerte reconnaît ainsi le statut de lanceur d'alerte aux salariés et à leurs représentants dans les entreprises, mais également aux travailleurs indépendants, qui peuvent communiquer des faits attestant d'une violation du droit de l'Union européenne. En matière de management algorithmique, ce serait le cas pour les dispositions contraires à la protection des consommateurs ou portant atteinte à la vie privée des personnes, mais la mise en évidence de telles situations demeure complexe, notamment car la jurisprudence tendant à identifier des biais discriminatoires dans les algorithmes des plateformes est naissante et peu étoffée.

c) Une jurisprudence naissante tendant à identifier des biais discriminatoires dans les algorithmes des plateformes
(1) Le contrôle du juge administratif du caractère non discriminatoire des décisions administratives individuelles prises par algorithme

Considérer les algorithmiques comme une chaîne de responsabilité humaine dans la mesure où ils peuvent être discriminants conduit nécessairement le législateur à s'intéresser au rôle du juge pour qualifier le caractère discriminatoire ou non discriminatoire d'un algorithme . Si la mission d'information a essentiellement restreint son champ d'études aux algorithmes utilisés par les plateformes numériques et les entreprises, il s'avère utile de s'intéresser aux algorithmes publics, c'est-à-dire ceux utilisés par l'administration pour prendre des décisions individuelles, car l'encadrement juridique dont ils font l'objet peut s'avérer particulièrement inspirant.

Selon des travaux de recherche 222 ( * ) , le juge administratif peut opérer un contrôle du caractère non discriminatoire d'un algorithme public utilisé par l'administration pour prendre des décisions individuelles.

Premièrement, le juge peut contrôler le caractère non-discriminatoire des données utilisées, en particulier lors des phases d'apprentissage des algorithmes : « le droit impose d'utiliser les données à caractère personnel non discriminatoire, ce qui implique la neutralité de l'échantillon des données utilisées de l'apprentissage. Est considérée comme neutre une base de données donnant une représentation fidèle de la réalité, chaque catégorie d'une population y étant décrite dans les mêmes proportions » 223 ( * ) . En pratique, de tels contrôles s'avèrent toutefois difficiles à effectuer, le contrôle du juge étant limité par les éléments de preuve que les administrés peuvent apporter pour attester de l'existence d'une discrimination du fait de l'utilisation d'un algorithme, ainsi que par la complexité inhérente au fonctionnement des algorithmes.

Deuxièmement, le juge administratif peut contrôler les méthodes d'apprentissage utilisées lors de la conception de l'algorithme. À cet égard, le Conseil constitutionnel a interdit l'utilisation par l'administration des algorithmes dits « auto-apprenants », c'est-à-dire des algorithmes susceptibles de réviser eux-mêmes les règles qu'ils appliquent : « le responsable du traitement doit s'assurer de la maîtrise du traitement algorithmique et de ses évolutions afin de pouvoir expliquer, en détail et sous une forme intelligible, à la personne concernée la manière dont le traitement a été mis en oeuvre à son égard. Il en résulte que ne peuvent être utilisés, comme fondement exclusif d'une décision administrative individuelle, des algorithmes susceptibles de réviser eux-mêmes les règles qu'ils appliquent, sans le contrôle et la validation du responsable du traitement » 224 ( * ) .

Troisièmement, le juge administratif peut contrôler la non-sensibilité des données utilisées . Les données sensibles constituent une catégorie particulière de données à caractère personnel. Ainsi, concernant les algorithmes publics utilisés par l'administration, l'article 6 de la loi relative à l'informatique, aux fichiers et aux libertés de 1978 détermine un principe général d'interdiction du traitement des données sensibles, sous réserve des exceptions prévues par la loi et justifiés par l'intérêt général : « Il est interdit de traiter des données à caractère personnel qui révèlent la prétendue origine raciale ou l'origine ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l'appartenance syndicale d'une personne physique ou de traiter des données génétiques, des données biométriques aux fins d'identifier une personne physique de manière unique, des données concernant la santé ou des données concernant la vie sexuelle ou l'orientation sexuelle d'une personne physique ».

Quatrièmement, le juge administratif pourrait être amené à se prononcer sur la responsabilité éventuelle de l'administration, ou des concepteurs de l'algorithme , en cas d'identification d'une décision discriminatoire prise sur le fondement d'un traitement automatisé des données et ayant produit des effets juridiques pour l'administré. L'identification d'une telle responsabilité n'est pas aisée. Dans tous les cas, le juge administratif peut s'appuyer sur une décision du Conseil constitutionnel qui confirme que l'utilisation d'algorithmes par l'administration pour prendre des décisions individuelles ne signifie pas que l'algorithme décide à la place de l'administration : « ces dispositions se bornent à autoriser l'administration à procéder à l'appréciation individuelle de la situation de l'administré, par le seul truchement d'un algorithme, en fonction des règles et critères définis à l'avance par le responsable du traitement. Elles n'ont ni pour objet ni pour effet d'autoriser l'administration à adopter des décisions sans base légale, ni à appliquer d'autres règles que celles du droit en vigueur. Il n'en résulte dès lors aucun abandon de compétence du pouvoir réglementaire » 225 ( * ) .

Si ces dispositions concernent les algorithmes publics utilisés par l'administration et non les algorithmes utilisés à des fins commerciales par les plateformes numériques et les entreprises, la mission d'information a toutefois souhaité aborder les différences d'encadrement juridique dont peuvent faire l'objet les algorithmes publics et les algorithmes privés, notamment en matière de contrôle des biais discriminants et des exigences de transparence et d'intelligibilité.

(2) La reconnaissance du caractère discriminatoire d'un algorithme d'une plateforme numérique par la justice italienne

Le 31 décembre 2020, le tribunal de Bologne, en Italie, a jugé que l'algorithme utilisé par la plateforme Deliveroo était discriminatoire 226 ( * ) . Plus spécifiquement, les trois syndicats italiens ont contesté le fonctionnement de l'algorithme permettant un système de pré-réservations des créneaux de livraison par les livreurs. Concrètement, en fonction de plusieurs critères mesurés par l'algorithme, la fiabilité et la performance des livreurs étaient évaluées, ce qui permettait d'établir une notation déterminant un accès prioritaire à la réservation des créneaux de livraison, soit dès le lundi matin, soit plus tard dans la journée.

Or, les syndicats contestaient le caractère discriminatoire de cet algorithme, arguant qu'il ne permettait pas de distinguer les motifs légaux justifiant une interruption temporaire de travail, tels que la maladie ou l'exercice du droit de grève, des autres motifs pouvant induire une baisse de performance des travailleurs.

Cette décision a attiré l'attention de la mission d'information car il s'agit de l'une des premières décisions identifiées comme reconnaissant explicitement le caractère discriminatoire d'un algorithme d'une plateforme numérique. Selon Valerio Di Stefano, professeur de droit du travail et spécialisé dans l'influence des outils d'intelligence artificielle sur le travail, : « ce que cela montre, en gros, c'est qu'au niveau juridique, vous pouvez avoir une discrimination indirecte par le biais d'algorithmes et que les algorithmes sont donc soumis à un contrôle judiciaire, que vous pouvez légalement remettre en question le fonctionnement de ces types d'algorithmes. Je pense que c'est important, parce que les gens peuvent souvent penser que les algorithmes sont objectivement neutres, alors qu'en fait il y a toujours la possibilité d'une discrimination » 227 ( * ) .

Il est toutefois important de préciser que les représentants de la plateforme ont publiquement contesté ce jugement, précisant que ce système de pré-réservations n'est plus en vigueur, ni en Italie, ni dans un autre pays, depuis le mois de novembre 2020, et qu'aucun cas de discrimination objective d'une personne particulière n'a été prouvée, le jugement du tribunal de Bologne portant sur le fonctionnement global de l'ancien algorithme contesté.

(3) En France, une jurisprudence naissante qui ne doit pas conduire à sous-estimer le potentiel discriminatoire des algorithmes

Comme cela a été indiqué lors de l'audition conjointe du Défenseur des droits et de la Commission nationale pour l'informatique et les libertés (CNIL) 228 ( * ) , il n'y a pas eu de décisions juridiques en France reconnaissant le caractère discriminatoire d'un algorithme utilisé par une plateforme numérique.

Toutefois, l'absence de jurisprudence nationale en la matière ne doit pas conduire à sous-estimer le potentiel discriminatoire des algorithmes des plateformes numériques, même s'il serait, bien sûr, plus évident pour le législateur d'appréhender ce phénomène sur la base de décisions de justice préexistantes.

Ainsi, la mission d'information souhaite réitérer son soutien aux institutions, aux chercheurs et aux universitaires qui s'intéressent à l'étude des biais discriminatoires des algorithmes et aux solutions qui pourraient être mises en oeuvre pour tendre vers davantage de neutralité, d'objectivité et d'impartialité dans le traitement automatisé des données des travailleurs .


* 186 Sous la direction de Patrick Adam, Intelligence artificielle, gestion algorithmique du personnel et droit du travail, « Intelligences artificielles et droit du travail : contribution à l'étude du fonctionnement des plateformes numériques ».

* 187 Article L. 111-7 du Code de la consommation.

* 188 Contribution écrite à la suite de l'audition du 22 juillet 2021.

* 189 Contribution écrite à la suite de l'audition du 13 juillet 2021.

* 190 Contribution écrite à la suite de l'audition du 22 juillet 2021.

* 191 Article 4 de la loi pour une République numérique.

* 192 Article 6 de la loi pour une République numérique.

* 193 Marty, Frédéric. « La protection des algorithmes par le secret des affaires. Entre risques de faux négatifs et risques de faux positifs », Revue internationale de droit économique, vol. xxxiii, no. 2, 2019, pp. 211-237.

* 194 Conseil national du numérique, « Ambition numérique - Pour une politique française et européenne de la transition numérique », 2015.

* 195 Article L. 111-7 du Code de la consommation.

* 196 Valerio De Stefano et Simon Taes, « Management algorithmique et négociation collective », Notes de prospective de l'ETUI, Mai 2021.

* 197 Lemozy Fabien, Le Lay Stéphane, « Le rapport subjectif au travail dirigé par les algorithmes. Être livré à soi-même sur une plateforme capitaliste », Mouvements , 2021/2 (n° 106), p. 99-107.

* 198 Ibid.

* 199 Lemozy Fabien, Le Lay Stéphane, « Le rapport subjectif au travail dirigé par les algorithmes. Être livré à soi-même sur une plateforme capitaliste », Mouvements , 2021/2 (n° 106), p. 99-107.

* 200 Sous la direction de Patrick Adam, Intelligence artificielle, gestion algorithmique du personnel et droit du travail, « Intelligences artificielles et droit du travail : contribution à l'étude du fonctionnement des plateformes numériques ».

* 201 Ibid.

* 202 Aline Leclerc, « On ne sait plus ce qu'on va gagner, le désarroi des Deliveroo », Le Monde, 13 octobre 2018.

* 203 Arrêt n°374 du 4 mars 2020 (19-13.316) - Cour de cassation - Chambre sociale.

* 204 Flichy, Patrice. « Le travail sur plateforme. Une activité ambivalente », Réseaux , vol. 213, no. 1, 2019, pp. 173-209.

* 205 Audition du 13 septembre 2021.

* 206 Contribution écrite de l'ANACT à la suite de l'audition du 28 juin 2021.

* 207 Flichy, Patrice. « Le travail sur plateforme. Une activité ambivalente », Réseaux , vol. 213, no. 1, 2019, pp. 173-209.

* 208 Audition du 21 septembre 2021.

* 209 Lemozy Fabien, Le Lay Stéphane, « Le rapport subjectif au travail dirigé par les algorithmes. Être livré à soi-même sur une plateforme capitaliste », Mouvements , 2021/2 (n° 106), p. 99-107.

* 210 Ibid.

* 211 Michel Héry, Jennifer Clerté, « Comment les algorithmes pourraient influer sur les conditions de travail », INRS, Note de prospective, Septembre 2020.

* 212 Sous la direction de Patrick Adam, Intelligence artificielle, gestion algorithmique du personnel et droit du travail, « L'usage des algorithmes et de l'IA dans le recrutement : une occasion de (ne) plus discriminer ? ».

* 213 Audition du 20 juillet 2021.

* 214 Sous la direction de Patrick Adam, Intelligence artificielle, gestion algorithmique du personnel et droit du travail, « Gestion par algorithme du personnel et exigence de loyauté et de transparence ».

* 215 Sous la direction de Patrick Adam, Intelligence artificielle, gestion algorithmique du personnel et droit du travail, « L'IA dans les RH, une standardisation qui pose problème ».

* 216 AFMD, Recruter avec des algorithmes ? Usages, opportunités et risques, 2019

* 217 Sous la direction de Patrick Adam, Intelligence artificielle, gestion algorithmique du personnel et droit du travail, « L'usage des algorithmes et de l'IA dans le recrutement : une occasion de (ne) plus discriminer ? ».

* 218 Sous la direction de Patrick Adam, Intelligence artificielle, gestion algorithmique du personnel et droit du travail, « L'usage des algorithmes et de l'IA dans le recrutement : une occasion de (ne) plus discriminer ? ».

* 219 Contribution écrite de la CNIL à la suite de son audition du 7 septembre 2021.

* 220 Sous la direction de Patrick Adam, Intelligence artificielle, gestion algorithmique du personnel et droit du travail, « L'usage des algorithmes et de l'IA dans le recrutement : une occasion de (ne) plus discriminer ? ».

* 221 CNIL, Comment permettre à l'homme de garder la main ? Les enjeux éthiques des algorithmes et de l'intelligence artificielle, Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion éthique confiée par la loi pour une République numérique, Décembre 2017.

* 222 Claire Aguillon, « Le contrôle par le juge administratif du caractère non discriminatoire des décisions individuelles algorithmiques », Annuaire international de justice constitutionnelle, 35-2019, 2020, pp.605-620.

* 223 Ibid.

* 224 Conseil constitutionnel, décision n°2018-765 DC du 12 juin 2018, Loi relative à la protection des données personnelles, 71.

* 225 Conseil constitutionnel, décision n°2018-765 DC du 12 juin 2018, Loi relative à la protection des données personnelles, 69.

* 226 Ordonnance du tribunal de Bologne, FILCAMS NIDIL FILT CGIL BOLOGNA c. DELIVEROO ITALIA S.R.L, 2949/2019, 31 décembre 2020.

* 227 Stan Adkens, « Un tribunal détermine que Deliveroo utilise un algorithme « discriminatoire » pour déterminer l'indice de « fiabilité » des livreurs, 11 janvier 2021.

* 228 Audition du 7 septembre 2021.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page