Question de M. GAY Fabien (Seine-Saint-Denis - CRCE-K) publiée le 21/12/2023

M. Fabien Gay appelle l'attention de Mme la ministre des solidarités et des familles sur l'utilisation par la caisse nationale des affaires familiales (CNAF) d'un algorithme établissant un « score de suspicion » discriminatoire à l'encontre des allocataires les plus précaires.

Le 27 novembre 2023, la Quadrature du Net publiait les résultats d'une enquête portant sur l'utilisation par la CNAF d'un algorithme permettant d'établir un « score de suspicion » à l'encontre de certains allocataires, qui détermine la mise en place d'un contrôle.

Parmi les variables augmentant le « score » se trouvent : le fait de disposer de faibles revenus, d'être au chômage ou allocataire du revenu de solidarité active (RSA), d'habiter dans un quartier défavorisé ou de consacrer une partie importante de ses revenus à son loyer. On observe également le ciblage délibéré des familles monoparentales ou des personnes bénéficiant de l'allocation adulte handicapé.

Plutôt que des contrôles aléatoires, où chaque allocataire aurait le même risque d'être contrôlé, cette technique poursuit un objectif simple : cibler les plus précaires. Un ancien Défenseur des droits avait déjà fustigé cette démarche fondée sur des « préjugés et des stéréotypes ».

La CNAF avance que le but serait de cibler des erreurs déclaratives, y compris celles en défaveur de l'allocataire. Pourtant, plus de la moitié des contrôles aboutissent à des demandes de remboursement, quand seuls 23 % conduisent à allouer des prestations supplémentaires.

Comme le soulignait un représentant de la confédération générale du travail, cet algorithme a changé l'esprit des contrôles : s'ils étaient auparavant effectués dans une dynamique d'organisme social, avec une étude globale du dossier, désormais le ciblage se porte uniquement sur les erreurs de saisie.

Cependant, ces erreurs sont rarement constitutives de fraudes, et restent explicables pour de nombreuses raisons. Non seulement, la multiplication des déclarations de prestations augmente le risque d'erreur, mais les prestations sociales à destination des personnes les plus démunies sont celles dont les conditions d'attribution et les obligations déclaratives sont les plus complexes.

Pourtant, si l'on se réfère aux suites données à de nombreux contrôles, il faut constater qu'une accusation de fraude est portée avec pour seul « élément intentionnel » le fait que l'information sur les prestations sociales soit « publique, connue et disponible ».

Un professeur de sciences politiques soulignait que « le fait qu'un dossier soit fortement 'scoré' (...) place les contrôleurs dans la quasi-obligation de trouver quelque chose qui cloche ».

Cette surveillance de masse conduit à des situations illisibles constitutives de véritables maltraitances administratives.

Enfin, la Cour de justice de l'Union européenne a rendu le 7 décembre 2023 un arrêt considérant que le règlement général de la protection des données(RGPD) contient une interdiction de soumettre les personnes à une prise de décision automatisée ayant un impact significatif sur elles. Ainsi, cette pratique de la CNAF pose des doutes quant à sa conformité au droit de l'UE.

Alors que la Cour des comptes estime que ce type de fraude représente 0,39 % de l'ensemble des prestations versées, un tel dispositif apparaît totalement disproportionné. Cela, surtout lorsqu'il est considéré qu'aucun dispositif d'envergure similaire n'est mis en place pour lutter contre la fraude aux cotisation sociales des employeurs et la fraude fiscale, dont le montant est bien supérieur.

Il souhaiterait donc savoir si le Gouvernement entend demander l'arrêt de l'utilisation de cet algorithme discriminatoire par la CNAF.

- page 7005

Transmise au Ministère du travail, de la santé et des solidarités


En attente de réponse du Ministère du travail, de la santé et des solidarités.

Page mise à jour le