|
commission des affaires sociales |
Projet de loi Projet de loi relatif à la lutte contre les fraudes sociales et fiscales (1ère lecture) (n° 24 ) |
N° COM-81 3 novembre 2025 |
AMENDEMENTprésenté par |
|
||||
|
Mmes PONCET MONGE et SOUYRIS ARTICLE ADDITIONNEL APRÈS ARTICLE 2 |
|||||
Après l'article 2
Insérer un article additionnel ainsi rédigé :
I.- L’article L. 311-3-1 du Code des relations entre le public et l’administration est ainsi modifié :
1° À la première phrase du premier alinéa, après les mots : « sur le fondement », sont insérés les mots : « , en tout ou partie, » ;
2° À la première phrase du premier alinéa, après les mots : « informant l’intéressé », sont insérés les mots : « à peine de nullité »
II.- L’article L. 312-1-3 du même code est ainsi modifié :
1° À la fin du premier paragraphe, sont ajoutés les mots : «même partiellement ou via du ciblage.»
2° Après le paragraphe unique, est inséré un alinéa ainsi rédigé : « Lesdites administrations sont tenues de démontrer par tout moyen l’adéquation entre les règles publiés et les traitements utilisés à toute personne en faisant la demande, à peine de nullité des décisions basées sur le traitement »
Objet
Le présent amendement vise à rendre nulle toute décision administrative fondée, même partiellement, sur un algorithme dont l’administration n’est pas en mesure d’expliquer le rôle et le fonctionnement dans le cas d’espèce.
En érigeant l’explicabilité en condition de validité, il s’agit de garantir l’effectivité des droits des usager·e·s face à l’automatisation croissante des décisions publiques, et d’empêcher que des traitements opaques ne produisent des effets contraires aux principes d’égalité, de transparence et de recours effectif.
Des travaux récents, notamment l’étude empirique publiée dans la Revue des droits et libertés fondamentaux sous le titre ‘L’ineffectivité du droit d’accès à l’information sur les algorithmes’ (2025), montrent que le droit d’accès prévu à l’article L. 311-3-1 du Code des relations entre le public et l’administration demeure largement inopérant. Cette étude, fondée sur l’analyse de plus de cent soixante décisions rendues entre 2022 et 2024, révèle que la plupart des juridictions se limitent à une lecture formelle du texte, considérant que l’information algorithmique relève d’une simple exigence de transparence, sans portée sur la légalité de la décision elle-même. Cette approche réduit à néant la possibilité, pour les administré·e·s, de comprendre et de contester les calculs ou les critères qui ont pu influencer une décision les concernant. L’exigence d’explicabilité devient ainsi la seule manière de rétablir une égalité procédurale entre l’administration et la personne concernée.
Ce besoin de transparence concrète s’illustre de manière aigüe dans certaines politiques publiques. Une question écrite déposée au Sénat le 7 novembre 2024 a interrogé l’exécutif sur l’existence d’un système de notation algorithmique appliqué aux allocataires de la Caisse nationale d’allocations familiales, fondé sur des variables socio-économiques susceptibles d’entraîner une sur-exposition de certaines catégories de personnes aux contrôles. Cet exemple souligne le risque qu’un dispositif technique, lorsque son fonctionnement n’est pas expliqué ni justifié, engendre des discriminations structurelles sans que les individus puissent en comprendre l’origine ni en contester la logique. Cette question reste aujourd’hui sans réponse de l’exécutif.
Le présent amendement repose donc sur un principe simple : lorsqu’une décision administrative est prise à l’aide d’un algorithme, l’administration doit être en mesure d’en expliquer les règles essentielles, le poids du traitement dans la décision finale, les données utilisées et les limites connues de l’outil. À défaut, la décision ne saurait être considérée comme légale. Il ne s’agit pas d’interdire le recours aux outils d’aide à la décision, mais d’en conditionner la validité à la possibilité de rendre compte de leur usage. La nullité encourue sanctionne l’opacité, non la technologie. En rendant opposable cette exigence, l’amendement permet d’assurer que les droits à la motivation, à l’égalité de traitement et au recours effectif ne demeurent pas théoriques.
Cette approche s’inscrit dans la continuité des recommandations formulées en 2024 par le Haut Conseil du financement de la protection sociale (HCFiPS) dans son rapport sur la lutte contre la fraude sociale. Ce rapport invite à mesurer la part et l’efficacité des contrôles reposant sur des algorithmes, à assurer un pilotage de l’intelligence artificielle au niveau des directions, à former les agent·e·s aux risques de discrimination, à réaliser des audits externes pour prévenir les biais, et à créer des comités d’éthique chargés d’évaluer les usages algorithmiques. Il recommande également une gouvernance dédiée et la publication annuelle de rapports sur l’usage de ces technologies dans la sphère sociale. Ces préconisations reconnaissent implicitement que les algorithmes, pour être légitimes, doivent être explicables, audités et soumis à un contrôle démocratique.
L’exigence d’explicabilité, ainsi formulée, ne constitue donc pas une contrainte nouvelle mais une garantie minimale de légalité et de confiance.
Elle protège les usager·e·s en leur permettant de comprendre et de contester les décisions qui les affectent ; elle protège aussi l’administration en l’incitant à documenter ses systèmes, à maîtriser les biais et à démontrer la proportionnalité et l’efficacité de ses outils. Dans un contexte où les politiques publiques recourent de plus en plus à des traitements automatisés, l’explicabilité devient la condition d’un usage loyal et responsable de l’intelligence artificielle et des algorithmes, conforme aux principes d’égalité et de transparence qui fondent l’action publique.
Rendre nulle toute décision que l’administration ne peut expliquer, c’est affirmer que l’État de droit ne se délègue pas à un code source, et que l’automatisation ne saurait s’affranchir de la raison publique.