III. DES ENJEUX FORTS EN TERMES DE LIBERTÉS PUBLIQUES ET DE SOUVERAINETÉ

A. UNE TECHNOLOGIE SUSCEPTIBLE DE PORTER ATTEINTE À DE NOMBREUSES LIBERTÉS PUBLIQUES

L'installation progressive de la reconnaissance faciale dans notre quotidien et son utilisation, certes limitée, par les pouvoirs publics, y compris pour des usages policiers, ne vont pas sans poser de questions sur le plan de la sauvegarde des libertés publiques . Particulièrement intrusive, cette technologie est en effet susceptible de porter atteinte à de nombreuses libertés, au premier rang desquelles le droit à la vie privée. Même les usages a priori les moins problématiques comme les systèmes d'authentification requérant le consentement peuvent susciter des interrogations, par exemple lorsqu'il n'existe pas d'alternative pour accéder au service concerné ou au sujet du niveau de sécurisation des données à caractère personnel. L'ensemble des personnes auditionnées par les rapporteurs convergent ainsi pour dire que les technologies de reconnaissance biométrique du visage soulèvent des questions majeures en termes de protection des libertés, pour des raisons extrêmement variées et avec des nuances qui s'expriment quant à la manière d'y répondre.

Dans ce contexte, les implications du développement de la reconnaissance faciale sur la sauvegarde des libertés publiques doivent guider à chaque étape la réflexion parlementaire. Alors que ce sujet d'une importante technicité suscite une préoccupation légitime au sein de la société civile, il est de la responsabilité du Parlement d'objectiver le débat en procédant à une évaluation sincère, exhaustive et transparente des risques engendrés par la montée en puissance de la reconnaissance faciale . Ces risques peuvent être classés en trois catégories , selon qu'ils tiennent :

- à la nature et au recueil des données utilisées par les algorithmes ;

- à l'emploi en tant que tel des solutions de reconnaissance faciale ;

- aux modalités techniques de fonctionnement des algorithmes.

1. Les risques liés à la nature et au recueil des données utilisées par les algorithmes
a) La biométrie du visage, une donnée particulièrement sensible

Les données nécessaires aux algorithmes de reconnaissance faciale pour fonctionner revêtent un caractère sensible à double titre.

Comme pour toute donnée biométrique, le traitement des données biométriques du visage doit faire l'objet d'une vigilance particulière dès lors que ces données permettent, selon les termes de la CNIL, « à tout moment l'identification de la personne concernée sur la base d'une réalité biologique qui lui est propre, permanente dans le temps et dont elle ne peut s'affranchir » 76 ( * ) . Loin d'être une donnée anodine, la biométrie du visage touche au plus profond de notre identité personnelle . Les conséquences potentielles d'un traitement détourné, disproportionné ou dysfonctionnel de cette donnée peuvent se révéler particulièrement dommageables , s'étirant du refus d'accès à un service déterminé jusqu'à une implication injustifiée dans une enquête criminelle. Juridiquement, cette caractéristique justifie la classification de la biométrie du visage au rang des « données [à caractère personnel] sensibles » au sens tant de l'article 9 du RGPD que de l'article 10 de la directive dite « Police-Justice » et dont le traitement est, en principe, prohibé.

Surtout, à la différence d'autres données biométriques telles que les empreintes digitales ou l'iris, le visage d'un individu peut être recueilli à distance et potentiellement à son insu, voire contre son gré . Le Défenseur des droits oppose ainsi les technologies « actives » nécessitant une action volontaire de l'individu pour fournir la donnée, des technologies « passives » où son recueil est possible sans intervention du sujet 77 ( * ) . C'est le cas de la biométrie du visage et, par conséquent, de la reconnaissance faciale.

Cette possibilité de captation furtive renforce substantiellement le risque d'atteinte aux libertés publiques et justifie l'introduction de garanties renforcées.

b) La constitution des bases de données d'apprentissage et de comparaison

Au-delà de la nature même de la donnée utilisée, ce sont les conditions de son recueil qui sont synonymes de risques pour les libertés publiques . Deux constats s'imposent. D'une part, le recueil des données biométriques du visage est aujourd'hui relativement aisé , compte tenu de la progression constante des dispositifs de captation et de la disponibilité directe d'un volume massif d'images sur l'espace numérique. D'autre part, cet accès facilité à une donnée indispensable au développement et à l'utilisation des algorithmes génère des risques d'appropriation indue et soulève la question du consentement et de l'information des personnes concernées .

Il convient de garder à l'esprit que la performance d'un algorithme est conditionnée par le nombre, la qualité et la diversité des données qui lui sont soumises, que ce soit à des fins :

- d'entraînement : tout algorithme doit être préalablement entraîné sur des jeux de données « d'apprentissage » avant d'atteindre un niveau de fiabilité satisfaisant ;

- d'utilisation en conditions réelles : la base de données soumise à l'algorithme pour la recherche d'une correspondance dépendra de la finalité d'usage.

(1) Des moyens de captation de la donnée de plus en plus répandus et performants

On observe, sur la période récente, une très forte progression des dispositifs de captation d'images , et par conséquent des moyens de recueil de données biométriques du visage, autour de trois mouvements concomitants :

- leur multiplication : au fil du progrès technologique, les appareils de captation tendent à se diversifier (smartphones, télé-connectées, caméras portatives...) ;

- leur démocratisation : chaque individu est potentiellement en capacité de recueillir le visage d'une personne, par exemple en réalisant des photos ou des vidéos avec son smartphone . Cela se fait parfois de manière inconsciente, par la captation incidente de personnes en arrière-plan. Or une donnée biométrique, en l'espèce le gabarit du visage, peut être en théorie extraite de n'importe quelle photo, au prix d'une manipulation plus ou moins lourde ;

- leur perfectionnement : certains dispositifs de captation atteignent désormais des niveaux de résolution particulièrement élevés, facilitant d'autant l'extraction du gabarit et le recours à la reconnaissance faciale.

Ce constat est particulièrement vérifié s'agissant du recueil d'images sur la voie publique par les forces de sécurité intérieure. En effet, le nombre et la qualité des dispositifs de captation d'images, fixes ou mobiles, déployés sur l'espace public ont considérablement augmenté au cours des dernières années. Force est de constater que, en théorie, les forces de sécurité intérieure pourraient utiliser la reconnaissance faciale sur un vaste périmètre et à partir d'un réservoir de données conséquent .

Des dispositifs publics de captation de données
sur la voie publique de plus en en plus répandus

La Cour des comptes estimait en 2011 à près de 10 000 le nombre de caméras de vidéoprotection installées sur l'espace public. Sept années plus tard ce chiffre se portait, selon les données à sa disposition, entre 60 000 selon la direction des libertés publiques et des affaires juridiques (DLPAJ) et 76 000 selon les directions métiers (819 communes dotées de 37 757 caméras en zone police, sans compter Paris et la petite couronne, et 3 200 communes équipées de 38 700 caméras en zone gendarmerie) 78 ( * ) . On observe toutefois de fortes disparités entre les communes en termes de ratio de caméra par habitants, pouvant aller de 0 jusqu'à une pour 99 personnes, comme dans le cas de Berre-l'Étang dans les Bouches-du-Rhône.

Plus récemment, l'institution de la rue Cambon s'est penchée sur le plan de vidéoprotection de la préfecture de police de Paris 79 ( * ) , pour l'application duquel elle communique le chiffre de 4 000 caméras déployées en propre par la préfecture de police et de plus de 37 000 caméras interconnectées sur le territoire régional.

Par ailleurs, ces chiffres ne tiennent pas compte du recours à des caméras mobile par les forces de l'ordre ou les sapeurs-pompiers.

Source : Commission des lois du Sénat

(2) Des données parfois directement accessibles au public

Si les dispositifs de captation du visage ont connu une progression exponentielle, ils ne sont pas nécessairement indispensables au recueil de la donnée, tant celle-ci peut être directement et massivement accessible dans l'espace numérique . Selon les estimations publiques disponibles et avec les précautions d'usage, près de deux milliards d'individus utiliseraient par exemple quotidiennement le réseau social Facebook dans le monde, et 350 millions d'images y seraient enregistrées chaque jour pour un volume total d'environ 250 milliards de photos stockées 80 ( * ) .

Estimations disponibles du nombre d'utilisateurs quotidiens
des principaux réseaux sociaux (en 2021)

Facebook

Instagram

Youtube

Utilisateurs mensuels (en millions)

2 895

1 386

2 291

Stock de photos/vidéos (en milliards)

350

50

-

Dont ajout quotidiens (en millions)

250

100

720 000 heures

Source : Tableau constitué à partir des données accessibles publiquement
sur le site internet le « Blog du modérateur » 81 ( * )

À bien des égards, Internet constitue donc un vivier quasi-infini d'images, dont une proportion importante, bien qu'impossible à évaluer avec certitude, d'images du visage permettant d'en extraire les données biométriques .

(3) Une disponibilité accrue de la donnée qui emporte des risques

L'accès de plus en plus aisé à des données biométriques n'est pas sans conséquences pour les libertés publiques . Ainsi que la démontré l'exemple précité de la société Clearview AI , le risque d'appropriation indue des données biométriques de tout un chacun est réel . Pour rappel, cette société a été mise en demeure fin 2021 par la CNIL 82 ( * ) pour avoir « aspiré » sans base légale et sans recueil du consentement des intéressés, près de 10 milliards d'images disponibles sur internet afin de constituer une base de données biométriques mise à disposition de ses clients, dont des services de maintien de l'ordre. La possibilité de perdre la maîtrise d'une donnée aussi sensible que la biométrie du visage, parfois sans même être alertée, a ainsi déjà été éprouvée .

2. Les risques liés à l'emploi de la reconnaissance faciale
a) Une technologie dont l'emploi est susceptible de porter atteinte à de nombreuses libertés publiques
(1) La reconnaissance faciale : une technologie qui n'est jamais banale

Les rapporteurs estiment qu'aucun usage de la reconnaissance faciale n'est complètement neutre au regard des libertés publiques . Certains d'entre eux, tels que le déverrouillage de son smartphone, peuvent certes paraître présenter des risques limités, dans la mesure où il existe une alternative et où le recours à la reconnaissance faciale n'a d'autres conséquences que d'autoriser ou non l'accès au menu de son smartphone. Le cas cité par la CNIL de distributeurs de billets de banques reconnaissant leurs clients par reconnaissance faciale peut également être perçu comme une modalité supplémentaire et bienvenue de sécurisation des transactions 83 ( * ) . Sans remettre en cause les bénéfices réels que peut apporter la reconnaissance faciale dans certains de ces cas, leur diffusion croissante, apparemment anodine, appelle deux remarques des rapporteurs :

- elle engendre un risque d'accoutumance : l'installation progressive et « à bas bruit » de la reconnaissance faciale dans notre quotidien pourrait faussement instaurer l'idée d'une acceptabilité par défaut de cette technologie, alors même que certains cas d'usages sont beaucoup plus problématiques ;

- la question de la porosité entre les usages ne peut être éludée : la technologie et ses cas d'usages ne se recoupent que partiellement. D'un point de vue purement technique, et ainsi que l'ont confirmé les auditions conduites par les rapporteurs avec différents acteurs du secteur, un même algorithme peut être utilisé pour plusieurs finalités, au prix d'ajustements plus ou moins lourds. Par exemple, un même algorithme d'identification pourrait, à partir d'une base de données appropriée, tout aussi bien être utilisé pour retrouver des personnes disparues que pour repérer des personnes d'intérêt au cours d'une manifestation ou aux abords d'un lieu de culte, avec à la clé des conséquences sensiblement différentes sur le plan des libertés publiques.

(2) Des cas d'usages qui emportent des risques importants d'atteintes aux libertés publiques

Les travaux menés par les rapporteurs comme l'examen de la littérature disponible permettent de dégager un constat clair : les conséquences de la reconnaissance faciale en matière de sauvegarde des libertés publiques constituent une source de préoccupation unanimement partagée par les acteurs impliqués. Côté institutionnel, le Défenseur des droits évoque « des risques considérables d'atteinte aux droits fondamentaux » 84 ( * ) , tandis que le député Jean-Michel Mis souligne les « enjeux fondamentaux pour les libertés » 85 ( * ) suscités par les évolutions techniques en cours, dont le développement de la reconnaissance faciale. Comme évoqué précédemment, certains acteurs de la recherche et du développement ont mené une réflexion approfondie sur cet aspect, avec des conséquences diverses, allant de l'adoption de normes éthiques internes jusqu'à l'arrêt de toute activité liée à la reconnaissance faciale.

Parce qu'elle repose sur des données sensibles et qu'elle est susceptible d'être mobilisée pour des finalités extrêmement diverses, y compris de la part des forces de sécurité intérieure, la reconnaissance faciale peut potentiellement porter atteinte à de nombreuses libertés publiques. Si en dresser la liste exhaustive est sans doute illusoire, compte tenu de la multiplicité des cas d'usages, ces potentielles atteintes peuvent schématiquement être classées en deux catégories .

La première catégorie est celle des atteintes directes à un droit ou une liberté protégés . Elles concernent au premier chef le droit à la protection des données à caractère personnel , garantie tant par la loi Informatique et Libertés que par le RGPD, et le droit au respect de la vie privée . Au niveau européen, cette notion est comprise dans le droit à la « vie privée et familiale » consacré par l'article 8 de la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales. En droit interne, elle a été inscrite en 1970 à l'article 9 du code civil 86 ( * ) puis consacré par le juge constitutionnel 87 ( * ) . Ainsi que le rappelaient Yves Détraigne et Anne-Marie Escoffier en 2009, cette notion de respect recouvre à la fois les concepts d'intimité et d'autonomie, tandis que le droit au respect de la vie privée doit être généralement entendu comme « un droit à la tranquillité » 88 ( * ) . Particulièrement intrusive, la reconnaissance faciale peut de toute évidence représenter une entrave à l'exercice de ces deux droits.

La seconde catégorie est celles des atteintes indirectes à des droits ou libertés protégés par l'intermédiaire d'un « chilling effect » . Ce terme décrit la théorie selon laquelle la seule connaissance de l'utilisation, ou de la potentielle utilisation, d'une technologie de surveillance va amener le citoyen à modifier son comportement. Selon les termes du député Jean-Michel Mis, cette « pression indirecte » générerait ainsi des « comportements d'autocensure » 89 ( * ) . Sans que l'usage en tant que tel de la reconnaissance faciale soit attentatoire aux libertés, il empêcherait de facto les citoyens de jouir pleinement de leurs droits et libertés. Sans être exhaustif, la liberté d'aller et venir, de réunion, d'association, de culte ou d'expression sont autant de libertés dont la portée pourrait être restreinte du fait d'un usage illégitime ou disproportionné de la reconnaissance faciale .

b) A maxima, le risque d'une « société de surveillance »

Certains cas d'usages envisageables de la reconnaissance faciale emportent des risques particulièrement élevés pour les libertés publiques. Comme le relève la CNIL, cette technologie porte en effet en elle un « potentiel de surveillance inédit » 90 ( * ) , au vu notamment de la démultiplication des capteurs d'images au sein de la société et de la possibilité de les coupler à des systèmes de reconnaissance faciale.

L'une des inquiétudes majeures, à laquelle les rapporteurs s'associent sans réserve, concerne le développement de la reconnaissance faciale sur l'espace public à distance et en temps réel. Dans une vision maximaliste, l'usage d'un outil capable d'identifier une personne sur la voie publique, d'en suivre les mouvements en temps réel et, le cas échéant, de reconstituer son parcours signerait la fin de l'anonymat dans l'espace public et l'avènement d'une forme de « société de la surveillance » que personne ne peut raisonnablement souhaiter.

Si les instruments à notre disposition ne semblent en l'état pas pouvoir être utilisés à cette fin, ne serait-ce que par l'absence d'une base de données universelle permettant les comparaisons, leur progression constante incite à adopter dès à présent une position ferme sur le sujet .

Dans le monde,
des cas d'usage contestables de la reconnaissance faciale
ont déjà pu être observés

Dans son rapport précité intitulé « Technologies biométriques : l'impératif respect des droits fondamentaux », le Défenseur des droits met en avant plusieurs cas d'usage de la reconnaissance faciale qui ont été observés à travers le monde et qui interrogent fortement au regard de leur impact sur les libertés :

- en Russie : des systèmes de reconnaissance faciale sont désormais largement implantés dans les stations de métro de Moscou afin de pouvoir procéder à des paiements sans contact, mais aussi d'identifier des personnes recherchées. Néanmoins, les autorités locales auraient également utilisé le système municipal de vidéoprotection pour contrôler le respect des mesures de restriction sanitaire pendant la pandémie ;

- en Italie : le rapport du Défenseur des droits revient sur l'interdiction par l'autorité italienne de protection des données du système mobile « Sari real time » 91 ( * ) qui aurait notamment été utilisé par la police, en raison de l'absence de base légale pertinente et du risque de surveillance indiscriminée.

Source : Commission des lois du Sénat

c) Une position incertaine de la société civile vis-à-vis du déploiement de la reconnaissance faciale

La question de la reconnaissance faciale génère des réactions équivoques au sein de la société civile. Il existe encore peu de sondages sur le sujet, et ceux qui sont disponibles ne permettent pas d'obtenir des certitudes quant à l'état de l'opinion sur cette technologie . À titre d'exemple, un sondage Odoxa réalisé l'année dernière indiquait que 50 % des Français étaient favorables à l'usage de la reconnaissance faciale à des fins de sécurité, pour 49 % d'avis contraire 92 ( * ) . Selon une autre étude, une large majorité de Français estimaient que le fait que cette technologie puisse manquer de transparence concernant le traitement des données collectées (85 %) ou risque de réduire les libertés individuelles (82 %) jouait de manière déterminante ou importante en défaveur de son utilisation 93 ( * ) . Par ailleurs, les Français semblent majoritairement éprouver un sentiment de mauvaise information quant à l'utilisation de leurs données personnelles 94 ( * ) .

La plupart des acteurs associatifs intervenant sur le sujet et auditionnés par les rapporteurs affichent une position nettement plus tranchée à l'égard de la reconnaissance faciale . C'est par exemple le cas des associations La Quadrature du Net et la Ligue des droits de l'homme qui ont manifesté leur opposition sans réserve tant aux systèmes de reconnaissance faciale qu'aux technologies connexes se focalisant, par exemple, sur l'habillement des personnes. Le risque d'un « effet cliquet » matérialisé par la pénétration actuelle d'usages « ludiques » tels que le déverrouillage de téléphone comme préalable à des utilisations plus problématiques a notamment été évoqué. L'association Amnesty International, qui a certes établi une distinction entre les usages d'authentification et d'identification au cours de l'audition, a de son côté lancé une pétition appelant à « établir de manière définitive une interdiction mondiale des technologies de reconnaissance faciale permettant une surveillance de masse et discriminatoire », qui réunissait 49 761 signataires au 30 avril 2022 95 ( * ) .

Les rapporteurs considèrent qu'il doit être remédié à l'absence de données précises sur l'état de l'opinion vis-à-vis de la reconnaissance faciale, et plus largement biométrique, par la réalisation d'une étude qui poursuivrait trois objectifs :

- dresser un état des lieux général de la perception de cette technologie par les Français ;

- cerner précisément les cas d'usages auxquels la population apparaît plutôt favorable et, a contrario , identifier les principales sources d'inquiétudes ;

- identifier les ressorts d'une meilleure acceptabilité de cette technologie, en particulier les garanties perçues comme indispensables pour susciter la confiance entre la population et les utilisateurs de la reconnaissance faciale.

De l'avis des rapporteurs, la production plus ciblée et régulière de données décrivant l'opinion de la population sur la reconnaissance biométrique est la condition sine qua non d'un débat parlementaire éclairé .

Proposition n° 1 :  Réaliser une enquête nationale visant à évaluer la perception de la reconnaissance biométrique par les Français, à cerner les cas d'usages auxquels ils se montrent plus ou moins favorables et à identifier les ressorts d'une meilleure acceptabilité de cette technologie.

3. Les risques liés au fonctionnement des algorithmes de reconnaissance faciale : des questions sur leur fiabilité qui semblent pouvoir être au moins partiellement résolues
a) Des atteintes potentielles aux libertés publiques étroitement liées au niveau de fiabilité des algorithmes

La question de l'impact de la reconnaissance faciale sur les libertés publiques ne peut être déconnectée de celle de la fiabilité de cette technologie. De fait, l'usage d'algorithmes peu performants rend, dans le meilleur des cas, cette technologie inopérante et risque, dans le pire des cas, de décupler les atteintes aux libertés publiques précédemment évoquées . Les usages policiers de la reconnaissance faciale requièrent notamment un haut niveau de fiabilité, dans la mesure où l'établissement d'une correspondance erronée (faux positif), ou de l'incapacité de l'algorithme à déceler une correspondance pourtant réelle (faux négatif), peuvent se traduire par des conséquences individuelles et collectives particulièrement regrettables.

Toute réflexion sur la fiabilité des algorithmes de reconnaissance faciale suppose de garder à l'esprit trois éléments :

- la reconnaissance faciale est une technologie par essence probabiliste : les algorithmes n'ont pas vocation à confirmer ou infirmer définitivement une correspondance entre deux gabarits mais à estimer la probabilité de ladite correspondance. Il appartient à l'être humain de définir un seuil de probabilité adapté au cas d'usage et de configurer l'algorithme en ce sens ;

- les algorithmes sont sujets à deux types d'erreurs, qui sont interdépendantes : les taux de faux négatifs et de faux positifs entretiennent une relation de balancier. Lorsque l'algorithme est configuré de manière à produire un faible taux de faux positifs, celui de faux négatifs s'en trouve mécaniquement augmenté, et réciproquement. Là encore, il revient au concepteur de configurer l'algorithme à partir d'un seuil de tolérance à l'un de ces taux et pertinent au regard du cas d'usage. Pour le contrôle de l'accès à un site sensible par exemple, la priorité sera d'empêcher les entrées indues et le système sera donc conçu avec une tolérance faible aux faux positifs, ce qui renchérira le taux de rejets erronés ;

- les erreurs produites par les algorithmes peuvent s'expliquer par trois principaux facteurs :

* la qualité de la conception de l'algorithme et les modalités de son entraînement : on observe d'importants différentiels de performance selon les développeurs et les algorithmes sont d'autant plus efficaces qu'ils sont entraînés sur des bases de données de grande taille et diversifiées ;

* des conditions d'emplois plus ou moins favorables : les résultats produits par les algorithmes dépendent largement de la qualité des données sources. Ils seront sensiblement meilleurs en présence d'une photo d'identité, réalisée de face dans un environnement maîtrisé avec un cadrage et une luminosité optimales, que d'une image de qualité inférieure, du fait de sa résolution, de la posture du sujet, de l'environnement extérieur, ou de son ancienneté par exemple ;

* d'éventuels « biais » : des différentiels de performance plus ou moins importants peuvent être observés selon le sexe, l'âge ou l'origine ethnique du sujet de référence.

Aussi, la question de la fiabilité des algorithmes ne relève pas uniquement de leurs performances intrinsèques, mais également du seuil de correspondance souhaité et du taux d'erreur toléré pour chaque cas d'usage .

La fiabilité des algorithmes de reconnaissance faciale est aujourd'hui principalement évaluée par le National Institute of Standards and Technology (NIST) , qui est une agence rattachée au département du commerce des États-Unis. Les algorithmes lui sont transmis par les développeurs, sur une base volontaire, puis testés sur des bases de données internes et construites de manière à évaluer les performances générales de l'algorithme, mais également plus finement selon la qualité des images ou par catégories de population.

Le NIST, organisme de référence en matière d'évaluation de la fiabilité
des algorithmes de reconnaissance faciale

Le NIST a conduit de premiers travaux dans le champ de la reconnaissance faciale par l'intermédiaire du programme Face Recognition Technology (FERET) . Parrainé par le département de la défense 96 ( * ) , ce programme s'est étalé de 1993 à 1997 pour un montant total d'environ 6,5 millions de dollars. Il visait premièrement à soutenir la recherche par la constitution d'une base de données centralisée de plus de 14 000 images mise à disposition des développeur s, en lieu et place des jeux de données que chacun d'entre eux avait rassemblés isolément. Deuxièmement, l'objectif était de professionnaliser l'évaluation des algorithmes, qui étaient jusqu'alors réalisée ponctuellement, sur des bases de données différentes et de faible envergure. Premiers du genre, les « tests FERET » ont permis d'élaborer un référentiel de comparaison unique, construit de manière indépendante et à partir de tests réalisés sur une base de données commune .

Avec la mise sur le marché des premiers systèmes de reconnaissance faciale au début des années 2000, le besoin est né d'une évaluation robuste de ces algorithmes à usage commercial. Le programme Face Recognition Vendor Test (FRVT) a été lancé en 2000 pour prendre en compte ce nouveau contexte et se poursuit depuis lors. Le NIST évalue les performances des algorithmes qui lui sont soumis par des développeurs et publie un classement, régulièrement actualisé. Depuis 2018, 693 algorithmes d'authentification et 354 d'identification ont ainsi été testés .

Pour tester les algorithmes, le NIST a recours à des bases de données massives . Par exemple, les bases utilisées pour la dernière batterie d'évaluation des algorithmes d'identification pouvaient contenir jusqu'à 12 millions d'images . Elles étaient constituées d'images issues des services de l'immigration (photos d'identité, photos prises lors du passage de la frontière, de l'usage d'un kiosque d'enregistrement) et recueillies lors d'opérations de maintien de l'ordre (photos d'identité standard, y compris de profil, photos réalisées à partir d'une webcam).

La méthodologie utilisée par le NIST respecte le principe de la « boîte noire » . Il ne s'agit pas d'apprécier la manière dont les algorithmes fonctionnent mais d'évaluer leur performance. Il est fait usage de « données séquestrées » auxquelles les développeurs n'ont accès ni pour tester ni pour entraîner leurs algorithmes, garantissant ainsi un haut niveau de fiabilité de l'évaluation.

Source : Commission des lois du Sénat

b) Des performances des algorithmes qui progressent rapidement et atteignent, dans des conditions d'emploi optimales, de très hauts niveaux de fiabilité

À partir des évaluations conduites dernièrement par le NIST, il est possible de formuler le constat suivant : les algorithmes de reconnaissance faciale sont de plus en plus fiables, y compris lorsqu'ils sont utilisés à partir de données dégradées , ce que l'agence qualifie en introduction de son dernier rapport sur les algorithmes d'identification 97 ( * ) , de « révolution industrielle ». De manière générale, l'institut constate que « le développement de la reconnaissance faciale se poursuit rapidement et que les évaluations FRVT n'offre qu'un aperçu instantané des capacités actuelles » 98 ( * ) .

D'un point de vue technique, les taux d'erreurs sont résiduels lorsque les conditions d'emploi sont optimales. Des marges d'amélioration importantes subsistent néanmoins lorsque l'image source est d'une qualité moindre.

(1) Des taux d'erreurs résiduels dans des conditions d'emploi maîtrisées

Les résultats des dernières séries de tests publiés par le NIST en mars 2022 sur des algorithmes d'identification 99 ( * ) et d'authentification 100 ( * ) démontrent la maturité de cette technologie lorsqu'elle est utilisée à partir d'images de bonne qualité . La comparaison de photos d'identité réalisées dans un environnement maîtrisé, de face avec un éclairage et un fond adaptés, permet ainsi de réduire à la portion congrue les taux d'erreurs des algorithmes les plus performants.

En matière d'authentification, les 100 algorithmes les mieux classés présentent un taux de faux négatifs systématiquement inférieur à 0,4 % . Pour ce qui est de l'identification, des algorithmes atteignent des scores encore plus élevés, avec un taux de faux négatif à 0,12 % pour le premier d'entre eux. Ce niveau de performance est toutefois observé chez un nombre réduit d'algorithmes et le niveau de fiabilité se dégrade rapidement au fil du classement. La taille de la base de données de référence doit également être prise en compte, puisque son augmentation affecte négativement l'efficacité des algorithmes.

Taux de faux négatifs des algorithmes évalués par le NIST
sur des photos d'identité

Authentification (*)

Identification (**)

Base de données : 12M

Base de données : 1,6M

Classement de l'algorithme

1

0,21 %

0,18 %

0,12 %

2

0,22 %

0,19 %

0,13 %

3

0,21 %

10

0,24 %

0,28 %

0,18 %

25

0,26 %

0,74 %

0,31 %

50

0,30 %

1,83 %

0,76 %

100

0,39 %

3,73 %

1,69 %

Source : Commission des lois du Sénat, à partir des données publiées par le NIST en mars 2022.

(*) Avec un seuil de tolérance aux faux positifs fixé à 1 pour 100 000.

(**) Avec un seuil de tolérance aux faux positifs fixé à 3 pour 1 000.

(2) Des résultats en progrès mais encore perfectibles en présence d'une donnée source de qualité réduite

Dans un contexte d'amélioration croissante de la fiabilité des algorithmes, le NIST conclut que les erreurs restantes sont principalement dues au « vieillissement, à la faible résolution de certaines images et aux blessures faciales » 101 ( * ) . De fait, les tests réalisés à partir de données d'une moindre qualité font apparaître des taux d'erreur plus importants.

Premièrement, l'effet du vieillissement est relativement modeste dans le cas des algorithmes d'identification, avec des taux de faux négatifs qui demeurent inférieurs ou proches de 0,5 % pour les 100 premiers d'entre eux lorsqu'il existe une différence d'au moins douze années entre les deux images comparées. En revanche, seule une poignée d'algorithmes d'identification arrive à maintenir des taux de faux négatifs inférieurs à 1 % dans cette configuration.

Deuxièmement, l'usage de ces algorithmes sur des photos réalisées « sans coopération » du sujet, en l'espèce à partir de caméras situées en surplomb de kiosques d'enregistrement administratifs (angle de prise de vue inadapté et basse résolution) aboutit à des taux d'erreurs relativement importants, de l'ordre de 4,61 % en authentification et de 6,68 % en identification pour les mieux classés.

Troisièmement, la comparaison à des fins d'identification de photos de faible résolution , réalisées par l'intermédiaire d'une webcam, multiplie, à taille de base de données égale, par près de 6,8 le taux de faux négatifs. Quant aux images de profil , le NIST relève certes de très forts progrès dans ce domaine, mais les trois meilleurs algorithmes génèrent des taux de faux positifs proches ou supérieurs à 1 pour 10.

Taux de faux négatifs des algorithmes évalués par le NIST
à partir d'images dégradées

Authentification (a)

Identification (b)

Kiosque (c)

Temps (d)

Webcam (e)

Profil (f)

Kiosque (c)

Temps (d)

Classement de l'algorithme

1

4,61 %

0,20 %

0,82 %

8,95 %

6,68 %

0,49 %

2

4,75 %

0,21 %

0,89 %

11,02 %

6,72 %

0,59 %

3

4,77 %

1,01 %

11,64 %

6,73 %

0,70 %

10

5,37 %

0,25 %

1,16 %

18,90 %

8,60 %

1,30 %

25

6,50 %

0,28 %

1,99 %

39,35 %

11,20 %

3,72 %

50

7,51 %

0,38 %

3,32 %

69,89 %

15,84 %

11,07 %

100

11,42 %

0,53 %

6,15 %

97,52 %

28,24 %

28,86 %

Source : Commission des lois du Sénat, à partir des données publiées par le NIST en mars 2022.

(a) Avec un seuil de tolérance aux faux positifs fixé à 1 pour 100 000.

(b) Avec un seuil de tolérance aux faux positifs fixé à 3 pour 1 000.

(c) Base de données de 1 600 000 photos prises au-dessus d'un kiosque d'enregistrement aux services de l'immigration et sans coopération de l'usager (regard non dirigé vers la caméra, prise de vue en hauteur, personnes grandes ou petites pouvant être coupées et présence potentielle d'autres personnes en arrière-plan).

(d) Comparaison avec une ou des photos prises au moins douze années après l'enrôlement.

(e) Base de données de 1 600 000 photos prises à partir d'une webcam et de qualité réduite.

(f) Base de données de 1 600 000 photos de profil (angle : 90°).

Les usagers de la reconnaissance faciale entendus au cours des travaux ont mis en avant les difficultés engendrées par cette moindre efficacité des algorithmes lorsqu'ils sont utilisés dans des conditions sous-optimales . Dans le cadre de l'expérimentation d'un processus d'embarquement par reconnaissance biométrique à l'aéroport d'Orly, le groupe Aéroports de Paris doit par exemple mener une réflexion sur les conditions de prise d'image afin de maintenir un niveau de fiabilité satisfaisant du dispositif. Une telle expérimentation serait, par exemple plus difficile à mettre en oeuvre sur la plateforme de Roissy, qui se caractérise par d'importantes surfaces vitrées, et engendrant une forte luminosité qui pourrait affecter la qualité de la prise d'image. La question de la fiabilité des algorithmes ne peut donc être déliée de celle de leurs conditions opérationnelles d'emploi .

La reconnaissance faciale à l'épreuve du port du masque 102 ( * )

Dans le contexte de la pandémie de Covid-19 et de généralisation du port du masque, le NIST a publié une étude visant à évaluer l'efficacité des algorithmes d'authentification lorsqu'ils sont utilisés sur des sujets masqués, dont 70 % du visage est couvert (à partir d'images prises lors du passage de la frontière et de qualité intermédiaire) :

- effet sur les faux négatifs : le port du masque se traduit par un surcroît de faux négatifs, qui se porte à 1 ou 2 % dans le meilleur des cas, mais peut atteindre 10 à 40 % pour des algorithmes au niveau de performance très élevé en conditions normales 103 ( * ) . Cet effet est toutefois moins marqué lorsque le sujet porte un masque sur les deux photos comparées ;

- effet sur les faux positifs : ici, le taux d'erreur est en général réduit lorsque l'on compare une photo d'enrôlement sans masque à une photo réalisée avec masque. En revanche, lorsque les deux sujets sont masqués, le taux de faux positif peut être 10 à 100 fois supérieur au précédent cas de figure ou aux situations où les deux sujets sont démasqués. Un nombre très réduit d'algorithmes démontrent toutefois une meilleure tolérance à ces variables.

Source : Commission des lois du Sénat

c) La question des « biais » des algorithmes : des différentiels de performance avérés sur certaines catégories de population, qui tendent toutefois à se réduire
(1) Des différentiels de performance établis de longue date selon le sexe, l'âge et la couleur de peau

La question des « biais » des algorithmes , c'est-à-dire l'existence d'un différentiel de performance lorsqu'ils sont utilisés sur des catégories de population présentant des caractéristiques particulières, représente une source de préoccupation majeure pour l'ensemble de l'écosystème de la reconnaissance faciale, ainsi que pour l'opinion publique . En effet, l'usage d'algorithmes biaisés aggraverait significativement le risque d'atteinte au principe de non-discrimination.

La publication en 2018 d'une étude relative aux biais de plusieurs algorithmes de « classification du genre » 104 ( * ) disponibles sur le marché a notamment contribué au mouvement évoqué précédemment de renonciation à la reconnaissance faciale par certaines villes américaines 105 ( * ) . En dépit de performances générales satisfaisante de ces algorithmes, des taux d'erreur substantiellement plus importants étaient relevés pour :

- les femmes : avec un surplus d'erreurs de l'ordre de 8,1 % à 20,6 % ;

- les personnes à la couleur de peau foncée : avec un différentiel compris entre 11,8 % et 19,2 %.

Ce déficit de fiabilité était décuplé lorsque l'on croisait ces populations, avec des écarts de performance pouvant aller jusqu'à 34,7 % dans le cas des femmes à la couleur de peau foncée. Ces différences s'expliquaient notamment par une surreprésentation des personnes à la peau claire dans la base de données de référence .

Dans ce contexte, le NIST a engagé des tests visant à évaluer l'effet des variables démographiques sur la performance des algorithmes. Dans un rapport publié en 2019, l'agence rapportait « avoir trouvé des preuves empiriques démontrant l'existence de différentiels de performance selon une variable démographique dans la majorité des algorithmes de reconnaissance faciale [qu'elle] a évalué » 106 ( * ) . Plus précisément, les écarts de faux positifs étaient, pour les algorithmes d'authentification, substantiellement supérieurs (parfois 10 à 100 fois) à ceux de faux négatifs (en général très inférieurs à 3). Ces différences variaient toutefois significativement d'un algorithme à l'autre, les plus performants d'entre eux présentant un nombre limité d'erreurs. S'agissant des populations concernées :

- pour les faux négatifs : sur des images d'identité domestiques, l'efficacité de l'algorithme était diminuée pour les personnes d'origine asiatique ou amérindienne. Une performance généralement moindre sur les femmes et les personnes jeunes était également relevée, avec toutefois de nombreuses exceptions empêchant de conclure à la présence systématique de biais ;

- pour les faux positifs : ils étaient entre 2 et 5 fois plus fréquents chez les femmes et selon l'origine ethnique, chez les personnes originaire d'Asie ou d'Afrique de l'Est et de l'Ouest. S'agissant de l'âge, un surcroît de faux positifs était constaté aux deux extrémités de la pyramide des âges.

Il est en outre précisé que les « différentiels de performance en fonction de l'origine démographique décelés dans les algorithmes d'authentification sont en général mais pas toujours présents dans les algorithmes d'identification » . 107 ( * )

L'existence de biais est ainsi largement documentée , ainsi qu'ont pu le confirmer les travaux des rapporteurs. Dans les contributions écrites qu'elles ont transmises aux rapporteurs, les entreprises Microsoft et IBM partagent ce constat, en estimant respectivement que « les risques de biais et de discrimination sont réels » et « [qu'il] ne fait aucun doute que les préjugés humains peuvent influencer les algorithmes et entraîner des résultats discriminatoires » .

(2) Des biais en diminution et qui peuvent dans une certaine mesure être contenus

Pour autant, la question des différentiels de performance des algorithmes doit être abordée avec du recul. Depuis la publication des études précitées, les performances générales des algorithmes ont, d'une part, continué à augmenter rapidement, réduisant mécaniquement les écarts observés en fonction de groupes de population. D'autre part, il existe des moyens de prévenir ou de corriger d'éventuels biais.

La constitution de bases de données plus diversifiées paraît en tout état de cause être la clef pour rendre les algorithmes plus équitables. À titre d'exemple, le NIST mentionnait en 2019 le cas d'algorithmes développés en Chine qui produisaient des taux de faux positifs faibles sur les personnes originaires d'Asie de l'Est, parfois inférieurs à ceux observés pour les personnes caucasiennes. Cela semble accréditer l'idée qu' une base de données cohérente avec la composition de la population locale est de nature à réduire les différentiels de performance . Le NIST relève également que, dans certains cas, la réalisation d'un second essai peut permettre de corriger les faux négatifs.

Enfin, le NIST souligne que, pour certains des algorithmes d'identification les mieux classés, aucun différentiel de performance ne peut être décelé . Parmi ceux-ci figurent des algorithmes produits par la société Idemia, dont les représentants ont confirmé au cours de leur audition être désormais confrontés à la problématique des biais dans le seul champ de l'authentification.


* 76 « Reconnaissance faciale : pour un débat à la hauteurs des enjeux », CNIL, 15 novembre 2019 (p. 6).

* 77 Défenseur des droits, Technologies biométriques : l'impératif respect des droits fondamentaux , 2021 (p. 8).

* 78 Cour des comptes, rapport public thématique, Les polices municipales , octobre 2020 (p. 64).

* 79 Cour des comptes, référé, Le plan de vidéoprotection de la préfecture de police de Paris , 10 février 2022.

* 80 Selon les données accessibles publiquement sur le site internet le « Blog du modérateur » : https://www.blogdumoderateur.com/chiffres-facebook/ .

* 81 Ibid.

* 82 Décision n° MED-2021-134 du 26 novembre 2021 mettant en demeure la société Clearview AI .

* 83 Rapport précité.

* 84 Rapport précité.

* 85 Jean-Michel Mis, Pour un usage responsable et acceptable par la société des technologies de sécurité , septembre 2021.

* 86 Loi n° 70-643 du 17 juillet 1970 tendant à renforcer la garantie des droits individuels des citoyens .

* 87 Décision 99-416 DC du 23 juillet 1999.

* 88 Sénat, Rapport d'information de Yves Détraigne et Anne-Marie Escoffier au nom de la commission des lois, La vie privée à l'heure des mémoires numériques. Pour une confiance renforcée entre citoyens et société de l'information , 2009.

* 89 Rapport précité.

* 90 Rapport précité.

* 91 Rapport précité.

* 92 Sondage Odoxa pour le rendez-vous de l'innovation, « La sécurité et la surveillance en ligne » , 13 mai 2021. Ce sondage est consultable à l'adresse suivante : http://www.odoxa.fr/wp-content/uploads/2021/05/Rendez-vous-de-linnovation-Mai-2021.pdf .

* 93 Enquête « Reconnaissance faciale : quel regard des Français ? » pour Renaissance numérique et selon la méthodologie de l'IFOP, décembre 2019. Cette enquête est consultable à l'adresse suivante : https://www.renaissancenumerique.org/publications/reconnaissance-faciale-ce-que-nous-en-disent-les-francais .

* 94 Selon un sondage Odoxa dont les résultats ont été publiés en mai 2021 dans une dépêche d'AEF info, 75 % des Français se disent mal informés sur l'utilisation de leurs données personnelles. Ce sondage est consultable à l'adresse suivante : https://www.aefinfo.fr/depeche/652827-reconnaissance-faciale-74-des-francais-la-jugent-incontournable-pour-la-securite-et-la-surveillance-sondage-odoxa .

* 95 Pétition « La reconnaissance faciale dans nos villes : c'est non ! », consultable à l'adresse suivante : https://www.amnesty.fr/liberte-d-expression/petitions/non-a-la-reconnaissance-faciale .

* 96 Plus précisément le « Counterdrug Technology Development Program Office ».

* 97 Patrick Grother, Mei Ngan, Kayee Hanaoka, NIST - Face Recognition Vendor Test, Part 2: Identification (NISTIR 8271 Draft Supplement), 30 mars 2022.

* 98 En anglais dans le texte : « This is evidence that face recognition development continues apace, and that FRVT reports are but a snapshot of contemporary capability ».

* 99 Ibid.

* 100 Patrick Grother, Mei Ngan, Kayee Hanaoka, Joyce C. Yang, Austin Homn NIST - Face Recognition Vendor Test, Part 1: Verification, 30 mars 2022.

* 101 Patrick Grother, Mei Ngan, Kayee Hanaoka, NIST - Face Recognition Vendor Test, Part 2: Identification (NISTIR 8271 Draft Supplement), 30 mars 2022.

* 102 Mei Ngan, Patrick Grother, Kayee Hanaoka, NIST - Ongoing Face Recognition Vendor Test, Part 6B: Face recognition accuracy with face masks using post-Covid-10 algorithms (NISTIR 8331 Draft Supplement), 20 janvier 2022.

* 103 Taux de faux négatif inférieur à 1 %.

* 104 Buolamwini, J., & Gebru, T. (2018, January). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency (pp. 77-91).

* 105 Voir le I- B- 3. de la première partie du rapport.

* 106 Mei Ngan, Patrick Grother, Kayee Hanaoka, NIST - Face Recognition Vendor Test, Part 3 : Demographic Effects (NISTIR 8280), 19 décembre 2019. En anglais dans le texte : « We found empirical evidence for the existence of demographic differentials in the majority of contemporary face recognition algorithms that we evaluated ».

* 107 En anglais dans le texte : “We note that demographic differentials present in one-to-one verification algorithms are usually, but not always, present in one-to-many search algorithms”.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page