III. RENFORCER LA SOUVERAINETÉ TECHNOLOGIQUE DE LA FRANCE ET DE L'EUROPE

A. LA NÉCESSAIRE CRÉATION D'UN TIERS DE CONFIANCE EUROPÉEN

Les rapporteurs sont convaincus que, s'agissant de la reconnaissance faciale, la protection de l'autonomie technologique de la France, et plus largement de l'Europe, et la sauvegarde des libertés publiques sont les deux faces d'une même médaille . En imposant le recours à des algorithmes développés à l'étranger, sans transparence sur leurs modalités de développement, la perte de notre autonomie technologique actuelle amplifierait significativement les risques d'atteintes aux libertés provoqués par une technologie déjà très intrusive en elle-même.

Pour combler ce besoin de protection de notre indépendance technologique, les rapporteurs plaident tout d'abord pour la création d'une autorité européenne ayant pour mission l'évaluation de la fiabilité des algorithmes de reconnaissance biométrique et la certification de leur absence de biais . Sur le modèle du NIST, cette agence pourrait utilement fournir une évaluation indépendante aux développeurs quant à la performance de leurs algorithmes, et ce dans un cadre respectueux du RGPD. Surtout, l'institution d'une telle autorité réduirait considérablement la dépendance à l'extérieur de l'Union européenne pour ce qui est de la certification des algorithmes de reconnaissance faciale.

Il convient de noter que les acteurs du secteur de la reconnaissance faciale appellent eux-mêmes de leur voeux la création d'une telle autorité, à l'instar de l'Alliance pour la confiance numérique qui a indiqué défendre la mise en place d'un centre européen d'expertise en intelligence artificielle dont l'une des missions serait d'apporter une expertise technique indépendante, apte à juger de manière objective la qualité technique des applications utilisant une intelligence artificielle.

Sur le plan méthodologique, les rapporteurs proposent de dupliquer les procédés utilisés outre-Atlantique, en ayant recours à des « données séquestrées ». De manière à préserver l'intégrité du processus d'évaluation, les développeurs qui soumettraient leurs algorithmes n'auraient ainsi accès à la base de données utilisées ni pour entraîner leurs algorithmes ni pendant la phase de test. Afin d'assurer une protection effective des données à caractère personnel utilisées, les rapporteurs n'estiment en revanche pas souhaitable que les jeux de données soient mis directement à disposition des développeurs .

La condition sine qua non pour qu'une telle autorité puisse fonctionner est qu'elle dispose d'une base de données conséquente. Pour ce faire, les rapporteurs plaident pour la constitution d'une base de données à l'échelle européenne . Sous réserve de garanties appropriées, celle-ci pourrait notamment être alimentée via un mécanisme de mise à disposition des images détenues par les administrations publiques des États membres, sur le modèle de ce que prévoit la proposition de règlement du Parlement européen et du Conseil sur la gouvernance européenne des données , actuellement en cours de discussion, pour la réutilisation de données publiques par des acteurs privés. Les contributions altruistes ou, passé un certain délai, l'usage des photos de personnes décédées pourraient également être des options à explorer.

En tout état de cause, la mise en place de mécanismes adaptés d'information des citoyens serait indispensable, de même que le fait de leur confier la possibilité de demander à tout moment le retrait de leurs données de la base .

Proposition n° 24 :  Dans le cadre des négociations sur la législation européenne sur l'intelligence artificielle, promouvoir la création d'une autorité européenne ayant pour mission l'évaluation de la fiabilité des algorithmes de reconnaissance biométrique et la certification de leur absence de biais.

Assurer l'indépendance et la qualité de l'évaluation en garantissant la diversité des données qui y sont contenues et en ayant recours à la méthodologie des « données séquestrées », où les développeurs n'ont accès à la base de données ni pour l'entrainement des algorithmes ni pour la phase de test.

Mettre à disposition de l'autorité en charge de l'intelligence artificielle une base d'images à l'échelle de l'Union européenne afin de lui donner les moyens de son action. Alimenter cette base à travers plusieurs mécanismes s'inspirant de la proposition de règlement européen sur la gouvernance européenne des données.

Mettre en place des mécanismes adaptés d'information des citoyens et prévoir la possibilité de demander à tout moment le retrait de ses données de la base.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page