Logo : Sénat français

commission des lois

Projet de loi

Orientation et programmation du ministère de l'intérieur

(1ère lecture)

(n° 876 )

N° COM-75 rect. ter

5 octobre 2022


 

AMENDEMENT

présenté par

Irrecevable art. 45, al. 1 C (cavalier)

M. TABAROT, Mme LAVARDE, MM. MANDELLI, LAMÉNIE, BONNUS et BACCI, Mmes Valérie BOYER et PUISSAT, M. LAUGIER, Mme THOMAS, MM. BURGOA et CHAIZE, Mmes DEMAS, IMBERT et Frédérique GERBAUD, MM. Daniel LAURENT, GROSPERRIN, DUPLOMB et Jean-Marc BOYER, Mme JACQUEMET, MM. MILON, MOGA, KAROUTCHI, BOUCHET, LONGUET, HINGRAY, Jean-Baptiste BLANC, SOL et BASCHER, Mme JOSEPH, MM. LEFÈVRE, ANGLARS, FAVREAU et BELIN, Mme HERZOG, M. SAVARY, Mme BOURRAT, MM. Cédric VIAL et LEVI, Mme GRUNY, M. Jean-Michel ARNAUD, Mme BELRHITI, M. Bernard FOURNIER, Mmes VENTALON et BILLON, M. SAVIN, Mmes DUMAS, DREXLER et DEROCHE, MM. PACCAUD, KLINGER, BONHOMME, GUERET et GENET, Mme GOSSELIN et M. Henri LEROY


ARTICLE ADDITIONNEL APRÈS ARTICLE 5


Après l'article 5

Insérer un article additionnel ainsi rédigé :

« Article 5 ter :

 

1° Après l’article L 252-7 du Code de la sécurité intérieur est inséré un article ainsi rédigé :

 

« L 252-8

I. Les enregistrements d’images de vidéoprotection répondant aux conditions fixées aux articles L.223-1 et L.251-2 du présent code peuvent faire l’objet d’un traitement algorithmique en temps réel ou en temps différé aux fins d’assurer :

1° La détection et la prévention d'actes de terrorisme ;

2° La sécurité des personnes et des biens dans les lieux et établissements ouverts au public et particulièrement exposés à des risques d'agression ou de vol ;

3° Le secours aux personnes et la défense contre l’incendie ;

4° La régulation des flux de transport ;

5° La sauvegarde des installations utiles à la défense nationale.

 

Les traitements algorithmiques visés au premier alinéa ne doivent pas permettre une identification à distance en comparant les données biométriques d’une personne avec celles figurant dans une base de données de référence, et sans que l’utilisateur du traitement algorithmique ne sache au préalable si la personne sera présente et pourra être identifiée.

 

Les traitements algorithmiques visés au premier alinéa ne doivent pas engendrer une prise de décision automatisée impactant les personnes. Toute levée de doute doit être mise en œuvre par une personne physique.

 

Les données personnelles résultantes du traitement algorithmique sont effacées automatiquement dans un délai maximal de 24 heures.

 

Les traitements algorithmiques mentionnés au présent article sont soumis à la loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés ainsi qu'au règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), notamment en ce qui concerne le contrôle de la Commission nationale de l’informatique et des libertés, et l’exercice du droit d’accès.

 

Le droit d’opposition prévu à l’article 110 de la loi précitée ne s’applique pas à ces traitements.

 

Le public est informé de manière claire et permanente de l’existence d’un traitement algorithmique des images de vidéoprotection, et de ses finalités.

 

Les modalités d'application du présent article et d'utilisation des données collectées sont précisées par un décret en Conseil d'Etat pris après avis de la Commission nationale de l'informatique et des libertés.

II. Les enregistrements d’images de vidéoprotection irréversiblement anonymisés ou pseudonymisées peuvent être utilisés à des fins d’entraînement de systèmes algorithmiques d’intelligence artificielle. Le processus d’anonymisation doit rendre impossible toute réidentification des personnes concernées par ces enregistrements.

 

III. Le I est applicable à compter du 1er janvier 2023 et pour une durée de quatre ans.

 

IV. L’expérimentation fait l’objet d’un bilan de sa mise en œuvre dans les deux ans suivant son entrée en vigueur, afin d’évaluer l’opportunité du maintien de cette mesure. »

 

2° Après l’article L254-1 du Code de la sécurité intérieure est inséré un article L 254-2 ainsi rédigé :

 

« Le fait d'utiliser un traitement algorithmique sur les enregistrements d’images de vidéoprotection pour les finalités prévues par les articles L.223-1 et L.251-2 du présent code, en violation des dispositions de l’article L.252-8 du même code, est puni de cinq ans d’emprisonnement et 300 000 euros d’amende. »

 

 

 

Objet

La réglementation concernant la vidéoprotection, désormais intégrée au code de la sécurité intérieure (CSI), résulte de la loi n°95-73 du 21 janvier 1995 d'orientation et de programmation relative à la sécurité, et a fait l’objet de nombreuses modifications permettant, notamment, d’en élargir les finalités en lien avec la sécurité.

 

Ce cadre juridique fut déterminé à l’époque de la technologie analogique, rendue obsolète avec l’entrée dans l’ère du numérique. Le développement du numérique a en effet permis la mise en réseau d’une quantité importante de données, traitées par des outils toujours plus rapides et puissants (« Big Data »), ouvrant ainsi de nouvelles perspectives en matière de traitement de l’information : tel est notamment le cas de la vidéo augmentée, qui consiste en une analyse algorithmique de données vidéos dans le cadre d’une finalité spécifique.

Les systèmes de vidéoprotection se sont multipliés dans tous les lieux accessibles au public et particulièrement au sein des réseaux de transport public de voyageurs et le nombre de caméras installées ne permet plus une exploitation humaine efficiente des images qui en sont issues, aussi bien en temps réel qu’en temps différé.

Le recours à la vidéo augmentée sans utilisation de données biométriques – donc à un traitement algorithmique de l’image – aurait ainsi vocation à permettre la détection automatique d’un fait de sûreté survenant dans les espaces équipés de caméras de vidéoprotection (par exemple la détection de rixes, de colis abandonnés, de mouvements de foule...), et par suite d’alerter les opérateurs de vidéoprotection pour qu’ils procèdent à une levée de doute humaine, afin de coordonner l’intervention des forces de sécurité ou de secours.

En outre, l’approche d’événements internationaux en France, tels les Jeux Olympiques et Paralympiques de 2024, constitue des enjeux sécuritaires d’envergure, qui pourraient être en partie couverts par l’adoption d’un cadre juridique clair en matière de vidéo augmentée.

 

A cet égard, la CNIL considère, dans le cadre de son projet de position relative aux conditions de déploiement des caméras dites « intelligentes » ou « augmentées » dans les espaces publics, que l’usage de traitements algorithmiques à des fins de sûreté nécessite l’adoption d’un texte législatif spécifique, complémentaire aux dispositions actuelles du CSI, pour que l’utilisation de données personnelles se fasse dans un cadre protecteur des libertés fondamentales.

 

Le présent amendement propose, à titre expérimental, l’usage de traitements d’images issues des espaces accessibles au public à l’aide d’algorithmes sans utilisation de données biométriques dans le cadre des finalités attribuées au dispositif de vidéoprotection déployé. Ces traitements interviendraient au bénéfice des différents acteurs du continuum de sécurité, et permettraient d’optimiser l’intervention des forces de sécurité intérieure dans l’espace public.

 

Dans le cadre de la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union, certaines « lignes rouges » ont été fixées, concernant notamment l’usage de la reconnaissance biométrique/faciale, et les conséquences de prises de décisions automatiques résultant de l’utilisation d’algorithmes d’intelligence artificielle à haut risque. Le présent amendement, conforme à ce cadre, tient compte du vocable et des « lignes rouges » prévues par le projet de réglementation européenne.

 

Par ailleurs, en raison des risques inhérents à l’usage de tels traitements algorithmiques, le présent amendement permet de sanctionner les violations aux principes posés par le présent amendement.



NB :La présente rectification porte sur la liste des signataires.