|
Direction de la séance |
Proposition de loi Protéger les mineurs des risques des réseaux sociaux (1ère lecture) (PROCÉDURE ACCÉLÉRÉE) (n° 469 , 468 ) |
N° 11 rect. bis 31 mars 2026 |
AMENDEMENTprésenté par |
|
||||||||
|
M. PLA, Mmes ARTIGALAS et BONNEFOY, MM. BOUAD, BOURGI et CHAILLOU, Mme CONWAY-MOURET, MM. DEVINAZ et FICHET, Mmes Gisèle JOURDA et MATRAY et M. MICHAU ARTICLE ADDITIONNEL APRÈS ARTICLE 1ER |
|||||||||
Après l’article 1er
Insérer un article additionnel ainsi rédigé :
L’article 226-8-1 du code pénal est ainsi modifié :
1° À la seconde phrase du premier alinéa, après le mot : « algorithmique », sont insérés les mots : « ou par l’intelligence artificielle » ;
2° Il est ajouté un alinéa ainsi rédigé :
« Lorsque l’image reproduite ou modifiée est celle d’un mineur de quinze ans captée à l’occasion d’une connexion effectuée par celui-ci, les peines prévues au premier alinéa sont portées à trois ans d’emprisonnement et 75 000 euros d’amende et celles prévues au troisième alinéa sont portées à cinq ans d’emprisonnement et 150 000 euros d’amende. »
Objet
Le présent amendement, relatif à la lutte contre la diffusion de contenus dangereux pour les mineurs, vise à reconnaitre comme un acte délictueux le fait de diffuser grâce à l’intelligence artificielle une représentation qui sexualise les enfants ou une photographie ou pseudo-photographie indécente d’un enfant, notamment lorsqu’est utilisée l’image d’un mineur captée à l’occasion d’une connexion de celui-ci.
Nous sommes à la croisée des chemins avec l’intelligence artificielle générative (IAG). Créer du contenu à grande échelle est plus facile maintenant que jamais. De la même manière que les préjudices sexuels hors ligne et en ligne contre les enfants ont été accélérés par Internet, l’utilisation abusive de l’IA générative a de profondes implications pour la sécurité des enfants, à travers l’identification des victimes, la prévention comme la prolifération des abus. Cette mauvaise utilisation, et les dommages en aval qui y sont associés, se produit, et justifie une action volontariste, aujourd’hui.
De nombreux outils d’IAG ont fait leur apparition depuis que la technologie s’est généralisée en 2023. Des sociétés technologiques de toutes tailles ont mis sur le marché des outils d’IAG en tant que produits autonomes et en tant que fonctionnalités supplémentaires au sein de services existants, ce qui a considérablement modifié la manière dont les gens interagissent avec cette technologie.
Alors que les outils d’IAG se sont multipliés, la réglementation et la législation spécifiques à ces outils sont très en retard, ce qui facilite l’abus des outils d’IAG par des criminels cherchant à exploiter sexuellement des enfants
En octobre 2023, l’Internet Watch Foundation a publié un rapport sur sa découverte de plus de 20 000 images issues de l’IAG sur un forum du dark web. Les analystes ont déterminé qu’environ 3 000 de ces images relevaient du droit pénal en vigueur contre la production, la distribution et la possession d’une « photographie ou pseudo-photographie indécente d’un enfant » ou la possession d’une « image interdite d’un enfant ».
La plupart de ces images étaient visuellement réalistes et représentaient des enfants âgés de 7 à 13 ans, et plus de 99 % d’entre elles mettaient en scène des enfants de sexe féminin.
Les outils de l’IAG peuvent servir à créer des représentations visuellement réalistes d’enfants réels à des fins d’exploitation sexuelle, en combinant le visage d’un enfant réel avec une représentation réelle ou synthétique d’un contenu sexuellement explicite, en modifiant une image innocente d’un enfant pour représenter un contenu sexuellement explicite, ou en créant une représentation de nu via l’IAG (comme le font diverses applications « déshabillantes » ) d’un enfant réel.
Les outils d’intelligence artificielle générative (IAG) peuvent créer de nouveaux contenus ou modifier des contenus existants, tels que des textes, des images fixes et des vidéos, à partir de données ou d’invites provenant d’un utilisateur. Les outils d’IAG se sont considérablement multipliés en 2023, et leur utilisation pour créer des documents entièrement ou partiellement synthétiques sur les abus sexuels d’enfants s’est rapidement répandue.