Logo : Sénat français

Direction de la séance

Proposition de loi

Protéger les mineurs des risques des réseaux sociaux

(1ère lecture)

(PROCÉDURE ACCÉLÉRÉE)

(n° 469 , 468 )

N° 13 rect.

31 mars 2026


 

AMENDEMENT

présenté par

C
G  
Irrecevable art. 45, al. 1 C (cavalier)

M. PLA, Mmes ARTIGALAS et BONNEFOY, MM. BOURGI et CHAILLOU, Mme CONWAY-MOURET, M. DEVINAZ, Mme MATRAY et M. MICHAU


ARTICLE ADDITIONNEL APRÈS ARTICLE 5 (SUPPRESSION MAINTENUE)


Après l’article 5

Insérer un article additionnel ainsi rédigé :

Chaque année, les ministres chargés de l’éducation nationale, de la santé et du numérique organisent, en coopération avec l’Autorité de régulation de la communication audiovisuelle et numérique et la Commission nationale de l’informatique et des libertés, une campagne de sensibilisation nationale sur les risques liés à la cyber-pédocriminalité et aux bonnes pratiques à adopter pour protéger les enfants.

Objet

Le présent amendement, relatif à la lutte contre la diffusion de contenus dangereux pour les mineurs, propose d’impulser des campagnes nationales de sensibilisation du grand public à la cyberpédocriminalité, aux dangers relatifs au sharenting et aux bonnes pratiques à adopter pour protéger les enfants, dans un contexte où l’intelligence artificielle est susceptible de porter atteinte à l’image des enfants.

Des criminels utilisent l’Intelligence Artificielle Générative (IAG) pour extorquer de l’argent à des enfants victimes en exigeant un paiement pour empêcher la distribution en ligne d’images générées par l’Intelligence Artificielle (IA) les représentant, de même que les auteurs d’infractions peuvent également utiliser le Child Sexual Abuse Material (CSAM) associé aux technologies d’intelligence issu de l’intelligence artificielle générative (IAG) dans le cadre d’un processus de manipulation ou de « grooming » pour normaliser un comportement d’exploitation et accroître la vulnérabilité d’un enfant à l’abus.

Outre ces types d’abus, le CSAM issu de l’IAG est également nuisible de la manière suivante :

Le CSAM partiellement synthétique issu de l’IAG se base sur des éléments d’images et de vidéos d’enfants réels. Ces images originales peuvent ne pas avoir été utilisées à des fins d’exploitation sexuelle, mais la manipulation d’une image non exploitée pour créer du CSAM issu de l’IAG exploite sexuellement les enfants concernés. Le CSAM entièrement synthétique issu de l’IAG (qui n’est donc pas basé sur l’image d’un enfant réel) peut avoir été créé à l’aide d’un outil conçu pour des contenus d’exploitation sexuelle d’enfants réels ou non synthétiques. Le CSAM issu de l’IAG visuellement réaliste mobilise les ressources des services répressifs, qui devraient concentrer leurs efforts sur l’identification, la localisation et la protection des enfants réels représentés dans le CSAM. Qu’il soit partiellement ou entièrement synthétique, le CSAM issu de l’IAG normalise l’abus et l’exploitation sexuels d’enfants ; il ne présente qu’un faible obstacle à l’utilisation en raison de sa grande accessibilité et de sa facilité d’utilisation ; et il renforce les motivations d’exploitation des criminels.

Il appartient dès lors à l’État de mettre en œuvre une campagne pour permettre aux parents d’appréhender leur rôle en matière de prévention et d’être davantage sensibilisés aux risques liés à l’IA et à l’IAG.

La CNIL présente le « sharenting » (mot-valise anglais composé de share, partager, et parenting, parentalité) comme une pratique qui consiste, pour les parents, à publier des photos ou des vidéos de leurs enfants sur les réseaux sociaux.



NB :La présente rectification porte sur la liste des signataires.
    Déclaré irrecevable au titre de l'article 45, alinéa 1, de la Constitution (cavalier) par la commission saisie au fond