II. UN CADRE LÉGISLATIF ÉVOLUTIF ET INABOUTI
A. LES TRAVAUX PRÉCURSEURS DU SÉNAT
En 2018, à la suite de l'adoption du rapport d'information précité, le Sénat adoptait une proposition de loi visant à lutter contre l'exposition précoce des enfants aux écrans3(*).
Dans le même esprit, l'auteure de la présente proposition de loi cosignait en 2021, avec Florence Blatrix Contat, le rapport de la commission des affaires européennes « Amplifier la législation européenne sur les services numériques (RSN/DSA) pour sécuriser l'environnement en ligne » qui a permis d'exprimer clairement la position du Sénat sur le RSN, appelant notamment à une interdiction totale de la publicité ciblée pour les enfants, à davantage de « sécurité par conception » (« safety by design ») et à une transparence et redevabilité accrues des plateformes.
L'auteure est également à l'origine d'une résolution européenne du 8 août 2025 demandant le lancement d'une enquête à l'échelle de l'UE sur l'incidence du temps d'écran excessif et des réseaux sociaux sur la santé mentale des jeunes, la fixation d'un âge minimal d'accès aux réseaux sociaux, ainsi que, si nécessaire, l'application de mesures coercitives à l'encontre des grandes plateformes.
Cette résolution encourage également les politiques publiques nationales visant à la formation de l'ensemble de la société (parents, enseignants, enfants) sur les dangers et opportunités du numérique.
Enfin, les rapports du Sénat « Porno : l'enfer du décor » (2022) et, issus d'une commission d'enquête, « La tactique TikTok : opacité, « addiction » et ombres chinoises » (2023), ont confirmé l'effet néfaste des plateformes sur la santé psychique et physique des jeunes.
B. DES INITIATIVES EUROPÉENNES EN COURS D'APPLICATION
Si le règlement général sur la protection des données (RGPD) de 2018 a introduit une protection spécifique des données des mineurs, le règlement sur les services numériques (RSN), entré en pleine application en février 2024, est la principale norme imposant des obligations de diligence aux plateformes en ligne en matière de protection des mineurs4(*). Il prévoit en particulier l'interdiction du profilage des mineurs à des fins publicitaires, la protection des mineurs « par conception », ainsi que l'obligation pour les « Très Grandes Plateformes » et les moteurs de recherche, d'évaluer les risques systémiques liés à la conception de leurs services.
En cas d'infraction, le RSN prévoit des sanctions lourdes pouvant aller jusqu'à 6 % du chiffre d'affaires mondial des plateformes5(*). Pour concrétiser les obligations générales du RSN, la Commission a en outre publié à l'été 2025 des lignes directrices spécifiques pour aider les plateformes à appliquer l'article 28 relatif à la protection des mineurs.
* 3 Ce texte n'a cependant jamais été inscrit à l'ordre du jour de l'Assemblée nationale.
* 4 Article 28 du RSN.
* 5 La Commission européenne a ainsi ouvert des procédures d'enquête contre Meta, Facebook et Instagram ou certains sites pornographiques pour évaluer la conformité de leurs mesures de protection des mineurs avec le DSA.