|
|
|
Vu l’article 88-4 de la Constitution,
|
|
Vu le traité sur le fonctionnement de l’Union européenne (TFUE), et notamment ses articles 16, 114, 168 et 169,
|
|
Vu la charte des droits fondamentaux de l’Union européenne du 7 décembre 2000, et notamment son article 24,
|
|
Vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), dit « RGPD »,
|
|
Vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 11 mai 2022, intitulé « Une décennie numérique pour les enfants et les jeunes : la nouvelle stratégie européenne pour un internet mieux adapté aux enfants », COM (2022) 212 final,
|
|
Vu le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques),
|
|
Vu le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques),
|
|
Vu la procédure formelle ouverte par la Commission européenne le 19 février 2024 à l’encontre de Tik Tok au titre du règlement sur les services numériques,
|
|
Vu la procédure formelle ouverte par la Commission européenne le 16 mai 2024 à l’encontre de Meta au titre du règlement sur les services numériques en ce qui concerne la protection des mineurs sur Facebook et Instagram,
|
|
Vu les orientations politiques pour la Commission européenne pour 2024-2029,
|
|
Vu la procédure formelle ouverte par la Commission européenne le 27 mai 2025 contre Pornhub, Stripchat, XNXX, et XVideos pour des manquements présumés aux obligations découlant du règlement sur les services numériques,
|
|
Vu le projet de lignes directrices de la Commission européenne sur les mesures visant à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs en ligne publié le 13 mai 2025, conformément à l’article 28, paragraphe 4, du règlement (UE) n° 2022/2065,
|
|
Vu le projet de rapport de la commission du marché intérieur et de la protection des consommateurs du Parlement européen sur la protection des mineurs en ligne (2025/2060(INI), du 15 mai 2025,
|
|
Vu les conclusions du Conseil sur la promotion et la protection de la santé mentale des enfants et des adolescents à l’ère numérique, adoptées le 20 juin 2025,
|
|
Vu la résolution européenne du Sénat n° 70 (2021-2022) du 14 janvier 2022 sur la proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numérique (Législation sur les services numériques – Digital Services Act – DSA) et modifiant la directive 2000/31/CE, COM (2020) 825 final,
|
|
Vu la résolution européenne du Sénat n° 77 (2022-2023) du 20 mars 2023 sur la proposition de règlement du Parlement européen et du Conseil établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants, COM (2022) 209 final,
|
|
Vu la résolution européenne du Sénat n° 106 (2024-2025) du 18 avril 2025 visant à l’application stricte du cadre réglementaire numérique de l’Union européenne et appelant au renforcement des conditions d’une réelle souveraineté numérique européenne,
|
|
Vu le rapport d’information du Sénat n° 607 (2017-2018) du 27 juin 2018, « Prendre en main notre destin numérique : l’urgence de la formation », de Mme Catherine Morin-Desailly, fait au nom de la commission de la culture, de l’éducation et de la communication,
|
|
Vu le rapport d’information du Sénat n° 274 (2021-2022) du 8 décembre 2021, fait au nom de la commission des affaires européennes, sur la proposition de législation européenne sur les services numériques (DSA), « Amplifier la législation européenne sur les services numériques (DSA) pour sécuriser l’environnement en ligne », de Mmes Florence Blatrix Contat et Catherine Morin-Desailly,
|
|
Vu le rapport d’information du Sénat n° 900 (2021-2022) du 27 septembre 2022, fait au nom de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes, « Porno : l’enfer du décor » de Mmes Annick Billon, Alexandra Borchio Fontimp, Laurence Cohen et Laurence Rossignol,
|
|
Vu le rapport d’information du Sénat n° 831 (2022-2023) du 4 juillet 2023, fait au nom de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, « La tactique Tiktok : opacité, addiction et ombres chinoises », de M. Claude Malhuret,
|
|
Vu les préconisations du rapport de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, « Enfants et écrans. À la recherche du temps perdu » remis le 30 avril 2024 au Président de la République,
|
|
Vu la proposition de loi n° 744 (2024-2025) de Mme Catherine Morin-Desailly, déposée au Sénat le 17 juin 2025, visant à protéger les jeunes de l’exposition excessive et précoce aux écrans,
|
|
Considérant que les mineurs ont un accès de plus en plus précoce aux outils numériques, aux réseaux sociaux et aux plateformes en ligne ;
|
|
Considérant que le modèle économique des réseaux sociaux et des plateformes en ligne repose sur des designs et des systèmes algorithmiques de recommandations addictifs, poussant les mineurs et les adultes à consommer toujours plus de contenus sur ceux-ci ;
|
|
Considérant que les mineurs peuvent être exposés sur les réseaux sociaux et les plateformes en ligne à des contenus inadaptés à leur âge, illicites, haineux ou inappropriés ;
|
|
Considérant que leur exposition à ces contenus affecte leur rapport à eux-mêmes et aux autres, à leur corps, à la sexualité, et augmente les risques d’addiction, de cyberharcèlement, d’escroquerie ou de « pédopiégeage » ;
|
|
Considérant que les connaissances scientifiques démontrent les effets négatifs des réseaux sociaux et des plateformes numériques sur la santé physique et mentale des mineurs ;
|
|
Rappelle que, conformément à l’article 24 de la charte des droits fondamentaux de l’Union européenne, « les enfants ont droit à la protection » et que « l’intérêt supérieur de l’enfant doit être une considération primordiale » ;
|
|
Demande le lancement de l’enquête, à l’échelle de l’Union européenne, concernant l’incidence des réseaux sociaux et du temps d’écran excessif sur la santé mentale et le bien-être, notamment des plus jeunes, prévu dans les lettres de mission de la présidente de la Commission européenne au commissaire pour l’équité intergénérationnelle, la jeunesse, la culture et le sport, et au commissaire pour la santé et le bien-être animal ;
|
|
Encourage l’action de la Commission européenne, qui a vocation à soutenir celle des États membres, en matière de prévention et de formation à destination de l’ensemble de la société, et notamment des enfants, des parents, des enseignants, et de tous ceux intervenant auprès des enfants, sur l’usage du numérique, ses opportunités et ses dangers, et notamment sur le modèle économique des plateformes ;
|
|
Encourage, à l’échelon national, des politiques publiques préventives visant à un usage raisonné et progressif des écrans et du numérique en fonction de l’âge des enfants, en protégeant notamment les jeunes enfants de moins de 6 ans de l’exposition aux écrans, notamment dans les lieux d’accueil, et en développant des lieux et des temps « déconnectés » et sans écrans ;
|
|
Encourage le travail de coordination de la Commission européenne entre les États membres visant à l’échange de bonnes pratiques au sein de l’Union européenne ;
|
|
Réitère son appel à une grande vigilance dans l’application du règlement sur les services numériques (DSA) afin que la santé mentale et le bien-être des enfants – qui en sont des axes forts – soient bien pris en compte ;
|
|
Prend acte de la mise en œuvre effective des dispositions du DSA interdisant la publicité ciblée sur les plateformes en ligne visant les mineurs, préconisée de longue date par le Sénat, et demande l’application ferme et effective du DSA, dans son ensemble, permettant de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité pour les mineurs en ligne ;
|
|
Salue les enquêtes ouvertes par la Commission européenne visant les réseaux TikTok, Meta, Snapchat et Youtube pour évaluer l’efficacité de leurs mesures de protection des mineurs ;
|
|
Salue l’enquête ouverte par la Commission européenne visant Pornhub, Stripchat, XNXX, et XVideos pour évaluer les risques pour la protection des mineurs, notamment ceux liés à l’absence de mesures efficaces de vérification de l’âge ;
|
|
Réitère sa demande à la Commission européenne de conclure ses enquêtes précitées dans les plus brefs délais – regrettant qu’elles ne soient soumises à aucun délai contrairement au règlement sur les marchés numériques (DMA) – et de prendre les mesures coercitives nécessaires à l’encontre de ces plateformes, y compris l’imposition d’amendes, conformément aux recommandations du rapport d’information du Sénat n° 274 (2021-2022) précité de Mmes Florence Blatrix Contat et Catherine Morin-Desailly, fait au nom de la commission des affaires européennes ;
|
|
Rappelle l’engagement constant du législateur français à protéger les mineurs en ligne avec l’adoption, d’une part, de la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne et, d’autre part, sous l’impulsion des associations de protection de l’enfance et du Sénat, de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN), obligeant les plateformes en ligne fournissant des contenus pornographiques à instaurer un système de vérification de l’âge de leurs utilisateurs et les exposant, s’ils ne respectent pas cette obligation, à des mesures de blocage ou de déréférencement ;
|
|
Considère que l’intérêt supérieur de l’enfant, exigence fondamentale prévue à l’article 24 de la charte des droits fondamentaux de l’Union européenne, l’article 8 de la convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales et l’article 3 de la convention internationale des droits de l’enfant, justifie une action de la France visant à empêcher l’accès des mineurs aux sites pornographiques, y compris ceux établis dans un autre État membre de l’Union européenne – du moins temporairement, tant qu’un dispositif de vérification de l’âge robuste n’a pas été pas mis en place au niveau de l’Union européenne – d’autant que cet impératif de protection des mineurs, tout comme ceux de préservation de l’ordre public et de santé publique, peuvent justifier une dérogation à la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur, prévue à son article 3, et mise en œuvre par l’article 2 de la loi SREN ;
|
|
Considère que l’intérêt supérieur de l’enfant doit être une « considération primordiale » dans les politiques de l’Union européenne ;
|
|
Souligne avec gravité que la Commission européenne, lors de la présentation de la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants, COM(2022) 209 final, avait souligné l’urgence de l’adoption de cette réforme ; constate néanmoins que les négociations de ce projet semblent bloquées depuis plusieurs mois ; demande donc solennellement l’adoption de cette réforme importante en veillant à l’équilibre adéquat entre l’impératif de protection des mineurs et la préservation des enjeux de chiffrement, conformément aux préconisations de la résolution européenne du Sénat n° 77 (2022-2023) du 20 mars 2023 précitée ;
|
|
Prend note de la consultation publique lancée le 13 mai 2025 par la Commission européenne sur un projet de lignes directrices pour la protection des mineurs en ligne dans le cadre du règlement sur les services numériques ;
|
|
Salue le niveau d’ambition de ces lignes directrices qui fixent un cadre concret et exigeant à l’égard des plateformes mais appelle à aller plus loin sur les dispositifs de vérification d’âge qui doivent être explicitement étendus aux réseaux sociaux, et non aux seules plateformes à haut risque et celles interdites aux moins de 18 ans, dont les services pornographiques et de jeux d’argent ;
|
|
Demande également que figurent dans ces lignes directrices des dispositions veillant à réguler le contenu des plateformes, telles que la configuration des comptes des mineurs par défaut – avec des mesures de protection comme la désactivation de la possibilité, pour des adultes inconnus, de contacter des mineurs, ou la désactivation par défaut de la fonction de lecture automatique des vidéos – ou telles que des systèmes de recommandation transparents et protecteurs des enfants par défaut, avec par exemple la désactivation par défaut de l’utilisation des signaux implicites basés sur l’engagement ;
|
|
Appelle la Commission européenne à adopter rapidement ces lignes directrices et à veiller à leur application prompte et concrète par les plateformes, qui doivent être tenues, sur le plan juridique et éthique, responsables de leur contenu et de la vérification des âges des utilisateurs ;
|
|
Souhaite l’établissement au niveau européen de normes en matière d’éthique et de respect des droits fondamentaux, qui devraient être respectées lors de l’élaboration des algorithmes d’ordonnancement des contenus, de modération et d’adressage de la publicité ciblée utilisés par les fournisseurs de service intermédiaires, selon un principe de legacy et safety by design ;
|
|
Appelle à la création de plateformes éthiques et souveraines pour constituer une alternative aux réseaux sociaux (plateformes nationales ou transnationales de réseaux sociaux, de messagerie ou d’intelligence artificielle conversationnelle) fondée sur un modèle économique différent de celui des plateformes, rappelant que l’impact des dérives constatées dans le fonctionnement des réseaux sociaux et des plateformes sur les démocraties européennes et sur la santé mentale de leurs utilisateurs, en particulier des jeunes, résulte de l’absence d’alternative à leur modèle basé sur la publicité et la collecte massive de données personnelles ;
|
|
Salue et soutient la démarche du gouvernement français, auprès des autres États membres et de la Commission européenne, visant à une harmonisation européenne des contrôles de vérification d’âge et l’imposition d’une majorité numérique ;
|
|
Rappelle que la responsabilité première de la vérification de l’âge de leurs utilisateurs revient aux plateformes, qui ne peuvent s’en défausser sur les autres acteurs, et demande en complément la mise en place de solutions de vérification de l’âge et de logiciels de contrôle parental obligatoires pour tous les acteurs opérant sur le marché européen (fabricants d’appareils, systèmes d’exploitation, magasins d’applications, plateformes) de façon à établir une réponse combinée en matière de protection des mineurs en ligne ;
|
|
Considère que ces outils de vérification de l’âge et de contrôle parental sont complémentaires, le contrôle parental ne pouvant suffire à exonérer les plateformes de leur responsabilité, quant au contenu qu’elles diffusent et quant à la vérification d’âge des utilisateurs, qu’elles doivent assumer en mettant en œuvre des dispositifs empêchant les mineurs d’avoir accès à des contenus illicites et/ou inappropriés ; estime nécessaire, s’agissant du contrôle parental, d’encourager le développement de solutions de protection des mineurs éthiques, interopérables, donc non liées aux grandes plateformes du numérique ;
|
|
Demande l’instauration, au niveau européen ou, à défaut, au niveau de chaque État membre, d’une majorité numérique, âge en-dessous duquel les mineurs ne pourront pas accéder aux réseaux sociaux et, plus largement, aux plateformes dont le contenu leur est préjudiciable, par la mise en œuvre obligatoire de dispositifs de vérification d’âge par les plateformes elles-mêmes ;
|
|
Invite le Gouvernement à faire valoir cette position dans les négociations au Conseil.
|