N° 822

SÉNAT

SESSION EXTRAORDINAIRE DE 2024-2025

Enregistré à la Présidence du Sénat le 3 juillet 2025

RAPPORT

FAIT

au nom de la commission des affaires européennes (1) sur la proposition de résolution européenne en application de l'article 73 quinquies C du Règlement, sur la protection des mineurs en ligne,

Par Mme Brigitte DEVÉSA,

Sénatrice

(1) Cette commission est composée de : M. Jean-François Rapin, président ; MM. Alain Cadec, André Reichardt, Mme Gisèle Jourda, MM. Didier Marie, Claude Kern, Mme Catherine Morin-Desailly, M. Teva Rohfritsch, Mme Cathy Apourceau-Poly, MM. Cyril Pellevat, Louis Vogel, Mme Mathilde Ollivier, M. Ahmed Laouedj, vice-présidents ; Mme Marta de Cidrac, M. Daniel Gremillet, Mmes Florence Blatrix Contat, Amel Gacquerre, secrétaires ; MM.  Pascal Allizard, Jean-Michel Arnaud, François Bonneau, Mmes Valérie Boyer, Sophie Briante Guillemont, M. Pierre Cuypers, Mmes Karine Daniel, Brigitte Devésa, MM. Jacques Fernique, Christophe-André Frassa, Mmes Pascale Gruny, Nadège Havet, MM. Olivier Henno, Bernard Jomier, Mme Christine Lavarde, MM. Dominique de Legge, Ronan Le Gleut, Mme Audrey Linkenheld, MM. Vincent Louault, Louis-Jean de Nicolaÿ, Georges Patient, Mmes Elsa Schalck, Silvana Silvani, M. Michaël Weber.

Voir les numéros :

Sénat :

719 et 823 (2024-2025)

AVANT-PROPOS

Alors que le numérique et les écrans ont pris une place prépondérante dans notre société, un consensus scientifique net se dégage sur les effets négatifs des écrans sur la santé des plus jeunes.

Par le biais des plateformes et des réseaux sociaux notamment, les mineurs sont régulièrement exposés à des contenus inappropriés à leur âge, à des contenus illicites, haineux ou violents, susceptibles d'affecter durablement leur santé physique et mentale.

Les systèmes algorithmiques de recommandation de ces plateformes très addictifs visent à maximiser le temps passé de leurs utilisateurs derrière l'écran.

Certains chiffres sont alarmants : 63 % des moins de 13 ans auraient un compte sur au moins un réseau social, bien que ces réseaux leur soient en théorie interdits en vertu de leurs conditions générales d'utilisation. Début 2023, 7 jeunes sur 10 âgés de 11 à 18 ans considéraient eux-mêmes avoir déjà été exposés à des « contenus choquants sur Internet ou sur les réseaux sociaux ».

Au niveau européen, le règlement européen sur les services numériques (DSA), constitue une avancée majeure en matière de régulation des acteurs du numérique. Toutefois, son application effective se fait attendre, tant les plateformes semblent réticentes à appliquer ce nouveau cadre, qui heurte leur modèle économique, basé sur le profit et la captation de l'attention des utilisateurs.

C'est dans ce contexte que la sénatrice Catherine Morin-Desailly a déposé, le 10 juin dernier, une proposition de résolution européenne (n° 719) sur la protection des mineurs en ligne. La commission des affaires européennes, sur le rapport de Mme Brigitte Devésa, a adopté ce texte en conservant son ambition, tout en précisant et renforçant certaines de ses dispositions.

Cette proposition de résolution européenne vise ainsi à demander l'application ferme et effective du DSA, dans son ensemble, permettant de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité pour les mineurs en ligne.

La commission des affaires européennes propose la mise en place de dispositifs de vérification d'âge, au niveau européen, pour l'accès aux réseaux sociaux et plus largement aux plateformes dont le contenu est préjudiciable aux mineurs. La mise en oeuvre de cette vérification d'âge doit se faire par les plateformes elles-mêmes.

La commission propose également l'instauration, au niveau européen ou, à défaut, au niveau de chaque État membre, d'une majorité numérique, âge en-dessous duquel les mineurs ne pourront pas accéder aux réseaux sociaux.

I. UN CONSTAT INQUIÉTANT : L'IMPACT DÉLÉTÈRE DES ÉCRANS SUR LA SANTÉ ET LA SÉCURITÉ DES MINEURS

A. UNE LARGE EXPOSITION DES ENFANTS AUX ÉCRANS, DE PLUS EN PLUS PRÉCOCE

De nombreuses études scientifiques et sociologiques concluent aujourd'hui à une exposition croissante et de plus en plus précoce des enfants face aux écrans.

Le rapport de la commission d'experts sur l'impact de l'exposition des jeunes aux écrans1(*) - co-présidée par Mme Servane Mouton, neurologue et M. Amine Benyamina, psychiatre - indique que les enfants sont ainsi très largement exposés, avec 10 écrans en moyenne par foyer, avec une exposition de plus en plus précoce, que ce soit au sein de leur domicile, à l'école, ou dans l'espace public.

Une étude IPSOS de 2024 sur les jeunes et la lecture, effectuée pour le Centre national du livre, montre qu'en moyenne, les jeunes français âgés de 7 à 19 ans passent 3 h 11 sur les écrans chaque jour pour échanger sur des messageries instantanées, pour regarder des vidéos, pour écouter de la musique ou pour faire des jeux vidéo. Selon une autre étude2(*) récente, 63 % des moins de 13 ans auraient un compte sur au moins un réseau social, bien que ces réseaux leurs soient en théorie interdits en vertu de leurs conditions générales d'utilisation.

B. L'IMPACT NÉGATIF DE CETTE EXPOSITION SUR LA SANTÉ SOMATIQUE DES JEUNES ET LE NEURODÉVELOPPEMENT DES ENFANTS

Cette exposition aux écrans et à des contenus inappropriés, via notamment les réseaux sociaux, a des effets négatifs sur la santé des enfants, reconnus très largement par la communauté scientifique.

La commission d'experts précitée a ainsi, dans son rapport, très bien démontré l'impact de cette exposition sur la santé somatique des jeunes - avec des effets négatifs notamment sur la qualité et la quantité de sommeil, la pratique physique, et la vue en raison de la lumière bleue émise par les appareils. Plusieurs études scientifiques démontrent, par ailleurs, l'effet négatif de l'usage des écrans pour le neurodéveloppement des jeunes enfants, altérant notamment le développement du langage, des émotions et des compétences socio-relationnelles.

C. L'UTILISATION DES ÉCRANS ET NOTAMMENT DES RÉSEAUX SOCIAUX EST UN FACTEUR AGGRAVANT DE RISQUE, EN MATIÈRE DE SANTÉ MENTALE, CHEZ LES JEUNES

S'agissant des adolescents, l'utilisation des écrans, et notamment des réseaux sociaux, est un facteur aggravant de risque, en matière de santé mentale, chez les jeunes présentant des vulnérabilités, comme l'indique le rapport de la commission d'experts précité. Certaines fonctionnalités des réseaux sociaux - basées sur des algorithmes et des systèmes de recommandation addictifs - visent, en effet, à maximiser le temps passé en ligne et à enfermer les jeunes dans des « bulles de filtre ».

La commission d'enquête du Sénat sur le réseau social TikTok3(*) a ainsi démontré que l'algorithme de recommandation de ce dernier était particulièrement efficace et qu'il mettait souvent en avant des contenus dangereux ou inappropriés : contenus liés aux désordres alimentaires et au suicide davantage proposés aux personnes vulnérables (dont les adolescents), défauts de modération face à la multiplication des « challenges » dangereux sur l'application, politique de modération ambigüe sur les contenus « hypersexualisés », etc.

L'accès à des contenus inappropriés peut ainsi être traumatique pour ces jeunes adolescents, dont le niveau d'exposition à de tels contenus est extrêmement inquiétant : début 2023, 7 jeunes sur 10 âgés de 11 à 18 ans considéraient eux-mêmes avoir déjà été exposés à des « contenus choquants sur Internet ou sur les réseaux sociaux »4(*), comme des contenus à caractère violent ou pornographique. 2,3 millions de mineurs en France fréquenteraient des sites pornographiques chaque mois, selon une étude de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) de mars 2023.

II. UN CADRE JURIDIQUE NATIONAL ET EUROPÉEN EN CONSTRUCTION, FACE À DES PLATEFORMES QUI SE MONTRENT RÉTICENTES À L'APPLIQUER

A. LE RÈGLEMENT EUROPÉEN SUR LES SERVICES NUMÉRIQUES, UNE AVANCÉE MAJEURE NOTAMMENT POUR LA PROTECTION DES MINEURS EN LIGNE

La protection des mineurs est une exigence fondamentale, protégée par de nombreux textes européens et internationaux 5(*) ; l'article 24 de la charte des droits fondamentaux de l'Union européenne affirmant que « l'intérêt supérieur de l'enfant doit être une considération primordiale ».

Plusieurs textes ou dispositions du droit de l'Union européenne sont intervenus pour protéger les mineurs en ligne, d'abord le règlement général pour la protection des données (RGPD), qui prévoit un mécanisme de « double consentement » dès lors que le mineur a moins de 15 ans en France6(*), puis le règlement sur les marchés numérique (DMA - Digital Markets Act) et surtout le règlement européen sur les services numériques (DSA - Digital Services Act), qui est une avancée majeure, en matière de régulation des acteurs du numérique, notamment s'agissant de la protection des mineurs.

Dispositions clés du DSA en faveur de la protection des mineurs

- l'article 14 oblige les plateformes à rédiger leurs conditions générales d'utilisation de façon compréhensible pour les mineurs ;

- l'article 22 leur impose un traitement prioritaire, et dans des délais rapides, des contenus signalés par des « signaleurs de confiance », dont font partie les associations de défense des enfants ;

- l'article 28 prévoit l'obligation pour les plateformes accessibles aux mineurs de prendre toutes mesures utiles pour garantir le plus haut niveau de protection de la vie privée, de la sécurité et de la sûreté des mineurs. Ce même article 28 prévoit l'interdiction de présenter aux mineurs de la publicité ciblée, utilisant leurs données personnelles ;

- l'article 27 renforce l'obligation de transparence sur le fonctionnement des systèmes de recommandation ;

- l'article 25 prévoit une interdiction pour les plateformes de recourir à des interfaces trompeuses et manipulatrices ;

- les articles 34 et 35 prévoient l'obligation pour les plateformes d'analyser chaque année les « risques systémiques » induits par la conception et le fonctionnement de leurs services et d'adopter en conséquence les mesures de remédiation des conséquences négatives graves engendrées sur le bien-être physique et mental des mineurs, parmi lesquelles des dispositifs de vérification d'âge ;

- l'article 28 prévoit l'obligation pour les très grandes plateformes d'offrir une option pour un « système de recommandation neutre », qui ne soit pas fondé sur le profilage.

Ces dispositions constituent des avancées majeures, dont l'application effective se fait néanmoins attendre, tant les plateformes semblent réticentes à appliquer ce nouveau cadre, qui heurte en réalité leur modèle économique, basé sur la recherche du profit absolu par le biais du « clic rémunérateur » et la captation de l'attention des utilisateurs.

La Commission européenne - compétente pour contrôler les « très grandes plateformes »7(*) au sens du DSA - a ainsi ouvert plusieurs enquêtes contre les plateformes de réseaux sociaux (TikTok, X et Méta) et de sites pornographiques (Pornhub, Stripchat, XNXX, et XVideos). Elle reproche à ces plateformes des manquements dans l'application du DSA, notamment concernant les dispositions liées à la vérification d'âge.

B. UNE LÉGISLATION NATIONALE PROTECTRICE MAIS LIMITÉE PAR LE DROIT DE L'UNION EUROPÉENNE

Le législateur français, sous l'impulsion du Sénat notamment, a tenté de développer, depuis plusieurs années, un arsenal juridique, visant à protéger les mineurs face aux nouveaux enjeux du numérique. Ce cadre national se heurte cependant à des difficultés d'application liées à l'incertitude entourant la conformité des dispositifs nationaux au droit de l'Union européenne.

La loi n° 2023-566 du 7 juillet 2023 - dite loi Marcangelli - visant à instaurer une majorité numérique et à lutter contre la haine en ligne prévoyait, en effet, l'obligation pour les réseaux sociaux de refuser l'inscription à leurs services des enfants de moins de 15 ans, sauf si un des parents avait donné son accord, par le biais de dispositifs de vérification d'âge. Ces dispositions ne sont cependant jamais entrées en vigueur, en raison d'un problème de conformité au droit de l'Union européenne (cf. encadré infra).

La loi française sur la majorité numérique jamais appliquée

Un décret était prévu pour l'entrée en application du dispositif de majorité numérique, mais il n'a jamais été publié compte tenu des observations de la Commission européenne, dans le cadre de la procédure de notification, jugeant les dispositions de la loi non conformes au droit européen, en particulier au DSA et à la directive sur le commerce électronique. Cette dernière impose, en effet, le respect du principe du pays d'origine, qui garantit que l'entreprise qui fournit un service dans d'autres pays de l'Union européenne est soumise exclusivement au droit de son pays d'établissement, sauf cas dérogatoires.

La position de la Commission européenne s'est vue renforcée par la jurisprudence ultérieure de la Cour de justice de l'Union européenne (CJUE) dans l'arrêt « Google Ireland » du 9 novembre 2023 qui est venue confirmer une application stricte du principe de l'État d'origine s'opposant à ce que l'État destinataire d'un service puisse soumettre à des « obligations générales et abstraites » des opérateurs de services établis dans un autre État membre.

Malgré cela, sous l'impulsion des associations et de protection de l'enfance et du Sénat, des dispositions de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique (ou SREN) sont venues compléter notre arsenal juridique, obligeant les plateformes en ligne fournissant des contenus pornographiques à instaurer un système de vérification de l'âge de leurs utilisateurs et, s'ils ne la respectent pas, à des mesures de blocage ou de déréférencement.

La loi a confié à l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) le soin d'établir un référentiel fixant les exigences techniques minimales auxquelles devront se conformer les systèmes de vérification d'âge des sites pornographiques. L'Arcom est ainsi compétente pour bloquer, voire ordonner le déréférencement de ces sites des moteurs de recherche, après une mise en demeure.

L'Arcom - dont la commission des affaires européennes tient à saluer de nouveau l'action essentielle - a ainsi publié son référentiel le 11 octobre 2024, laissant jusqu'au 11 avril aux plateformes établies en France et en dehors de l'Union européenne pour mettre en place un système de vérification de l'âge fiable, sur le principe du double anonymat.

S'agissant des sites établis dans un État membre de l'Union européenne, le régime est différent. En effet, le législateur - en raison du problème de conformité au droit de l'Union européenne évoqué supra et pointé par la Commission européenne avec deux avis circonstanciés adressés à la France - a dû mettre en place un dispositif lui permettant de se conformer au droit de l'Union. La France a ainsi dû notifier aux États membres hébergeant ces sites et à la Commission européenne l'arrêté pris le 26 février 2025 étendant les obligations imposées aux sites extra-européens et français à 17 sites pornographiques situés dans l'Union européenne.

Cependant quelques jours après l'entrée en vigueur de l'arrêté, le tribunal administratif de Paris, saisi par un site pornographique, a suspendu son application, invoquant un doute sérieux sur la compatibilité de ce texte avec le droit de l'Union européenne, en raison de l'existence d'un renvoi préjudiciel en cours devant la Cour de justice de l'Union européenne (CJUE). Le Conseil d'État avait, en effet, décidé, le 6 mars 2024 - à l'occasion d'un recours d'éditeurs tchèques de sites pornographiques contre notre dispositif national - de saisir la CJUE de plusieurs questions préjudicielles que soulève l'application de la loi pénale en matière de protection des mineurs.

La commission des affaires européennes considère que l'intérêt supérieur de l'enfant, exigence fondamentale prévue notamment à l'article 24 de la charte des droits fondamentaux de l'Union européenne, justifie une action de la France visant à empêcher l'accès des mineurs aux sites pornographiques, y compris ceux établis dans un autre État membre de l'Union européenne - du moins temporairement, tant qu'un dispositif de vérification de l'âge robuste n'a pas été pas mis en place au niveau de l'Union européenne.

Bilan et chronologie du travail de l'ARCOM

? Mars - mai 2025 :

- l'Arcom est intervenue à l'encontre de 5 sites pornographiques établis en France et en dehors de l'Union européenne, qui ont finalement mis en place un système de vérification de l'âge après avoir reçu des lettres d'observations (pour trois d'entre eux) et des mises en demeure (pour deux d'entre eux) (Chaturbate (USA)Pornovore (FR)RueNu (Panama)Nuespournous (Panama)VoilaPorno (Panama)) ;

- l'Arcom a demandé le blocage d'un service en infraction mais sans mentions légales (Camschat).

? 4 juin 2025 : des sites du groupe Aylo (Pornhub, Youporn et RedTube) annoncent s'être rendus volontairement inaccessibles en France, en réaction à l'évolution du cadre légal applicable en France et à l'entrée en vigueur prochaine de l'arrêté désignant les sites établis dans d'autres États membres qui sont assujettis à la loi. Toutefois ces sites restaient accessibles par VPN en France ;

? Juin 2025 : Deux autres sites ont spontanément mis en place des dispositifs de vérification d'âge à la veille de l'entrée en vigueur de l'arrêté ;

? 7 juin 2025 : « entrée en vigueur » de l'arrêté désignant les sites établis dans d'autres États membres qui sont assujettis à la loi.

? 11 juin 2025 : l'Arcom a adressé une lettre d'observations (1re étape de la procédure légale) à 5 sites pornographiques établis dans l'Union européenne, parmi ceux avec la plus forte audience en France, afin qu'ils se mettent en conformité :  

-Xvideos (4 342 000 Visiteurs Uniques (VU8(*)) mensuels) ; 

-Xnxx (2 622 000 VU mensuels) ; 

-xHamster (5 746 000 VU mensuels) ; 

-xHamsterLive (1 068 000 VU mensuels) ; 

-Tnaflix (673 000 VU mensuels).

? 16 juin 2025 : l'arrêté est suspendu par le tribunal administratif de Paris (compatibilité au droit européen et au principe du pays d'origine) ; à la suite de cette décision, les services de Aylo - qui s'étaient rendus indisponibles avant la suspension de l'arrêté - ont rétabli leur accessibilité pleine et entière en France sans outils de vérification de l'âge.

? Juin 2024 - en cours :

En parallèle, dans le cadre du DSA :

- la Commission européenne a ouvert des procédures pour infraction pour absence de vérification de l'âge contre les très grandes plateformes pornographiques (Pornhub, Stripchat, XNXX et XVideos) ;

- la Commission et les coordinateurs nationaux pour les services numériques ont annoncé une action coordonnée des autorités nationales à l'encontre des plateformes en ligne ne vérifiant pas l'âge de leurs utilisateurs.

Par ailleurs, le gouvernement s'est pourvu en cassation pour contester la suspension de l'arrêté prononcée par le tribunal administratif de Paris.

Source : Arcom

III. L'OBJECTIF DE LA PROPOSITION DE RÉSOLUTION : RENFORCER LE CADRE EUROPÉEN DE RÉGULATION DES PLATEFORMES POUR MIEUX PROTÉGER LES MINEURS EN LIGNE

Face à ces plateformes, qui usent de tous les moyens juridiques pour ne pas appliquer la réglementation nationale et européenne, la commission des affaires européennes a adopté la proposition de résolution européenne (PPRE) déposée par Mme Catherine Morin-Desailly, en conservant son ambition initiale visant à mieux protéger les mineurs en ligne, tout en renforçant certaines de ses dispositions.

La commission des affaires européennes appelle ainsi, dans cette proposition de résolution européenne, à une application ferme et effective du DSA, par le biais de lignes directrices exigeantes, mettant notamment en oeuvre des dispositifs de vérification d'âge robustes, et une majorité numérique.

Principales dispositions de la PPRE
déposée par Mme Catherine Morin-Desailly

La PPRE sur la protection des mineurs en ligne (n° 719 (2024-2025), déposée par Mme Catherine Morin-Desailly le 10 juin dernier, comprend :

- un volet sur la mise en oeuvre du DSA : à ce titre, la PPRE « prend acte de la mise en oeuvre effective des dispositions du DSA interdisant la publicité ciblée sur les plateformes en ligne visant les mineurs, préconisée de longue date par le Sénat » et salue les enquêtes ouvertes par la Commission européenne visant certaines plateformes au titre de la protection des mineurs. La PPRE prend également note de la consultation publique lancée le 13 mai 2025 par la Commission européenne sur le projet de lignes directrices pour la protection des mineurs en ligne dans le cadre du DSA ;

- un rappel de l'engagement constant du législateur français à protéger les mineurs en ligne avec l'adoption d'une part, de la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne et d'autre part, sous l'impulsion des associations de protection de l'enfance et du Sénat, de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique (SREN) ;

- un appel solennel à l'adoption de la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants, COM (2022) 209 final, « en veillant à l'équilibre adéquat entre l'impératif de protection des mineurs et la préservation des enjeux de chiffrement, conformément aux préconisations de la résolution européenne du Sénat n° 77 (2022-2023) du 20 mars 2023 » ;

- un appel à l'établissement au niveau européen de normes en matière d'éthique et de respect des droits fondamentaux, qui devraient être respectées lors de l'élaboration des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité ciblée utilisés par les fournisseurs de service intermédiaires, selon un principe de legacy et safety by design ;

- un volet sur la mise en oeuvre de dispositifs de vérification d'âge et d'une majorité numérique. À ce titre, la PPRE « demande l'instauration de solutions de vérification de l'âge et de logiciels de contrôle parental obligatoires et intégrés à tous les appareils et services accédant à internet et disponibles sur le marché européen ». Elle demande également « l'instauration d'une majorité numérique, âge en-dessous duquel les mineurs ne pourront pas accéder aux réseaux sociaux ».

A. UN APPEL À UNE APPLICATION FERME ET EFFECTIVE DU RÈGLEMENT SUR LES SERVICES NUMÉRIQUES (DSA) ....

La commission des affaires européennes du Sénat, par le biais d'un amendement COM-4 de la rapporteure, Mme Brigitte Devésa, réitère son appel auprès de la Commission européenne pour une application intransigeante des dispositions du DSA par les plateformes. Il s'agit d'une demande formulée depuis de nombreuses années par la commission des affaires européennes, à l'instar des travaux réalisés sur le sujet par Mmes Catherine Morin-Desailly et Florence Blatrix-Contat.9(*) Cette demande cible ici, dans le cadre de cette PPRE, toutes les dispositions visant à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité pour les mineurs en ligne.

Par ailleurs, l'amendement COM-3 rect. de la rapporteure complète le texte initial de la PPRE en rappelant que la santé mentale et le bien-être des enfants - qui sont des axes forts du DSA - doivent bien être pris en compte dans l'application de cette réglementation.

La commission des affaires européennes salue ainsi les enquêtes ouvertes par la Commission européenne envers certaines de ces très grandes plateformes, en conservant les dispositions prévues dans le texte initial de la PPRE. Cette dernière saluait, en effet, les enquêtes ouvertes par la Commission européenne visant les réseaux TikTok, Meta, Snapchat et Youtube, et les plateformes pornographiques (Pornhub, Stripchat, XNXX, et XVideos) au titre de la protection des mineurs.

Elle complète toutefois ces dispositions en réitérant sa demande de voir ces enquêtes conclues dans les plus brefs délais et les plateformes sanctionnées le cas échéant (amendement COM-5 rect. de la rapporteure). Elle demande également à ce que l'intérêt supérieur de l'enfant soit une « considération primordiale » dans les politiques de l'Union européenne, y compris dans les conclusions de ces enquêtes (amendement COM-6 rect. de la rapporteure).

B. ....PAR LE BIAIS DE LIGNES DIRECTRICES DE LA COMMISSION EUROPÉENNE CONCRÈTES ET EXIGANTES ENVERS LES PLATEFORMES

La Commission européenne a publié le 13 mai dernier son projet de ligne directrices sur la protection des mineurs en ligne dans le cadre de l'article 28 du DSA10(*).

La commission des affaires européennes se félicite, dans cette PPRE - par le biais de l'amendement COM-7 rect. de la rapporteure, - du niveau d'ambition de ces lignes directrices qui fixent un cadre concret et exigeant à l'égard des plateformes, mais appelle à aller plus loin d'une part sur les dispositifs de vérification d'âge qui doivent être explicitement étendus aux réseaux sociaux et d'autre part sur le contenu de ces plateformes, et notamment des réseaux sociaux, avec la mise en place de mesures de protection effectives concernant notamment les systèmes de paramétrage et de recommandation des comptes par défaut.

La commission des affaires européennes appelle la Commission européenne à adopter rapidement ces lignes directrices et à veiller à leur application prompte et concrète par les plateformes, qui doivent être tenues, sur le plan juridique et éthique, responsables de leur contenu et de la vérification des âges des utilisateurs (amendement COM-7 rect. de la rapporteure).

1. Un appel à la mise en place de contrôles de vérification d'âge par les plateformes elles-mêmes, y compris les réseaux sociaux, et l'imposition d'une majorité numérique...

Cette PPRE apporte un soutien au gouvernement dans les négociations en cours auprès de la Commission européenne (cf. encadré infra), afin de parvenir à une harmonisation européenne des contrôles de vérification d'âge et l'imposition d'une majorité numérique à l'échelon européen, au à défaut, au niveau de chaque État membre.

La France, en première ligne à Bruxelles, pour influer sur la Commission européenne

La France est à l'origine de plusieurs initiatives visant à fédérer un maximum d'États membres pour faire pression sur la Commission européenne, dans le cadre des négociations sur ces lignes directrices  : après un non-papier adressé à la Commission regroupant 6 États membres, ce sont 12 États (l'Autriche, la Croatie, Chypre, le Danemark, la France, la Grèce, l'Irlande, l'Italie, la Slovaquie, la Slovénie, l'Espagne et la Belgique) qui ont signé une lettre à la Commission européenne le 18 juin dernier lui demandant d'inclure, dans son projet de ligne directrices, un dispositif de vérification d'âge pour les réseaux sociaux.

La commission des affaires européennes reprend ainsi en large partie les dispositions prévues dans la PPRE initiale, et vise à les compléter et les renforcer.

Si le texte initial demandait l'instauration de solutions de vérification de l'âge et de logiciels de contrôle parental obligatoires intégrés à tous les appareils et services accédant à internet et disponibles sur le marché européen, notre commission - pleinement favorable à cette demande - a toutefois souhaité clarifier ces dispositions en rappelant que la responsabilité première de la vérification de l'âge de leurs utilisateurs revenait aux plateformes, qui ne peuvent s'en défausser sur les autres acteurs (amendements identiques COM-10 de la rapporteure et COM-1 de Mme Marie Mercier). La commission des affaires européennes a également demandé, en complément, la mise en place de solutions de vérification de l'âge et de logiciels de contrôle parental obligatoires pour tous les acteurs opérant sur le marché européen (fabricants d'appareils, systèmes d'exploitation, magasins d'applications, plateformes) de façon à établir une réponse combinée en matière de protection des mineurs en ligne (amendements identiques COM-10 de la rapporteure et COM-1 de Mme Marie Mercier).

Les outils de vérification de l'âge et de contrôle parental sont complémentaires, le contrôle parental ne pouvant suffire à exonérer les plateformes de leur responsabilité, quant au contenu qu'elles diffusent et quant à la vérification d'âge des utilisateurs, qu'elles doivent assumer (amendement COM-11 de la rapporteure).

La commission des affaires européennes reprend donc la demande, inscrite dans la PPRE initiale de Mme Morin-Desailly, d'instaurer une majorité numérique, au niveau européen, mais la complète en indiquant que cette majorité numérique pourrait, à défaut, être fixée au niveau de chaque État membre (amendement COM-12 de la rapporteure). Le même amendement prévoit également que cette majorité numérique corresponde à l'âge en dessous duquel les mineurs ne pourront pas accéder aux réseaux sociaux mais également plus largement, aux plateformes dont le contenu leur est préjudiciable, par la mise en oeuvre obligatoire de dispositifs de vérification d'âge par les plateformes elles-mêmes.

La présente PPRE ne se prononce pas sur l'âge à fixer, mais la rapporteure serait favorable à l'âge de 15 ans pour établir cette majorité numérique. C'est cet âge de 15 ans qui avait été retenu dans la loi Marcangelli, et dans le cadre de l'application du RGPD aux mineurs. Cet âge est également celui recommandé par la commission d'experts précitée, puisqu'il correspond également « le plus souvent au passage au lycée, marquant une étape dans l'adolescence et dans le parcours du jeune vers son autonomie progressive »11(*).

La Commission européenne prête à autoriser des lois nationales visant à établir une majorité numérique

D'après les dernières annonces de la Commission européenne, dans le cadre des négociations sur le projet de lignes directrices, il semblerait que cette dernière soit prête à ouvrir la voie à des législations nationales, alors qu'elle avait jugé non conforme au droit de l'Union les dispositions de la loi Marcangelli visant à instaurer une majorité numérique.

La Commission européenne a également annoncé une application temporaire européenne de vérification d'âge d'ici l'été, avant la mise en place d'un futur portefeuille numérique européen, prévu au mieux courant 2026, qui devrait permettre d'attester d'une majorité numérique.

2. ...et à l'instauration d'un contenu adapté aux mineurs

La commission des affaires européennes demande également que figurent dans ces lignes directrices des dispositions veillant à réguler le contenu des plateformes concernant la configuration des comptes des mineurs par défaut, avec des mesures de protection comme la désactivation de la possibilité, pour des adultes inconnus, de contacter des mineurs, ou la désactivation par défaut de la fonction de lecture automatique des vidéos. Elle demande également la mise en place de systèmes de recommandation transparents et protecteurs des enfants par défaut, avec par exemple la désactivation par défaut de l'utilisation des signaux implicites basés sur l'engagement (amendement COM-7 rect. de la rapporteure).

Plus généralement, la commission des affaires européennes rappelle - en conservant la rédaction de l'alinéa figurant dans la PPRE déposée - l'importance d'établir, au niveau européen, des normes en matière d'éthique et de respect des droits fondamentaux, qui devraient être respectées lors de l'élaboration des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité ciblée utilisés par les fournisseurs de services intermédiaires, selon un principe de « legacy » et « safety by design » (légalité et sécurité dès la conception).

C. LES ACTIONS DE PRÉVENTION SUR L'USAGE DU NUMÉRIQUE DOIVENT ÊTRE ENCOURAGÉES

Par le biais d'un amendement COM-3 rect. de la rapporteure, la commission des affaires européennes a inséré, dans la PPRE, plusieurs alinéas tendant à promouvoir les actions de prévention sur l'usage du numérique afin de protéger la santé mentale et le bien-être des enfants. La commission des affaires européennes salue ainsi la publication, le 20 juin dernier, de conclusions importantes du Conseil, sur la promotion et la protection de la santé mentale des enfants et des adolescents à l'ère numérique.

Dans la poursuite de ces travaux, la commission des affaires européennes demande, d'une part, le lancement de l'enquête, à l'échelle de l'Union européenne, annoncée par la présidente de la Commission européenne, sur l'incidence des réseaux sociaux sur la santé mentale des jeunes, et d'autre part, la poursuite du travail de la Commission, en complément des États membres, s'agissant d'actions de prévention et de formation sur l'usage du numérique et ses dangers.

D. UN APPEL SOLENNEL À ADOPTER LA PROPOSITION DE RÈGLEMENT ÉTABLISSANT DES RÈGLES EN VUE DE PRÉVENIR ET DE COMBATTRE LES ABUS SEXUELS SUR LES ENFANTS

Alors que la Commission européenne, lors de la présentation de la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants12(*), avait souligné l'urgence de l'adoption de cette réforme, les négociations semblent bloquées depuis plusieurs mois.

Confirmant l'alinéa de la PPRE initiale, la commission des affaires européennes demande donc solennellement l'adoption de cette réforme importante en veillant à l'équilibre adéquat entre l'impératif de protection des mineurs et la préservation des enjeux de chiffrement, conformément aux préconisations de la résolution européenne du Sénat n° 77 (2022-2023) du 20 mars 202313(*)

EXAMEN EN COMMISSION

La commission des affaires européennes, réunie le jeudi 3 juillet 2025, a engagé le débat suivant :

M. Jean-François Rapin, président. - Nous en venons maintenant au second point concernant la proposition de résolution européenne (PPRE) sur la protection des mineurs en ligne, présentée par Catherine Morin-Desailly et dont Brigitte Devésa est la rapporteure.

Cette proposition qui fait suite à plusieurs prises de position fortes de notre commission sur les enjeux numériques, le cadre réglementaire européen et le rôle des plateformes est pleinement d'actualité et « parle aux jeunes ». C'est en effet le thème choisi par les jeunes collégiens et lycéens que nous avions accueillis au Sénat lors du Sénat des jeunes, à l'occasion des 150 ans de notre assemblée. J'avais alors pu constater qu'ils exprimaient, à bien des égards, des positions très fermes.

Notre collègue Brigitte Devésa va nous présenter son analyse de la PPRE. Nous examinerons ensuite les amendements - dont l'un, déposé par Marie Mercier, ne provient pas de notre commission -, pour la première fois dans le cadre de la nouvelle formule prévue par l'article 73 quinquies C du Règlement du Sénat.

Mme Brigitte Devésa, rapporteure. - La protection des mineurs en ligne, et plus généralement des mineurs face aux écrans, est une question qui nous préoccupe tous, en tant que citoyens, parents et législateurs.

En tant que parlementaires, nous avons donc un rôle à jouer. Je remercie notre collègue Catherine Morin-Desailly pour le dépôt de cette proposition de résolution européenne et je salue son action, et celle du Sénat, depuis plusieurs années, en vue de protéger nos enfants dans un environnement numérique en pleine mutation, face à des plateformes dont le modèle économique semble tout emporter devant lui... La lanceuse d'alerte Frances Haugen, ancienne ingénieure chez Facebook, rappelait d'ailleurs, lors de son audition au Sénat, que ces plateformes privilégieront toujours l'optimisation du profit à la sécurité des enfants.

Le constat est aujourd'hui saisissant, je dirais même effrayant : la commission d'experts sur l'impact de l'exposition des jeunes aux écrans indique que les enfants sont ainsi très largement exposés, avec dix écrans en moyenne par foyer, et une exposition de plus en plus précoce, que ce soit au sein de leur domicile, à l'école, ou dans l'espace public. Selon une étude Ipsos, les jeunes Français âgés de 7 à 19 ans passent trois heures et onze minutes sur les écrans chaque jour pour échanger sur des messageries instantanées, pour regarder des vidéos, pour écouter de la musique ou pour jouer à des jeux vidéo.

Selon une autre étude récente, 86 % des 8-18 ans seraient inscrits sur les réseaux sociaux. La première inscription sur un réseau social interviendrait en moyenne vers l'âge de 8 ans et demi. Ces données sont confirmées par une autre enquête, selon laquelle, en 2021, 63 % des moins de 13 ans avaient un compte sur au moins un réseau social, bien que ces réseaux leur soient en théorie interdits en vertu de leurs conditions générales d'utilisation.

Cette exposition aux écrans et à des contenus inappropriés, notamment via les réseaux sociaux, a des effets négatifs sur la santé des enfants, reconnus très largement par la communauté scientifique, et rappelés dans les considérants de la PPRE. La commission d'experts précitée a ainsi, dans son rapport, très bien démontré l'impact de cette exposition sur la santé somatique des jeunes - avec des effets négatifs notamment sur la qualité et la quantité de sommeil, la pratique physique et la vue en raison de la lumière bleue émise par les appareils. Selon une enquête récente, 31 % des jeunes âgés de 11 à 18 ans disaient rester éveillés ou se réveiller la nuit pour consulter leur écran.

Plusieurs études scientifiques démontrent par ailleurs l'effet négatif de l'usage des écrans pour le neurodéveloppement des enfants, avec une altération du développement du langage, de la régulation, des émotions et des compétences socio-relationnelles. De plus, s'agissant des adolescents, l'utilisation des écrans, notamment des réseaux sociaux, est un facteur aggravant de risque en matière de santé mentale, en particulier chez les jeunes présentant des vulnérabilités. Certaines fonctionnalités des réseaux sociaux, reposant sur des algorithmes et des systèmes de recommandation addictifs, visent en effet à maximiser le temps passé en ligne et à enfermer les jeunes dans des « bulles de filtre ».

La commission d'enquête du Sénat sur le réseau social TikTok a ainsi démontré que l'algorithme de recommandation de ce dernier était particulièrement efficace et qu'il mettait souvent en avant des contenus dangereux ou inappropriés : contenus liés aux désordres alimentaires et au suicide davantage proposés aux personnes vulnérables - dont les adolescents -, défaut de modération face à la multiplication des challenges dangereux sur l'application, politique de modération ambiguë sur les contenus hypersexualisés, etc.

L'accès à des contenus inappropriés peut ainsi être traumatique pour ces jeunes adolescents, dont le niveau d'exposition à de tels contenus est extrêmement inquiétant : début 2023, sept jeunes sur dix âgés de 11 à 18 ans considéraient eux-mêmes avoir déjà été exposés à des « contenus choquants sur internet ou sur les réseaux sociaux », comme des contenus à caractère violent ou pornographique ; 36 % des enfants de 11 à 18 ans d'âge auraient eu accès à des scènes de pornographie. L'âge moyen auquel un enfant serait confronté à du contenu pornographique, y compris accidentellement, serait désormais de 10 ou 11 ans, selon les sources, contre 14 ans en 2017. En France, 2,3 millions de mineurs fréquenteraient des sites pornographiques chaque mois.

Selon la commission d'experts précitée, si les expériences numériques ne peuvent jamais, à elles seules, expliquer des faits graves de violence, « elles pourraient contribuer à une forme de désensibilisation qui doit appeler à la vigilance » - celle des parents et de l'entourage, mais également la nôtre, en tant que législateurs nationaux et européens, pour mettre en place un cadre juridique régulant l'activité des plateformes en ligne et protégeant nos enfants.

La protection des mineurs est en effet une exigence fondamentale, prévue à l'article 24 de la Charte des droits fondamentaux de l'Union européenne (UE), lequel affirme que « l'intérêt supérieur de l'enfant doit être une considération primordiale ».

Au niveau européen, plusieurs textes ou mesures sont intervenus pour protéger les mineurs en ligne : d'abord le règlement général sur la protection des données (RGPD), qui prévoit un mécanisme de « double consentement » dès lors que le mineur a moins de 15 ans en France - chaque État membre pouvant prévoir l'âge de son choix entre 13 et 16 ans - ; puis le règlement sur les marchés numériques (DMA), et surtout le règlement européen sur les services numériques (DSA), qui constitue une avancée majeure en matière de régulation des acteurs du numérique, notamment s'agissant de la protection des mineurs.

Le DSA comporte ainsi plusieurs dispositions visant directement ou indirectement à protéger les mineurs en ligne. Parmi ces dispositions figure, à l'article 28, l'obligation pour les plateformes accessibles aux mineurs de prendre toutes mesures utiles pour garantir le plus haut niveau de protection de la vie privée, de la sécurité et de la sûreté des mineurs avec des interfaces adaptées. Ce même article 28 prévoit l'interdiction de présenter aux mineurs de la publicité ciblée, utilisant leurs données personnelles.

L'article 14 du DSA oblige également les plateformes à rédiger leurs conditions générales d'utilisation de façon compréhensible pour les mineurs. Son article 22 leur impose un traitement prioritaire, et dans des délais rapides, des contenus signalés par des « signaleurs de confiance » - dont les associations de défense des enfants -, et son article 27, un renforcement de l'obligation de transparence sur le fonctionnement des systèmes de recommandation. Les articles 34 et 35 prévoient, quant à eux, l'obligation pour les plateformes d'analyser chaque année les « risques systémiques » induits par la conception et le fonctionnement de leurs services et d'adopter en conséquence les mesures de remédiation des conséquences négatives graves engendrées sur le bien-être physique et mental des mineurs, parmi lesquelles des dispositifs de vérification d'âge.

Il s'agit là d'avancées majeures, dont l'application effective se fait néanmoins attendre, tant les plateformes semblent réticentes à appliquer ce nouveau cadre, qui heurte en réalité leur modèle économique, fondé sur la recherche du profit absolu par le biais du « clic rémunérateur » et la captation de l'attention des utilisateurs.

Soupçonnant des manquements s'agissant de l'application de ces dispositions visant à protéger les mineurs, notamment concernant la vérification d'âge, la Commission européenne - compétente pour contrôler les « très grandes plateformes » au sens du DSA, à savoir celles qui ont 45 millions d'utilisateurs par mois - a ainsi ouvert plusieurs enquêtes contre les plateformes de réseaux sociaux - TikTok et Meta - et de sites pornographiques - Pornhub, Stripchat, XNXX, et XVideos.

Au niveau national, on observe la même réticence des plateformes à respecter ces nouvelles obligations ; des plateformes qui profitent par ailleurs de la brèche juridique ouverte par l'incertitude entourant la conformité des dispositifs nationaux au droit de l'Union européenne - j'y reviendrai.

En France, la loi du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne prévoyait en effet l'obligation, pour les réseaux sociaux, de refuser l'inscription à leurs services des enfants de moins de 15 ans, sauf si un des parents avait donné son accord, par le biais de dispositifs de vérification d'âge.

Un décret était prévu pour l'entrée en application de ce dispositif, mais il n'a jamais été publié compte tenu des observations de la Commission européenne, dans le cadre de la procédure de notification, jugeant les dispositions de la loi non conformes au droit européen, en particulier au DSA et à la directive sur le commerce électronique.

Cette dernière impose en effet le respect du principe du pays d'origine, qui garantit que l'entreprise fournissant un service dans d'autres pays de l'Union européenne est soumise exclusivement au droit de son pays d'établissement, sauf cas dérogatoires.

La position de la Commission européenne s'est vue renforcée par la jurisprudence ultérieure de la Cour de justice de l'Union européenne (CJUE). Dans son arrêt Google Ireland du 9 novembre 2023, la Cour a en effet confirmé une application stricte du principe de l'État d'origine.

Ce principe s'oppose à ce que l'État destinataire d'un service puisse soumettre à des « obligations générales et abstraites » des opérateurs de services établis dans un autre État membre. Nous y reviendrons, car là se situe le noeud du problème expliquant le manque d'effectivité de nos mesures de protection des mineurs vis-à-vis de ces plateformes, hébergées dans d'autres États membres de l'Union européenne.

Malgré cela, sous l'impulsion des associations de protection de l'enfance et du Sénat, des dispositions de la loi du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique (Sren) sont venues compléter notre arsenal juridique, en obligeant les plateformes en ligne qui fournissent des contenus pornographiques à instaurer un système de vérification de l'âge de leurs utilisateurs et en prévoyant, en cas de non-respect de cette obligation, des mesures de blocage ou de déréférencement.

La loi a confié à l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) le soin d'établir un référentiel fixant les exigences techniques minimales auxquelles devront se conformer les systèmes de vérification d'âge des sites pornographiques. L'Arcom est ainsi compétente pour bloquer, voire ordonner le déréférencement de ces sites des moteurs de recherche, après une mise en demeure. Ce dispositif de mise en demeure des sites pornographiques par l'Arcom avait été institué par la loi du 30 juillet 2020 visant à protéger les victimes de violences conjugales, à l'initiative de notre collègue Marie Mercier, rapporteur du texte, dont je salue d'ailleurs l'action sans faille sur ce sujet. L'Arcom devait alors saisir le juge judiciaire à des fins de blocage, ce qu'elle peut dorénavant faire directement dans le cadre de la loi Sren.

L'Arcom a ainsi publié son référentiel le 11 octobre 2024, laissant jusqu'au 11 avril 2025 aux plateformes établies en France et en dehors de l'Union européenne pour mettre en place un système de vérification de l'âge fiable, fondé sur le principe du double anonymat. S'agissant des sites établis dans un État membre de l'Union, le régime est différent. En effet, le législateur - en raison du problème de conformité au droit de l'Union européenne évoqué plus haut et pointé par la Commission européenne avec deux avis circonstanciés adressés à la France - a dû mettre en place un dispositif lui permettant de se conformer au droit de l'Union.

La France a ainsi dû notifier aux États membres hébergeant ces sites et à la Commission européenne l'arrêté publié le 6 mars 2025 étendant les obligations imposées aux sites extra-européens et français à 17 sites pornographiques situés dans l'Union. Le délai de trois mois ayant expiré, les obligations de vérification d'âge pour ces sites sont entrées en vigueur le 7 juin dernier.

En réaction à cette entrée en vigueur, les sites du groupe Aylo - Pornhub, YouPorn et RedTube - s'étaient rendus volontairement inaccessibles en France, même s'ils restaient accessibles par VPN (Virtual Private Network). Cependant, il convient de noter que deux autres sites ont spontanément mis en place la vérification d'âge à la veille de l'entrée en vigueur de l'arrêté.

Toutefois, quelques jours plus tard, le 16 juin dernier, le tribunal administratif de Paris, saisi par un site pornographique, a suspendu l'arrêté du 6 mars 2025 précité, invoquant un doute sérieux sur la compatibilité de ce texte avec le droit de l'Union européenne, en raison de l'existence d'un renvoi préjudiciel en cours devant la CJUE.

Le Conseil d'État a en effet décidé, le 6 mars 2024 - à l'occasion d'un recours d'éditeurs tchèques de sites pornographiques contre notre dispositif national - de saisir la CJUE de plusieurs questions préjudicielles que soulève l'application de la loi pénale en matière de protection des mineurs.

À la suite de l'ordonnance du tribunal administratif, les sites du groupe Aylo ont ainsi rétabli leur accessibilité pleine et entière en France sans outils de vérification de l'âge, ce que l'on ne peut que regretter vivement.

Que faire face à des plateformes toutes puissantes, qui usent de tous les moyens juridiques pour ne pas appliquer la réglementation, et face à une Commission et une jurisprudence de la CJUE qui ne nous aident pas dans nos initiatives nationales de régulation de ces plateformes ?

Je pense qu'il faut continuer d'avancer sur le plan national et maintenir une pression, tant sur les institutions européennes que sur les plateformes. C'est la raison d'être de cette PPRE qui marque notre soutien au Gouvernement, pour faire en sorte que l'intérêt supérieur de l'enfant soit bien une considération primordiale des politiques de l'Union européenne. Car tout n'est pas noir. Les lignes bougent !

Sous la pression de la France et de l'action du Sénat - il faut le dire -, la réglementation européenne se durcit à l'encontre des plateformes. Nous ne pouvons que saluer les enquêtes ouvertes par la Commission européenne envers certaines de ces très grandes plateformes, comme indiqué précédemment.

Cependant, conformément aux recommandations de nos collègues Catherine Morin-Desailly et Florence Blatrix Contat, nous réitérons notre demande de voir ces enquêtes conclues dans les plus brefs délais et les plateformes sanctionnées, le cas échéant.

Parallèlement, signe que les choses avancent, la Commission européenne a publié le 13 mai dernier son projet de lignes directrices sur la protection des mineurs en ligne dans le cadre de l'article 28 du DSA. Nous nous félicitons du niveau d'ambition de ces lignes directrices qui fixent un cadre concret et exigeant à l'égard des plateformes, mais nous appelons à aller plus loin, d'une part, sur les dispositifs de vérification d'âge qui doivent être explicitement étendus aux réseaux sociaux, et, d'autre part, sur le contenu de ces plateformes, et notamment des réseaux sociaux, avec la mise en place de mesures de protection effectives concernant les systèmes de paramétrage et de recommandation des comptes par défaut.

Par ailleurs, nous ne pouvons que rappeler l'importance d'établir, au niveau européen, des normes en matière d'éthique et de respect des droits fondamentaux, qui devraient être respectées lors de l'élaboration des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité ciblée utilisés par les fournisseurs de services intermédiaires, selon un principe de legacy et safety by design, c'est-à-dire de légalité et sécurité dès la conception.

Nous appelons la Commission européenne à adopter rapidement ces lignes directrices et à veiller à leur application prompte et concrète par les plateformes qui doivent être tenues, sur le plan juridique et éthique, responsables de leur contenu et de la vérification des âges des utilisateurs.

La question de la protection des mineurs, mais également de la santé mentale des jeunes à l'ère numérique fait l'objet d'une attention particulière des institutions européennes ces derniers mois. Le Conseil a approuvé, le 20 juin dernier, des conclusions importantes sur la promotion et la protection de la santé mentale des enfants et des adolescents à l'ère numérique. Nous nous en félicitons et demandons, d'une part, le lancement de l'enquête, à l'échelle de l'Union européenne, annoncée par la présidente de la Commission européenne, sur l'incidence des réseaux sociaux sur la santé mentale des jeunes, et, d'autre part, la poursuite du travail de la Commission, en complément des États membres, s'agissant d'actions de prévention et de formation sur l'usage du numérique et ses dangers.

De même, nous demandons solennellement, par le biais de cette PPRE, l'adoption de la proposition de règlement du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants, conformément aux préconisations de la résolution européenne du Sénat du 20 mars 2023. La France mène depuis plusieurs mois un travail important dans les négociations sur cette proposition de règlement, comme sur la question des dispositifs de vérification d'âge et de majorité numérique.

Nous saluons ainsi cette démarche du Gouvernement auprès de la Commission européenne et des autres États membres, visant à rendre effective la réglementation européenne protégeant les mineurs par une harmonisation européenne des contrôles de vérification d'âge et l'imposition d'une majorité numérique à l'échelon européen, ou à défaut au niveau de chaque État membre.

La France est à l'origine de plusieurs initiatives visant à fédérer un maximum d'États membres pour faire pression sur la Commission européenne.

Après un non-papier adressé à la Commission regroupant six États membres, ce sont douze États membres qui ont adressé une lettre à la Commission européenne le 18 juin dernier lui demandant d'inclure dans son projet de lignes directrices un dispositif de vérification d'âge pour les réseaux sociaux. Les États signataires étaient l'Autriche, la Croatie, Chypre, le Danemark, la France, la Grèce, l'Irlande, l'Italie, la Slovaquie, la Slovénie, l'Espagne et la Belgique.

Je disais que les lignes bougeaient ; sur ce point précis, il semble que la Commission européenne, qui avait jugé non conformes au droit de l'Union les dispositions de la loi visant à instaurer une majorité numérique, serait prête à ouvrir la voie à des législations nationales. Il s'agit d'annonces, qu'il faudra voir se concrétiser, espérant que notre PPRE pourra ainsi peser sur cette inflexion de la Commission, dans l'intérêt de la protection des mineurs. La Commission européenne a également annoncé une application temporaire européenne de vérification d'âge, avant la mise en place d'un futur portefeuille numérique européen, prévu au mieux courant 2026, qui devrait permettre d'attester d'une majorité numérique. À suivre donc, le travail reste encore devant nous !

Je renouvelle mes remerciements à Catherine Morin-Desailly, ainsi qu'à tous ceux de nos collègues qui ont participé à ce travail, entamé depuis un certain temps. Je remercie également le président de nous permettre de nous exprimer à travers cette PPRE. Cette responsabilité de protéger les mineurs en ligne nous incombe à tous. Ensemble, nous pourrons faire avancer les choses, j'en suis convaincue.

M. Jean-François Rapin, président. - Nous sommes tous régulièrement sollicités sur ce sujet dans nos territoires. J'ai par exemple récemment rencontré une institutrice qui se mobilise contre les écrans - à l'époque la télévision - depuis 1982 !

Mme Catherine Morin-Desailly, auteure de la proposition de résolution. - Il semblerait que les choses commencent enfin à bouger au niveau européen, comme en témoigne la tribune commune signée par vingt ministres - principalement des ministres chargés de l'éducation nationale, du numérique et de la santé - de treize États membres. Hier, lors des questions d'actualité au Gouvernement, je faisais remarquer à Clara Chappaz, qui relayait les inquiétudes de la commission Écrans, que le Sénat, notamment par l'intermédiaire d'un rapport de la commission de la culture sur la formation à l'heure du numérique, avait tiré le signal d'alarme dès 2018. À l'époque, la ministre de la santé n'avait pas jugé bon de soutenir nos propositions. Elle arguait de l'absence d'études scientifiques, alors que l'Académie de médecine, les pédiatres et les orthophonistes nous demandaient déjà de prendre des mesures.

Brigitte Devésa a rappelé les propos de Frances Haugen, ancienne ingénieure de Facebook devenue lanceuse d'alerte, lorsqu'elle était venue témoigner au Sénat il y a quelques années, au moment où l'on commençait à parler de régulation des plateformes. La main sur le coeur, leurs dirigeants juraient de s'autoréguler... Sauf que cela revient à leur conférer beaucoup de pouvoir et qu'ils privilégieront toujours le profit à la sécurité des enfants, car c'est inhérent au modèle économique de leurs sociétés.

La législation européenne- au développement de laquelle nous avons beaucoup oeuvré, en émettant de nombreuses propositions- commence à se déployer, notamment avec le DSA. On note certaines avancées, mais nous sommes encore très loin du compte. Les enquêtes sont trop lentes, insuffisamment approfondies ; l'Arcom manque par ailleurs de pouvoirs.

Nous devons exiger l'application des textes en vigueur et faire de nouvelles propositions de régulation auprès de la Commission européenne. Tel est le sens de la présente proposition de résolution, qui vise surtout à clarifier le droit européen et qui s'articule aussi avec ma proposition de loi visant à protéger les jeunes de l'exposition excessive et précoce aux écrans et des méfaits des réseaux sociaux. Cette dernière comporte des mesures éducatives, sanitaires et sociales à destination des parents, des enseignants et plus globalement de tous les acteurs de l'enseignement.

J'ai tenu également à faire figurer dans la proposition de résolution le principe du safety by design : comme les médicaments, les algorithmes et services numériques devraient faire l'objet de tests préalables d'innocuité avant leur mise en service. Nous l'avions déjà demandé dans de précédents travaux.

Il n'en est pas question dans la présente proposition de résolution, mais il y a aussi urgence à poser les bases d'une politique industrielle européenne. Nous devons en effet réfléchir, au-delà de la régulation de l'existant, à la création de nouveaux outils fondés sur des modèles économiques plus éthiques.

Comme pour la protection des mineurs contre les abus sexuels en ligne, il y a urgence à agir au niveau européen et nous serions coupables de ne pas le faire. Il serait souhaitable de s'accorder sur un âge minimal d'accès aux plateformes, par exemple 15 ans, mais la bataille sera rude, face à un lobbying des plateformes qui s'annonce particulièrement intense.

M. Olivier Henno. - Même s'il ne paraît pas évident, je fais le lien avec le débat que nous avons eu hier soir sur la situation au Proche et au Moyen-Orient, en application de l'article 50-1 de la Constitution. Nous vivons dans un monde de plus en plus brutal, où les règles de droit international sont mises à mal et qui se caractérise par une forme de compétition entre les démocraties et les régimes autoritaires - les États-Unis restent une démocratie, mais ils sont sur le fil du rasoir.

Nous devons aussi être conscients qu'il est de plus en plus difficile pour les parents de réguler l'accès aux écrans - je parle d'expérience. Confrontés à une forme d'addiction et de culture collective de la jeunesse, ils subissent une très forte pression de la part de leurs enfants.

Contrairement aux régimes autoritaires, nous sommes plus attachés à la liberté individuelle qu'au projet collectif. C'est différent en Asie, où les États régulent durement ces questions, notamment à Singapour. Ils ont bien compris que l'équilibre psychologique, le niveau scolaire et le développement intellectuel des enfants étaient en jeu.

La capacité des démocraties à réguler cette question conditionne vraisemblablement une partie de notre avenir. Le défi est de taille. Dans le pire des scénarios, cela pourrait aboutir à un abêtissement de générations entières. La difficulté, c'est que le numérique est aussi devenu notre principal outil de travail : à la fois instrument de productivité et de divertissement, et parfois d'abrutissement.

Mme Brigitte Devésa, rapporteure. - Le respect des libertés individuelles est certes fortement ancré dans nos traditions démocratiques, mais nous avons aussi sans doute manqué de vigilance depuis une vingtaine d'années, considérant avec une certaine naïveté le développement d'internet et des réseaux sociaux, ne voyant que les progrès véhiculés par ces nouvelles technologies et non les risques qui y étaient également associés.

Or, aujourd'hui, comme l'a relevé Catherine Morin-Desailly, le constat est alarmant. Nous devons aller plus loin et montrer à la Commission européenne que nous avons aussi, en tant qu'État membre, des choses à dire et à défendre.

Mme Amel Gacquerre. - Nous débattons en effet d'un sujet de société aussi important que complexe.

Il y a bien entendu la responsabilité des plateformes, la question des règles et du cadrage, mais aussi celle des moyens de contrôle qui s'était déjà posée, en 2023, lors de l'examen de la loi visant à lutter contre les dérives des influenceurs sur les réseaux sociaux.

Le sujet touche aussi à la responsabilité des parents et des éducateurs en général. Je salue la nouvelle initiative législative de Catherine Morin-Desailly en la matière. Nous devons mettre en place une politique globale et je suis ravie que les choses avancent dans le bon sens, même si tout est encore à faire.

On ne peut pas évoquer non plus cette question des réseaux sociaux sans faire le lien avec l'intelligence artificielle (IA), qui me semble représenter un danger majeur d'abêtissement des jeunes générations. L'utilisation de ChatGPT par nos mineurs pour faire leurs devoirs est juste une catastrophe car elle casse leur capacité d'apprentissage.

Ces technologies sont formidables, à condition d'en faire bon usage. Éduquer nos enfants, c'est aussi leur apprendre à les utiliser. Nous devons aider les enseignants à lever leurs réticences, afin qu'ils puissent intégrer intelligemment ces outils dans leur pédagogie, et envisager également la responsabilité des parents.

Le sujet doit être attaqué sous tous les angles et je vous félicite pour cette proposition de résolution qui apporte une nouvelle pierre à l'édifice juridique en train de se construire.

Mme Pascale Gruny. - Je remercie Brigitte Devésa de son travail, ainsi que Catherine Morin-Desailly et tous nos collègues qui se penchent régulièrement sur ces sujets. L'IA est un outil : on ne devrait normalement pas en avoir peur, mais il faut développer le plus tôt possible chez les jeunes et les enfants le sens critique.

Ce weekend, j'étais avec une enseignante travaillant avec des élèves du niveau bac pro : elle voit bien d'où proviennent les copies qui lui sont remises ! Or les enseignants manquent souvent de formation continue pour faire face à cette problématique.

La commission des affaires sociales, dont je suis membre, travaille sur la santé mentale des jeunes. Beaucoup d'entre eux ne vont pas bien : ils ont plein d'amis sur les réseaux sociaux, mais en réalité ils sont seuls ! Certains jeunes restent enfermés dans leur chambre du matin au soir, leurs parents croient qu'ils cherchent du travail sur internet alors que ce n'est pas le cas. Comment faire pour les sortir de la spirale des réseaux sociaux ?

Je m'interroge : comment vérifier l'âge des individus sur Instagram, par exemple ? Rien de plus facile que de falsifier son profil ! On est toujours en retard par rapport à des réseaux sociaux développés au niveau international et qui ont une longueur d'avance sur nous. J'entends qu'il ne faut rien lâcher, mais comment faire pour inverser la donne ? Les parents interdisent l'accès aux réseaux sur les téléphones mais les adolescents arrivent facilement à contourner cette interdiction en passant par d'autre canaux. Sans parler des phénomènes de délinquance que cela draine.

La liberté individuelle est mise à mal avec ces nouveaux moyens de communication qui deviennent une addiction.

M. Jean-François Rapin, président. - Il existe aujourd'hui plusieurs moyens pour vérifier l'âge et l'identité. On le fait bien pour la lettre recommandée numérique, qui nécessite le scan d'une carte d'identité. Idem pour l'identité numérique, qui peut constituer une possibilité efficace de contrôle. Il faut donc que les plateformes se donnent les moyens de mettre en place toutes ces vérifications !

M. Didier Marie. - Il faut surtout le leur imposer !

M. Jean-François Rapin, président. - L'identité numérique est une vraie avancée de ce point de vue : elle est factuellement infalsifiable.

Mme Marta de Cidrac. - Certain pays asiatiques, Olivier Henno l'a souligné, interdisent aux mineurs l'accès aux réseaux à partir d'une certaine heure. Au-delà de la simple vérification de l'identité, il est donc aussi techniquement possible de restreindre l'accès des jeunes, sans pour autant compromettre la liberté des uns et des autres.

Par ailleurs, aujourd'hui, quand on donne dans la rue un coup de poing à quelqu'un, on est sanctionné, mais quid des coups de poing « mentaux » sur les réseaux ? Ne pouvons-nous légiférer sur cette problématique ? Certes, nous ne disposons d'aucune étude sur le sujet, mais il existe néanmoins un faisceau de présomptions important sur l'atteinte à l'intégrité des jeunes cerveaux. À partir de là, nous pourrions mettre en place des interdictions très claires. On ne peut pas s'en remettre uniquement à la bonne volonté des plateformes et compter simplement sur les sanctions à leur encontre, car la logique économique va l'emporter sur tout le reste.

M. Jean-François Rapin, président. - Amel Gacquerre a mis l'accent sur l'éducation. Les parents peuvent déjà très bien mettre en place des limitations et verrouiller, en tant qu'administrateurs, les temps d'utilisation de leur box. Idem pour les téléphones, qui peuvent être formatés par les parents sans possibilité pour les enfants d'apporter des modifications.

Mme Marta de Cidrac. - Vous renvoyez la responsabilité aux parents et j'y souscris totalement. Mais si les parents sont défaillants, le législateur ne pourrait-il pas également légiférer, un peu comme pour la violence intrafamiliale ? Il importe d'envoyer un signal.

Mme Brigitte Devésa, rapporteure. - Cette remarque est intéressante. Les premiers éducateurs sont effectivement les parents : ils doivent donc être responsabilisés. Mais s'ils laissent faire, ne pourrions-nous pas prévoir des sanctions ? On parle beaucoup de la santé mentale des jeunes. Il faudra le travail de tous car, individuellement, on n'arrivera pas à changer les choses. On a déjà bien avancé depuis vingt ans en matière de protection des jeunes sur les réseaux sociaux, mais il importe d'être beaucoup plus durs, notamment avec les plateformes.

Quoi qu'il en soit, les parents sont quand même responsables : quand ils laissent leur enfant de huit heures du matin jusqu'à seize heures, seul sur internet, au prétexte qu'ils n'ont pas le temps de s'en occuper, cela doit nous interroger. Il faut prévoir des outils numériques plus intelligents. L'enfant a besoin d'interactions avec le parent et l'adulte. Nous allons devoir monter d'un cran en travaillant conjointement avec des spécialistes, des médecins et tous ceux qui pourront nous aider à mieux sanctionner ceux qui ne respectent pas les règles.

M. Jean-François Rapin, président. - Sans trop vouloir commenter l'actualité, nous venons d'apprendre qu'un adolescent de 13 ans a été tué et quatre autres blessés dans l'accident d'une voiture suivie par la police en Saône-et-Loire. Le conducteur a quinze ans ! Il était cinq heures du matin : que faisaient les parents ?

Mme Catherine Morin-Desailly, auteure de la proposition de résolution. - M. Olivier Henno l'a rappelé, la régulation témoignera de la capacité de nos démocraties à construire leur avenir. Cela figure très clairement dans l'exposé des motifs : une guerre cognitive est en cours. Cette réalité a été établie par plusieurs spécialistes. M. David Colon, expert reconnu en matière d'information, nous a alertés à ce sujet.

Les Chinois limitent l'accès de leurs enfants à TikTok à une demi-heure par jour. Aux États-Unis, les géants du numérique inscrivent leurs propres enfants dans des établissements scolaires sans écrans. On connaît donc parfaitement les effets délétères des écrans sur l'abêtissement et l'affaiblissement de notre jeunesse.

C'est une stratégie insidieuse qui vise à saper notre démocratie par le bas. Il y a urgence à réagir.

Mme Amel Gacquerre l'a souligné : les parents doivent être renvoyés à leur responsabilité. Mais beaucoup sont démunis. Comment lutter contre ces réseaux ? C'est comme vouloir ériger une digue face à la montée de la mer ! Il ne s'agit pas de combattre la société digitale dans laquelle nous vivons, mais de s'emparer de l'outil pour le façonner à notre image.

C'est pourquoi je me bats inlassablement pour des solutions industrielles européennes respectueuses des fondements européens. C'est aussi pourquoi la défense du droit d'auteur et des droits voisins revêt une importance capitale : tout est lié.

Si nous voulons maintenir une offre culturelle de qualité, alternative aux contenus dont certains souhaitent abreuver la jeunesse occidentale, il faudra livrer bataille. Il convient de développer des contenus éthiques, portés par des outils vertueux qui ne reposent pas sur des modèles toxiques.

Il ne s'agit pas de priver les jeunes des réseaux sociaux mais de leur proposer des plateformes adaptées. Il faut agir sur les contenus, mais aussi sur le temps d'écran. Ce sont deux problématiques distinctes.

Le temps d'écran fait l'objet d'une proposition de loi que j'ai déposée. Elle implique la communauté éducative dans son ensemble et renvoie à une coresponsabilité qui doit faire l'objet d'un débat collectif. Il faut établir une charte entre les différents acteurs pour permettre aux parents d'exercer leur autorité sur ces questions, en lien avec l'école.

Un travail de fond s'impose au niveau national. Il repose sur l'action concertée de trois ministres. Je les ai interrogés hier sur la nécessité d'un plan d'action cohérent, structuré depuis la petite enfance jusqu'à l'adolescence. Chacun agit dans son périmètre, mais quel sera le plan d'ensemble où chacun retrousse ses manches et prend ses responsabilités, y compris les élus qui décident des équipements fournis aux établissements scolaires ? Pourquoi tel outil est-il acheté ? Comment sera-t-il utilisé ? Combien de temps les enfants passeront-ils devant un écran en salle de classe ? C'est un tout cohérent qu'il faut construire.

Examen de l'article unique

Article unique

Mme Brigitte Devésa, rapporteure. - L'amendement COM-2 rectifié vise à prévoir un ajout de visa, au vu des textes récents adoptés en matière de protection des mineurs en ligne.

L'amendement COM-3 rectifié vise à encourager l'action de la Commission européenne et des États membres, en matière de prévention afin de garantir la santé mentale et le bien-être de nos enfants.

L'amendement COM-4 a pour objet de compléter l'alinéa 23 de la proposition de résolution européenne pour demander l'application ferme du DSA.

L'amendement COM-5 rectifié vise à réitérer notre demande à la Commission européenne de conclure ses enquêtes dans les plus brefs délais.

L'amendement COM-6 rectifié a pour objet de rappeler l'impératif fondamental de protection de l'enfance qui justifie notre action nationale visant à empêcher l'accès des mineurs aux sites pornographiques, tant que les dispositifs européens sont inopérants.

L'amendement COM-7 rectifié vise à saluer le niveau d'ambition du projet des lignes directrices présentées par la Commission européenne, et à demander l'extension des dispositifs de vérification d'âge aux réseaux sociaux et la mise en place de mesures protectrices concernant le contenu publié par ces plateformes.

L'amendement COM-8 a pour objet de reprendre une disposition de la résolution du Sénat n° 106 du 18 avril 2025 sur la souveraineté numérique européenne, visant à la création de plateformes éthiques et souveraines.

L'amendement COM-9 vise à afficher notre soutien à l'action du Gouvernement dans les négociations à Bruxelles, sur l'application du DSA.

Les amendements identiques COM-1 et COM-10 visent à préciser l'alinéa 30 pour rappeler que la responsabilité première du contrôle revient aux plateformes.

L'amendement COM-11 vise à rappeler les limites du dispositif de contrôle parental, qui ne peut suffire, seul, à protéger les mineurs en ligne.

L'amendement COM-12 vise à préciser l'alinéa 31 en proposant l'établissement d'une majorité numérique au niveau européen ou national.

Mme Catherine Morin-Desailly, auteure de la proposition de résolution. - L'amendement COM-8 reprend une disposition issue de la résolution du Sénat n° 106 du 18 avril 2025. Fallait-il insister une nouvelle fois sur la nécessité de créer des outils éthiques souverains ? La pédagogie de la répétition à du bon, mais je tenais à préciser que cette proposition venait d'un travail préalable que j'ai effectué avec Florence Blatrix Contat.

Les amendements COM-2 rectifié, COM-3 rectifié, COM-4, COM-5 rectifié, COM-6 rectifié, COM-7 rectifié, COM-8, COM-9, les amendements identiques COM-1 et COM-10, et les amendements COM-11 et COM-12 sont adoptés.

L'article unique constituant l'ensemble de la proposition de résolution européenne est adopté dans la rédaction issue des travaux de la commission, ainsi que l'avis politique qui en reprend les termes et qui sera adressé à la Commission européenne.

PROPOSITION DE RÉSOLUTION EUROPÉENNE SUR LA PROTECTION DES MINEURS EN LIGNE

Le Sénat,

L

Vu l'article 88-4 de la Constitution,

M

Vu le traité sur le fonctionnement de l'Union européenne (TFUE), et notamment ses articles 16, 114, 168 et 169,

N

Vu la charte des droits fondamentaux de l'Union européenne du 7 décembre 2000, et notamment son article 24,

O

Vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), dit « RGPD »,

P

Vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 11 mai 2022, intitulé « Une décennie numérique pour les enfants et les jeunes : la nouvelle stratégie européenne pour un internet mieux adapté aux enfants », COM (2022) 212 final,

Q

Vu le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques),

R

Vu le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques),

S

Vu la procédure formelle ouverte par la Commission européenne le 19 février 2024 à l'encontre de Tik Tok au titre du règlement sur les services numériques,

T

Vu la procédure formelle ouverte par la Commission européenne le 16 mai 2024 à l'encontre de Meta au titre du règlement sur les services numériques en ce qui concerne la protection des mineurs sur Facebook et Instagram,

1a

Vu les orientations politiques pour la Commission européenne pour 2024-2029,

1b

Vu la procédure formelle ouverte par la Commission européenne le 27 mai 2025 contre Pornhub, Stripchat, XNXX, et XVideos pour des manquements présumés aux obligations découlant du règlement sur les services numériques,

1c

Vu le projet de lignes directrices de la Commission européenne sur les mesures visant à garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs en ligne publié le 13 mai 2025, conformément à l'article 28, paragraphe 4, du règlement (UE) n° 2022/2065,

1d

Vu le projet de rapport de la commission du marché intérieur et de la protection des consommateurs du Parlement européen sur la protection des mineurs en ligne (2025/2060(INI), du 15 mai 2025,

1e

Vu les conclusions du Conseil sur la promotion et la protection de la santé mentale des enfants et des adolescents à l'ère numérique, adoptées le 20 juin 2025,

1f

Vu la résolution européenne du Sénat n° 70 (2021-2022) du 14 janvier 2022 sur la proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numérique (Législation sur les services numériques - Digital Services Act - DSA) et modifiant la directive 2000/31/CE, COM (2020) 825 final,

1g

Vu la résolution européenne du Sénat n° 77 (2022-2023) du 20 mars 2023 sur la proposition de règlement du Parlement européen et du Conseil établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants, COM (2022) 209 final,

1h

Vu la résolution européenne du Sénat n° 106 (2024-2025) du 18 avril 2025 visant à l'application stricte du cadre réglementaire numérique de l'Union européenne et appelant au renforcement des conditions d'une réelle souveraineté numérique européenne,

1i

Vu le rapport d'information du Sénat n° 607 (2017-2018) du 27 juin 2018, « Prendre en main notre destin numérique : l'urgence de la formation », de Mme Catherine Morin-Desailly, fait au nom de la commission de la culture, de l'éducation et de la communication,

1j

Vu le rapport d'information du Sénat n° 274 (2021-2022) du 8 décembre 2021, fait au nom de la commission des affaires européennes, sur la proposition de législation européenne sur les services numériques (DSA), « Amplifier la législation européenne sur les services numériques (DSA) pour sécuriser l'environnement en ligne », de Mmes Florence Blatrix Contat et Catherine Morin-Desailly,

2a

Vu le rapport d'information du Sénat n° 900 (2021-2022) du 27 septembre 2022, fait au nom de la délégation aux droits des femmes et à l'égalité des chances entre les hommes et les femmes, « Porno : l'enfer du décor » de Mmes Annick Billon, Alexandra Borchio Fontimp, Laurence Cohen et Laurence Rossignol,

2b

Vu le rapport d'information du Sénat n° 831 (2022-2023) du 4 juillet 2023, fait au nom de la commission d'enquête sur l'utilisation du réseau social TikTok, son exploitation des données, sa stratégie d'influence, « La tactique Tiktok : opacité, addiction et ombres chinoises », de M. Claude Malhuret,

2c

Vu les préconisations du rapport de la commission d'experts sur l'impact de l'exposition des jeunes aux écrans, « Enfants et écrans. À la recherche du temps perdu » remis le 30 avril 2024 au Président de la République,

2d

Vu la proposition de loi n° 744 (2024-2025) de Mme Catherine Morin-Desailly, déposée au Sénat le 17 juin 2025, visant à protéger les jeunes de l'exposition excessive et précoce aux écrans,

2e

Considérant que les mineurs ont un accès de plus en plus précoce aux outils numériques, aux réseaux sociaux et aux plateformes en ligne ;

2f

Considérant que le modèle économique des réseaux sociaux et des plateformes en ligne repose sur des designs et des systèmes algorithmiques de recommandations addictifs, poussant les mineurs et les adultes à consommer toujours plus de contenus sur ceux-ci ;

2g

Considérant que les mineurs peuvent être exposés sur les réseaux sociaux et les plateformes en ligne à des contenus inadaptés à leur âge, illicites, haineux ou inappropriés ;

2h

Considérant que leur exposition à ces contenus affecte leur rapport à eux-mêmes et aux autres, à leur corps, à la sexualité, et augmente les risques d'addiction, de cyberharcèlement, d'escroquerie ou de « pédopiégeage » ;

2i

Considérant que les connaissances scientifiques démontrent les effets négatifs des réseaux sociaux et des plateformes numériques sur la santé physique et mentale des mineurs ;

2j

Rappelle que, conformément à l'article 24 de la charte des droits fondamentaux de l'Union européenne, « les enfants ont droit à la protection » et que « l'intérêt supérieur de l'enfant doit être une considération primordiale » ;

3a

Demande le lancement de l'enquête, à l'échelle de l'Union européenne, concernant l'incidence des réseaux sociaux et du temps d'écran excessif sur la santé mentale et le bien-être, notamment des plus jeunes, prévu dans les lettres de mission de la présidente de la Commission européenne au commissaire pour l'équité intergénérationnelle, la jeunesse, la culture et le sport, et au commissaire pour la santé et le bien-être animal ;

3b

Encourage l'action de la Commission européenne, qui a vocation à soutenir celle des États membres, en matière de prévention et de formation à destination de l'ensemble de la société, et notamment des enfants, des parents, des enseignants, et de tous ceux intervenant auprès des enfants, sur l'usage du numérique, ses opportunités et ses dangers, et notamment sur le modèle économique des plateformes ;

3c

Encourage, à l'échelon national, des politiques publiques préventives visant à un usage raisonné et progressif des écrans et du numérique en fonction de l'âge des enfants, en protégeant notamment les jeunes enfants de moins de 6 ans de l'exposition aux écrans, notamment dans les lieux d'accueil, et en développant des lieux et des temps « déconnectés » et sans écrans ;

3d

Encourage le travail de coordination de la Commission européenne entre les États membres visant à l'échange de bonnes pratiques au sein de l'Union européenne ;

3e

Réitère son appel à une grande vigilance dans l'application du règlement sur les services numériques (DSA) afin que la santé mentale et le bien-être des enfants - qui en sont des axes forts - soient bien pris en compte ;

3f

Prend acte de la mise en oeuvre effective des dispositions du DSA interdisant la publicité ciblée sur les plateformes en ligne visant les mineurs, préconisée de longue date par le Sénat, et demande l'application ferme et effective du DSA, dans son ensemble, permettant de garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité pour les mineurs en ligne ;

3g

Salue les enquêtes ouvertes par la Commission européenne visant les réseaux TikTok, Meta, Snapchat et Youtube pour évaluer l'efficacité de leurs mesures de protection des mineurs ;

3h

Salue l'enquête ouverte par la Commission européenne visant Pornhub, Stripchat, XNXX, et XVideos pour évaluer les risques pour la protection des mineurs, notamment ceux liés à l'absence de mesures efficaces de vérification de l'âge ;

3i

Réitère sa demande à la Commission européenne de conclure ses enquêtes précitées dans les plus brefs délais - regrettant qu'elles ne soient soumises à aucun délai contrairement au règlement sur les marchés numériques (DMA) - et de prendre les mesures coercitives nécessaires à l'encontre de ces plateformes, y compris l'imposition d'amendes, conformément aux recommandations du rapport d'information du Sénat n° 274 (2021-2022) précité de Mmes Florence Blatrix Contat et Catherine Morin-Desailly, fait au nom de la commission des affaires européennes ;

3j

Rappelle l'engagement constant du législateur français à protéger les mineurs en ligne avec l'adoption, d'une part, de la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne et, d'autre part, sous l'impulsion des associations de protection de l'enfance et du Sénat, de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique (SREN), obligeant les plateformes en ligne fournissant des contenus pornographiques à instaurer un système de vérification de l'âge de leurs utilisateurs et les exposant, s'ils ne respectent pas cette obligation, à des mesures de blocage ou de déréférencement ;

4a

Considère que l'intérêt supérieur de l'enfant, exigence fondamentale prévue à l'article 24 de la charte des droits fondamentaux de l'Union européenne, l'article 8 de la convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales et l'article 3 de la convention internationale des droits de l'enfant, justifie une action de la France visant à empêcher l'accès des mineurs aux sites pornographiques, y compris ceux établis dans un autre État membre de l'Union européenne - du moins temporairement, tant qu'un dispositif de vérification de l'âge robuste n'a pas été pas mis en place au niveau de l'Union européenne - d'autant que cet impératif de protection des mineurs, tout comme ceux de préservation de l'ordre public et de santé publique, peuvent justifier une dérogation à la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur, prévue à son article 3, et mise en oeuvre par l'article 2 de la loi SREN ;

4b

Considère que l'intérêt supérieur de l'enfant doit être une « considération primordiale » dans les politiques de l'Union européenne ;

4c

Souligne avec gravité que la Commission européenne, lors de la présentation de la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants, COM(2022) 209 final, avait souligné l'urgence de l'adoption de cette réforme ; constate néanmoins que les négociations de ce projet semblent bloquées depuis plusieurs mois ; demande donc solennellement l'adoption de cette réforme importante en veillant à l'équilibre adéquat entre l'impératif de protection des mineurs et la préservation des enjeux de chiffrement, conformément aux préconisations de la résolution européenne du Sénat n° 77 (2022-2023) du 20 mars 2023 précitée ;

4d

Prend note de la consultation publique lancée le 13 mai 2025 par la Commission européenne sur un projet de lignes directrices pour la protection des mineurs en ligne dans le cadre du règlement sur les services numériques ;

4e

Salue le niveau d'ambition de ces lignes directrices qui fixent un cadre concret et exigeant à l'égard des plateformes mais appelle à aller plus loin sur les dispositifs de vérification d'âge qui doivent être explicitement étendus aux réseaux sociaux, et non aux seules plateformes à haut risque et celles interdites aux moins de 18 ans, dont les services pornographiques et de jeux d'argent ;

4f

Demande également que figurent dans ces lignes directrices des dispositions veillant à réguler le contenu des plateformes, telles que la configuration des comptes des mineurs par défaut - avec des mesures de protection comme la désactivation de la possibilité, pour des adultes inconnus, de contacter des mineurs, ou la désactivation par défaut de la fonction de lecture automatique des vidéos - ou telles que des systèmes de recommandation transparents et protecteurs des enfants par défaut, avec par exemple la désactivation par défaut de l'utilisation des signaux implicites basés sur l'engagement ;

4g

Appelle la Commission européenne à adopter rapidement ces lignes directrices et à veiller à leur application prompte et concrète par les plateformes, qui doivent être tenues, sur le plan juridique et éthique, responsables de leur contenu et de la vérification des âges des utilisateurs ;

4h

Souhaite l'établissement au niveau européen de normes en matière d'éthique et de respect des droits fondamentaux, qui devraient être respectées lors de l'élaboration des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité ciblée utilisés par les fournisseurs de service intermédiaires, selon un principe de legacy et safety by design ;

4i

Appelle à la création de plateformes éthiques et souveraines pour constituer une alternative aux réseaux sociaux (plateformes nationales ou transnationales de réseaux sociaux, de messagerie ou d'intelligence artificielle conversationnelle) fondée sur un modèle économique différent de celui des plateformes, rappelant que l'impact des dérives constatées dans le fonctionnement des réseaux sociaux et des plateformes sur les démocraties européennes et sur la santé mentale de leurs utilisateurs, en particulier des jeunes, résulte de l'absence d'alternative à leur modèle basé sur la publicité et la collecte massive de données personnelles ;

4j

Salue et soutient la démarche du gouvernement français, auprès des autres États membres et de la Commission européenne, visant à une harmonisation européenne des contrôles de vérification d'âge et l'imposition d'une majorité numérique ;

5a

Rappelle que la responsabilité première de la vérification de l'âge de leurs utilisateurs revient aux plateformes, qui ne peuvent s'en défausser sur les autres acteurs, et demande en complément la mise en place de solutions de vérification de l'âge et de logiciels de contrôle parental obligatoires pour tous les acteurs opérant sur le marché européen (fabricants d'appareils, systèmes d'exploitation, magasins d'applications, plateformes) de façon à établir une réponse combinée en matière de protection des mineurs en ligne ;

5b

Considère que ces outils de vérification de l'âge et de contrôle parental sont complémentaires, le contrôle parental ne pouvant suffire à exonérer les plateformes de leur responsabilité, quant au contenu qu'elles diffusent et quant à la vérification d'âge des utilisateurs, qu'elles doivent assumer en mettant en oeuvre des dispositifs empêchant les mineurs d'avoir accès à des contenus illicites et/ou inappropriés ; estime nécessaire, s'agissant du contrôle parental, d'encourager le développement de solutions de protection des mineurs éthiques, interopérables, donc non liées aux grandes plateformes du numérique ;

5c

Demande l'instauration, au niveau européen ou, à défaut, au niveau de chaque État membre, d'une majorité numérique, âge en-dessous duquel les mineurs ne pourront pas accéder aux réseaux sociaux et, plus largement, aux plateformes dont le contenu leur est préjudiciable, par la mise en oeuvre obligatoire de dispositifs de vérification d'âge par les plateformes elles-mêmes ;

5d

Invite le Gouvernement à faire valoir cette position dans les négociations au Conseil.

5e

LA RÉSOLUTION EN CONSTRUCTION

Pour naviguer dans les rédactions successives du texte, le tableau synoptique de la résolution en construction est disponible sur le site du Sénat à l'adresse suivante : https://www.senat.fr/tableau-historique/ppr24-719.html

LISTE DES PERSONNES ENTENDUES

Commission d'experts sur l'impact de l'exposition des jeunes aux écrans

· Mme Servane Mouton, neurologue, co-présidente de la commission d'experts sur l'impact de l'exposition des jeunes aux écrans ;

· M. Grégory Veret, fondateur de la société Xooloo, spécialisée dans la protection des enfants sur Internet, membre de la commission d'experts sur l'impact de l'exposition des jeunes aux écrans ;

· Mme Célia Zolynski, professeure de droit privé à l'Université Paris 1 Panthéon-Sorbonne, membre de la commission d'experts sur l'impact de l'exposition des jeunes aux écrans.

Association E-enfance

· Mme Justine Atlan, directrice générale ;

· Mme Inès Legendre, chargée de plaidoyer.

Autorité de régulation de la communication audiovisuelle et numérique (Arcom)

· M. Alban de Nervaux, directeur général ;

· M. Jérémy Bonan, directeur adjoint des plateformes en ligne.

Commission européenne

· M. Prabhat Agarwal, chef d'unité « Règlementation et Supervision des Plateformes en ligne - Services numériques » au sein de la direction générale des réseaux de communication, du contenu et des technologies.


* 1 Rapport de la commission d'experts sur l'impact de l'exposition des jeunes aux écrans, « Enfants et écrans. À la recherche du temps perdu » remis le 30 avril 2024 au Président de la République.

* 2 Enquête de l'association Génération Numérique de 2021.

* 3 Commission d'enquête sur l'utilisation du réseau social TikTok, son exploitation des données, sa stratégie d'influence - MM. Mickaël Vallet, président, et Claude Malhuret, rapporteur - « La tactique TikTok : opacité, addiction et ombres chinoises » - Rapport n° 831 (2022-2023), tome I, déposé le 4 juillet 2023.

* 4 Génération numérique, Enquête sur les contenus choquants accessibles aux mineurs, février 2023.

* 5 Article 24 de la charte des droits fondamentaux de l'Union européenne, article 8 de la convention européenne de sauvegarde des droits de l'homme et des libertés fondamentale et article 3 de la convention internationale des droits de l'enfant.

* 6 L'article 8 du RGPD prévoit que chaque État membre peut fixer l'âge de son choix entre 13 et 16 ans.

* 7Les « très grandes plateformes » sont celles ayant 45 millions d'utilisateurs par mois.

* 8 La notion de visiteur unique (VU) est utilisée dans le calcul de la fréquentation d'un site Internet.

Le visiteur unique représente un seul internaute se rendant sur le site web intéressé, une ou plusieurs fois pendant une période donnée.

* 9 Rapport d'information du Sénat n° 274 (2021-2022) du 8 décembre 2021, fait au nom de la commission des affaires européennes, sur la proposition de législation européenne sur les services numériques (DSA) « Amplifier la législation européenne sur les services numériques (DSA), pour sécuriser l'environnement en ligne » de Mmes Florence Blatrix Contat et Catherine Morin-Desailly. Résolution européenne du Sénat n° 106 (2024-2025) du 18 avril 2025 visant à l'application stricte du cadre réglementaire numérique de l'Union européenne et appelant au renforcement des conditions d'une réelle souveraineté numérique européenne.

* 10 L'article 28 prévoit l'obligation pour les plateformes accessibles aux mineurs de prendre toutes mesures utiles pour garantir le plus haut niveau de protection de la vie privée, de la sécurité et de la sûreté des mineurs.

* 11 Rapport de la commission d'experts sur l'impact de l'exposition des jeunes aux écrans, « Enfants et écrans. À la recherche du temps perdu » remis le 30 avril 2024 au Président de la République, page 97.

* 12 COM(2022) 209 final.

* 13 Résolution européenne du Sénat n° 77 (2022-2023) du 20 mars 2023 sur la proposition de règlement du Parlement européen et du Conseil établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants, COM (2022) 209 final.

Les thèmes associés à ce dossier

Partager cette page