Question de M. HINGRAY Jean (Vosges - UC) publiée le 19/06/2025
M. Jean Hingray interroge Mme la ministre déléguée auprès du ministre de l'économie, des finances et de la souveraineté industrielle et numérique, chargée de l'intelligence artificielle et du numérique sur le projet d'interdiction des réseaux sociaux pour les moins de 15 ans et son importance dans la lutte contre des phénomènes tels que le cyberharcèlement.
La loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, prévoit qu'un adolescent de moins de 15 ans ne peut s'inscrire sur un réseau social qu'avec le consentement de ses parents. Toutefois, cette disposition demeure inapplicable en l'absence de décrets d'application et de solutions techniques fiables permettant de vérifier l'âge réel des utilisateurs.
Parmi les principaux enjeux figure ainsi la nécessité de développer des solutions techniques adaptées. Si des outils tels que la reconnaissance faciale ou la transmission de pièces d'identité sont parfois envisagés, ils soulèvent de nombreuses inquiétudes, notamment en matière de protection des données personnelles et de faisabilité technique.
Il convient également de ne pas négliger l'usage éducatif de certaines plateformes. Des réseaux comme YouTube ou WhatsApp sont régulièrement utilisés dans un cadre scolaire ou pédagogique. Une interdiction stricte, sans nuance, pourrait alors pénaliser les enseignants et les élèves qui dépendent de ces outils pour leurs apprentissages.
En outre, la question de la responsabilité parentale et sociale demeure centrale. De nombreuses associations, telles qu'e-Enfance, insistent sur la nécessité de sensibiliser les parents et de leur fournir des outils efficaces pour encadrer les usages numériques de leurs enfants. Une interdiction légale, si elle n'est pas accompagnée d'un volet éducatif fort, risque en effet de rester inefficace.
Les réseaux sociaux jouent un rôle croissant dans la vie des jeunes, tout en les exposant à des risques importants : harcèlement en ligne, contenus inappropriés, pression sociale. En l'absence de régulation stricte, les mineurs demeurent vulnérables à ces dérives, comme en témoigne tragiquement le suicide d'un collégien de 13 ans à Golbey, dans les Vosges, illustrant les effets dévastateurs du cyberharcèlement et la responsabilité des plateformes dans la propagation des violences.
Face à ces enjeux, il souhaite connaître les mesures concrètes que le Gouvernement entend mettre en oeuvre pour assurer une régulation efficace et applicable des réseaux sociaux, en prenant en compte les impératifs techniques, éducatifs et liés à la protection des données personnelles.
- page 3437
Réponse du Ministère délégué auprès du ministre de l'économie, des finances et de la souveraineté industrielle et numérique, chargé de l'intelligence artificielle et du numérique publiée le 04/09/2025
La protection des mineurs en ligne et tout particulièrement sur les réseaux sociaux est une priorité politique du Gouvernement français depuis plus de cinq ans, compte tenu des effets néfastes de ces derniers mis en lumière par un nombre grandissant d'études, dont le rapport de la Commission Ecrans réunie par le Président de la République l'an dernier. C'est une des priorités de la Ministre déléguée à l'IA et au Numérique Clara Chappaz, notamment l'interdiction des réseaux sociaux pour les moins de 15 ans. Dès 2022, les autorités françaises se sont pleinement investies dans la négociation du règlement européen sur les services numériques (« DSA » Digital Services Act »), qui a apporté de nouvelles règles de protection de l'enfance en ligne (interdiction de la publicité ciblée sur les mineurs, obligation pour les plateformes en ligne de mettre en place des dispositifs particuliers pour protéger les mineurs des contenus les plus nocifs). L'action du Gouvernement au niveau européen se poursuit et porte aujourd'hui ses fruits sur de nouveaux vecteurs d'action issus du DSA. Dans le cadre de l'adoption des lignes directrices prévues par l'article 28 du règlement DSA relatives à la protection des mineurs, la France a mené un travail de conviction important qui a permis de rassembler de nombreux autres Etats-membres en vue d'un double objectif : la possibilité pour les Etats membres d'introduire un principe de « majorité numérique », seuil d'âge en dessous duquel l'accès à un réseau social ne sera pas permis, et au niveau européen, l'obligation pour les réseaux sociaux de disposer d'un système de vérification de l'âge de l'utilisateur. Cela a été acté le 14 Juillet 2025, ouvrant aux Etats membres européens, dont la France, la possibilité d'interdire les réseaux sociaux sous un âge limite déterminé par État-membre. A l'heure actuelle, les plateformes de réseau social ne vérifient pas de façon fiable et efficace l'âge des utilisateurs, en autorisant notamment l'auto-déclaration : ceci ouvre la voie à de nombreux contournements permettant l'inscription de mineurs n'ayant pas l'âge requis par les conditions générales d'utilisateurs. Aujourd'hui le constat est fait que les solutions techniques de vérification de l'âge, conformes à la réglementation en matière de protection des données, existent sur le marché et sont d'ailleurs d'ores et déjà déployées sur certains services. Parallèlement, la France est pleinement investie, en tant que pays pilote, dans le développement d'une solution européenne de portefeuille numérique (« EUWallet »), dont le déploiement est prévu pour 2026 et qui permettra aux utilisateurs de justifier de leur âge avant d'accéder à certains services, tout en préservant la confidentialité de leurs données personnelles. Les autorités françaises promeuvent aussi un outil de contrôle parental renforcé (permettant aux parents de définir des limites de temps d'écran ou de filtrer certains types de contenus ou de comptes) et l'encadrement des fonctionnalités addictives (défilement infini, lecture automatique des vidéos et hypernotification). La France promeut également une harmonisation de la classification des contenus interdits et des contenus qui doivent être restreints vis-à-vis des mineurs, afin que les réseaux sociaux appliquent de façon harmonisée la modération de ces catégories répertoriées de contenus toxiques et s'assurent que leur système de recommandation des contenus préserve les mineurs des contenus préjudiciables. L'action gouvernementale se déploie par ailleurs en faveur d'un rôle renforcé des « signaleurs de confiance », au nombre de sept en France, dont les signalements de contenus doivent être traités en priorité par les plateformes au titre du règlement DSA. Le Gouvernement soutient les missions des signaleurs de confiance, en s'assurant de la bonne coopération des plateformes dans le traitement de ces signalements, et les actions de sensibilisation qui sont menées par les associations auprès des parents et des mineurs, notamment dans le cadre scolaire.
- page 4811
Page mise à jour le