EXAMEN DES ARTICLES

Article 1er
Interdiction des réseaux sociaux pour les mineurs de 15 ans

Cet article tend à interdire aux mineurs de 15 ans l'accès à l'ensemble des réseaux sociaux.

Sur proposition de la rapporteure, la commission a réécrit cet article distinguant deux catégories de réseaux sociaux : ceux qui seraient interdits aux mineurs de 15 ans, en raison des risques particuliers pour « l'épanouissement physique, mental ou moral » des enfants et des adolescents - la liste de ceux-ci étant définie par arrêté après avis de l'Arcom -, et les autres pour lequel l'accès serait permis avant 15 ans sous réserve d'un accord parental.

I. - La situation actuelle

Le Règlement sur les services numériques (RSN) prévoit des dispositions en vue de protéger spécifiquement les mineurs sur les plateformes en ligne. Il ne prévoit toutefois aucune « majorité numérique » pour l'accès des mineurs à ces plateformes et contient seulement des obligations générales de moyen pour l'accès à ces plateformes et la protection des mineurs.

Au titre des obligations pesant sur ces plateformes, l'article 28 du RSN, en combinaison avec son considérant 71 prévoient ainsi notamment que « [l]es fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs ». L'article 28 du RSN n'impose pas la mise en oeuvre d'un dispositif de contrôle de l'âge pour l'inscription sur une plateforme en ligne.

En outre, le RSN empêche la France de réguler les plateformes établies dans d'autres États européens en vertu du principe du pays d'origine, tandis que les « très grandes plateformes », celles que visent en priorité cette proposition de loi tout comme la proposition de loi visant à protéger les jeunes des risques liés à l'exposition aux écrans et des méfaits des réseaux sociaux et à les accompagner vers un usage raisonné du numérique, adoptée à l'unanimité au Sénat en décembre dernier, relèvent de toutes façons du seul contrôle de la Commission européenne en vertu du RSN.

C'est ainsi que la loi dite « Marcangeli » du 7 juillet 2023, qui faisait obligation aux plateformes de refuser l'inscription des mineurs de 15 ans en mettant en oeuvre une solution technique de vérification de l'âge validée par l'Arcom et de suspendre les comptes déjà créés par ceux-ci, n'a pas été appliquée, à la suite d'un avis circonstancié de la Commission européenne soulignant sa contrariété avec le RSN.

Toutefois, le 14 juillet 2025, la Commission européenne a dévoilé ses lignes directrices pour l'application du RSN, tenant compte de l'appel de la France de vouloir mettre en oeuvre une restriction d'accès aux réseaux sociaux pour les moins de 15 ans. Il y est indiqué que le recours à un dispositif de vérification de l'âge est approprié « lorsque [...] le droit national [...] prescrit un âge minimum pour accéder [...] à une plateforme en ligne, y compris des catégories spécifiquement définies de services de médias sociaux en ligne ».

Ainsi, elle semblait ouvrir la possibilité pour chaque État membre de fixer un âge minimal d'accès aux réseaux sociaux.

Dès lors, l'article 1er de la présente proposition de loi, dans sa version initiale, reprend pour l'essentiel le dispositif de la loi Marcangeli en faisait obligation aux plateformes de refuser l'inscription des mineurs de 15 ans. Elle prévoyait aussi par cohérence l'obligation pour les plateformes de mettre en oeuvre des dispositifs afin de contrôler l'âge de leurs utilisateurs conformes à un référentiel fixé par l'Arcom.

Le même article prévoit initialement l'instauration d'un « couvre-feu numérique » pour les mineurs entre 15 et 18 ans, en imposant aux fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France de désactiver de manière automatique l'accès aux comptes des mineurs entre 22 heures et 8 heures.

L'avis du Conseil d'État

Sur le fondement de l'article 39, alinéa 5, de la Constitution, la présidente de l'Assemblée nationale a soumis pour avis la proposition de loi au Conseil d'État. Celui-ci a estimé que, malgré les lignes directrices de la Commission européenne précitées, il n'était pas possible d'imposer de nouvelles contraintes aux plateformes numériques au niveau national (en l'occurrence, l'obligation de contrôler l'âge et de suspendre les comptes de mineurs). Le texte était donc contraire au droit européen.

Le Conseil d'État a en revanche interprété ces lignes directrices comme autorisant les États membres à prendre une mesure d'interdiction des réseaux aux mineurs, dès lors que cette interdiction vise les mineurs eux-mêmes et non les plateformes, et que la Commission européenne reste seule compétente pour obliger les plateformes à faire le nécessaire pour concrétiser cette interdiction.

La Commission européenne a fait connaître son accord avec cette interprétation le 27 janvier 2026.

Le Conseil rappelle par ailleurs dans son avis que « la liberté d'accès aux services de la société de l'information et de s'y exprimer est une composante du droit à la libre communication des idées que l'article 11 de la Déclaration des droits de l'homme et du citoyen de 1789 garantit comme « un des droits les plus précieux de l'homme » (Cons. const., décision n° 2020-801 DC, 18 juin 2020, Loi visant à lutter contre les contenus haineux sur internet)

Le Conseil d'État a également observé que « en raison de l'ampleur des définitions, l'interdiction générale et absolue d'accès des mineurs de moins de quinze ans aux réseaux sociaux en ligne est susceptible de s'appliquer aussi bien à des réseaux dont les effets préjudiciables ont été analysés et documentés (TikTok, X, Facebook, Reddit, sont notamment mentionnés par les différents rapports précités) qu'à des services en ligne pour lesquels, à raison de leur contenu ou de leur mode de fonctionnement, il n'est justifié d'aucun risque sur la santé et la sécurité des mineurs, tels par exemple que des services collaboratifs de partage de contenus de loisir, d'information et d'entraide, des services de co-construction de projets numériques en source ouverte, des applications de communication en ligne, lorsque celles-ci autorisent toute personne à accéder à des contenus, à en publier et à échanger sur des fils d'échanges accessibles sans modération préalable, des jeux en ligne proposant des espaces ou des fonctionnalités collaboratives et sociales marquées ou encore des réseaux sociaux qui, sans revêtir par eux même une dimension éducative, seraient créés en lien avec des activités éducatives ou sociales (réseaux sociaux propres à des établissements d'enseignements, à des associations, etc) ».

Le Conseil souligne en outre que : « le dispositif envisagé exclut toute appréciation particulière tenant compte de l'âge et du degré de maturité de l'enfant, ainsi que toute responsabilité des titulaires de l'autorité parentale et toute possibilité pour ces derniers d'exercer leur droit de guider l'enfant dans l'exercice de ses droits fondamentaux et de l'associer aux décisions qui le concernent, en contradiction avec les principes qui, en application des articles 371 et suivants du code civil, définissent l'exercice de l'autorité parentale ».

Pour répondre à ces deux objections à la rédaction initiale, le Conseil d'État a proposé un dispositif à deux « étages », consistant :

- à établir par décret en Conseil d'État pris après avis de l'Arcom une liste de services de réseaux sociaux en ligne qui constituent un danger pour l'épanouissement physique, mental ou moral des mineurs de 15 ans ;

- à prévoir une interdiction de l'accès à l'ensemble des autres services de réseaux sociaux des mineurs de quinze ans, sauf s'ils justifient d'une autorisation préalable expresse de l'un au moins des titulaires de l'autorité parentale.

Désignée rapporteure, Mme Miller a déposé un amendement reprenant l'ensemble du dispositif proposé par le Conseil d'État. La proposition de loi ainsi modifiée a été adoptée par la commission des affaires culturelles de l'Assemblée nationale en première lecture.

L'article 1er de la proposition de loi précise ainsi désormais que « l'accès à un service de réseaux sociaux en ligne fourni par une plateforme en ligne est interdit aux mineurs de quinze ans ».

Selon la rapporteure de l'Assemblée nationale, sont ainsi visés les « principaux services de réseaux sociaux en ligne largement utilisés par les adolescents ». Toutefois, le dispositif ne se limiterait pas à ces seules plateformes : il viserait également « les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu'ils permettent la création de comptes, l'interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d'utilisateurs. Peuvent ainsi être concernés des services lorsqu'ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l'exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d'interactions ».

Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d'entrée en vigueur de la loi et exclut du champ d'application les encyclopédies et répertoires en ligne éducatifs à but non lucratif.

Par ailleurs, l'article 1er précise que si l'Arcom doit veiller au respect du dispositif dans les conditions du RSN, elle « signale tout soupçon de manquement à l'interdiction prévue au présent article commis par des plateformes en ligne fournissant un service de réseau social en ligne établies dans d'autres États membres de l'Union européenne aux autorités compétentes pour faire respecter le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 précité. ». En d'autres termes, pour les grandes plateformes, établies dans d'autres pays européens, seule la Commission européenne sera compétente pour vérifier l'application de la loi et infliger des sanctions4(*).

Par ailleurs, il ne paraît pas certain qu'en cas de contentieux, la CJUE valide l'interprétation du RSN par la Commission européenne, qui revient à la possibilité de faire respecter un âge minimal d'accès aux plateformes, alors même que cela ne figure pas dans le RSN.

L'article premier issu de la commission prévoit également, conformément à l'avis du conseil d'État, que les réseaux sociaux interdits aux mineurs de 15 ans en raison d'un danger pour l'épanouissement physique, mental ou moral de ces mineurs seront désignés par décret, et que les autres réseaux sociaux resteront accessibles aux mineurs de 15 ans s'ils ont l'accord d'au moins l'un des titulaires de l'autorité parentale.

La réécriture de l'article par un amendement de séance

Cet article a toutefois été à nouveau réécrit par un amendement identique de Mme Miller et du Gouvernement adopté en séance, afin de rendre l'interdiction générale et absolue pour les mineurs de 15 ans, sans liste des réseaux interdits établie par décret ni possibilité d'autorisation parentale.

La question de l'interdiction du traitement des données personnelles
des mineurs de 15 ans

Le RGPD5(*) (règlement européen) et la loi française définissent les règles du jeu pour le traitement des données personnelles. En France, le seuil de la "majorité numérique" est fixé à 15 ans. En théorie, pour tout traitement de données basé sur le consentement, un mineur de 15 ans doit obtenir l'autorisation de ses parents pour que l'opération soit licite.

Toutefois, selon la jurisprudence de la Commission nationale de l'informatique et des libertés (CNIL), l'accès aux réseaux sociaux ne repose pas sur le consentement, mais sur la nécessité contractuelle (le fait d'accepter les conditions générales d'utilisation). Le droit civil français permet aux mineurs de réaliser seuls des "actes de la vie courante" s'ils ont la maturité nécessaire. La CNIL estime qu'à partir de 15 ans, un adolescent est assez mûr pour contracter seul avec un réseau social. En dessous, sans l'accord des parents, l'accès devrait techniquement être interdit.

Dans la pratique, cette interdiction est totalement contournée, notamment parce ce que les plateformes invoquent l'exception d' « usage légitime » des données nécessaires pour fournir un service. Pour rendre les règles plus efficaces, la CNIL prévoit donc d'abandonner le seuil fixe de 15 ans au profit d'une logique de risque. L'accès serait facilité pour les plateformes jugées sécurisées (considérées comme un acte courant plus précoce), mais pourrait être restreint jusqu'à 18 ans pour les réseaux sociaux les plus dangereux. Ceci rendrait d'autant plus nécessaire une nouvelle disposition législative prévoyant l'accord parental pour les mineurs de 15 ans, comme le prévoit l'amendement adopté à l'article premier par la commission (cf. ci-dessous).

Ainsi, en renonçant à ce dispositif à deux étages et en visant l'ensemble des réseaux sociaux, la proposition de loi ne fait plus droit aux objections du Conseil d'État relatives au champ jugé trop large de l'interdiction et à l'exclusion des parents du dispositif.

Compétences respectives de la commission et des États membres

- La compétence exclusive de la Commission (obligations systémiques)

La Commission européenne est seule compétente pour superviser et faire respecter les obligations spécifiques aux « très grandes plateformes » (VLOPs) figurant dans la section 5 du chapitre III du DSA. Il s'agit des obligations dites « systémiques » : l'analyse et l'atténuation des risques (risques pour la santé mentale des mineurs, par exemple) ; les mécanismes d'audit indépendant ; la transparence des algorithmes de recommandation ; l'accès aux données pour les chercheurs.

Sur ces points, les autorités nationales n'ont pas de pouvoir de sanction direct contre une plateforme comme TikTok, Meta ou X.

- La compétence partagée (obligations générales)

Pour les autres obligations du DSA (celles qui s'appliquent à tous les hébergeurs ou plateformes, quelle que soit leur taille), la compétence est partagée. Le Coordinateur des services numériques (DSC) du pays d'établissement (souvent l'Irlande) reste l'autorité compétente de premier niveau pour les questions de contenus illicites ou de modération. La Commission peut décider, pour les VLOPs, de se saisir d'une affaire même sur ces obligations générales, ce qui dessaisit alors l'autorité nationale.

Enfin, à la suite de l'adoption, en séance publique, d'un sous-amendement de Mme Ayda Hadizadeh (Socialistes et apparentés) à l'amendement du Gouvernement et de la rapporteure, le présent article prévoit que « les fournisseurs de services de réseaux sociaux garantissent que les mineurs ne sont pas exposés à une pression commerciale excessive. La promotion de produits ou services susceptibles d'altérer la santé physique ou mentale des mineurs est proscrite sur les interfaces de réseaux sociaux spécifiquement destinées aux mineurs ».

Selon les auteurs de l'amendement COM-4, cette disposition vise « notamment certains produits ou services, régimes extrêmes, compléments alimentaires non encadrés, contenus liés au dopage, jeux d'argent déguisés, paris sportifs, produits de vapotage, etc., qui peuvent avoir des effets particulièrement délétères sur la santé physique ou mentale des mineurs, en favorisant troubles du comportement, anxiété, addictions ou mise en danger ».

Une telle disposition ne présente pas une clarté suffisante s'agissant notamment de la notion de « pression commerciale ». En outre, elle est en partie redondante avec les dispositions de l'article 3 bis A. La commission a donc adopté un amendement de sa rapporteure supprimant cet article.

III. - La position de la commission

Tout d'abord, dans sa rédaction actuelle, il existe un risque que l'article premier ne puisse pas, contrairement à l'intention exprimée par la rapporteure et par le Gouvernement à l'Assemblée nationale, concerner des plateformes qui auraient des fonctionnalités de réseaux sociaux, mais que les règles européennes placent habituellement dans une autre catégorie6(*).

La commission a donc introduit par l'amendement de sa rapporteure à l'article premier une mention des « fonctionnalités d'un service de réseaux sociaux » afin de ne pas réserver d'emblée l'application du texte aux seuls « services de réseaux sociaux » ayant cette nature à titre principal et entrant strictement dans le champ l'article 2 du règlement DMA (Digital Markets Act).

Inversement, comme l'a souligné le Conseil d'État dans son avis, la définition retenue par la proposition de loi transmise au Sénat est susceptible de concerner tous les outils de collaboration en ligne à visée ou usage éducatif, dont plusieurs sont par exemple utilisés dans l'enseignement ou dans le milieu associatif, et ce, même lorsqu'ils ne présentent aucun danger pour les enfants et les adolescents.

Dès lors, pour répondre au risque d'inconstitutionnalité, soulevé par le Conseil d'État, au regard de la proportionnalité entre la protection des enfants et des adolescents et l'atteinte à leur liberté de communication et de participation à la société de l'information, la commission a réintroduit, en lien avec l'interdiction, une notion de dangerosité pour la santé en évoquant les réseaux sociaux susceptibles de « nuire à l'épanouissement physique, mental ou moral » des enfants et des adolescents.

Par ailleurs, compte tenu de la définition large des « réseaux sociaux », de l'intégration de caractéristiques de réseaux sociaux au sein de plateformes ayant à titre principal une autre finalité et de l'absence de précision des quelques exemptions prévues, ni le public, ni les entreprises concernées ne pourront savoir quels sont les plateformes que les pouvoirs publics considèrent comme interdites aux mineurs de 15 ans, ce qui ne paraît pas satisfaisant. En l'absence d'une mention dans un texte d'application, le périmètre des plateformes concernées ne pourra sans doute être établi qu'en justice, au fil des recours des plateformes contre les décisions qui les viseront, ce qui pourrait prendre plusieurs années.

Enfin, l'exclusion totale des parents du dispositif, outre la difficulté juridique relevée par le Conseil d'État s'agissant du respect de l'exercice de l'autorité parentale, ne paraît pas satisfaisante. Si l'argument selon lequel la situation socio-économique des familles joue un rôle important dans la capacité des parents à contrôler les usages numériques de leurs enfants doit être entendu, il ne doit pas conduire à renoncer à préserver la possibilité d'un dialogue entre eux sur ces usages, au risque d'abandonner totalement ce terrain aux plateformes. Plusieurs personnes auditionnées par la rapporteure (notamment M. Serge Tisseron, psychiatre et Mme Anne Cordier, professeure des universités en sciences de l'information et de la communication) ont ainsi souligné que ce dialogue, ainsi que la notion d'un accès progressif au numérique, discuté avec les parents, était une meilleure garantie de protection des enfants et des adolescents qu'une interdiction totale et soudaine à un âge donné7(*).

Pour tenir compte de l'ensemble de ces éléments, la commission a adopté un amendement COM-4 de réécriture de l'article premier, en prévoyant deux catégories de plateformes de réseaux sociaux :

1- les plateformes numériques de réseaux sociaux présentant un risque particulier, et donc susceptibles de « nuire à l'épanouissement physique, mental ou moral » des enfants et des adolescents, justifiant qu'elles soient purement et simplement interdites aux mineurs de 15 ans. La liste de ces plateformes sera fixée par un arrêté du ministre chargé du numérique, pris après avis de l'Arcom. Cette liste pourra ainsi être révisée si de nouvelles plateformes apparaissent qui présentent de tels risques, ou si inversement, certaines entreprises, peut-être soucieuses de ne plus être stigmatisées par une telle désignation, auront enfin pris les mesures nécessaires pour protéger les enfants et les adolescents.

Un tel dispositif permettra ainsi de garder la souplesse nécessaire en permettant une mise à jour régulière des éléments visés par la loi. Au demeurant, l'Arcom, qui serait chargée de l'établissement de cette liste, est déjà chargée actuellement de missions similaires : établissement de la liste des sites portant atteinte de manière grave et répétée au droit d'auteur, de la liste des signaleurs de confiance, de la liste des plateformes à audience significative, etc. En particulier, l'Arcom indique, s'agissant de la première catégorie, que « cette liste permet d'informer les utilisateurs et d'inciter les intermédiaires (...) à ne plus collaborer avec les services identifiés ». De manière similaire, la liste permettrait, dans le cadre de la présente loi, d'informer les utilisateurs, parents, enfants et adolescents, ainsi que les plateformes concernées, de leur interdiction aux mineurs de 15 ans ;

2- les autres plateformes de réseaux sociaux, qui ne figureront pas dans l'arrêté, seront accessibles aux mineurs de 15 ans pourvu qu'ils aient l'accord de leurs parents, ceux-ci pouvant, le cas échéant, fixer une durée maximale d'utilisation et des plages horaires, au bénéfice, notamment, de la durée de sommeil de leur enfant.

Le mise en oeuvre de l'ensemble de l'article, que ce soit dans sa version issue de l'Assemblée nationale ou dans celle adoptée par la commission, reste, en tout état de cause, subordonnée à la mise en place de solutions de vérification de l'âge robustes et respectueuses des règles relatives à la protection des données personnelles.

Les systèmes de vérification de l'âge

Les lignes directrices adoptées en application de l'article 28 du RSN sont neutres technologiquement et n'imposent pas aux réseaux sociaux concernés une solution de vérification de l'âge en particulier : il reviendra donc aux réseaux sociaux concernés de choisir les solutions de vérification de l'âge adaptées à leur service, sous réserve de respecter les exigences découlant des grands principes prévus dans les lignes directrices.

L'application de la proposition de loi dépendra donc aussi de la capacité des plateformes en ligne à la mettre en oeuvre, qui dépend de la disponibilité d'une solution fiable sur le marché (et en particulier de sa compatibilité avec les solutions en cours de développement au niveau européen) et, en fonction de cette disponibilité, du délai qui leur serait accordé pour se mettre en conformité. Déterminer si un utilisateur a plus de 15 ans semble plus compliqué techniquement que de déterminer s'il est majeur, comme cela a pu être mis en place pour l'interdiction d'accès aux sites pornographiques. Aujourd'hui, il existerait toutefois une quinzaine d'opérateurs offrant des solutions privées recensés par la Direction générale des entreprises (DGE) mais dont le degré de fiabilité et la conformité aux lignes directrices prévues par l'article 28 du RSN, sont variables. Par ailleurs, Google et Apple développent également des solutions techniques permettant de stocker une preuve d'âge dans leurs portefeuilles propriétaires qui pourront permettre une transmission gratuite de la preuve d'âge.

Concernant les solutions publiques, France Titres développe une solution souveraine et non-exclusive de génération de preuve d'âge, France Identité Numérique (FIN). L'application de génération de preuve d'âge est en cours de production et pourra possiblement être disponible fin mars 2026. Elle a vocation à être compatible avec les solutions de portefeuille d'identité européen (European Digital Identity Wallet - euDI wallet) et pourra être intégrée à des portefeuilles numériques proposés par d'autres prestataires.

Il n'est toutefois à ce jour pas certain que cette mesure s'inscrive dans le cadre du mini wallet alors qu'il s'agit d'un facteur important d'adhésion de la mesure par les plateformes en ligne. Dans la mesure où FIN est pour l'instant réservée aux majeurs et au vu du moindre déploiement des cartes nationales d'identité (CNI) et cartes nationales d'identité électroniques (CNIe) auprès des mineurs, France Titres explore une autre voie : celle du développement d'une solution fondée sur ÉduConnect pour les moins de 18 ans (« 15 Connect »). Toutefois, Éduconnect ne couvre pas tous les mineurs, notamment les élèves déscolarisés, ou encore les élèves inscrits dans un établissement ayant refusé d'utiliser Éduconnect. Éduconnect et France Identité expérimentent une autre solution en parallèle : le développement de « carte lycéen » qui pourrait être intégrée dans le portefeuille de France Identité.

Le recours à une solution exclusivement publique nécessiterait que la population - tant des moins de quinze ans que des plus de quinze ans souhaitant accéder à ces services - bénéficie à l'entrée en vigueur de la loi en septembre 2026 d'une identité numérique.

En outre, il sera nécessaire de s'assurer que la mise en place d'un contrôle de l'âge ne se traduise pas une vérification de l'identité des utilisateurs.

La commission a adopté l'article premier ainsi rédigé.

Article 1er bis
Qualification de certains hébergeurs comme éditeurs

Cet article confère aux plateformes numériques, actuellement « hébergeurs » au sens de la loi du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN), le statut d' « éditeurs » au sens de cette même loi, dès lors qu'elles mettent en oeuvre des algorithmes poussant certains contenus vers les mineurs.

Sur proposition de la rapporteure, la commission a supprimé cet article en raison de la non-conformité du dispositif au droit européen.

I. - La situation actuelle

Le droit français, via la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN), repose sur une distinction binaire héritée de la directive européenne « Commerce électronique » de 2000 :

- d'un côté l'éditeur, notion issue de la directive SMA, ou bien au sein du DSA celui qui a un rôle actif par rapport aux contenus : Il détermine le contenu de son service et en exerce le contrôle éditorial. Il est responsable de plein droit des contenus publiés ;

- l'hébergeur (l'article 3 du DSA) : Il assure seulement le stockage technique. Sa responsabilité est atténuée : il n'est responsable d'un contenu illicite que s'il en a eu une « connaissance effective » et n'a pas agi promptement pour le retirer.

Le règlement (UE) 2022/2065 (DSA), directement applicable, a maintenu ce régime de responsabilité limitée pour les prestataires de services intermédiaires, dont les réseaux sociaux font partie. Toutefois, la jurisprudence de la Cour de justice de l'Union européenne (CJUE), notamment les arrêts Google France et L'Oréal v. eBay, précise que pour bénéficier de l'exemption de responsabilité, le prestataire doit rester « neutre », son comportement devant être purement technique, automatique et passif. Si le prestataire joue un « rôle actif » de nature à lui conférer une connaissance ou un contrôle sur les données stockées, il perd ainsi le bénéfice du régime d'hébergeur.

II. - Le dispositif proposé par l'article : la présomption de la qualité d'éditeur

L'article proposé vise à créer une nouvelle catégorie de responsabilité spécifique pour les fournisseurs de réseaux sociaux au sein de la LCEN, en fonction de deux critères :

- l'utilisation de « systèmes de recommandation » qui suggèrent ou hiérarchisent l'information par un classement fondé sur le profilage (données personnelles, habitudes de navigation), de sorte qu'ils « mettent en avant » certains contenus : il s'agit de la mise en oeuvre d'un algorithme ;

- le dispositif est circonscrit aux contenus poussés vers des comptes de mineurs.

Le texte dispose alors que le fournisseur est « réputé exercer une activité d'édition ». Cela entraîne un basculement de la responsabilité limitée (hébergeur) vers une responsabilité de plein droit (éditeur).

Le paragraphe III précise que l'affichage strictement chronologique fondé sur les seuls abonnements ne déclenche pas cette qualification d'éditeur, le législateur considérant ici que le prestataire reste un simple vecteur passif.

Le paragraphe II prévoit par ailleurs une responsabilité de l'éditeur sans préjudice de celle de l'auteur. Cette disposition crée un régime de responsabilité solidaire facilitant l'indemnisation des victimes puisque le fournisseur de service, souvent plus identifiable que l'auteur parfois anonyme, pourra être poursuivi directement. Enfin, la définition de la « mise en avant » (III) est particulièrement large, afin d'empêcher les stratégies de contournement technique.

Le Sénat a certes exprimé à plusieurs reprises8(*) la nécessité d'imposer à certains hébergeurs les responsabilités des éditeurs, ou du moins de créer une « troisième voie » ou de reconnaître une responsabilité éditoriale partielle liée aux algorithmes.

Cependant, en l'état, le présent article entrerait nécessairement en conflit avec le droit européen.

En effet, l'article 6 du DSA protège les hébergeurs contre une responsabilité automatique pour les contenus tiers, tant qu'ils n'ont pas de connaissance effective du caractère illicite. En « réputant » le réseau social éditeur du seul fait de l'algorithme de recommandation, le droit national pourrait être perçu comme ajoutant une condition non prévue par le droit européen.

La question est de savoir si la recommandation algorithmique profilée pour les mineurs constitue un « rôle actif » au sens de la jurisprudence européenne. Les auteurs de l'amendement estiment que l'algorithme n'est pas un simple outil technique, mais une manifestation de la volonté éditoriale du réseau social.

Jusqu'à présent cependant, la simple hiérarchisation algorithmique n'a pas été jugée par la CJUE comme suffisant à caractériser ce rôle actif. Dans l'arrêt YouTube/Cyando (2021), la Cour a ainsi précisé que le fait pour une plateforme de mettre en oeuvre des index de recherche, proposer des classements de contenus ou même de suggérer des vidéos en fonction des préférences des utilisateurs ne suffit pas, en soi, à conclure à un « rôle actif ». La Cour considère que ces outils sont destinés à faciliter l'accès au service et sont gérés de manière automatisée sans que la plateforme n'ait une connaissance précise du contenu de chaque vidéo.

En tout état de cause, les dispositions du présent article relèvent clairement du champ du RSN et présentent donc un très fort risque d'inconventionnalité.

La commission a, en conséquence, adopté un amendement COM-5 de suppression du présent article.

La commission a supprimé l'article 1er bis.

Article 2 (suppression maintenue)
Renforcement du quantum des peines relatives au bannissement numérique et élargissement de la définition des contenus ne pouvant être diffusés

Cet article tend à modifier l'article 131-35-1 du code pénal pour doubler le quantum des peines relatives au bannissement numérique et inclut parmi les contenus ne pouvant être diffusés ceux faisant la publicité ou la propagande en faveur des moyens de se donner la mort.

Cet article a été supprimé en séance à l'Assemblée nationale, du fait de l'absence de recul sur l'effectivité de ces peines et la nécessité de les alourdir.

Partageant la position des députés, la commission a maintenu la suppression de cet article.

I. - La situation actuelle

En vertu du I de l'article 131-35-1 du code pénal résultant de l'article 16 de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique, (Sren), le tribunal peut ordonner à titre de peine complémentaire la suspension des comptes d'accès à des services en ligne ayant été utilisés pour commettre certains délits, dont celui de provocation au suicide mentionné à l'article 223-13 du code pénal. Cette peine complémentaire de bannissement numérique interdit l'utilisation par la personne condamnée des comptes d'accès aux services en ligne ayant fait l'objet de la suspension pour une durée maximale de six mois. Elle lui interdit également de créer de nouveaux comptes d'accès à ces mêmes services pour la même durée. La suspension est portée à un an en cas de récidive. La décision de condamnation est signifiée aux fournisseurs de services concernés, qui sont tenus de procéder au blocage des comptes.

II. - Les dispositions de la proposition de loi

L'article 2 de la proposition de loi double le quantum de la peine complémentaire de bannissement numérique (un an, portée à deux ans en cas de récidive). Il double également le quantum de la peine applicable aux fournisseurs de services ne procédant pas à la suspension des comptes : elle s'élèverait désormais à 150 000 euros.

En outre, le 3° du I de l'article 2 intègre la propagande ou la publicité, quel qu'en soit le mode, en faveur de produits, d'objets ou de méthodes préconisés comme moyens de se donner la mort à la liste des délits pour lesquels la peine complémentaire de bannissement numérique peut être ordonnée.

La commission des affaires culturelles de l'Assemblée nationale a adopté un amendement de suppression du présent article, présenté par la rapporteure. Selon celle-ci, la saisine du Conseil d'État a en effet fait ressortir le caractère récent des dispositions modifiées par l'article 2, qui sont issues de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique (Sren), tandis que le ministère de la justice a pour sa part souligné le manque de recul de l'administration sur la peine complémentaire dite de « bannissement numérique ». Il faut également noter que le Sénat avait considérablement élargi le champ de la peine complémentaire de bannissement numérique lors de l'examen de la loi SREN, se satisfaisant en revanche du quantum des peines prévues, qu'il ne semble donc pas opportun de remettre en cause après moins de deux ans de mise en oeuvre.

La commission a donc maintenu la suppression du présent article.

La commission a maintenu la suppression de l'article 2.

Article 3 (suppression maintenue)
Encadrement de la publicité en faveur des réseaux sociaux et message de prévention sur les emballages

Cet article tend à rendre obligatoire, pour les messages publicitaires en faveur de services de réseaux sociaux, le fait de comporter une information à caractère sanitaire, sous peine d'amende. Il prévoit également la présence obligatoire, sous peine d'amende, sur les emballages des smartphones et des terminaux connectés à internet, d'un message de prévention déconseillant l'utilisation de ces produits aux mineurs de treize ans.

Cet article a été supprimé en séance à l'Assemblée nationale. La commission a maintenu cette suppression.

Une disposition similaire a été adoptée le 18 décembre 2025 par le Sénat au sein de la proposition de loi visant à protéger les jeunes des risques liés à l'exposition aux écrans et des méfaits des réseaux sociaux, et à les accompagner vers un usage raisonné du numérique.

Afin de recentrer la présente proposition de loi sur l'interdiction d'accès aux réseaux sociaux et l'interdiction du portable au lycée, la commission des affaires culturelles de l'Assemblée nationale a adopté un amendement de sa rapporteure supprimant le présent article.

La commission a maintenu la suppression de cet article, confiant dans la possibilité de faire adopter les dispositions similaires figurant au sein de la proposition de loi relative aux risques liés à l'exposition aux écrans et méfaits des réseaux sociaux adoptée par le Sénat en décembre 2025.

La commission a maintenu la suppression de l'article 3.

Article 3 bis A
Interdiction de la publicité en faveur des réseaux sociaux destinée aux mineurs

Cet article interdit la publicité en faveur des services de réseaux sociaux en ligne lorsqu'elle est destinée spécifiquement aux mineurs, y compris lorsqu'elle est réalisée par des influenceurs ou dans le cadre de partenariats commerciaux.

La commission a adopté cet article sans modification.

I. - Le droit en vigueur

À ce jour, le droit français ne prévoit pas d'interdiction générale de publicité pour des services numériques. Par ailleurs, l'encadrement de la publicité destinée aux mineurs repose sur la protection générale du consommateur (le code de la consommation interdit les pratiques commerciales trompeuses ou agressives exploitant la crédulité des mineurs) et l'encadrement des produits « à risque » : le code de la santé publique restreint ou interdit la publicité pour certains produits (alcool, tabac, produits alimentaires trop gras/sucrés/salés sans message sanitaire).

En outre, la loi n° 2023-459 du 9 juin 2023 visant à encadrer l'influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux interdit déjà aux influenceurs la promotion de certains services (chirurgie esthétique, certains produits financiers, nicotine). Cependant, la promotion des réseaux sociaux eux-mêmes reste légale, sous réserve du respect de règles de transparence.

II. - Le dispositif proposé

L'article proposé vise à insérer une interdiction stricte au sein du livre Ier du code de la santé publique, traitant de la protection de la santé des enfants et des adolescents. Elle frapperait la publicité « directe ou indirecte ». Cela inclut non seulement les spots traditionnels, mais aussi le placement de produit ou l'auto-promotion. L'interdiction ne serait pas absolue mais ciblée sur la publicité « destinée spécifiquement aux mineurs ». Le texte mentionne explicitement les influenceurs et les partenariats commerciaux, afin de viser plus spécifiquement la promotion « organique » détournée.

Cette nouvelle interdiction s'appuie sur le fait que l'usage des réseaux sociaux peut constituer une menace pour la santé physique (sédentarité) ou mentale (anxiété, troubles du sommeil, addiction, etc.) des mineurs. La notion de « publicité destinée aux mineurs » ne pourra sans doute être appréciée qu'à partir d'un faisceau d'indices pour déterminer si la cible était spécifiquement mineure.

Par ailleurs, une interdiction totale de publicité, étant une atteinte à la liberté de communication et à la liberté d'entreprendre, doit, pour ne pas risquer d'être déclarée constitutionnelle, être justifiée par un objectif de valeur constitutionnelle (la protection de la santé) et proportionnée au but recherché. Les règles sur les messages publicitaires étant des « spécifications techniques », la France sera tenue de les notifier à la Commission européenne en application de la directive 2015/1535, sous peine d'inapplicabilité.

La commission a approuvé les objectifs de cet article, consciente toutefois que son application restera tributaire de l'accord de la Commission européenne.

La commission a adopté cet article sans modification.

Article 3 bis BA
Extension de l'interdiction de la publicité visant les enfants de moins de 14 ans à l'ensemble des équipements dotés d'un écran

Cet article étend à l'ensemble des équipements dotés d'un écran l'interdiction de la publicité pour les téléphones mobiles visant les enfants de moins de 14 ans.

L'article L. 5231-3 du code de la santé publique prévoit que « toute publicité quel qu'en soit le moyen ou le support, ayant pour but direct de promouvoir la vente, la mise à disposition, l'utilisation ou l'usage d'un téléphone mobile par des enfants de moins de quatorze ans est interdite ».

Sur proposition de Mme Mathilde Ollivier (écologiste, solidarité et territoires), la commission a adopté un amendement COM-6 étendant cette interdiction à tous les équipements dotés d'un écran : ordinateur, tablette, montre connectée, téléviseur ou produits assimilés.

Cette disposition avait été adoptée par le Sénat en décembre dernier lors de l'examen de la proposition de loi visant à protéger les jeunes des risques liés à l'exposition aux écrans et des méfaits des réseaux sociaux, et à les accompagner vers un usage raisonné du numérique.

Article 3 bis B
Marquage sanitaire sur les publicités en faveur des réseaux sociaux

Cet article crée une obligation de « marquage » sanitaire pour la promotion des réseaux sociaux et des plateformes en ligne par les influenceurs.

I. - Le droit en vigueur

La loi n° 2023-451 du 9 juin 2023 a instauré un cadre pour l'influence commerciale. Son article 5 actuel dresse une liste d'interdictions (chirurgie esthétique, certains produits financiers, produits de nicotine) et d'obligations d'affichage. En l'état, le droit impose déjà deux types de mentions : l'indication « Publicité » ou « Collaboration commerciale » doit apparaître de manière claire et lisible durant toute la promotion ; en outre il existe des mentions sanitaires sectorielles. Ainsi, pour les boissons avec ajouts de sucres ou les produits alimentaires manufacturés, les influenceurs doivent relayer les messages de type « Pour votre santé, mangez au moins cinq fruits et légumes par jour » (Art. L. 2133-1 du code de la santé publique).

II. - Le dispositif proposé

Le présent paragraphe V crée une obligation de « marquage » sanitaire pour la promotion des réseaux sociaux et des plateformes en ligne par les influenceurs. Il impose la mention : « produits dangereux pour les moins de quinze ans », et vise tous les types de « plateformes en ligne ». La mention doit être visible « durant l'intégralité de la promotion ».

Le texte ne précise pas les sanctions en cas de manquement. Par défaut, les sanctions de l'article 9 de la loi du 9 juin 2023 s'appliqueraient (jusqu'à 2 ans d'emprisonnement et 300 000 euros d'amende).

De même que pour l'article précédent (3 bis A), les dispositions de cet articles devront être notifiées à la Commission européenne.

La commission a adopté cet article sans modification.

Article 3 bis (suppression maintenue)
Protection contre la surexposition des enfants de moins de 3 ans aux écrans

Cet article impose aux personnes en charge de l'accueil d'enfants de moins de trois ans d'assurer la protection de leur développement en évitant toute exposition aux écrans.

Cet article, introduit lors de l'examen du texte en commission des affaires culturelles a été supprimé en séance l'Assemblée nationale. La commission a maintenu sa suppression.

Introduit lors de l'examen en commission des affaires culturelles par un amendement de Mme Lisa Belluco (écologiste et social), cet article ajoute une obligation supplémentaire pour les personnes en charge de l'accueil d'enfants de moins de trois ans : assurer la protection de leur développement en évitant toute exposition aux écrans.

Cet article a été supprimé lors de l'examen du texte en séance, les députés estimant que la rédaction actuelle de l'article L. 214-1-1 du code de l'action sociale et des familles satisfait déjà l'objectif poursuivi par l'auteure de cette disposition.

La commission a maintenu la suppression de cet article. Elle appelle à ne pas oublier la formation et l'accompagnement des professionnels de la petite enfance aux dangers de l'exposition non-raisonnée aux écrans. De telles mesures sont prévues par la proposition de loi visant à protéger les jeunes des risques liés à l'exposition aux écrans et des méfaits des réseaux sociaux et à les accompagner vers un usage raisonné du numérique adoptée unanimement par le Sénat le 18 décembre dernier.

La commission a maintenu la suppression de l'article 3 bis.

Article 4 (suppression maintenue)
Renforcement de l'éducation au numérique

Cet article inclut dans la formation au numérique des élèves une sensibilisation aux enjeux de protection de la santé mentale liés à l'usage des outils numériques et notamment l'utilisation des réseaux sociaux.

Cet article a été supprimé lors de l'examen du texte en commission des affaires culturelles à l'Assemblée nationale. La commission a maintenu sa suppression.

L'article L. 312-9 du code de l'éducation prévoit une formation des élèves à l'utilisation des outils et des ressources numériques. Elle inclut notamment une formation à l'utilisation responsable des outils et ressources numériques, une éducation aux droits et devoirs liés à l'usage de l'internet et des réseaux, une sensibilisation à l'interdiction du cyberharcèlement ainsi qu'à l'impact environnemental des outils numériques.

L'article 4 de la proposition de loi complète cette formation par une sensibilisation aux enjeux de protection de la santé mentale liées à l'usage des outils numériques et notamment l'utilisation des réseaux sociaux.

Lors de l'examen du texte en commission des affaires culturelles à l'Assemblée nationale, cet article a été supprimé à la suite de l'avis du Conseil d'État soulignant que la sensibilisation aux risques de l'utilisation excessive des outils numériques et l'acquisition d'un comportement responsable dans leur utilisation prévues à l'article L. 312-9 du code de l'éducation « sont déjà susceptibles de recouvrir les enjeux de santé mentale ».

La commission a maintenu cette suppression. Elle rappelle par ailleurs qu'il ne revient pas au législateur de définir le contenu des programmes scolaires.

La commission a maintenu la suppression de l'article 4.

Article 4 bis (suppression maintenue)
Renforcement des obligations en matière de prévention et sensibilisation pour les représentants légaux, les fournisseurs de service de réseaux sociaux ainsi que d'équipement de communications électroniques connectés par internet

Cet article crée de nouvelles obligations de sensibilisation et de prévention aux risques liés à l'exposition aux écrans et à la lutte contre la diffusion de contenus haineux en ligne pour les représentants légaux, ainsi que les fournisseurs de service de réseaux sociaux et ceux d'équipement de communications électroniques connectés par internet.

Cet article a été supprimé en séance à l'Assemblée nationale en raison de sa non-conformité au droit européen. La commission a maintenu sa suppression.

Cet article, introduit par amendement en commission des affaires culturelles de l'Assemblée nationale par M. Erwan Balanant (Modem), crée de nouvelles obligations pour les représentants légaux ainsi que pour les fournisseurs de service de réseaux sociaux et les fournisseurs d'équipement de communications électroniques connectés par internet en matière d'information des mineurs sur les droits et devoirs liés à l'usage des outils numériques ainsi que de prévention et de sensibilisation aux risques liés à l'exposition aux écrans. Par ailleurs, ils doivent lutter contre la diffusion de contenus haineux en ligne.

Lors de l'examen du texte en séance, cet article a été supprimé, les députés estimant que le fait de créer de nouvelles obligations aux fournisseurs de service de réseaux sociaux et d'équipement de communications électroniques connectés par internet était de nature à contrevenir au droit européen.

La commission a maintenu cette suppression.

La commission a maintenu la suppression de l'article 4 bis.

Article 5 (suppression maintenue)
Demande de rapport au Gouvernement sur la mise en oeuvre du RSN (règlement sur les services numériques)

Cet article prévoit la remise par le Gouvernement d'un rapport au Parlement trois ans après la publication de cette proposition de loi sur le respect par les réseaux sociaux de leurs obligations prévues par le règlement sur les services numériques et les persistances de risques éventuels pour les mineurs dans l'utilisation de ces réseaux.

Cet article a été supprimé lors de l'examen du texte en commission des affaires culturelles à l'Assemblée nationale, les députés estimant suffisantes les informations à disposition et les travaux en cours sur ce sujet. La commission a maintenu sa suppression.

Cet article prévoit la remise par le Gouvernement, trois ans après l'entrée en vigueur de la proposition de loi, d'un rapport sur le respect par les réseaux sociaux de leurs obligations prévues par le règlement sur les services numériques, ainsi que les persistances de risques éventuels pour les mineurs dans l'utilisation de ces réseaux.

Lors de l'examen de cet article en commission à l'Assemblée nationale, les députés ont voté sa suppression, estimant que plusieurs acteurs travaillent régulièrement sur les risques pour les mineurs que représentent les réseaux sociaux. Le rapport de l'Assemblée nationale évoque notamment les travaux de l'autorité de régulation de la communication audiovisuelle et numérique, la commission nationale de l'informatique et des libertés ou encore de l'Agence nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail.

L'ensemble de ces acteurs ont d'ailleurs été auditionnés par la rapporteure dans le cadre de l'examen de ce texte, tout comme de nombreux experts.

La commission a maintenu la suppression de cet article.

La commission a maintenu la suppression de l'article 5.

Article 6
Modalités d'utilisation des appareils connectés dans les lycées

Cet article impose aux règlements intérieurs des lycées de préciser les lieux et conditions d'utilisation des appareils connectés et d'interdire ceux-ci dans les cours et couloirs ainsi que dans une partie de la cour en l'absence de dispositions spécifiques dans les règlements intérieurs.

Tout en constatant la nécessité de modifier la rédaction de cet article, la commission ne l'a pas modifié à ce stade mais poursuit ses réflexions pour le dépôt d'un amendement en séance.

I. - La situation actuelle

Introduit par la loi n° 2018-689 du 3 août 2018 relative à l'encadrement du téléphone portable dans les établissements d'enseignement scolaire, l'article L. 511-5 du code de l'éducation interdit l'utilisation d'un téléphone mobile ou de tout appareil connecté dans l'enceinte des écoles et des collèges. Cette interdiction couvre également les activités liées à l'enseignement qui se déroulent en dehors de l'enceinte de l'établissement, comme par exemple les sorties scolaires ou encore les cours d'enseignement physique et sportifs qui se déroulent dans un équipement sportif à proximité de celui-ci. Des exceptions à cette interdiction sont toutefois possibles :

- lorsqu'elles sont prévues par le règlement intérieur, notamment pour des usages pédagogiques ou dans certains lieux ;

- pour les élèves présentant un handicap ou un trouble de santé invalidant et faisant l'objet et dont ces équipements sont autorisés.

L'interdiction n'est pas applicable dans les lycées. Le règlement intérieur d'un de ces établissements peut toutefois la prévoir.

Enfin, l'article L. 511-5 du code de l'éducation précise que le non-respect de cette interdiction peut entraîner la confiscation de l'appareil. Celle-ci tout comme les modalités de restitution doivent être prévues par le règlement intérieur.

II. - Le dispositif initial de la proposition de loi

Le texte initial de la proposition de loi aligne le régime applicable au lycée sur celui des écoles et collèges en posant le principe d'une interdiction d'utilisation, sauf cas expressément prévus par le règlement intérieur ou pour les élèves en situation de handicap ou présentant un trouble de santé invalidant et pour lesquels l'appareil connecté constitue un outil pédagogique nécessaire à leur scolarité.

III. - Les modifications apportées à l'Assemblée nationale

Lors de l'examen du texte en séance, l'Assemblée nationale a adopté un amendement de Mme Béatrice Piron (Horizons) et de plusieurs de ces collègues réécrivant globalement cet article.

Cet amendement rend obligatoires dans les règlements intérieurs des lycées des dispositions relatives à l'utilisation des appareils connectés.

À défaut, l'article détermine un cadre d'interdiction : interdiction en classe, sauf demande explicite de l'enseignant, dans les couloirs ainsi que dans la cour - à l'exception d'une zone délimitée dans laquelle ces appareils pourront être utilisés.

IV. - La position de la commission

En premier abord, la rapporteure rappelle que le Sénat a débattu de l'opportunité d'interdire le téléphone portable et les produits assimilés en décembre dernier. Par ailleurs, l'utilisation des appareils connectés peut déjà être encadrée, voire limitée dans les lycées. Selon les informations transmises par Édouard Geffray, ministre de l'éducation nationale, un tiers des lycées ont intégré dans le règlement intérieur des mesures visant à interdire totalement ou partiellement leur utilisation. Par ailleurs, la question de la régulation du numérique a été abordée dans plus de la moitié des conseils de la vie lycéenne ou comités d'éducation à la santé, à la citoyenneté et à l'éducation.

Il ressort des auditions que le téléphone portable et les autres appareils connectés sont devenus des piliers de la vie scolaire et pédagogique au lycée : convocation par la vie scolaire par SMS, devoirs et notes diffusés par application numérique, manuels scolaires numériques ou encore consultation de Parcoursup.

Si la rapporteure comprend les demandes d'un appui législatif pour mieux réguler l'usage des téléphones et produits assimilés au sein des établissements scolaires et plus largement par les mineurs, elle s'interroge sur l'effectivité du dispositif voté en séance à l'Assemblée nationale. À défaut de mentions spécifiques dans le règlement intérieur, ces appareils seraient certes interdits dans les salles de classes les couloirs ainsi que dans la cour sauf dans un espace délimité. Toutefois, ils seraient autorisés dans tous les autres lieux du lycée non cités par le texte, par exemple les toilettes, la cantine, le centre de documentation et d'information ou le préau.

Plusieurs personnes auditionnées ont également alerté sur le risque de créer des attroupements devant le lycée aux différentes interclasses, les élèves sortant du lycée pour pouvoir consulter leurs téléphones.

La rapporteure rappelle également la nécessité de tenir compte de l'âge des lycéens dont certains sont majeurs et de les accompagner dans leur apprentissage progressif d'un numérique raisonné.

Enfin, le principe d'une interdiction généralisée du portable, sous réserve de dérogation, interroge au regard de la liberté de communication pour les étudiants présents dans le lycée (classes préparatoires ou BTS) ainsi que pour les élèves internes : se pose la question pour un élève interne du droit à communiquer avec sa famille en l'absence de toute mesure spécifique le prévoyant dans le règlement intérieur.

En commission, la rapporteure a déposé un amendement COM-1 de réécriture globale de l'article 6, reprenant l'article 5 de la proposition de loi visant à protéger les jeunes des risques liés à l'exposition aux écrans et des méfaits des réseaux sociaux, et à les accompagner vers un usage raisonné du numérique, déposée par la rapporteure en juin dernier et adoptée à l'unanimité au Sénat le 18 décembre dernier.

Cet amendement privilégie l'obligation pour les règlements intérieurs de prévoir des modalités de non-utilisation des téléphones portables et équipement assimilés dans l'établissement. Cette disposition, préférée au principe d'une interdiction assortie de dérogations (dans tous les espaces autres que la classe, les couloirs, une partie de la cour), permet d'imposer le débat sur la place des appareils connectés lors de la discussion du règlement intérieur.

Par ailleurs, cet amendement prévoit que chaque projet d'école et d'établissement comporte un volet numérique, incluant notamment une sensibilisation aux effets nocifs du caractère additif des réseaux sociaux.

L'ensemble de ces dispositions permettent la définition d'une vision partagée de la place du numérique au sein de l'établissement et de ses usages, partagée en conseil d'école et d'administration par l'ensemble des acteurs locaux : équipe administrative et pédagogique, représentants des parents d'élèves et des élèves, représentants des collectivités territoriales.

Toutefois, la rapporteure a fait le choix de retirer cet amendement afin de poursuivre les réflexions d'ici la séance, avec pour objectif de proposer une nouvelle rédaction consensuelle, conciliant le principe d'une interdiction et la nécessité de tenir compte des spécificités de chaque établissement ainsi que du projet d'établissement dans lequel sera notamment défini le cadre de vie numérique en collaboration avec l'ensemble de la communauté éducative.

La commission a adopté l'article 6 sans modification.

Article 7 (suppression maintenue)
Création d'un délit de négligence numérique

Cet article créé un délit pénal de négligence numérique.

Lors de l'examen en commission à l'Assemblée nationale, les députés ont supprimé cet article, constatant que la définition de la négligence grave des parents dans la protection de la santé et de la sécurité des mineurs prévue à l'article L. 227-17 du code pénal permet déjà de sanctionner des défaillances graves en cas de surexposition aux écrans ou d'un usage excessif ou inadapté mettant en danger l'enfant.

La commission a maintenu la suppression de cet article.

L'article L. 227-17 du code pénal prévoit une peine de deux ans d'emprisonnement et de 30 000 euros d'amende pour un parent qui se soustrait, sans motif légitime à ses obligations légales « au point de compromettre la santé, la sécurité, la moralité ou l'éducation de son enfant mineur ».

Dans sa version initiale, l'article 7 de la proposition de loi complète l'article 227-17 du code pénal en précisant qu'une négligence grave dans la protection de la santé ou de la sécurité de l'enfant, en raison d'un usage excessif, inadapté ou non surveillé des outils numériques par ce dernier, constitue un délit de négligence.

Dans son avis rendu le 13 janvier 2026, le Conseil d'État relève que la rédaction actuelle de l'article 227-17 du code pénal permet aux juridictions judiciaires « d'appréhender un large champ de comportements des parents entraînant effectivement un préjudice pour le mineur » et considère que l'intention de l'auteure de ce texte de créer un délit de négligence numérique est déjà satisfait par le droit existant9(*).

En conséquence, lors de l'examen du texte en commission des affaires culturelles à l'Assemblée nationale, sur proposition de l'auteure-rapporteure de ce texte, cet article a été supprimé.

La commission a maintenu cette suppression.

La commission a maintenu la suppression de l'article 7.

*

* *

La commission de la culture, de l'éducation, de la communication et du sport a adopté la proposition de loi ainsi modifiée.


* 4 Le porte-parole de la Commission européenne, Thomas Regnier, a déclaré, lors d'un point presse à Bruxelles, que « les grandes plateformes en ligne ont l'obligation de respecter la législation nationale, mais s'assurer que c'est applicable et qu'elles ont mis en place des dispositifs de vérification d'âge adéquats est une prérogative de la Commission ».

* 5 Règlement général sur la protection des données

* 6 En particulier, si Youtube possède indéniablement des fonctionnalités de réseau social telles que définies par le point 7 de l'article 2 du Règlement sur les marchés numériques (DMA), il est généralement considéré comme relevant du point 8, relatif aux plateformes de partage de vidéos en ligne.

* 7 Il convient par ailleurs de souligner que les lignes directrices de la commission sur l'application du RSN pour la protection des mineurs prévoient que « lorsqu'une inscription est requise ou proposée pour accéder à une plateforme en ligne accessible aux mineurs, la Commission estime que le fournisseur de ladite plateforme devrait (...) veiller à ce que (...) le consentement du parent ou du tuteur de l'enfant soit sollicité lorsque cela est nécessaire en vertu du droit de l'Union ou du droit d'un État membre ». (Point 56g)

* 8 Cf notamment le rapport de la commission d'enquête sur la concentration des médias en 2022 (n°593, session 2021-2022) ou celui sur TikTok en 2023 (n°831, 2022-2023), ainsi que lors des débats sur la loi SREN (Sécuriser et réguler l'espace numérique, 2024).

* 9 Dans ce même avis, le Conseil d'Etat rappelle la nécessité de définir les crimes et délits en des termes suffisamment clairs et précis en vertu du principe constitutionnel de légalité des délits et des peines. Or les notions « d'outils numériques » ainsi que le caractère « non surveillé » ne lui semble pas suffisamment précises pour répondre à cette obligation constitutionnelle.

Les thèmes associés à ce dossier

Partager cette page