M. le président. Quel est l’avis du Gouvernement ?
Mme Anne Le Hénanff, ministre déléguée. Le Gouvernement émet un avis défavorable sur cet amendement pour trois raisons.
La première est d’ordre juridique, puisque la mesure proposée est contraire au principe de neutralité du net imposé par le droit européen. En outre, comme je l’ai déjà indiqué, un mineur ne peut conclure un contrat sans l’accord parental.
La deuxième raison est d’ordre opérationnel : limiter les données bloquerait l’accès à l’ensemble des applications, y compris à celles qui sont utiles, voire indispensables à ces mêmes mineurs. Je pense à des applications pédagogiques comme Pronote, ou à des applications visant à assurer la sécurité des enfants par leur géolocalisation à destination des parents.
Enfin, la troisième raison tient aux compétences : à ce stade, ni le Conseil national de la consommation (CNC) ni l’Arcom ne sont compétents sur le fond pour une telle mesure.
M. le président. L’amendement n° 33, présenté par Mme Morin-Desailly, au nom de la commission, est ainsi libellé :
Alinéa 12
Supprimer les mots :
, y compris à Wallis-et-Futuna, en Nouvelle-Calédonie et en Polynésie française
La parole est à Mme la rapporteure.
Mme Catherine Morin-Desailly, rapporteure. Il s’agit d’un amendement rédactionnel, monsieur le président.
M. le président. Quel est l’avis du Gouvernement ?
M. le président. Je mets aux voix l’article 1er, modifié.
(L’article 1er est adopté.)
Organisation des travaux
M. le président. Mes chers collègues, nous pouvons envisager de prolonger la séance jusqu’à vingt heures trente, ce qui, si chacun fait un effort de concision, nous permettrait d’achever l’examen du texte ; à défaut, nous nous retrouverions à vingt-deux heures.
Après l’article 1er
M. le président. L’amendement n° 31 rectifié quater, présenté par Mme Aeschlimann, M. Lefèvre, Mme Belrhiti, M. Burgoa, Mme Gruny, MM. Daubresse, Sol, Panunzi et Khalifé, Mme Petrus, MM. Chasseing et Fargeot, Mme Josende, MM. Saury et Michallet, Mmes Dumont, Berthet, Lassarade, Malet et Bellamy, M. Margueritte, Mmes de Cidrac et Ventalon et MM. Gremillet, Milon et Séné, est ainsi libellé :
Après l’article 1er
Insérer un article additionnel ainsi rédigé :
I. – L’article L. 34-9-3 du code des postes et des communications électroniques est complété par un paragraphe ainsi rédigé :
« …. – Les dispositifs mentionnés au I permettent notamment aux titulaires de l’autorité parentale de limiter ou d’interdire, en fonction de l’âge de l’utilisateur, l’accès des mineurs aux services de réseaux sociaux en ligne au sens de l’article 6-7 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, ainsi qu’aux autres services en ligne susceptibles de présenter des risques particuliers pour les mineurs.
« À cette fin, les fournisseurs de systèmes d’exploitation et, le cas échéant, les fabricants d’équipements terminaux mettent en œuvre, dans le cadre des dispositifs mentionnés au même I, des solutions techniques permettant de vérifier l’âge de l’utilisateur et, le cas échéant, de recueillir l’autorisation d’un titulaire de l’autorité parentale pour l’accès des mineurs de moins de quinze ans aux services de réseaux sociaux en ligne. Ces solutions sont conformes à un référentiel élaboré à cette fin par l’Autorité de régulation de la communication audiovisuelle et numérique, après avis de la Commission nationale de l’informatique et des libertés et consultation des acteurs concernés.
« La mise en œuvre des obligations prévues au présent paragraphe ne donne lieu à aucun surcoût pour l’utilisateur et respecte les principes de minimisation des données et de protection de la vie privée, notamment en interdisant toute utilisation à des fins commerciales des données collectées ou générées dans ce cadre. »
II. – Après le premier alinéa du I de l’article 6-7 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, il est inséré un alinéa ainsi rédigé :
« Pour satisfaire à l’obligation prévue au présent I et à loi n° … du … visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux, les fournisseurs de services de réseaux sociaux en ligne peuvent s’appuyer sur les dispositifs mentionnés à l’article L. 34-9-3 du code des postes et des communications électroniques. Ils mettent en œuvre tous leurs efforts pour assurer l’articulation de leurs propres mécanismes de contrôle de l’âge et de recueil de l’autorisation parentale avec ces dispositifs, afin d’empêcher l’accès à leurs services des mineurs de moins de quinze ans, sauf autorisation d’un titulaire de l’autorité parentale. »
La parole est à Mme Marie-Do Aeschlimann.
Mme Marie-Do Aeschlimann. Cet amendement vise à parachever le socle du contrôle parental au niveau de l’équipement terminal institué par la loi du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, dite loi Studer. Son objet s’inscrit donc pleinement dans les objectifs du texte que nous examinons.
Actuellement, nous faisons reposer l’essentiel du contrôle sur les plateformes elles-mêmes. Or, chacun le sait, ces dispositifs sont facilement contournables, que cela soit au moyen d’une éventuelle fausse déclaration d’âge tant que nous sommes dans l’attente d’un mécanisme de déclaration robuste et fiable, de la sollicitation d’un VPN (Virtual Private Network) ou bien d’un changement de compte utilisateur.
Nous proposons ainsi de déplacer le point de contrôle de l’âge en le positionnant en amont, au niveau du téléphone, de la tablette ou de l’ordinateur de l’utilisateur mineur, c’est-à-dire au niveau du système d’exploitation ou du fabricant.
Nous prévoyons par ailleurs que la vérification de l’âge et l’autorisation parentale soient intégrées de manière simple, sécurisée et sans surcoût.
Une telle solution correspond aux recommandations formulées par l’Arcom elle-même : dans son avis du 26 septembre 2024, elle considère que le niveau du terminal est le plus pertinent pour protéger les mineurs.
Cette solution présente trois avantages concrets.
D’abord, elle est beaucoup plus difficile à contourner, puisqu’elle agit en amont, quel que soit le service utilisé.
De plus, elle est plus protectrice de la vie privée, car elle évite de multiplier les vérifications d’âge sur chaque plateforme.
Enfin, elle redonne aux parents un rôle central en leur donnant la maîtrise effective de l’accès de leurs enfants aux réseaux sociaux.
Les plateformes, quant à elles, restent responsables, car elles conservent une obligation de moyens pour empêcher l’accès des mineurs. Il s’agit non pas de les décharger, mais de rendre l’ensemble du dispositif plus cohérent, plus simple et plus efficace.
Mes chers collègues, l’adoption de cet amendement n’enfreindrait enfin aucune disposition du DSA, conformément à l’une de nos principales préoccupations.
M. le président. Quel est l’avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. De multiples dispositifs sont aujourd’hui en lice pour assurer la vérification de l’âge et permettre d’appliquer la présente proposition de loi.
Les lignes directrices adoptées en application de l’article 28 du DSA n’imposent pas aux réseaux sociaux concernés une solution de vérification d’âge en particulier, en particulier afin de s’assurer du respect du RGPD.
Selon l’Arcom, une quinzaine d’opérateurs offriraient aujourd’hui des solutions privées. Pour ce qui est des solutions publiques, France Titres développe une solution souveraine de génération de preuves d’âge. France Identité numérique a vocation à être compatible avec les solutions de portefeuille d’identité européen – European Digital Identity Wallet, ou mini wallet que vous avez mentionné tout à l’heure, madame la ministre.
France Titres explore également une autre voie, celle du développement d’une solution pour les moins de 18 ans fondée sur leur compte ÉduConnect.
Toutefois, l’amendement tend à ce qu’il s’agisse d’une simple faculté pour les plateformes et non d’une obligation. Dans la mesure où la solution dépend en partie de l’état d’avancement du travail des administrations, la commission souhaite connaître l’avis du Gouvernement sur cet amendement.
M. le président. Quel est l’avis du Gouvernement ?
Mme Anne Le Hénanff, ministre déléguée. La position du Gouvernement est assez claire : nous voulons une double protection, qui combine à la fois un contrôle parental sur les appareils et les systèmes d’exploitation, d’ailleurs déjà prévu par la loi Studer, mais également un contrôle de l’âge des personnes sur les plateformes, prévu par l’article 28 du DSA.
Par ailleurs, quelle que soit la rédaction qui sera retenue pour ce texte, je vous informe que les plateformes et les réseaux sociaux œuvreront avec la direction générale des entreprises (DGE) et avec l’Arcom, à partir de la mi-avril, à établir ensemble les règles de vérification d’âge qu’elles devront appliquer en France après la promulgation de cette loi. C’est l’objet d’un groupe de travail que j’ai constitué à Bercy.
Le Gouvernement émet un avis défavorable sur cet amendement.
M. le président. Quel est finalement l’avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. La commission émet un avis défavorable.
M. le président. Je mets aux voix l’amendement n° 31 rectifié quater.
(L’amendement n’est pas adopté.)
M. le président. L’amendement n° 11 rectifié bis, présenté par M. Pla, Mmes Artigalas et Bonnefoy, MM. Bouad, Bourgi et Chaillou, Mme Conway-Mouret, MM. Devinaz et Fichet, Mmes G. Jourda et Matray et M. Michau, est ainsi libellé :
Après l’article 1er
Insérer un article additionnel ainsi rédigé :
L’article 226-8-1 du code pénal est ainsi modifié :
1° À la seconde phrase du premier alinéa, après le mot : « algorithmique », sont insérés les mots : « ou par l’intelligence artificielle » ;
2° Il est ajouté un alinéa ainsi rédigé :
« Lorsque l’image reproduite ou modifiée est celle d’un mineur de quinze ans captée à l’occasion d’une connexion effectuée par celui-ci, les peines prévues au premier alinéa sont portées à trois ans d’emprisonnement et 75 000 euros d’amende et celles prévues au troisième alinéa sont portées à cinq ans d’emprisonnement et 150 000 euros d’amende. »
La parole est à M. Sebastien Pla.
M. Sebastien Pla. Cet amendement vise à reconnaître comme un acte délictueux le fait de diffuser grâce à l’intelligence artificielle une représentation qui sexualise les enfants ou une photographie ou pseudo-photographie indécente d’un mineur.
Nous sommes à la croisée des chemins avec l’IA générative. Créer du contenu à grande échelle est plus facile que jamais. De la même manière que le nombre des préjudices sexuels hors ligne et en ligne contre les enfants a été accru par internet, l’utilisation abusive de l’IA générative a de profondes implications pour la sécurité des intéressés : identification des victimes, prévention et prolifération des abus. Les mauvaises utilisations et les dommages en aval qui y sont associés sont réels et justifient une action volontariste aujourd’hui.
En octobre 2023, l’Internet Watch Foundation a publié un rapport sur sa découverte de plus de 20 000 images issues de l’IA générative sur un forum du dark web. Les analystes ont déterminé qu’environ 3 000 d’entre elles relevaient du droit pénal en vigueur contre la production, la distribution et la possession d’une « photographie ou pseudo-photographie indécente d’un enfant » ou la possession d’une « image interdite d’un enfant ».
Alors que les outils d’IA générative se sont multipliés, la réglementation et la législation spécifiques sont très en retard, ce qui facilite les abus de la part de criminels cherchant à exploiter sexuellement des enfants.
M. le président. Quel est l’avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. Par cet amendement, vous proposez de reconnaître comme un acte délictueux le fait de diffuser grâce à l’intelligence artificielle une représentation qui sexualise les enfants ou une photographie ou pseudo-photographie indécente d’un mineur et de modifier le quantum de peine applicable.
Au préalable, je dois reconnaître que la commission n’a pas eu le temps d’interroger la justice sur la nécessité ou la légitimité de cette mesure. En outre, je rappelle que la loi Sren, qui a créé cette infraction, a moins de deux ans. Nous n’avons pas encore le recul nécessaire sur son application. Il serait donc plus raisonnable d’attendre une évaluation avant de revoir le quantum de peine si, en effet, une telle décision est légitime. Votre préoccupation, à savoir que la sanction soit à la juste mesure, l’est, bien entendu, mais je ne dispose pas d’éléments qui plaideraient pour un avis favorable.
La commission demande donc le retrait de cet amendement ; à défaut, l’avis sera défavorable.
M. le président. Quel est l’avis du Gouvernement ?
Mme Anne Le Hénanff, ministre déléguée. Votre amendement est déjà satisfait par le code pénal : les peines sont plus sévères pour les infractions relatives aux mineurs.
Pour votre information, la France défend auprès de la Commission, dans le cadre d’un nouveau règlement sur l’IA, une évolution très forte des règles applicables à la suite du scandale Grok. En effet, c’est à l’échelle européenne que les sanctions pourront être bien plus massives, notamment contre les plateformes.
Le Gouvernement émet un avis défavorable sur cet amendement.
M. le président. L’amendement n° 10 rectifié bis, présenté par M. Pla, Mmes Artigalas et Bonnefoy, MM. Bouad, Bourgi et Chaillou, Mme Conway-Mouret, MM. Devinaz et Fichet, Mmes G. Jourda et Matray et M. Michau, est ainsi libellé :
Après l’article 1er
Insérer un article additionnel ainsi rédigé :
Le A du IV de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique est ainsi modifié :
1° Le deuxième alinéa est complété par les mots : « , ou dont elles ont connaissance par elles-mêmes, par un signalement précis permettant d’identifier l’auteur de l’infraction » ;
2° Après le deuxième alinéa, il est inséré un alinéa ainsi rédigé :
« Les signalements comprennent les détails suivants : le message ou les discussions en cause ; des informations sur l’utilisateur ou l’abonné (nom, nom d’utilisateur, adresse électronique, numéro de téléphone, date de naissance) associées à l’infraction signalée ; les adresses IP (y compris les numéros de port) avec les dates et heures d’accès à un service, de téléversement de contenu abusif ou de communication avec un autre utilisateur ; le contenu abusif et d’autres fichiers liés à l’exploitation sexuelle des mineurs qui révèlent clairement la nature d’une infraction ou permettent de localiser ou d’identifier un auteur ou une victime. »
La parole est à M. Sebastien Pla.
M. Sebastien Pla. Dans son esprit, cet amendement vise à inverser la charge de la preuve en faisant un peu plus porter la responsabilité sur les opérateurs. Pour ce faire, il tend à encourager les plateformes en ligne à inclure des informations précises sur les utilisateurs et les enfants victimes dans les signalements transmis aux autorités.
Les principales plateformes en ligne mondiales disposent d’outils de signalement. Malheureusement, nombre d’entre eux ne contiennent pas les informations de base nécessaires pour identifier les lieux potentiels des incidents, ceux où se trouvent les enfants victimes et/ou pour permettre aux forces de l’ordre de les protéger en facilitant leurs investigations.
Je propose que les signalements soient davantage fournis. Le recueil de détails doit être bien plus précis : informations sur l’utilisateur ou l’abonné, adresses IP de provenance, contenus abusifs et autres fichiers liés à l’exploitation sexuelle des enfants, et messages ou discussions dont les contenus sont suffisants pour étayer les soupçons d’incitation en ligne.
M. le président. Quel est l’avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. La liste des données que les plateformes sont tenues de conserver afin de permettre l’identification de quiconque a contribué à la création d’un tel contenu est fixée par un décret en conseil d’État pris en vertu du V de l’article 6 de la loi pour la confiance dans l’économie numérique. La durée de leur conservation est également prévue dans ce décret. En fixant une obligation de transmission de données sans limite de temps, votre amendement ne respecte pas ce dispositif et risque ainsi d’être contraire au RGPD.
La commission émet un avis défavorable sur cet amendement.
M. le président. Quel est l’avis du Gouvernement ?
M. le président. Je mets aux voix l’amendement n° 10 rectifié bis.
(L’amendement n’est pas adopté.)
Article 1er bis
(Supprimé)
M. le président. L’amendement n° 16, présenté par Mme Corbière Naminzo, MM. Basquin, Bacchi, Ouzoulias et les membres du groupe Communiste Républicain Citoyen et Écologiste – Kanaky, est ainsi libellé :
Rétablir cet article dans la rédaction suivante :
La section 3 du chapitre II du titre Ier de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique est complétée par un article 6-8-… ainsi rédigé :
« Art. 6-8-…. – I. – Lorsqu’ils suggèrent ou hiérarchisent, au moyen d’un système de recommandation, des informations fournies par des destinataires du service, les fournisseurs de services de réseaux sociaux en ligne sont réputés exercer, pour ces informations, une activité d’édition lorsque la mise en avant est destinée à un compte identifié comme appartenant à une personne mineure, au moyen d’un classement fondé sur le profilage du destinataire du service.
« II. – Pour les informations ainsi mises en avant, la responsabilité du fournisseur peut être engagée en qualité d’éditeur, sans préjudice de la responsabilité de l’auteur de l’information et du destinataire du service l’ayant fournie.
« III. – Sont considérées comme mises en avant, au sens du présent article, les informations présentées au public autrement que par un affichage strictement chronologique reposant uniquement sur les abonnements de l’utilisateur, notamment au moyen d’un fil personnalisé, de rubriques de tendances, de suggestion de comptes ou de contenus, de lecture automatique, de notifications ou de toute fonctionnalité équivalente. »
La parole est à Mme Evelyne Corbière Naminzo.
Mme Evelyne Corbière Naminzo. Cet amendement vise à rétablir l’article 1er bis, supprimé par le Sénat lors de l’examen du texte en commission. Cette disposition permettait un tant soit peu d’équilibrer la charge de la responsabilité en matière d’utilisation des réseaux sociaux entre les parents et les plateformes.
De fait, cet article avait pour objet de considérer les plateformes numériques comme des éditeurs et non comme de simples hébergeurs de contenus. Force est de constater qu’elles influencent l’information par la recommandation de certains sujets, en les rendant viraux, et par la simple suppression d’autres. Il est évident que les plateformes sont devenues des médias sociaux.
D’ailleurs, le règlement européen DSA définit le système de recommandation comme un dispositif automatisé qui permet de suggérer et de hiérarchiser des informations. Si, effectivement, est maintenu le régime d’exemption de responsabilité de l’hébergeur sous condition, la Cour de justice de l’Union européenne a précisé que le prestataire ne peut être regardé comme un intermédiaire neutre lorsqu’il optimise et promeut des contenus.
Dès lors, il est grand temps d’inscrire dans notre droit cette jurisprudence européenne. Il faut encadrer l’orientation et la hiérarchisation des informations faites par les réseaux sociaux. Les plateformes procédant aux actes décrits plus haut doivent être considérées comme des éditeurs. C’est la qualification que nous vous demandons d’acter par cet amendement.
M. le président. Quel est l’avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. Mon avis sur cet amendement sera identique à celui que j’ai exprimé à Monique de Marco sur son amendement relatif aux algorithmes nocifs.
Nos collègues députés ont cherché à amender la proposition de loi en introduisant cette disposition. Celle-ci vise à reconnaître que les plateformes ne sont pas du tout neutres : elles ont une véritable responsabilité, qui les rend redevables. En effet, elles éditorialisent, via leurs algorithmes, une série de contenus.
Le Sénat connaît bien le sujet. Dans ses travaux, la commission des affaires européennes a déjà formulé une proposition en ce sens au cours des débats sur le DSA, au travers de résolutions européennes. En outre, Claude Malhuret et Mickaël Vallet, dans le cadre de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, ont préconisé la même chose.
Malheureusement, en l’état, nous ne pouvons intégrer cette mesure au texte. Vous avez pourtant eu raison de la rappeler : il est important de la garder à l’esprit pour que nous restions soudés sur le sujet et que nous promouvions ainsi, le moment venu, avec le soutien de Mme la ministre, cette disposition à l’échelle européenne.
La commission émet donc un avis – hélas ! – défavorable sur cet amendement. Ne m’en veuillez pas !
M. le président. Quel est l’avis du Gouvernement ?
M. Stéphane Piednoir. Hélas !…
M. le président. L’amendement n° 1, présenté par Mmes Ollivier et de Marco, MM. Benarroche, Dantec, Dossus, Fernique et Gontard, Mme Guhl, MM. Jadot et Mellouli, Mme Poncet Monge, M. Salmon et Mmes Senée et Souyris, est ainsi libellé :
Rétablir cet article dans la rédaction suivante :
I. - Au 6° du II de l’article 131-35-1 du code pénal, après la référence : « 223-13, », est insérée la référence : « 223-14, ».
II. - Au premier alinéa du A du IV de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, après la référence : « 223-13, », est insérée la référence : « 223-14, ».
La parole est à Mme Mathilde Ollivier.
Mme Mathilde Ollivier. Cet amendement vise à inclure la publicité pour des produits ou des méthodes préconisés comme moyen de se donner la mort à la liste des délits pouvant faire l’objet de la peine complémentaire de bannissement numérique.
La commission d’enquête sur les effets psychologiques de TikTok sur les mineurs est née d’un constat sinistre et sans appel : le public de ce réseau social est exposé à de multiples images, vidéos et musiques glorifiant le suicide et l’automutilation. Dans la première page du rapport sont évoqués de nombreux témoignages, glaçants, de personnes ayant été exposées à des astuces visant à se donner la mort. Plusieurs personnes qui ne se connaissaient pas font mention d’une vidéo intitulée La Nuit porte conseil, dans laquelle une personne préconise de prendre une corde et un tabouret. D’autres témoignages mentionnent des images explicites de scarification et de mutilation, ou des conversations dans lesquelles des utilisateurs incitent au suicide en évoquant les méthodes utilisées.
Si l’incitation au suicide fait bien partie de la liste des délits pouvant faire l’objet d’une peine de bannissement numérique, tel n’est pas le cas de la publicité ou de la propagande pour les méthodes préconisées comme moyen de se donner la mort. Pourtant, il s’agit d’une des recommandations de la commission d’enquête et le point de départ même de cette initiative parlementaire.
Afin de renforcer la lutte contre les incitations numériques au suicide, nous proposons donc que l’auteur du délit de promotion ou de publicité d’objets et de méthodes visant à se donner la mort puisse faire l’objet de cette peine complémentaire, afin qu’il ne soit plus en mesure d’utiliser son compte ou d’en créer de nouveaux.
M. le président. Quel est l’avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. Je vous remercie, madame Ollivier. La commission estime que cet amendement complète utilement l’arsenal répressif contre les abus commis en ligne et sur les réseaux sociaux ; aussi émet-elle un avis favorable.
M. le président. Quel est l’avis du Gouvernement ?
Mme Anne Le Hénanff, ministre déléguée. Bien que je comprenne la motivation de cet amendement, il se trouve que la publicité sur les méthodes de suicide constitue une incitation au suicide. Ce cas de figure est donc déjà couvert par le droit. D’ailleurs, le ministre de l’éducation nationale a saisi le procureur de la République à l’encontre de telles pratiques de TikTok, au titre de l’article 40 du code pénal. J’espère que, si elle n’est pas déjà en cours, une enquête sera ouverte.
J’y insiste : le droit national couvre les cas de promotion ou d’incitation au suicide. Par conséquent, le Gouvernement émet un avis défavorable sur cet amendement.
M. le président. En conséquence, l’article 2 est rétabli dans cette rédaction.
Article 3
(Suppression maintenue)
Article 3 bis A
(Non modifié)
Le chapitre III du titre III du livre Ier de la deuxième partie du code de la santé publique est complété par un article L. 2133-3 ainsi rédigé :
« Art. L. 2133-3. – La publicité, directe ou indirecte, en faveur des services de réseaux sociaux en ligne est interdite lorsqu’elle est destinée spécifiquement aux mineurs, y compris lorsqu’elle est réalisée par des influenceurs ou dans le cadre de partenariats commerciaux. »
M. le président. Je suis saisi de deux amendements identiques.
L’amendement n° 23 est présenté par Mme Havet, MM. Buis et Buval, Mmes Cazebonne et Duranton, MM. Fouassin, Iacovelli, Kulimoetoke, Lemoyne, Lévrier et Mohamed Soilihi, Mme Nadille, MM. Patient et Patriat, Mme Phinera-Horth, MM. Rambaud et Rohfritsch, Mme Schillinger, M. Théophile et les membres du groupe Rassemblement des démocrates, progressistes et indépendants.
L’amendement n° 26 est présenté par le Gouvernement.
Ces deux amendements sont ainsi libellés :
Supprimer cet article.
La parole est à Mme Nadège Havet, pour présenter l’amendement n° 23.


