Mme Monique de Marco. L'article 28 du DSA prévoit explicitement que « les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs ».
La santé mentale des jeunes est touchée à des niveaux inquiétants et les réseaux sociaux en sont tenus pour partie responsables devant les tribunaux à travers le monde.
Depuis la censure de la loi Marcangeli, première tentative française de protection des mineurs en ligne, le droit européen a évolué.
En juillet dernier, la Commission européenne a publié des lignes directrices pour imposer aux plateformes de mettre en œuvre l'article 28. Celles-ci nous renseignent sur la jurisprudence à venir de la Commission et sur ce qu'elle juge compatible ou non avec le droit européen.
Parmi elles figure notamment le fait de prévoir un mode algorithmique « sobre » adapté aux plus jeunes, destiné à limiter l'instauration d'addictions vis-à-vis des réseaux et des plateformes.
Ce mode vise notamment à prévoir que les mineurs ne seront plus soumis aux paramètres du déroulement infini, dit scroll, ou à l'enchaînement automatique des vidéos, c'est-à-dire à l'autoplay. Il permet également de lutter contre le profilage de contenus à caractère commercial.
En suivant les lignes directrices de la Commission, nous assurerions la compatibilité du texte avec le droit de l'Union dans l'intérêt des mineurs.
M. le président. L'amendement n° 14, présenté par Mme Corbière Naminzo, MM. Basquin, Bacchi, Ouzoulias et les membres du groupe Communiste Républicain Citoyen et Écologiste – Kanaky, est ainsi libellé :
Après l'alinéa 10
Insérer un paragraphe ainsi rédigé :
« .... – Sont interdites, pour les utilisateurs mineurs de services de réseaux sociaux, les interfaces de conception persuasive visant à encourager une utilisation intensive ou à engendrer des schémas comportementaux compulsifs. Cette interdiction porte notamment sur les fonctionnalités d'affichage continu de contenus et les mécanismes de sollicitation automatique de l'attention.
« Un décret en Conseil d'État précise la liste des fonctionnalités et caractéristiques de conception interdites en application du présent paragraphe. » ;
La parole est à M. Alexandre Basquin.
M. Alexandre Basquin. Nous le savons, les réseaux sociaux reposent sur la conception de mécanismes addictifs. C'est d'ailleurs leur modèle économique, et, sans chercher à relancer le débat, il me semble que l'article 1er laisse ces plateformes un peu trop tranquilles.
De tels mécanismes addictifs ont des effets délétères, notamment sur nos jeunes : anxiété, dépression, troubles alimentaires. Notre amendement vise donc à les interdire.
Notre démarche s'inscrit dans la droite ligne de la vôtre, monsieur le ministre, qui avez transmis à la justice un signalement visant TikTok au titre de l'article 40 du code de procédure pénale, dénonçant les spirales mortifères dans lesquelles ce réseau social enferme ses utilisateurs.
Elle s'inscrit également dans la droite ligne de la décision de la justice californienne, qui a condamné Instagram et YouTube à la suite de la dépression d'une adolescente, ou encore d'une résolution d'un jury du Nouveau-Mexique, qui a condamné Meta pour avoir caché les effets néfastes de ses applications. Notre amendement vise à nous assurer que notre législation ne soit pas moins-disante.
M. le président. Quel est l'avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. Madame de Marco, cela me fend un peu le cœur, mais la commission émet un avis défavorable sur votre amendement.
Nous sommes tous bien conscients de la nocivité des algorithmes. Florence Blatrix Contat et moi-même avons beaucoup travaillé à ce sujet en préparant notre rapport sur la proposition de résolution au nom de la commission des affaires européennes sur le DSA, votée à l'unanimité par le Sénat.
Nous y demandions – pardonnez-moi l'anglicisme – que les algorithmes soient développés selon le principe du safety by design, c'est-à-dire que leur conception soit sécurisée dès le démarrage : comme pour la mise sur le marché d'un médicament, il faut vérifier les algorithmes de toutes les applications ; s'il l'un d'entre eux se révélait nocif, il ne devrait pas être mis en circulation.
Ce principe n'a finalement pas été retenu dans le DSA. En définitive, seule l'Union européenne peut modifier la rédaction de ce règlement pour y intégrer les fonctionnalités tout à fait pertinentes et justifiées que vous proposez. Même si nous ne pouvons malheureusement pas retenir une telle mesure à ce stade, il est toujours bon de se répéter, et je vous remercie de nous fournir l'occasion d'introduire de telles précisions dans notre débat.
Monsieur Basquin, il en va presque de même pour l'amendement n° 14, qui vise à interdire les fonctionnalités addictives. Toutefois, l'argument est un peu différent : votre amendement fait, à mon sens, double emploi avec le dispositif des alinéas 5 et 6 du texte, selon lesquels les plateformes addictives et dangereuses pour la santé – vous l'avez souligné, de telles pratiques, avérées, ne sont pas admissibles – devront précisément être listées par arrêté, pris après avis de l'Arcom, pour que les mineurs cessent d'y avoir accès.
Pour la santé des enfants et des adolescents, il n'est donc pas nécessaire de prévoir un tel dispositif, qui serait redondant. Là encore, il est toujours utile de répéter qu'il faudra prendre en compte cet élément lors de la prochaine révision du DSA, que nous espérons la plus proche possible. La commission émet donc un avis défavorable sur cet amendement.
M. le président. Quel est l'avis du Gouvernement ?
Mme Anne Le Hénanff, ministre déléguée. En effet, ces propositions ne relèvent pas de l'échelon national.
L'article 38 du DSA prévoit notamment que les très grandes plateformes ont l'obligation d'offrir des options de systèmes de recommandation qui ne reposent pas sur le profilage de la personne. En outre, son article 28 interdit la publicité ciblée sur les mineurs, et les lignes directrices 6.4, 6.5 et 6.6 du même article règlent la non-exposition des mineurs aux interfaces addictives.
Toutefois, comme Mme la rapporteure, je suis convaincue que la France peut jouer un rôle moteur dans le débat sur l'évolution du droit européen. Nous comptons nous engager sur les discussions relatives aux algorithmes à la Commission européenne.
M. le président. La parole est à M. Thomas Dossus, pour explication de vote.
M. Thomas Dossus. Ces amendements sont en réalité le nœud du problème. En raison de son cadre, cette proposition de loi n'est qu'un dérivatif. Dès lors, elle ne me satisfait pas complètement – ni même partiellement, d'ailleurs.
Lors de la discussion générale, tous les intervenants ont décrit la toxicité des algorithmes en question, descriptions parfois assorties de comparaisons avec l'alcool ou d'autres drogues. Je partage pleinement ces analyses. Toutefois, contrairement au bon vin, les algorithmes ne se sont pas du tout bonifiés avec le temps.
Le modèle économique actuel des plateformes en question, qui repose sur ces algorithmes, est en lui-même toxique. C'est sur ce point que nous aurions dû insister en matière de régulation.
Le DSA permet de nombreuses actions. Un certain nombre de contentieux sont en cours, ce qui est heureux : l'Europe est une puissance quand elle est régulatrice, y compris face à ces géants.
Le DSA va dans le bon sens, mais certaines de ses dispositions ne sont pas encore complètement mises en œuvre. Il en est ainsi de la transparence des algorithmes pour les chercheurs, qui peine actuellement à monter en puissance. C'est sur cet aspect que nous aurions dû insister face aux géants du numérique.
Il me semble que, par ce texte, nous nous trompons un peu de combat. Pour ma part, j'estime que c'est plutôt par la régulation et en faisant peser des contraintes sur ces plateformes que nous avancerons.
Nous devons démonter leur fonctionnement et démontrer que leur modèle économique est toxique non seulement pour les mineurs, mais pour l'ensemble de la société et du débat public.
Je le rappelle, une élection a été annulée en raison de manipulations liées à ces plateformes. On voit bien le danger qu'elles font peser. Ce n'est pas uniquement en interdisant leur accès aux mineurs que nous arriverons à contrer de tels phénomènes. Sur ce sujet, il va falloir que nous avancions très vite et beaucoup plus fort que ne le fait ce texte.
M. le président. L'amendement n° 18, présenté par Mmes de Marco et Ollivier, MM. Benarroche, Dantec, Dossus, Fernique et Gontard, Mme Guhl, MM. Jadot et Mellouli, Mme Poncet Monge, M. Salmon et Mmes Senée, Souyris et M. Vogel, est ainsi libellé :
Après l'alinéa 8
Insérer un paragraphe ainsi rédigé :
« .... – Les services d'accès à internet ne peuvent proposer au consommateur mineur de quinze ans, directement ou par l'intermédiaire d'un tiers, une offre permettant un niveau de consommation supérieur au seuil défini par arrêté ministériel, après avis du Conseil national de la consommation et de l'Autorité de régulation de la communication audiovisuelle et numérique. Le niveau de ce seuil est adapté aux interdictions prévues aux I et I bis du présent article.
La parole est à Mme Monique de Marco.
Mme Monique de Marco. Cet amendement vise à responsabiliser les fournisseurs d'accès à internet. Chaque acteur de la chaîne doit rejoindre notre objectif commun : réduire l'addiction des plus jeunes aux réseaux sociaux.
La responsabilité des fournisseurs d'accès à internet n'est pas abordée dans le texte. Les opérateurs de télécommunications ont pourtant un rôle à jouer, tout d'abord parce qu'ils sont réellement en contact avec les jeunes et les parents au moment de la signature du contrat d'ouverture d'une ligne. Ils sont donc à même de contrôler l'identité du jeune, de renseigner son âge et sont en position de sensibiliser les parents aux dangers des réseaux sociaux.
En outre, en fonction des types de contrats proposés, ils peuvent moduler le nombre de données internet disponibles et donc limiter le temps passé sur les réseaux sociaux, très gourmands en données.
Par cet amendement, nous proposons donc de renforcer le rôle des fournisseurs d'accès à internet et de les responsabiliser en prévoyant qu'ils ne peuvent offrir que des contrats à données disponibles limitées pour les mineurs de 15 ans, en adéquation avec l'interdiction des réseaux sociaux prévue à l'article 1er.
M. le président. Quel est l'avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. Cet amendement qui vise à limiter l'accès des mineurs à internet présente l'inconvénient de créer une limite d'accès aux données pour eux, alors que la consommation de ces données n'a pas de lien direct avec la dangerosité des plateformes.
De ce fait, le mineur pourrait connaître une restriction d'accès à certains contenus, même s'il n'utilise aucun réseau social considéré comme dangereux, par exemple s'il visionne un film d'animation.
Si le débat sur le temps global d'écran des enfants est ô combien légitime, il ne relève pas du présent texte, qui a uniquement trait à l'accès aux réseaux sociaux. Je le regrette d'ailleurs, car j'aurais aimé que nous fassions un lien entre ces deux aspects, comme nous l'avions fait lors de l'examen de ma proposition de loi en décembre dernier.
La commission émet donc un avis défavorable.
M. le président. Quel est l'avis du Gouvernement ?
Mme Anne Le Hénanff, ministre déléguée. Le Gouvernement émet un avis défavorable sur cet amendement pour trois raisons.
La première est d'ordre juridique, puisque la mesure proposée est contraire au principe de neutralité du net imposé par le droit européen. En outre, comme je l'ai déjà indiqué, un mineur ne peut conclure un contrat sans l'accord parental.
La deuxième raison est d'ordre opérationnel : limiter les données bloquerait l'accès à l'ensemble des applications, y compris à celles qui sont utiles, voire indispensables à ces mêmes mineurs. Je pense à des applications pédagogiques comme Pronote, ou à des applications visant à assurer la sécurité des enfants par leur géolocalisation à destination des parents.
Enfin, la troisième raison tient aux compétences : à ce stade, ni le Conseil national de la consommation (CNC) ni l'Arcom ne sont compétents sur le fond pour une telle mesure.
M. le président. L'amendement n° 33, présenté par Mme Morin-Desailly, au nom de la commission, est ainsi libellé :
Alinéa 12
Supprimer les mots :
, y compris à Wallis-et-Futuna, en Nouvelle-Calédonie et en Polynésie française
La parole est à Mme la rapporteure.
Mme Catherine Morin-Desailly, rapporteure. Il s'agit d'un amendement rédactionnel, monsieur le président.
M. le président. Quel est l'avis du Gouvernement ?
M. le président. Je mets aux voix l'article 1er, modifié.
(L'article 1er est adopté.)
Organisation des travaux
M. le président. Mes chers collègues, nous pouvons envisager de prolonger la séance jusqu'à vingt heures trente, ce qui, si chacun fait un effort de concision, nous permettrait d'achever l'examen du texte ; à défaut, nous nous retrouverions à vingt-deux heures.
Après l'article 1er
M. le président. L'amendement n° 31 rectifié quater, présenté par Mme Aeschlimann, M. Lefèvre, Mme Belrhiti, M. Burgoa, Mme Gruny, MM. Daubresse, Sol, Panunzi et Khalifé, Mme Petrus, MM. Chasseing et Fargeot, Mme Josende, MM. Saury et Michallet, Mmes Dumont, Berthet, Lassarade, Malet et Bellamy, M. Margueritte, Mmes de Cidrac et Ventalon et MM. Gremillet, Milon et Séné, est ainsi libellé :
Après l'article 1er
Insérer un article additionnel ainsi rédigé :
I. – L'article L. 34-9-3 du code des postes et des communications électroniques est complété par un paragraphe ainsi rédigé :
« .... – Les dispositifs mentionnés au I permettent notamment aux titulaires de l'autorité parentale de limiter ou d'interdire, en fonction de l'âge de l'utilisateur, l'accès des mineurs aux services de réseaux sociaux en ligne au sens de l'article 6-7 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, ainsi qu'aux autres services en ligne susceptibles de présenter des risques particuliers pour les mineurs.
« À cette fin, les fournisseurs de systèmes d'exploitation et, le cas échéant, les fabricants d'équipements terminaux mettent en œuvre, dans le cadre des dispositifs mentionnés au même I, des solutions techniques permettant de vérifier l'âge de l'utilisateur et, le cas échéant, de recueillir l'autorisation d'un titulaire de l'autorité parentale pour l'accès des mineurs de moins de quinze ans aux services de réseaux sociaux en ligne. Ces solutions sont conformes à un référentiel élaboré à cette fin par l'Autorité de régulation de la communication audiovisuelle et numérique, après avis de la Commission nationale de l'informatique et des libertés et consultation des acteurs concernés.
« La mise en œuvre des obligations prévues au présent paragraphe ne donne lieu à aucun surcoût pour l'utilisateur et respecte les principes de minimisation des données et de protection de la vie privée, notamment en interdisant toute utilisation à des fins commerciales des données collectées ou générées dans ce cadre. »
II. – Après le premier alinéa du I de l'article 6-7 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, il est inséré un alinéa ainsi rédigé :
« Pour satisfaire à l'obligation prévue au présent I et à loi n° du visant à protéger les mineurs des risques auxquels les expose l'utilisation des réseaux sociaux, les fournisseurs de services de réseaux sociaux en ligne peuvent s'appuyer sur les dispositifs mentionnés à l'article L. 34-9-3 du code des postes et des communications électroniques. Ils mettent en œuvre tous leurs efforts pour assurer l'articulation de leurs propres mécanismes de contrôle de l'âge et de recueil de l'autorisation parentale avec ces dispositifs, afin d'empêcher l'accès à leurs services des mineurs de moins de quinze ans, sauf autorisation d'un titulaire de l'autorité parentale. »
La parole est à Mme Marie-Do Aeschlimann.
Mme Marie-Do Aeschlimann. Cet amendement vise à parachever le socle du contrôle parental au niveau de l'équipement terminal institué par la loi du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d'accès à internet, dite loi Studer. Son objet s'inscrit donc pleinement dans les objectifs du texte que nous examinons.
Actuellement, nous faisons reposer l'essentiel du contrôle sur les plateformes elles-mêmes. Or, chacun le sait, ces dispositifs sont facilement contournables, que cela soit au moyen d'une éventuelle fausse déclaration d'âge tant que nous sommes dans l'attente d'un mécanisme de déclaration robuste et fiable, de la sollicitation d'un VPN (Virtual Private Network) ou bien d'un changement de compte utilisateur.
Nous proposons ainsi de déplacer le point de contrôle de l'âge en le positionnant en amont, au niveau du téléphone, de la tablette ou de l'ordinateur de l'utilisateur mineur, c'est-à-dire au niveau du système d'exploitation ou du fabricant.
Nous prévoyons par ailleurs que la vérification de l'âge et l'autorisation parentale soient intégrées de manière simple, sécurisée et sans surcoût.
Une telle solution correspond aux recommandations formulées par l'Arcom elle-même : dans son avis du 26 septembre 2024, elle considère que le niveau du terminal est le plus pertinent pour protéger les mineurs.
Cette solution présente trois avantages concrets.
D'abord, elle est beaucoup plus difficile à contourner, puisqu'elle agit en amont, quel que soit le service utilisé.
De plus, elle est plus protectrice de la vie privée, car elle évite de multiplier les vérifications d'âge sur chaque plateforme.
Enfin, elle redonne aux parents un rôle central en leur donnant la maîtrise effective de l'accès de leurs enfants aux réseaux sociaux.
Les plateformes, quant à elles, restent responsables, car elles conservent une obligation de moyens pour empêcher l'accès des mineurs. Il s'agit non pas de les décharger, mais de rendre l'ensemble du dispositif plus cohérent, plus simple et plus efficace.
Mes chers collègues, l'adoption de cet amendement n'enfreindrait enfin aucune disposition du DSA, conformément à l'une de nos principales préoccupations.
M. le président. Quel est l'avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. De multiples dispositifs sont aujourd'hui en lice pour assurer la vérification de l'âge et permettre d'appliquer la présente proposition de loi.
Les lignes directrices adoptées en application de l'article 28 du DSA n'imposent pas aux réseaux sociaux concernés une solution de vérification d'âge en particulier, en particulier afin de s'assurer du respect du RGPD.
Selon l'Arcom, une quinzaine d'opérateurs offriraient aujourd'hui des solutions privées. Pour ce qui est des solutions publiques, France Titres développe une solution souveraine de génération de preuves d'âge. France Identité numérique a vocation à être compatible avec les solutions de portefeuille d'identité européen – European Digital Identity Wallet, ou mini wallet que vous avez mentionné tout à l'heure, madame la ministre.
France Titres explore également une autre voie, celle du développement d'une solution pour les moins de 18 ans fondée sur leur compte ÉduConnect.
Toutefois, l'amendement tend à ce qu'il s'agisse d'une simple faculté pour les plateformes et non d'une obligation. Dans la mesure où la solution dépend en partie de l'état d'avancement du travail des administrations, la commission souhaite connaître l'avis du Gouvernement sur cet amendement.
M. le président. Quel est l'avis du Gouvernement ?
Mme Anne Le Hénanff, ministre déléguée. La position du Gouvernement est assez claire : nous voulons une double protection, qui combine à la fois un contrôle parental sur les appareils et les systèmes d'exploitation, d'ailleurs déjà prévu par la loi Studer, mais également un contrôle de l'âge des personnes sur les plateformes, prévu par l'article 28 du DSA.
Par ailleurs, quelle que soit la rédaction qui sera retenue pour ce texte, je vous informe que les plateformes et les réseaux sociaux œuvreront avec la direction générale des entreprises (DGE) et avec l'Arcom, à partir de la mi-avril, à établir ensemble les règles de vérification d'âge qu'elles devront appliquer en France après la promulgation de cette loi. C'est l'objet d'un groupe de travail que j'ai constitué à Bercy.
Le Gouvernement émet un avis défavorable sur cet amendement.
M. le président. Quel est finalement l'avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. La commission émet un avis défavorable.
M. le président. Je mets aux voix l'amendement n° 31 rectifié quater.
(L'amendement n'est pas adopté.)
M. le président. L'amendement n° 11 rectifié bis, présenté par M. Pla, Mmes Artigalas et Bonnefoy, MM. Bouad, Bourgi et Chaillou, Mme Conway-Mouret, MM. Devinaz et Fichet, Mmes G. Jourda et Matray et M. Michau, est ainsi libellé :
Après l'article 1er
Insérer un article additionnel ainsi rédigé :
L'article 226-8-1 du code pénal est ainsi modifié :
1° À la seconde phrase du premier alinéa, après le mot : « algorithmique », sont insérés les mots : « ou par l'intelligence artificielle » ;
2° Il est ajouté un alinéa ainsi rédigé :
« Lorsque l'image reproduite ou modifiée est celle d'un mineur de quinze ans captée à l'occasion d'une connexion effectuée par celui-ci, les peines prévues au premier alinéa sont portées à trois ans d'emprisonnement et 75 000 euros d'amende et celles prévues au troisième alinéa sont portées à cinq ans d'emprisonnement et 150 000 euros d'amende. »
La parole est à M. Sebastien Pla.
M. Sebastien Pla. Cet amendement vise à reconnaître comme un acte délictueux le fait de diffuser grâce à l'intelligence artificielle une représentation qui sexualise les enfants ou une photographie ou pseudo-photographie indécente d'un mineur.
Nous sommes à la croisée des chemins avec l'IA générative. Créer du contenu à grande échelle est plus facile que jamais. De la même manière que le nombre des préjudices sexuels hors ligne et en ligne contre les enfants a été accru par internet, l'utilisation abusive de l'IA générative a de profondes implications pour la sécurité des intéressés : identification des victimes, prévention et prolifération des abus. Les mauvaises utilisations et les dommages en aval qui y sont associés sont réels et justifient une action volontariste aujourd'hui.
En octobre 2023, l'Internet Watch Foundation a publié un rapport sur sa découverte de plus de 20 000 images issues de l'IA générative sur un forum du dark web. Les analystes ont déterminé qu'environ 3 000 d'entre elles relevaient du droit pénal en vigueur contre la production, la distribution et la possession d'une « photographie ou pseudo-photographie indécente d'un enfant » ou la possession d'une « image interdite d'un enfant ».
Alors que les outils d'IA générative se sont multipliés, la réglementation et la législation spécifiques sont très en retard, ce qui facilite les abus de la part de criminels cherchant à exploiter sexuellement des enfants.
M. le président. Quel est l'avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. Par cet amendement, vous proposez de reconnaître comme un acte délictueux le fait de diffuser grâce à l'intelligence artificielle une représentation qui sexualise les enfants ou une photographie ou pseudo-photographie indécente d'un mineur et de modifier le quantum de peine applicable.
Au préalable, je dois reconnaître que la commission n'a pas eu le temps d'interroger la justice sur la nécessité ou la légitimité de cette mesure. En outre, je rappelle que la loi Sren, qui a créé cette infraction, a moins de deux ans. Nous n'avons pas encore le recul nécessaire sur son application. Il serait donc plus raisonnable d'attendre une évaluation avant de revoir le quantum de peine si, en effet, une telle décision est légitime. Votre préoccupation, à savoir que la sanction soit à la juste mesure, l'est, bien entendu, mais je ne dispose pas d'éléments qui plaideraient pour un avis favorable.
La commission demande donc le retrait de cet amendement ; à défaut, l'avis sera défavorable.
M. le président. Quel est l'avis du Gouvernement ?
Mme Anne Le Hénanff, ministre déléguée. Votre amendement est déjà satisfait par le code pénal : les peines sont plus sévères pour les infractions relatives aux mineurs.
Pour votre information, la France défend auprès de la Commission, dans le cadre d'un nouveau règlement sur l'IA, une évolution très forte des règles applicables à la suite du scandale Grok. En effet, c'est à l'échelle européenne que les sanctions pourront être bien plus massives, notamment contre les plateformes.
Le Gouvernement émet un avis défavorable sur cet amendement.
M. le président. L'amendement n° 10 rectifié bis, présenté par M. Pla, Mmes Artigalas et Bonnefoy, MM. Bouad, Bourgi et Chaillou, Mme Conway-Mouret, MM. Devinaz et Fichet, Mmes G. Jourda et Matray et M. Michau, est ainsi libellé :
Après l'article 1er
Insérer un article additionnel ainsi rédigé :
Le A du IV de l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique est ainsi modifié :
1° Le deuxième alinéa est complété par les mots : « , ou dont elles ont connaissance par elles-mêmes, par un signalement précis permettant d'identifier l'auteur de l'infraction » ;
2° Après le deuxième alinéa, il est inséré un alinéa ainsi rédigé :
« Les signalements comprennent les détails suivants : le message ou les discussions en cause ; des informations sur l'utilisateur ou l'abonné (nom, nom d'utilisateur, adresse électronique, numéro de téléphone, date de naissance) associées à l'infraction signalée ; les adresses IP (y compris les numéros de port) avec les dates et heures d'accès à un service, de téléversement de contenu abusif ou de communication avec un autre utilisateur ; le contenu abusif et d'autres fichiers liés à l'exploitation sexuelle des mineurs qui révèlent clairement la nature d'une infraction ou permettent de localiser ou d'identifier un auteur ou une victime. »
La parole est à M. Sebastien Pla.
M. Sebastien Pla. Dans son esprit, cet amendement vise à inverser la charge de la preuve en faisant un peu plus porter la responsabilité sur les opérateurs. Pour ce faire, il tend à encourager les plateformes en ligne à inclure des informations précises sur les utilisateurs et les enfants victimes dans les signalements transmis aux autorités.
Les principales plateformes en ligne mondiales disposent d'outils de signalement. Malheureusement, nombre d'entre eux ne contiennent pas les informations de base nécessaires pour identifier les lieux potentiels des incidents, ceux où se trouvent les enfants victimes et/ou pour permettre aux forces de l'ordre de les protéger en facilitant leurs investigations.
Je propose que les signalements soient davantage fournis. Le recueil de détails doit être bien plus précis : informations sur l'utilisateur ou l'abonné, adresses IP de provenance, contenus abusifs et autres fichiers liés à l'exploitation sexuelle des enfants, et messages ou discussions dont les contenus sont suffisants pour étayer les soupçons d'incitation en ligne.
M. le président. Quel est l'avis de la commission ?
Mme Catherine Morin-Desailly, rapporteure. La liste des données que les plateformes sont tenues de conserver afin de permettre l'identification de quiconque a contribué à la création d'un tel contenu est fixée par un décret en conseil d'État pris en vertu du V de l'article 6 de la loi pour la confiance dans l'économie numérique. La durée de leur conservation est également prévue dans ce décret. En fixant une obligation de transmission de données sans limite de temps, votre amendement ne respecte pas ce dispositif et risque ainsi d'être contraire au RGPD.
La commission émet un avis défavorable sur cet amendement.


