Mme la présidente. La parole est à M. Franck Montaugé, pour explication de vote.

M. Franck Montaugé. J’ai bien écouté les arguments du rapporteur, que je partage en partie.

Pour moi, il existe un argument qui n’est pas mis en évidence, alors qu’il me semble justifier le maintien de cet amendement : les moteurs de recherche et leurs algorithmes renvoient à chaque internaute l’environnement que, d’une certaine manière, il a façonné par sa navigation sur le net. C’est fondamental et cela justifie que l’on prenne en compte les moteurs de recherche.

Nous n’avons pas tous le même rapport à l’information. Je suis convaincu que, dans certains cas, certaines informations, que l’on cherche pourtant à combattre et qui sont en lien direct avec l’objet du texte que nous discutons, peuvent remonter à l’utilisateur en raison des recherches qu’il a faites et des centres d’intérêt qui ont été les siens.

Mme la présidente. La parole est à M. Pierre Ouzoulias, pour explication de vote.

M. Pierre Ouzoulias. Sur le fond, je ne suis pas du tout opposé à ce que l’on choisisse le CSA pour réguler les plateformes. Ce n’était pas mon propos. Je disais simplement qu’il faut éviter de croire que la manière dont le CSA va gérer l’internet équivaut à sa manière de gérer les fréquences audiovisuelles aujourd’hui. Les deux exercices sont fondamentalement différents. On ne peut pas calquer la manière de réguler l’internet demain sur celle de réguler l’audiovisuel aujourd’hui.

À cet égard, il est indispensable de mener une réflexion doctrinale et de se demander ce qu’est réellement l’internet et quelles sont ses spécificités par rapport aux fréquences audiovisuelles. C’est le débat que je réclame au travers de mon amendement.

S’agissant de l’interopérabilité, nous sommes tous d’accord pour constater que les réseaux sociaux se trouvent aujourd’hui dans une situation monopolistique et qu’il faut, d’une façon ou d’une autre, réduire l’avantage anticoncurrentiel qu’ils détiennent. Aujourd’hui, ceux-ci ne se soumettent pas aux règles de la concurrence.

De mon point de vue, on doit favoriser l’émergence de solutions alternatives, non pas pour permettre à ceux qui répandent des propos haineux de le faire ailleurs, mais tout simplement pour laisser le choix à celles et ceux qui refusent d’utiliser les réseaux sociaux actuels pour des raisons éthiques de faire migrer leurs données sur d’autres réseaux beaucoup plus transparents, utilisant des algorithmes qui répondent à un code moral qu’ils pourraient connaître. C’est fondamental.

Bien entendu, les Gafam refusent une telle évolution : ils veulent protéger jusqu’au bout leur situation monopolistique. Sans une intervention ferme de l’État pour encourager ces alternatives, nous n’y arriverons pas : c’est tout l’enjeu de l’interopérabilité.

Mme la présidente. La parole est à Mme la rapporteure pour avis.

Mme Catherine Morin-Desailly, rapporteure pour avis de la commission de la culture. Je soutiens bien sûr notre rapporteur.

Cela étant, je souhaiterais attirer l’attention de tous sur le fait que l’amendement de M. Ouzoulias, qui souligne la nécessité de s’assurer de la portabilité de nos données quand on souhaite changer de système, et l’amendement de M. Montaugé, qui s’interroge sur l’intégration ou non des moteurs de recherche dans le champ de la régulation, nous renvoient à un sujet qui reste à traiter – même si ce n’est pas forcément dans le cadre de l’examen de ce texte qu’on le fera –, à savoir le statut, la responsabilité et, surtout, l’omnipotence de ces plateformes.

Ces dernières se sont constituées dans des écosystèmes propriétaires dans lesquels nous nous trouvons enfermés. C’est ainsi qu’elles prennent, aspirant toujours plus de données, de plus en plus de pouvoir sur nos vies et nos comportements.

Je comprends tout à fait cette idée de droit à la portabilité et je comprends que M. Ouzoulias le revendique. Ce sujet reste à approfondir, parce que l’on peut avoir envie de rejoindre une plateforme éthique, qui développe des pratiques non toxiques, comme je le disais à la tribune, et de quitter un système qui nous enferme et qui est extrêmement agressif.

Quant au pouvoir de Google, on sait bien que cet opérateur est devenu essentiel, puisqu’il s’agit d’un intermédiaire incontournable : 97 % des recherches sont faites avec ce moteur en Europe. En l’espèce, Google sert à effectuer des recherches, mais il a aussi une fonction éditoriale. En réalité, il a des activités tous azimuts. Quelle est la perméabilité d’une activité par rapport à une autre ? C’est un vrai sujet ! Il n’y a aucune transparence dans ce domaine.

Alors, certes, on ne résoudra pas tous les problèmes ce soir, monsieur le secrétaire d’État, mais cette question renvoie à celle du démantèlement de ces oligopoles, qui permettrait de garantir un fonctionnement démocratique et éthique de l’internet, et donc des réseaux sociaux.

Les questions posées au travers de ces amendements sont donc tout à fait pertinentes et méritent d’être creusées.

Mme la présidente. La parole est à M. David Assouline, pour explication de vote.

M. David Assouline. Tout d’abord, je suis favorable à une régulation des plateformes assurée par le CSA.

Je souhaiterais tout de suite dénoncer une très grosse hypocrisie. Laquelle ? On vient de voter le projet de loi de finances : avez-vous noté une quelconque augmentation des moyens du CSA en vue d’assumer cette tâche gigantesque ? Non !

M. Pierre Ouzoulias. Tout à fait !

M. David Assouline. Comme on veut aller vite, faire en sorte que la loi soit votée après une seule lecture dans chaque assemblée, et pouvoir faire des annonces sur le sujet très tôt au cours du premier trimestre de 2020, on met la charrue avant les bœufs !

On nous dit – ce que j’ai toujours défendu – que le CSA devrait avoir un droit de regard sur le net parce que, aujourd’hui, les contenus vidéo sont autant regardés sur le net qu’à la télévision, et qu’il existe de fait une zone de non-droit.

On a mis le doigt dans l’engrenage avec la loi contre les fake news : nous avons demandé d’aller encore plus loin en permettant au CSA de contrôler des contenus écrits. Maintenant, on veut sanctuariser ce rôle : pourquoi pas, mais seulement si cela a vraiment un sens ! Quand on parle de régulation relativement indépendante, il faut des moyens pour discuter d’égal à égal, des moyens en termes d’ingénierie, de connaissances, etc. Il faut arrêter l’hypocrisie et prévoir des moyens, par exemple sous la forme d’un collectif budgétaire, parce que, aujourd’hui, ces moyens n’y sont pas.

Ensuite, il faut veiller à ce que, sur ces questions de données – j’y reviendrai tout à l’heure –, on ne soit pas en retard sur les réflexions menées par les plateformes.

J’ai lu dans un article la semaine dernière que Twitter finançait une petite équipe indépendante comptant jusqu’à cinq architectes, ingénieurs et designers open source pour développer des normes ouvertes et décentralisées pour les médias sociaux, l’objectif étant que Twitter soit finalement un client de cette plateforme. Cela signifie que les plateformes commencent à réfléchir à l’open source, alors que nous avons acté qu’ils ne le feraient jamais. À un moment donné, je sais qu’ils y auront intérêt, peut-être en raison de la concurrence qui les oppose.

Considérer aujourd’hui que Google n’est pas concerné par cette régulation, parce qu’il s’agit d’un moteur de recherche, c’est oublier qu’il est présent dans tous les domaines,…

Mme la présidente. Il faut conclure, mon cher collègue.

M. David Assouline. … et qu’il s’agit de ce fait d’un réseau social à part entière.

Mme la présidente. Je mets aux voix l’amendement n° 15.

(Lamendement nest pas adopté.)

Mme la présidente. La parole est à M. Pierre Ouzoulias, pour explication de vote sur l’amendement n° 16.

M. Pierre Ouzoulias. Monsieur le secrétaire d’État, vous devez savoir que la loi sur l’économie circulaire est en cours d’examen à l’Assemblée nationale et que, sur l’initiative de deux députés du groupe La République En Marche, un amendement favorisant l’interopérabilité des logiciels a été adopté. Cela vient d’être voté par l’Assemblée nationale : il serait assez facile pour le Sénat d’en faire de même en ce qui concerne les plateformes de sorte que, pour une fois, Sénat et Assemblée nationale votent de concert !

Mme la présidente. Je mets aux voix l’amendement n° 16.

(Lamendement nest pas adopté.)

Mme la présidente. Je mets aux voix l’amendement n° 43.

(Lamendement nest pas adopté.)

Mme la présidente. Je mets aux voix l’amendement n° 57.

(Lamendement nest pas adopté.)

Mme la présidente. L’amendement n° 61, présenté par M. Frassa, au nom de la commission des lois, est ainsi libellé :

I. – Alinéa 7, seconde phrase

Rédiger ainsi cette phrase :

Ils informent leurs auteurs des sanctions qu’ils encourent en cas de notification abusive.

II. – Alinéa 8, première phrase

Compléter cette phrase par les mots :

qui leur est adressée conformément au 5 du I de l’article 6 de la présente loi.

La parole est à M. le rapporteur.

M. Christophe-André Frassa, rapporteur. Il s’agit d’un amendement rédactionnel.

Mme la présidente. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire dÉtat. Favorable.

Mme la présidente. Je mets aux voix l’amendement n° 61.

(Lamendement est adopté.)

Mme la présidente. L’amendement n° 46 rectifié, présenté par Mme de la Gontrie, MM. Assouline, Montaugé et Kanner, Mmes Artigalas et S. Robert, MM. Temal, Sueur, Jacques Bigot, Durain et Fichet, Mme Harribey, MM. Kerrouche, Leconte, Marie, Sutour et Antiste, Mmes Blondin, Ghali et Lepage, MM. Lozach, Magner et Manable, Mme Monier, M. M. Bourquin, Mme Conconne, MM. Courteau, Daunis et Duran, Mme Guillemot, MM. Tissot, Bérit-Débat et Joël Bigot, Mme Bonnefoy, MM. Botrel, Boutant et Carcenac, Mme Conway-Mouret, MM. Dagbert, Daudigny, Devinaz et Éblé, Mme Espagnac, M. Féraud, Mmes Féret et M. Filleul, M. Gillé, Mme Grelet-Certenais, MM. Houllegatte et Jacquin, Mme Jasmin, MM. P. Joly et Jomier, Mme G. Jourda, M. Lalande, Mme Lubin, MM. Lurel et Mazuir, Mmes Meunier, Perol-Dumont et Préville, MM. Raynal et Roger, Mmes Rossignol, Taillé-Polian et Tocqueville, MM. Todeschini, Tourenne et Vallini, Mme Van Heghe et M. Vaugrenard, est ainsi libellé :

Alinéa 8, après la première phrase

Insérer une phrase ainsi rédigée :

Ils accomplissent les diligences proportionnées et nécessaires au regard de la nature du contenu et des informations dont ils disposent pour retirer ou rendre inaccessibles dans les vingt-quatre heures les contenus manifestement illicites qui leur sont notifiés.

La parole est à Mme Marie-Pierre de la Gontrie.

Mme Marie-Pierre de la Gontrie. Cet amendement a vocation à préciser les modalités des notifications pour que celles-ci soient plus efficaces.

Mme la présidente. Quel est l’avis de la commission ?

M. Christophe-André Frassa, rapporteur. Cet amendement vise à inscrire expressément dans la loi la durée de vingt-quatre heures fixée comme objectif aux plateformes pour le retrait des contenus manifestement illicites.

Autant il ne me semble pas possible d’inscrire le délai de vingt-quatre heures à l’article 1er comme objectif de résultat, autant en faire une obligation de moyens est une piste intéressante. Cette rédaction tente en effet de rester sur la ligne de crête. Elle me semble compatible avec le droit européen, puisqu’elle ne fixe ni délai couperet ni obligation de résultat exhaustif pour tous les types de contenus à laquelle on ne peut déroger et sous la menace de sanctions pénales. Elle fixe, en revanche, une obligation de moyens, un objectif de délai, un principe, une moyenne à observer, sauf circonstances exceptionnelles : afflux massif de signalements difficiles à évaluer, pannes imprévisibles, etc.

Cette rédaction inscrit « en dur » dans la loi la durée de vingt-quatre heures. Elle liera bien les plateformes qui devront en tenir compte et elle servira d’indication au CSA pour son contrôle périodique. Le régulateur pourra en assurer le respect en cas de dépassement injustifié, si les plateformes ne se dotent pas des moyens d’atteindre cet objectif : recommandation, puis sanction de 4 % du chiffre d’affaires.

La commission émet donc un avis favorable sur cet amendement.

Mme la présidente. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire dÉtat. Je redis très clairement, même si, à ce stade, le Sénat en a décidé autrement, que le Gouvernement a bien pour objectif d’inscrire ces vingt-quatre heures dans l’article 1er et de créer un délit autonome : c’est utile et cela tire la conséquence de la loi pour la confiance dans l’économie numérique. Je ne rappelle pas l’argumentation que j’ai déjà développée sur ce point.

En l’espèce, cette mesure témoignant d’un pas du Sénat et le rapporteur ayant estimé que tout cela pouvait aller dans la bonne direction, le Gouvernement s’en remet à la sagesse de la Haute Assemblée sur cet amendement.

Mme la présidente. Je mets aux voix l’amendement n° 46 rectifié.

(Lamendement est adopté.)

Mme la présidente. Je suis saisie de deux amendements faisant l’objet d’une discussion commune.

L’amendement n° 26 rectifié, présenté par Mme N. Delattre, M. Artano, Mme M. Carrère, MM. Collin, Corbisez et Gold, Mme Guillotin, MM. Guérini et Jeansannetas, Mme Jouve et MM. Requier et Roux, est ainsi libellé :

I. – Alinéa 11, première phrase

Après le mot :

décision

insérer les mots :

avant qu’elle ne prenne effet

II. – Après l’alinéa 11

Insérer quatre alinéas ainsi rédigés :

« En cas d’action motivée de l’utilisateur à l’origine de la publication du contenu notifié en ce sens, la mesure de retrait ou de rendu inaccessible est automatiquement suspendue. Ils informent le notifiant de sa possibilité de saisir le juge des référés.

« Le juge des référés se prononce dans un délai de quarante-huit heures à compter de la saisine.

« En cas d’appel, la cour se prononce dans un délai de quarante-huit heures à compter de la saisine.

« Les actions fondées sur le présent a sont exclusivement portées devant un tribunal de grande instance et une cour d’appel déterminée par décret.

La parole est à Mme Maryse Carrère.

Mme Maryse Carrère. L’article 2 introduit une modification substantielle du droit existant en cas de divergences d’appréciation sur le caractère licite ou non du contenu publié en ligne entre son auteur et la plateforme où le contenu a été publié.

Actuellement, la loi du 22 décembre 2018 prévoit que, lorsque l’auteur du contenu est en désaccord avec la notification, celui-ci reste en ligne jusqu’à ce qu’un juge tranche. Cela vise à faire primer la liberté d’expression sur la censure.

L’article 2 inverse ce principe, en prévoyant que, dorénavant, en cas de litige, le contenu sera supprimé ou rendu inaccessible. Or nous ne disposons pas d’étude d’impact pour évaluer les risques sur la liberté d’expression. En outre, nous ne sommes pas à même de juger si ces situations conflictuelles sont fréquentes et nous ne connaissons pas la politique des plateformes dans ces cas-là.

Le seul retour d’expérience dont nous disposons nous vient d’Allemagne, où près d’un million de notifications ont eu lieu en un an, donnant lieu à la suppression des contenus dans 17 % des cas. Ces chiffres peuvent être interprétés différemment : ils signifient soit que les utilisateurs ne connaissent pas bien la loi allemande et sur-notifient, soit que les plateformes ont une politique très libérale de maintien des contenus notifiés.

En l’absence de données plus précises, il nous paraît pertinent d’adopter une attitude prudente de maintien du droit existant plutôt que de mettre en place un système de notification qui pourrait aboutir à un outil de censure puissant.

Mme la présidente. L’amendement n° 31, présenté par M. Ouzoulias et les membres du groupe communiste républicain citoyen et écologiste, est ainsi libellé :

I. – Alinéa 11, première phrase

Après le mot :

décision

insérer les mots :

avant qu’elle ne prenne effet

II. – Après l’alinéa 11

Insérer quatre alinéas ainsi rédigés :

« En cas de protestation motivée de l’utilisateur à l’origine de la publication du contenu notifié, la mesure de retrait ou de rendu inaccessible est automatiquement suspendue. Ils informent le notifiant de sa possibilité de saisir le juge des référés.

« Le juge des référés se prononce dans un délai de quarante-huit heures à compter de la saisine.

« En cas d’appel, la cour se prononce dans un délai de quarante-huit heures à compter de la saisine.

« Les actions fondées sur le présent a sont exclusivement portées devant un tribunal de grande instance et une cour d’appel déterminée par décret.

La parole est à M. Pierre Ouzoulias.

M. Pierre Ouzoulias. Cet amendement, que nous avons élaboré avec le barreau de Paris, est presque identique à celui qui vient d’être présenté. Il tend à prévoir une voie de recours quand l’usager considère que ses messages ont été censurés à tort.

Mme la présidente. Quel est l’avis de la commission ?

M. Christophe-André Frassa, rapporteur. Ces amendements visent à réintroduire le juge dans le processus de retrait des contenus haineux. En l’espèce, en cas de contre-notification par l’auteur de contenus litigieux retirés, la plateforme devrait obligatoirement les rétablir, à charge pour le notifiant de saisir le juge des référés.

Même si je suis favorable sur le principe à la démarche, le manque de moyens de la justice rend assez illusoire le délai de quarante-huit heures laissé au juge pour statuer, si ce contentieux se développe.

Je décèle en outre deux problèmes dans la procédure envisagée.

D’une part, concernant l’intérêt pour agir du requérant, une notification de contenu haineux ou illicite à un hébergeur peut émaner de toute personne, sans qu’elle ait à justifier être personnellement lésée par ledit contenu. Or, devant le juge, son action devra bien s’appuyer sur un tel intérêt, sauf à permettre une sorte d’action populaire.

D’autre part, concernant l’articulation avec le régime de responsabilité de la LCEN, le dispositif envisagé oblige la plateforme à rétablir certains contenus litigieux dans l’attente de la décision du juge, laquelle peut prendre une semaine et lui donner tort, alors même que la plateforme engage sa responsabilité pénale et civile si elle ne les a pas retirés promptement.

C’est pourquoi la commission émet un avis défavorable sur ces amendements. Peut-être convient-il néanmoins d’entendre d’abord l’avis du Gouvernement.

Mme la présidente. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire dÉtat. Il existe déjà des voies de recours, qui nous paraissent suffisantes, pour les auteurs à l’origine de contenus, puisqu’ils peuvent contester en référé le retrait du contenu par la plateforme sur le fondement du droit commun.

Sur la question de savoir s’il faut mettre systématiquement le juge des référés dans la boucle, à l’instar du rapporteur, je ne puis qu’être d’accord en principe. En revanche, au-delà des moyens de la justice, on se heurte à un principe de réalité, qui rend cette mesure impossible.

Je répète les chiffres de l’attentat de Christchurch : la vidéo a été repostée 1,5 million de fois en vingt-quatre heures. Avec tous les moyens du monde, quand bien même cela ne concernerait pas 1,5 million de citoyens français, la justice ne sait pas juger en référé des centaines de milliers de contenus en vingt-quatre heures ou quarante-huit heures.

C’est pourquoi le Gouvernement émet un avis défavorable sur ces deux amendements.

Mme la présidente. La parole est à M. Pierre Ouzoulias, pour explication de vote.

M. Pierre Ouzoulias. Je comprends l’argumentation du rapporteur, qui me semble juste.

Monsieur le secrétaire d’État, je tiens à vous rappeler que, lorsque nous avons discuté ici de la loi relative à la lutte contre la manipulation de l’information, le Sénat vous a indiqué de manière unanime que saisir le juge des référés n’était pas une bonne solution.

Vous le confirmez aujourd’hui. Je vous en remercie.

Mme la présidente. Je mets aux voix l’amendement n° 26 rectifié.

(Lamendement nest pas adopté.)

Mme la présidente. Je mets aux voix l’amendement n° 31.

(Lamendement nest pas adopté.)

Mme la présidente. L’amendement n° 44, présenté par Mme de la Gontrie, MM. Assouline, Montaugé et Kanner, Mmes Artigalas et S. Robert, MM. Temal, Sueur, Jacques Bigot, Durain et Fichet, Mme Harribey, MM. Kerrouche, Leconte, Marie, Sutour et Antiste, Mmes Blondin, Ghali et Lepage, MM. Lozach, Magner et Manable, Mme Monier, M. M. Bourquin, Mme Conconne, MM. Courteau, Daunis et Duran, Mme Guillemot, MM. Tissot, Bérit-Débat et Joël Bigot, Mme Bonnefoy, MM. Botrel, Boutant et Carcenac, Mme Conway-Mouret, MM. Dagbert, Daudigny, Devinaz et Éblé, Mme Espagnac, M. Féraud, Mmes Féret et M. Filleul, M. Gillé, Mme Grelet-Certenais, MM. Houllegatte et Jacquin, Mme Jasmin, MM. P. Joly et Jomier, Mme G. Jourda, M. Lalande, Mme Lubin, MM. Lurel et Mazuir, Mmes Meunier, Perol-Dumont et Préville, MM. Raynal et Roger, Mmes Rossignol, Taillé-Polian et Tocqueville, MM. Todeschini, Tourenne et Vallini, Mme Van Heghe et M. Vaugrenard, est ainsi libellé :

Alinéa 14

Rédiger ainsi cet alinéa :

« 5° bis Ils mettent en œuvre les moyens appropriés pour empêcher la rediffusion en ligne de contenus identiques relevant des infractions mentionnées au troisième alinéa du 7 du I de l’article 6. »

La parole est à M. Franck Montaugé.

M. Franck Montaugé. Cet amendement vise à rétablir l’obligation mise à la charge des plateformes d’empêcher la réapparition de contenus haineux illicites identiques et déjà retirés.

Bien entendu, nous avons lu avec attention les observations de la Commission européenne relatives au risque de surveillance générale. Nous ne sommes pas dans ce cas.

D’une part, il s’agit d’une obligation de moyens. C’est la raison pour laquelle nous avons mentionné que les moyens mis en œuvre par la plateforme sont des moyens « appropriés ».

D’autre part, comme en droit interne, le droit européen est sujet à interprétation lorsqu’il est question de l’appliquer.

À ce propos, la Cour de justice de l’Union européenne a eu à se prononcer le 3 octobre dernier, dans le cadre d’une demande de décision préjudicielle sur l’interprétation des articles 14 et 15 de la directive e-commerce, afin de savoir si l’obligation de retrait de certaines informations illicites imposée à un hébergeur vise également d’autres informations identiques.

Selon la Cour de justice de l’Union européenne, la directive e-commerce du 8 juin 2000 ne s’oppose pas à ce qu’une juridiction d’un État membre puisse enjoindre à un hébergeur de supprimer les informations qu’il stocke et dont le contenu est identique à celui d’une information déclarée illicite précédemment ou de bloquer l’accès à celles-ci, quel que soit l’auteur de la demande de stockage de ces informations, dès lors qu’une telle injonction est limitée à des informations véhiculant un message dont le contenu demeure, en substance, inchangé par rapport à celui qui a donné lieu au constat d’illicéité, et qu’elle comporte les éléments spécifiés dans la demande. En outre, il faut qu’une telle opération ne soit pas de nature à contraindre l’hébergeur à procéder à une appréciation autonome de ce contenu.

Dans ce cadre et conformément à la jurisprudence de la Cour de justice de l’Union européenne, il est nécessaire de prévoir que les opérateurs mettent en œuvre les moyens appropriés pour empêcher la rediffusion en ligne de contenus illicites identiques.

Il est donc nécessaire de rétablir cette obligation.

Mme la présidente. Quel est l’avis de la commission ?

M. Christophe-André Frassa, rapporteur. J’ai bien suivi votre raisonnement, monsieur Montaugé : vous voulez rétablir cette obligation générale d’empêcher la réapparition des contenus illicites, le principe notice and stay down, qui est contraire au droit européen.

Or, dans votre amendement, vous parlez de tous les contenus illicites et non pas de ceux qui ont été déclarés comme tels par une juridiction. L’exception récente qui est ménagée par la Cour de justice de l’Union européenne et dont il est fait mention dans l’objet de cet amendement – l’arrêt Facebook – ne s’applique que de façon limitée aux contenus illicites qualifiés comme tels par une juridiction.

La commission émet par conséquent un avis défavorable sur cet amendement.

Mme la présidente. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire dÉtat. Même avis.

Mme la présidente. La parole est à M. Franck Montaugé, pour explication de vote.

M. Franck Montaugé. Monsieur le rapporteur, en présentant cet amendement, j’ai bien précisé qu’il s’agissait de contenus déjà déclarés illicites. Je ne comprends donc pas votre argumentation…

M. Christophe-André Frassa, rapporteur. Ce n’est pas dans le dispositif !

Mme la présidente. La parole est à M. David Assouline, pour explication de vote.

M. David Assouline. Nous avons là une nouvelle illustration de la façon dont nous travaillons : alors que M. Montaugé, en séance, nous explique comment il faut entendre son amendement, le seul argument du rapporteur consiste à souligner qu’une précision manque et cela lui suffit pour se prononcer contre ! Pourquoi ne pas sous-amender cet amendement ou le rectifier ? Nous pourrions ainsi nous mettre d’accord.

Il faut cesser de travailler dans l’urgence, de façon binaire, sans que personne fasse un pas vers l’autre.

Si l’amendement est rectifié de sorte qu’y figure explicitement ce qui allait de soi pour son auteur et qui mérite d’être précisé, le rapporteur est-il prêt à émettre un avis favorable ? Je pose la question.

Mme la présidente. Je mets aux voix l’amendement n° 44.

(Lamendement nest pas adopté.)

Mme la présidente. Je mets aux voix l’article 2, modifié.

(Larticle 2 est adopté.)

Article 2
Dossier législatif : proposition de loi visant à lutter contre les contenus haineux sur internet
Article 3 bis

Article 3

L’article 6-3 de la loi n° 2004-575 du 21 juin 2004 précitée, tel qu’il résulte de l’article 2 de la présente loi, est complété par des 6° à 11° ainsi rédigés :

« 6° Ils mettent à la disposition du public une information claire et détaillée, facilement accessible et visible, présentant à leurs utilisateurs les modalités de modération des contenus illicites mentionnés au troisième alinéa du 7 du I de l’article 6, et en particulier :

« a) Les sanctions, y compris pénales, que leurs utilisateurs encourent en cas de publication de ces contenus ;

« b) Les dispositifs de recours, internes et juridictionnels, dont disposent les victimes de ces contenus, les délais impartis pour le traitement de ces recours, ainsi que les acteurs en mesure d’assurer l’accompagnement de ces victimes ;

« c) Les sanctions encourues par les auteurs de notifications abusives et les voies de recours internes et juridictionnelles dont disposent les utilisateurs à l’origine de la publication de contenus indûment retirés ou rendus inaccessibles ;

« 7° Ils rendent compte des moyens humains et technologiques qu’ils mettent en œuvre et des procédures qu’ils adoptent pour se conformer aux obligations mentionnées au présent article, des actions et moyens qu’ils mettent en œuvre ainsi que des résultats obtenus dans la lutte et la prévention contre les contenus mentionnés au troisième alinéa du 7 du I du même article 6. Le Conseil supérieur de l’audiovisuel précise, par délibération et dans le respect du secret des affaires, les informations et les indicateurs chiffrés qui sont rendus publics au titre du présent 7° ainsi que les modalités et la périodicité de cette publicité ;

« 8° Ils sont tenus, lors de l’inscription à l’un de leurs services d’un mineur âgé de moins de quinze ans et dans le cas où leur offre de service implique un traitement de données à caractère personnel, de prévoir une information à destination du mineur et du ou des titulaires de l’autorité parentale sur l’utilisation civique et responsable dudit service et les risques juridiques encourus en cas de diffusion par le mineur de contenus haineux, à l’occasion du recueil des consentements mentionnés au deuxième alinéa de l’article 45 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés ;

« 9° (Supprimé)

« 10° Ils désignent un représentant légal, personne physique située sur le territoire français exerçant les fonctions d’interlocuteur référent pour l’application de l’article 6-2 de la présente loi et du présent article. Ce représentant légal est chargé de recevoir les demandes de l’autorité judiciaire en vertu de l’article 6 de la présente loi et les demandes du Conseil supérieur de l’audiovisuel en vertu de l’article 17-3 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication ;

« 11° Ils formulent en termes précis, aisément compréhensibles, objectifs et non discriminatoires les conditions générales d’utilisation du service qu’ils mettent à la disposition du public lorsqu’elles sont relatives aux contenus mentionnés au I de l’article 6-2 de la présente loi. »