M. Claude Malhuret. Mes chers collègues, les réseaux sociaux sont devenus dangereux ; ils injurient, ils humilient, ils blessent, et parfois pire. Ils commencent à miner la démocratie.

À plusieurs reprises, le législateur, ici même, à l’Assemblée nationale, au Parlement européen ou au Congrès américain, a tenté d’y mettre un peu d’ordre. Pour l’heure, nous avons en grande partie échoué. La dernière fois que nous avons essayé, c’était à l’occasion de l’examen de la proposition de loi Avia, quand nous nous sommes divisés sur le sujet de la liberté d’expression.

De toute façon, les lois de même nature, y compris la loi allemande, beaucoup plus stricte, ne règlent pas le problème, puisqu’elles portent sur la modération a posteriori et qu’aucun juge ne pourra jamais intervenir efficacement sur les millions de messages postés quotidiens sur les réseaux sociaux – c’est exactement ce que vous avez dit il y a un instant, monsieur le secrétaire d’État.

La raison de notre impuissance, c’est que nous avons cédé à l’argumentaire des plateformes numériques et de leurs milliers de lobbyistes, expliquant qu’ils étaient de simples hébergeurs des messages émis par leurs abonnés et non, comme la presse, des éditeurs responsables des contenus.

Ce raisonnement les exonère de la responsabilité des contenus illicites, mais c’est évidemment une fiction : en effet, ces plateformes ne se contentent pas d’héberger des contenus.

Leur business model est même à l’opposé, puisqu’il aboutit, par l’intermédiaire des algorithmes, à sélectionner les contenus les plus discutables, les plus polémiques, les plus violents – ce sont ceux qui génèrent le plus d’émotion, donc le plus de messages et le plus de fric.

Certains disent, en parlant de la modération, que l’on ne peut confier la censure aux plateformes et que nous devons la réserver au juge. Bien sûr, mais c’est dès aujourd’hui que la censure est confiée aux plateformes, qui plus est en amont, puisque c’est par l’usage de ces algorithmes que les plateformes suppriment ou dégradent la visibilité des contenus, disons, normaux, au profit des plus dangereux.

Loin d’être de simples hébergeurs, ces plateformes sont donc bien, par la sélection qu’elles opèrent dans la présentation, des producteurs de contenus ; elles doivent en assumer la responsabilité, comme, par exemple, les éditeurs de journaux qui sont responsables de leurs articles et des courriers des lecteurs qu’ils sélectionnent.

C’est le sens de cet amendement, qui vise à maintenir le régime exonératoire de responsabilité pour les sites dont l’activité n’excède pas celle d’un simple hébergeur et à rendre enfin responsables les autres sites pour les contenus qu’ils diffusent, bien entendu devant un juge.

Mme la présidente. Quel est l’avis de la commission ?

Mme Dominique Vérien, rapporteure. La responsabilisation des plateformes est un combat qui est cher à M. Malhuret ; je le comprends parfaitement, et il me semble utile de mener ce combat.

Pour autant, cet amendement est contraire au droit européen actuel, puisqu’il tend à ajouter des critères plus restrictifs que la définition posée par la directive dite « e-commerce » et par la Cour de justice de l’Union européenne. S’il était adopté, il exclurait du statut d’hébergeur des plateformes actuellement protégées par le droit européen, dont la loi pour la confiance dans l’économie numérique n’a pu qu’assurer la transposition fidèle.

La redéfinition des obligations des hébergeurs est au cœur des réflexions en cours autour du Digital Services Act, ou DSA. C’est à l’échelle européenne qu’il faut agir pour réformer la directive e-commerce et aboutir à ce que M. Malhuret souhaite. Cela ne peut malheureusement pas se faire au travers de cet amendement.

L’avis de la commission est donc défavorable.

Mme la présidente. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire dÉtat. Ce sujet revient assez souvent dans le débat public, et nous avons eu l’occasion d’en discuter ici même lors de l’examen de la proposition de loi Avia.

Mme la rapporteure a avancé des arguments juridiques ; je placerai donc mon avis dans une autre perspective.

Les réseaux sociaux ont permis aux Français et aux autres citoyens du monde de beaucoup plus communiquer entre eux et sans intermédiaire. Le monde s’est-il amélioré pour autant ? La démocratie fonctionne-t-elle mieux depuis l’émergence des réseaux sociaux et de cette formidable désintermédiation ? Notre société s’en porte-t-elle mieux ?

Très honnêtement, je ne suis pas sûr que ce soit le cas et que l’équilibre actuel soit le meilleur qui soit. Dans un premier temps, cette évolution a été très enthousiasmante, mais nous en avons vu les limites au bout de quelques années. C’est pourquoi je ne suis pas sûr que le rapport entre les bénéfices et les inconvénients nous soit in fine favorable.

Pour autant, je ne suis pas non plus certain d’avoir la légitimité pour interdire les réseaux sociaux, parce que les transformer en éditeurs, comme vous le proposez, revient au fond à cela. D’ailleurs, serait-ce vraiment une bonne chose pour la société et la démocratie ? Encore une fois, je ne le pense pas. Mettre fin aux réseaux sociaux ne me semble pas faisable politiquement ou démocratiquement. Il serait d’ailleurs étrange que l’État interdise ce type d’outil.

Si nous décidions de rendre les réseaux sociaux éditeurs, ils seraient responsables de tous les contenus qu’ils publient. Or est-il normal, juridiquement ou éthiquement, de considérer que la plateforme est responsable de ce que moi, Cédric O, par exemple, publie, même si j’en viens à insulter telle ou telle personne, voire la Terre entière ?

De quoi les plateformes sont-elles responsables aujourd’hui ? Pourquoi essayons-nous de mettre en place, dans le cadre du DSA, une forme de tierce responsabilité ?

En fait, elles sont responsables de l’accélération des contenus. Je vous rejoins sur le fait qu’elles ne sont pas que des hébergeurs : elles accélèrent les contenus, elles les éditorialisent, elles vous présentent un contenu plutôt qu’un autre, elles vous enferment très souvent dans un silo informationnel. C’est cette responsabilité d’accélération que le DSA va essayer d’encadrer.

Les plateformes ne sont ni des éditeurs – elles ne sont pas responsables de la production du contenu – ni de simples hébergeurs. Elles éditorialisent les contenus. Elles accélèrent de manière automatique des contenus produits par d’autres.

Est-ce que le DSA et le projet de loi dont nous débattons aujourd’hui iront au bout de la question de la régulation ?

Probablement pas, mais il me semblerait abusif de considérer que les plateformes sont des éditeurs, parce que cela les forcerait à revoir l’ensemble des contenus qu’elles publient, ce qui tuerait leur modèle. Elles ne peuvent pas, vous l’avez dit vous-même, revoir l’ensemble des contenus publiés ; le leur demander tuerait, je le répète, leur modèle.

Je pourrais bien sûr m’abriter derrière un certain nombre d’arguments techniques, mais sur le fond, je pense que votre approche est discutable, même si elle est éminemment respectable ; nous avons eu l’occasion d’en débattre à plusieurs reprises.

Il me semble que la recherche d’un statut tiers, entre éditeur et hébergeur, est la bonne manière d’approcher le problème. C’est ce que nous essayons de faire au niveau européen. Cela demande du temps et ne fermera pas le débat, mais c’est à mon sens la seule manière d’aborder ce sujet, même si cela ne suffira certainement pas à le régler.

Le Gouvernement émet donc un avis défavorable.

Mme la présidente. La parole est à Mme Nathalie Goulet, pour explication de vote.

Mme Nathalie Goulet. Je ne partage pas du tout votre point de vue, monsieur le secrétaire d’État, et je soutiendrai l’amendement de notre collègue Claude Malhuret.

Vous vous affirmez que nous allons « tuer le modèle », mais c’est plutôt le modèle qui va nous tuer ! (Sourires.) D’ailleurs, les réseaux se considèrent eux-mêmes comme autre chose qu’un hébergeur ; il suffit de prendre l’exemple de ce qui est arrivé à l’excellent président Trump : Twitter s’est senti tellement responsable de ce qui se passait que son compte a été fermé !

Je crois que nous devons absolument prendre position dès maintenant.

De toute façon, chacune de ces plateformes a désormais un comité Théodule pour réguler les choses et pour parfois fermer des comptes. Quoi que l’on pense de la décision de supprimer le compte de Trump, il faut reconnaître que c’est un acte fort.

Dans ce contexte, la disposition qui consiste à rendre ces plateformes civilement et pénalement responsables des informations stockées ou mises à disposition du public sera, à mon sens, un premier pas. Et je ne vais pas aborder maintenant la question de la fiscalité des entreprises du numérique…

Vous nous dites, je le répète, que nous allons tuer le modèle, mais je vous signale que ce n’est pas le nôtre – nous le subissons ! Par ailleurs, nous devons absolument engager des discussions un peu plus fermes avec les dirigeants de ces entreprises.

Je comprends que les réponses passent par l’échelon européen, mais cela ne nous empêche pas de soutenir cet amendement. C’est d’ailleurs ce que je vais faire !

Mme la présidente. La parole est à M. David Assouline, pour explication de vote.

M. David Assouline. Ce débat est vraiment très complexe, et il est évident que nous n’allons pas le clore maintenant.

Les États n’ont toujours pas trouvé les moyens d’être aussi performants que les réseaux sociaux pour faire la police au sein des publications des plateformes. Ils peinent encore à agir directement. Dans le même temps, nos démocraties sont confrontées à d’importants dangers.

Dans ce contexte, je ne suis pas d’accord pour dire, monsieur le secrétaire d’État, que la seule responsabilité des plateformes est d’accélérer ou de rendre plus visible un contenu illicite. D’autres aspects peuvent être absolument inacceptables : le seul fait de publier un post peut produire des dégâts majeurs ; pourtant, la plateforme se sent tellement irresponsable qu’elle n’agit pas pour le supprimer.

Ce débat a évidemment pris de l’ampleur avec ce qui s’est passé outre-Atlantique, puisqu’une plateforme a décidé de supprimer non seulement les contenus, mais aussi le compte lui-même du président des États-Unis.

Certains y ont vu une mesure liberticide, qui bridait la fonction même des réseaux sociaux ; d’autres ont considéré que la liberté avait bon dos : comment considérer que la plateforme n’a aucune responsabilité lorsque des gens répondent à un appel passant par elle et envahissent le Congrès, l’enceinte de la démocratie américaine ? C’est quelque chose de fou !

Ce précédent doit ouvrir une nouvelle phase de discussions, mais vous avez tendance, monsieur le secrétaire d’État, à être assez complaisant avec ces plateformes, au nom de tel ou tel argument – vous avez parlé tout à l’heure de leur modèle économique –, alors qu’il faut maintenant les mettre au pas.

Mme la présidente. La parole est à M. Pierre Ouzoulias, pour explication de vote.

M. Pierre Ouzoulias. Je partage totalement les propos qui viennent d’être tenus.

Nous discutons d’un texte pour conforter le respect des principes de la République et nous avons assisté, complètement éberlués, au renversement en direct des principes de la République américaine. Souvenez-vous de ces gens qui sont entrés dans le Capitole pour assassiner nos collègues sénateurs des États-Unis ! Tout cela a été organisé et coordonné sur les réseaux sociaux et a été vu en direct par l’ensemble de la planète.

Quel terrible exemple pour la démocratie ! Quel sentiment d’impuissance et de fragilité par rapport à des monstres qui ont aujourd’hui décidé, nolens volens, de se placer en dehors de toutes les règles démocratiques !

Vous nous dites, monsieur le secrétaire d’État, que ce n’est pas l’heure et qu’il faut attendre. En fait, pour vous, ce n’est jamais le moment !

Or certaines dispositions législatives ne sont pas appliquées à ce jour. Je prends un exemple : la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet, Hadopi, a d’ores et déjà la possibilité de demander leurs algorithmes à certaines plateformes, notamment celles qui hébergent des vidéos. Mais la Hadopi ne reçoit pas ces derniers. La loi exige donc déjà une transparence des algorithmes, mais vous ne réussissez pas à la mettre en œuvre.

À un moment, il faut cesser d’être iréniste et de tout accepter. Il faut au contraire envoyer un message politique fort pour dire que l’on ne peut plus tout accepter. C’est pour cette raison que le groupe CRCE votera cet amendement.

Mme la présidente. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire dÉtat. On ne peut pas m’accuser en même temps d’être aujourd’hui iréniste et hier liberticide, lorsque je défendais des mesures agressives. Je comprends qu’il existe des oppositions différentes, mais tout de même…

Je voudrais d’ailleurs répondre à M. Assouline. Lorsque nous avons débattu de la proposition de loi Avia, Dieu sait que vous avez été particulièrement virulent à notre égard sur la question d’une éventuelle censure. Or si vous voulez que les plateformes soient responsables de chacun des contenus qu’elles publient, je suis très étonné, car vous défendez alors l’exact contraire de ce que vous disiez pendant les débats sur cette proposition de loi.

En effet, une telle mesure signifie que les plateformes doivent mettre en place un système de filtrage a priori : le filtre devra opérer avant même la diffusion du message ! (M. David Assouline sexclame.)

Si vous défendez aujourd’hui le fait que les plateformes soient pénalement et juridiquement responsables des contenus, c’est un changement majeur de votre part, parce que vous pouvez être assuré qu’une telle délégation du contrôle du respect de la liberté d’expression à une plateforme privée entraînera à 100 % de la censure. C’est certain !

M. Ouzoulias et vous défendez la supervision des politiques de modération des plateformes. Or c’est précisément ce qui est prévu dans le DSA ! Nous disons simplement : les plateformes ne sont pas responsables de chaque contenu, y compris ceux qui sont publiés par le président des États-Unis ou par tout autre responsable politique, mais elles doivent avoir une politique de modération, sous la supervision de la puissance publique.

Par conséquent, il me semble que la meilleure façon d’atteindre votre objectif, monsieur Assouline, celui que vous avez défendu durant les débats sur la proposition de loi Avia, c’est de soutenir les discussions autour du DSA, et non de transformer les hébergeurs en éditeurs. Pardon de vous le dire !

Mme la présidente. La parole est à Mme Esther Benbassa, pour explication de vote.

Mme Esther Benbassa. Je ne serai pas indifférente à l’amendement de M. Malhuret, dont l’adoption permettrait de responsabiliser Facebook et les autres plateformes, notamment à l’égard des propos complotistes, haineux ou racistes. L’utilisation d’algorithmes favorise en effet la profusion de tels contenus.

Le groupe Écologiste – Solidarité et Territoires votera donc cet amendement.

Mme la présidente. La parole est à M. Claude Malhuret, pour explication de vote.

M. Claude Malhuret. Je voudrais répondre en premier lieu à M. le secrétaire d’État. Selon lui, cet amendement va tuer les réseaux sociaux : ils vont disparaître, si nous le votons.

Monsieur le secrétaire d’État, permettez-moi de penser que les réseaux sociaux ont suffisamment de capacité de résistance ou de réaction ! Ils en ont vu bien d’autres… Je ne pense vraiment pas que c’est cet amendement qui va les tuer. D’ailleurs, il vise non pas à les tuer, mais à les responsabiliser, en changeant un business model qui est délétère et qui entraîne toutes les conséquences que nous connaissons.

Ensuite, vous nous dites, monsieur le secrétaire d’État, que les discussions autour du DSA ont pour objectif de créer un statut tiers, entre hébergeur et éditeur. Mais mon amendement n’a pas un tel objet. Je me fiche de savoir si les plateformes sont des hébergeurs ou des éditeurs ! Je pense qu’elles sont des éditeurs, mais mon amendement vise simplement à ce qu’elles soient responsables de leurs algorithmes et du contenu qu’elles produisent. Si vous voulez créer un statut tiers, cela ne me pose aucun problème.

Vous nous dites aussi que l’adoption de cet amendement forcerait les hébergeurs et les plateformes à vérifier un par un l’ensemble des contenus. Ce n’est pas non plus ce que je demande !

Nous voulons simplement que leurs algorithmes ne permettent pas la sélection des contenus les plus mauvais et les plus dangereux. Si elles sont responsables, c’est uniquement de leurs algorithmes et, s’il y a une contestation devant un juge – j’espère que cela sera possible un jour ou l’autre ! –, ce dernier appréciera si l’algorithme est à l’origine du problème – le juge peut aussi évidemment apprécier le contenu du message lui-même.

Par conséquent, je ne pense pas que les réponses que vous nous apportez soient pertinentes.

Les plateformes craignent beaucoup que nous n’allions dans le sens de cet amendement. La dernière chose qu’elles souhaitent, c’est que l’on se penche sur leurs algorithmes. Pour l’éviter, elles se cachent derrière le secret de fabrication. C’est ainsi qu’elles évitent les procès. Mais ce prétexte sert juste à protéger les sales petits secrets des algorithmes, que les Gafam ne veulent absolument pas voir dévoilés un jour à l’occasion d’une enquête ou d’un procès.

Ce type de nouvelle régulation est discuté en ce moment même à la Commission européenne et, de façon bipartisane, au Congrès américain.

Or les États-Unis ont toujours la prééminence dans le domaine d’internet. Si nous pouvions faire en sorte que, pour une fois, la France, en particulier le Sénat, soit à l’origine d’une loi de régulation des réseaux sociaux, sans attendre les habituels deux ans des discussions communautaires, il s’agirait une initiative très profitable. (Mme Nathalie Goulet applaudit.)

Mme la présidente. La parole est à M. le secrétaire d’État.

M. Cédric O, secrétaire dÉtat. Monsieur le sénateur, votre amendement vise à désigner les plateformes comme pénalement et juridiquement responsables pour les contenus qu’elles produisent. Par conséquent, votre proposition considère chaque contenu comme étant le cœur du problème.

Si vous souhaitez faire la transparence sur les algorithmes et mettre ceux-ci sous supervision publique, votez l’article 19 bis de ce texte, car nous y visons le même objectif. Mais contrairement à vous, nous le faisons de manière systémique, et non contenu par contenu. Les plateformes seront responsables de leurs algorithmes et de la manière dont elles gèrent leurs contenus. En outre, elles devront être transparentes sur tout cela.

Mme la présidente. Je mets aux voix l’amendement n° 250 rectifié sexies.

(Lamendement est adopté.)

Article additionnel après l'article 19 - Amendement  n° 250 rectifié sexies
Dossier législatif : projet de loi confortant le respect des principes de la République
Article 19 bis A

Mme la présidente. En conséquence, un article additionnel ainsi rédigé est inséré dans le projet de loi, après l’article 19.

Je suis saisie de deux amendements faisant l’objet d’une discussion commune.

L’amendement n° 500 rectifié, présenté par M. Ravier, est ainsi libellé :

Après l’article 19

Insérer un article additionnel ainsi rédigé :

Après l’article 6-1 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, sont insérés deux articles 6-1-1 et 6-1-2 ainsi rédigés :

« Art. 6-1-1. – Le fait de retirer, de restreindre ou de suspendre la diffusion d’un contenu ou d’une activité dont l’illicéité n’est pas manifeste sur une plateforme en ligne au sens du I de l’article L. 111-7 du code de la consommation qui propose un service de communication au public reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics est puni d’un an d’emprisonnement et de 250 000 euros d’amende. Le fait de supprimer, de suspendre ou de restreindre l’accès à cette plateforme en raison de la diffusion d’un contenu ou d’une activité dont l’illicéité n’est pas manifeste est puni des mêmes peines.

« Art. 6-1-2. – L’autorité judiciaire peut prescrire en référé à tout opérateur de plateforme en ligne au sens du I de l’article L. 111-7 du code de la consommation qui propose un service de communication au public reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics de mettre fin sans délai à un fait qu’elle estime relever de l’interdiction mentionnée à l’article 6-1-1 de la présente loi ou aux conséquences de ce fait.

« Elle se prononce dans un délai de quarante-huit heures.

« La procédure est entièrement dématérialisée et, sauf opposition de l’une des parties, l’audience a lieu par l’intermédiaire d’un moyen de télécommunication permettant de certifier l’identité des personnes et de garantir la qualité de la transmission. »

La parole est à M. Stéphane Ravier.

M. Stéphane Ravier. Monsieur le secrétaire d’État, mes chers collègues, vous comptez sur la lutte contre la haine en ligne pour endiguer l’islamisme. Pourquoi pas ?

Cependant, pour que la mesure soit équilibrée et pas seulement contraignante pour les utilisateurs, je vous propose également un dispositif législatif visant à interdire les entraves à la liberté d’expression sur les réseaux sociaux par les géants du numérique.

L’amendement que notre assemblée a l’honneur d’examiner vise à interdire la censure de propos licites et non punis par la loi française sur ces réseaux et à mettre en place une voie de recours spécifique, rapide et dématérialisée, en vue de permettre aux utilisateurs entravés de contester les mesures prises par les réseaux sociaux.

Les entraves à la liberté d’expression par les géants d’internet, propriétaires des réseaux, sont devenues monnaie courante et présentent de vrais problèmes démocratiques, notamment quand il s’agit de censurer les publications de parlementaires ou d’autres élus, d’autant que cette mesure concerne toujours, ou presque, le même sujet : la critique de l’immigration et de l’islamisme.

À la fin du mois de janvier, le compte Twitter de notre collègue Sébastien Meurant a ainsi été suspendu pour avoir diffusé la photo d’une femme en burqa et rappelé la loi.

Notre droit doit s’armer et s’affirmer au fil de la transition numérique et assurer les conditions de la liberté d’expression. Les problèmes de notre société ne se régleront pas en mettant un modérateur, aussi omnipotent soit-il, sur un réseau social, un réseau qui n’est qu’une fenêtre d’expression, souvent révélatrice de malaises profonds du quotidien de nos compatriotes.

M. David Assouline. C’est faux !

M. Stéphane Ravier. Les réseaux sociaux sont devenus de vrais médias d’opinion et d’information que la loi doit réguler, pour y assurer l’égalité de traitement et la sécurité de la liberté d’expression, comme ailleurs dans la société.

Les 26 et 27 mars dernier, les comptes Twitter de Marika Bret, figure de Charlie Hebdo, et de la vice-présidente d’une association pro-laïcité ont été suspendus pour avoir posté la une du journal satirique représentant Erdogan dénudé. Certes, ce n’était pas d’une grande finesse, avouons-le, mais ces méthodes de censeurs sont inacceptables. Le sultan turc n’aurait pas fait mieux !

Il faut assurer le respect de la liberté d’expression pour lutter contre les islamistes, ennemis de la liberté. Le comportement partisan des Gafam doit cesser et votre positionnement, mes chers collègues, doit être un exemple de législation transpartisane, au travers du vote de cet amendement en faveur de la liberté d’expression numérique.

Mme la présidente. L’amendement n° 169 rectifié bis, présenté par Mme V. Boyer, MM. Le Rudulier et Boré, Mme Goy-Chavent, MM. Bascher et Meurant, Mme Joseph, MM. Charon, Longuet et Bouchet, Mme Drexler et MM. Genet, Savary, H. Leroy, Segouin et Tabarot, est ainsi libellé :

Après l’article 19

Insérer un article additionnel ainsi rédigé :

Après l’article 6-2 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la loi n° 2020-1266 du 19 octobre 2020 précitée, il est inséré un article 6-… ainsi rédigé :

« Art. 6-…. – Le fait de retirer, de restreindre ou de suspendre la diffusion d’un contenu ou d’une activité dont l’illicéité n’est pas manifeste sur une plateforme en ligne au sens du I de l’article L. 111-7 du code de la consommation qui propose un service de communication au public reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics est puni d’un an d’emprisonnement et de 250 000 euros d’amende. Le fait de supprimer, de suspendre ou de restreindre l’accès à cette plateforme en raison de la diffusion d’un contenu ou d’une activité dont l’illicéité n’est pas manifeste est puni des mêmes peines. »

La parole est à Mme Sabine Drexler.

Mme Sabine Drexler. Il s’agit encore d’un amendement porté par ma collègue Valérie Boyer.

L’auteur de propos bloqués par des plateformes de réseaux sociaux ne dispose d’aucune voie pénale spécifique pour faire cesser l’entrave à la liberté d’expression que constitue ce blocage. Il est seulement prévu par la loi pour la confiance dans l’économie numérique que le signalement abusif aux hébergeurs d’un contenu en vue d’en obtenir le retrait peut être sanctionné pénalement, mais la plainte ne vise pas tant la plateforme qu’un autre utilisateur du réseau.

Par cet amendement, il s’agit donc de créer un nouveau délit, sanctionnant la suppression par une plateforme d’un contenu dont l’illicéité n’est pas manifeste.

Mme la présidente. Quel est l’avis de la commission ?

Mme Dominique Vérien, rapporteure. Ces deux amendements tendent à créer un nouveau délit pour sanctionner la suppression indue par une plateforme d’un contenu dont l’illicéité n’est pas manifeste.

Le risque serait qu’il y ait des censures directes de la part des plateformes pour éviter de courir ce risque.

Par ailleurs, je me dois de rappeler qu’une plateforme n’est pas un service public, donc les responsables doivent pouvoir continuer à y modérer des contenus publiés. Ces derniers, bien que parfaitement licites au regard du droit pénal, ne sont pas autorisés par leurs règles générales d’utilisation.

En outre, les peines proposées sont calquées sur celles qui étaient prévues par la loi Avia, déjà jugée totalement disproportionnée à cet égard.

Enfin, l’imputabilité de la sanction est douteuse. Qui enverra-t-on en prison ? Le P-DG de Twitter ou le modérateur indien ?

Pour toutes ces raisons, la commission a émis un avis défavorable sur ces deux amendements.

Mme la présidente. Quel est l’avis du Gouvernement ?

M. Cédric O, secrétaire dÉtat. Même avis, madame la présidente.

Mme la présidente. Je mets aux voix l’amendement n° 500 rectifié.

(Lamendement nest pas adopté.)

Mme la présidente. Je mets aux voix l’amendement n° 169 rectifié bis.

(Lamendement nest pas adopté.)

Article additionnel après l'article 19 - Amendements n° 500 rectifié et n° 169 rectifié bis
Dossier législatif : projet de loi confortant le respect des principes de la République
Article 19 bis B (nouveau)

Article 19 bis A

(Non modifié)

Le troisième alinéa du 7 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique est ainsi modifié :

1° Après la première occurrence du mot : « apologie », sont insérés les mots : « , de la négation ou de la banalisation » ;

2° Après la référence : « article 24 », est insérée la référence : « et à l’article 24 bis ». – (Adopté.)

Article 19 bis A
Dossier législatif : projet de loi confortant le respect des principes de la République
Article 19 bis

Article 19 bis B (nouveau)

Le troisième alinéa de l’article 6-1 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique est ainsi modifié :

1° La première phrase est ainsi modifiée :

a) Les mots : « la Commission nationale de l’informatique et des libertés » sont remplacés par les mots : « le Conseil supérieur de l’audiovisuel » ;

b) À la fin, les mots : « dans cette commission » sont remplacés par les mots : « au Conseil » ;

2° La deuxième phrase est supprimée. – (Adopté.)

Article 19 bis B (nouveau)
Dossier législatif : projet de loi confortant le respect des principes de la République
Article 19 ter A (nouveau)

Article 19 bis

I. – Le chapitre II du titre Ier de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique est ainsi modifié :

1° Le quatrième alinéa du 7 du I de l’article 6 est ainsi modifié :

a) La première phrase est complétée par les mots : « et rendre publics les moyens qu’elles consacrent à la lutte contre les activités illicites mentionnées au troisième alinéa du présent 7 » ;

b) Après la même première phrase, est insérée une phrase ainsi rédigée : « Ces obligations ne sont pas applicables aux opérateurs mentionnés au premier alinéa de l’article 6-5 pour la lutte contre la diffusion des contenus mentionnés au même premier alinéa. » ;

c) La seconde phrase est ainsi modifiée :

– au début, le mot : « Elles » est remplacé par les mots : « Les personnes mentionnées aux 1 et 2 » ;

– les mots : « , d’une part, » sont supprimés ;

– les mots : « à l’alinéa précédent » sont remplacés par les mots : « au troisième alinéa » ;

– après le mot : « services », la fin est supprimée ;

2° Après l’article 6-2, dans sa rédaction résultant de la loi n° 2020-1266 du 19 octobre 2020 précitée, il est inséré un article 6-5 ainsi rédigé :

« Art. 6-5. – Les opérateurs de plateforme en ligne définis à l’article L. 111-7 du code de la consommation qui proposent un service de communication au public en ligne reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics mis en ligne par des tiers, à l’exception des prestataires de services d’encyclopédies en ligne à but non lucratif, et dont l’activité sur le territoire français dépasse un seuil de nombre de connexions déterminé par décret, qu’ils soient ou non établis sur le territoire français, concourent à la lutte contre la diffusion publique des contenus contrevenant aux dispositions mentionnées au troisième alinéa du 7 du I de l’article 6 de la présente loi ainsi qu’aux troisième et quatrième alinéas de l’article 33 de la loi du 29 juillet 1881 sur la liberté de la presse. À ce titre :

« 1° Ils mettent en œuvre des procédures et des moyens humains et technologiques proportionnés permettant :

« a) D’informer, dans les meilleurs délais, les autorités judiciaires ou administratives des actions qu’ils ont mises en œuvre à la suite des injonctions émises par ces autorités relatives aux contenus mentionnés au premier alinéa du présent article ;

« b) D’accuser réception sans délai des demandes des autorités judiciaires ou administratives tendant à la communication des données dont ils disposent, de nature à permettre l’identification des utilisateurs qui ont mis en ligne des contenus mentionnés au même premier alinéa, et d’informer ces autorités dans les meilleurs délais des suites données à ces demandes ;

« c) De conserver temporairement les contenus qui leur ont été signalés comme contraires aux dispositions mentionnées audit premier alinéa et qu’ils ont retirés ou rendus inaccessibles, aux fins de les mettre à la disposition de l’autorité judiciaire pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales ; la durée et les modalités de conservation de ces contenus sont définies par décret en Conseil d’État, après avis de la Commission nationale de l’informatique et des libertés ;

« 2° Ils désignent un point de contact unique, personne physique chargée de la communication avec les autorités publiques pour la mise en œuvre du présent article, auquel peuvent notamment être adressées par voie électronique les demandes présentées par le Conseil supérieur de l’audiovisuel en application de l’article 62 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication. Ce point de contact unique est notamment chargé de recevoir les requêtes adressées à l’opérateur par l’autorité judiciaire selon les modalités prévues au II de l’article 6 de la présente loi, en vue d’en assurer un traitement rapide ;

« 3° Ils mettent à la disposition du public, de façon facilement accessible, les conditions générales d’utilisation du service qu’ils proposent ; ils y intègrent des dispositions prévoyant l’interdiction de mettre en ligne les contenus mentionnés au premier alinéa du présent article ; ils y décrivent en termes clairs et précis leur dispositif de modération visant à détecter, le cas échéant, à identifier et à traiter ces contenus, en détaillant les procédures et les moyens humains ou automatisés employés à cet effet ainsi que les mesures qu’ils mettent en œuvre affectant la disponibilité, la visibilité et l’accessibilité de ces contenus ; ils y indiquent les mesures qu’ils mettent en œuvre à l’égard des utilisateurs qui ont mis en ligne ces contenus ainsi que les recours internes et judiciaires dont disposent ces utilisateurs ;

« 4° Ils rendent compte au public des moyens mis en œuvre et des mesures adoptées pour lutter contre la diffusion, auprès des utilisateurs situés sur le territoire français, des contenus mentionnés au même premier alinéa, par la publication, selon des modalités et une périodicité fixées par le Conseil supérieur de l’audiovisuel, d’informations et d’indicateurs chiffrés, définis par celui-ci, portant notamment sur le traitement des injonctions ou demandes d’informations des autorités judiciaires ou administratives, des notifications reçues et des recours internes des utilisateurs ainsi que, le cas échéant, les critères de sélection des tiers de confiance dont les notifications font l’objet d’un traitement prioritaire et les modalités de coopération avec ces tiers ;

« 5° Ils mettent en place un dispositif aisément accessible et facile d’utilisation permettant à toute personne de porter à leur connaissance, par voie électronique, un contenu qu’elle considère comme contraire aux dispositions mentionnées audit premier alinéa, de préciser clairement son emplacement ainsi que les raisons pour lesquelles elle estime que ce contenu doit être considéré comme illégal et de fournir les informations permettant de la contacter, en l’informant des sanctions encourues en cas de notification abusive ;

« 5° bis Ils s’assurent que les notifications soumises par les entités qu’ils reconnaissent comme tiers de confiance et concernant des contenus illicites mentionnés au même premier alinéa font l’objet d’un traitement prioritaire.

« Le statut de tiers de confiance est attribué, selon des modalités fixées par le Conseil supérieur de l’audiovisuel, dans des conditions transparentes, non discriminatoires et à leur demande, aux entités qui disposent d’une expertise et de compétences particulières aux fins de la détection, de l’identification et du signalement des contenus illicites mentionnés au même premier alinéa, qui représentent des intérêts collectifs et présentent des garanties d’indépendance, de diligence et d’objectivité ;

« 6° Ils mettent en œuvre des procédures et des moyens humains et technologiques proportionnés permettant :

« a) D’accuser réception sans délai des notifications relatives aux contenus mentionnés au même premier alinéa, sous réserve de disposer des informations nécessaires pour contacter leur auteur ;

« b) De garantir l’examen approprié de ces notifications dans un prompt délai ;

« c) D’informer leur auteur des suites qui y sont données ainsi que des voies de recours internes et judiciaires dont il dispose, sous réserve de disposer des informations nécessaires pour le contacter ;

« d) Lorsqu’ils décident de retirer ou de rendre inaccessible un contenu pour un motif tiré de la méconnaissance des dispositions mentionnées au même premier alinéa, d’en informer l’utilisateur à l’origine de sa publication, sous réserve de disposer des informations nécessaires pour le contacter :

« – en indiquant les raisons qui ont motivé cette décision ;

« – en précisant si cette décision a été prise au moyen d’un outil automatisé ;

« – en l’informant des voies de recours internes et judiciaires dont il dispose ;

« – et en l’informant que des sanctions civiles et pénales sont encourues pour la publication de contenus illicites ;

« Le présent d ne s’applique pas lorsqu’une autorité publique le demande pour des raisons d’ordre public ou à des fins de prévention et de détection des infractions pénales, ainsi que d’enquêtes et de poursuites en la matière ;

« 7° Ils mettent en œuvre des dispositifs de recours interne permettant :

« a) À l’auteur d’une notification relative à un contenu mentionné au premier alinéa du présent article, de contester la décision adoptée par l’opérateur en réponse à cette notification ;

« b) À l’utilisateur à l’origine de la publication d’un contenu ayant fait l’objet d’une décision mentionnée au d du 6° de contester cette décision ;

« c) À l’utilisateur ayant fait l’objet d’une décision mentionnée aux a ou b du 8° de contester cette décision.

« Ils veillent à ce que ces dispositifs soient aisément accessibles et faciles d’utilisation et à ce qu’ils permettent un traitement approprié des recours dans les meilleurs délais, qui ne soit pas uniquement fondé sur l’utilisation de moyens automatisés, une information sans délai de l’utilisateur sur la décision adoptée et l’annulation sans délai des mesures relatives au contenu en cause ou à l’utilisateur mises en œuvre par l’opérateur lorsque le recours le conduit à considérer que la décision contestée n’était pas justifiée ;

« 8° Lorsqu’ils décident de mettre en œuvre de telles procédures, ils exposent dans leurs conditions d’utilisation, en des termes clairs et précis, les procédures conduisant :

« a) À suspendre ou, dans les cas les plus graves, à résilier le compte des utilisateurs qui ont mis en ligne de manière répétée des contenus contraires aux dispositions mentionnées au premier alinéa du présent article ;

« b) À suspendre l’accès au dispositif de notification à l’égard des utilisateurs qui ont soumis, de manière répétée, des notifications manifestement infondées relatives aux contenus mentionnés au même premier alinéa.

« Lorsque de telles procédures sont mises en œuvre, elles prévoient un examen au cas par cas visant à caractériser de façon objective l’existence d’un comportement mentionné aux a ou b du présent 8°, en tenant compte notamment :

« – du nombre de contenus illicites mentionnés au premier alinéa du présent article ou de notifications manifestement infondées dont l’utilisateur a été à l’origine au cours de l’année écoulée, à la fois en valeur absolue et en proportion du nombre total de contenus ou de notifications dont il a été à l’origine ;

« – et de la gravité et des conséquences de ces abus.

« Lorsqu’elles sont mises en œuvre, ces procédures prévoient que les mesures mentionnées aux a et b du présent 8° sont proportionnées, dans leur nature, à la gravité des agissements en cause et, dans le cas d’une suspension, que celle-ci est prononcée pour une durée raisonnable. Elles prévoient l’avertissement préalable de l’utilisateur et son information sur les voies de recours internes et juridictionnelles dont il dispose ;

« 9° Les opérateurs mentionnés au premier alinéa du présent article dont l’activité sur le territoire français dépasse un seuil de nombre de connexions déterminé par décret et supérieur à celui mentionné au même premier alinéa :

« a) Procèdent chaque année à une évaluation des risques systémiques liés au fonctionnement et à l’utilisation de leurs services en matière de diffusion des contenus mentionnés audit premier alinéa et en matière d’atteinte aux droits fondamentaux, notamment à la liberté d’expression. Cette évaluation tient compte des caractéristiques de ces services, notamment de leurs effets sur la propagation virale ou la diffusion massive des contenus susvisés ;

« b) Mettent en œuvre des mesures raisonnables, efficaces et proportionnées, notamment au regard des caractéristiques de leurs services et de l’ampleur et de la gravité des risques identifiés au terme de l’évaluation mentionnée au a du présent 9°, visant à atténuer les risques de diffusion de ces contenus, qui peuvent notamment porter sur les procédures et les moyens humains et technologiques mis en œuvre pour détecter, identifier et traiter ces contenus, tout en veillant à prévenir les risques de retrait non justifié au regard du droit applicable et de leurs conditions générales d’utilisation ;

« c) Rendent compte au public, selon des modalités et une périodicité fixées par le Conseil supérieur de l’audiovisuel, de l’évaluation de ces risques systémiques et des mesures d’atténuation des risques mises en œuvre ;

« 10° Les opérateurs mentionnés au premier alinéa du présent article rendent compte au Conseil supérieur de l’audiovisuel des procédures et des moyens mis en œuvre pour l’application du présent article, dans les conditions prévues à l’article 62 de la loi n° 86-1067 du 30 septembre 1986 précitée. »

II. – La loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication est ainsi modifiée :

1° Au troisième alinéa du 1° du I de l’article 19, les mots : « ainsi que des plateformes de partage de vidéos » sont remplacés par les mots : « , des plateformes de partage de vidéos ainsi que des opérateurs de plateforme en ligne mentionnés à l’article 62 » ;

2° Au premier alinéa de l’article 42-7, la référence : « et 48-3 » est remplacée par les références : « , 48-3 et 62 » ;

3° Le titre IV est complété par un chapitre III ainsi rédigé :

« CHAPITRE III

« Dispositions applicables aux plateformes en ligne en matière de lutte contre les contenus haineux

« Art. 62. – I. – Le Conseil supérieur de l’audiovisuel veille au respect, par les opérateurs de plateforme en ligne mentionnés au premier alinéa de l’article 6-5 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, des dispositions du même article 6-5, en prenant en compte, pour chacun des services qu’ils proposent, les caractéristiques de ce service et l’adéquation des moyens mis en œuvre par l’opérateur au regard, notamment, de l’ampleur et de la gravité des risques de diffusion par celui-ci des contenus mentionnés au premier alinéa dudit article 6-5 et des risques de retrait injustifié au regard du droit applicable et de ses conditions générales d’utilisation. Il adresse à ces opérateurs de plateforme des lignes directrices pour l’application du même article 6-5.

« Il recueille auprès de ces opérateurs, dans les conditions fixées à l’article 19 de la présente loi, les informations nécessaires au suivi de leurs obligations. À ce titre, les opérateurs mentionnés au 9° de l’article 6-5 de la loi n° 2004-575 du 21 juin 2004 précitée lui donnent accès aux principes de fonctionnement des outils automatisés auxquels ils ont recours pour répondre à ces obligations, aux paramètres utilisés par ces outils, aux méthodes et aux données utilisées pour l’évaluation et l’amélioration de leur performance ainsi qu’à toute autre information ou donnée lui permettant d’évaluer leur efficacité, dans le respect des dispositions relatives à la protection des données personnelles. Le Conseil supérieur de l’audiovisuel peut leur adresser des demandes proportionnées d’accès, par l’intermédiaire d’interfaces de programmation dédiées, à toute donnée pertinente pour évaluer leur efficacité, dans le respect de ces mêmes dispositions. Dans le respect de ces dispositions et aux mêmes fins, le Conseil supérieur de l’audiovisuel peut mettre en œuvre des méthodes proportionnées de collecte automatisée de données publiquement accessibles afin d’accéder aux données nécessaires.

« Il définit les informations et les indicateurs chiffrés que ces opérateurs sont tenus de publier en application du 4° du même article 6-5 ainsi que les modalités et la périodicité de cette publication.

« Il publie chaque année un bilan de l’application des dispositions dudit article 6-5.

« I bis. – Le Conseil supérieur de l’audiovisuel encourage les opérateurs de plateforme en ligne mentionnés au premier alinéa de l’article 6-5 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique à mettre en œuvre :

« 1° Des outils de coopération et de partage d’informations entre opérateurs de plateformes, dans un format ouvert et conforme à ses recommandations, pour lutter contre les infractions mentionnées au même article 6-5 ;

« 2° Des dispositifs techniques proportionnés permettant de limiter, dans l’attente du traitement de la notification d’un contenu mentionné audit article 6-5, le partage de ce contenu et l’exposition du public à celui-ci ;

« 3° Des standards techniques communs d’interopérabilité entre services de communication au public en ligne, conformes à l’état de l’art, documentés et stables, afin de favoriser le libre choix des utilisateurs entre différentes plateformes.

« II. – Le Conseil supérieur de l’audiovisuel peut mettre un opérateur en demeure de se conformer, dans le délai qu’il fixe, aux dispositions de l’article 6-5 de la loi n° 2004-575 du 21 juin 2004 précitée et de répondre aux demandes qu’il lui a adressées en application du deuxième alinéa du I du présent article.

« Lorsque l’opérateur ne se conforme pas à la mise en demeure qui lui est adressée, le Conseil supérieur de l’audiovisuel peut, dans les conditions prévues à l’article 42-7 de la présente loi, prononcer une sanction pécuniaire dont le montant prend en considération la gravité des manquements ainsi que, le cas échéant, leur caractère réitéré, sans pouvoir excéder 20 millions d’euros ou 6 % du chiffre d’affaires annuel mondial total de l’exercice précédent, le montant le plus élevé étant retenu. Lorsque le même manquement a fait l’objet, dans un autre État, d’une sanction pécuniaire calculée sur la base de cette même assiette, le montant de cette sanction est pris en compte pour la détermination de la sanction prononcée en application du présent alinéa.

« Par dérogation au deuxième alinéa du présent II, le montant de la sanction prononcée en cas de refus de communiquer les informations demandées par le régulateur au titre du deuxième alinéa du I ou en cas de communication d’informations fausses ou trompeuses ne peut excéder 1 % du chiffre d’affaires annuel mondial total de l’exercice précédent.

« Le Conseil supérieur de l’audiovisuel peut rendre publiques les mises en demeure et sanctions qu’il prononce. Il détermine dans sa décision les modalités de cette publication, qui sont proportionnées à la gravité du manquement. Il peut également ordonner leur insertion dans des publications, journaux et supports qu’il désigne, aux frais des opérateurs faisant l’objet de la mise en demeure ou de la sanction.

« Les sanctions pécuniaires sont recouvrées comme les créances de l’État étrangères à l’impôt et au domaine. » ;

4° Après le mot : « résultant », la fin du premier alinéa de l’article 108 est ainsi rédigée : « de la loi n° … du … confortant le respect des principes de la République. »

II bis (nouveau). – Le présent article entre en vigueur trois mois à compter de la publication du décret fixant le seuil mentionné au premier alinéa de l’article 6-5 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique.

III. – Le présent article s’applique jusqu’au 31 décembre 2023.