Allez au contenu, Allez à la navigation

Proposition de loi visant à lutter contre la haine sur internet

11 décembre 2019 : Lutte contre la haine sur internet ( rapport - première lecture )

CHAPITRE V
DISPOSITIONS FINALES

Article 7
Observatoire de la haine en ligne

L'article 7 de la proposition de loi tend à créer un observatoire de la haine en ligne.

S'il accepte volontiers l'utilité d'un tel observatoire pour éclairer le débat sur des enjeux juridiques et sociaux complexes de la lutte contre les contenus illicites sur internet, votre rapporteur éprouve certaines réserves sur l'utilité réelle de confier ainsi à la loi la création d'un organe purement consultatif et dénué d'autres compétences.

À tout le moins, par souci de rationalisation administrative, et après que votre rapporteur s'est assuré de l'accord tant du CSA que du Gouvernement, votre commission a adopté l'amendement COM-51 tendant à placer expressément cet observatoire de la haine en ligne auprès du CSA et à renvoyer au pouvoir réglementaire la fixation de ses missions et de sa composition.

Votre commission a adopté l'article 7 ainsi modifié

Article 8 (suppression maintenue)
Gage

L'article 8 de la proposition de loi tendait à gager financièrement l'initiative parlementaire en application de l'article 40 de la Constitution. Il a été supprimé par le Gouvernement.

Votre commission a maintenu la suppression de l'article 8.

Article 9
Entrée en vigueur

L'article 9 de la proposition de loi précise les modalités d'entrée en vigueur de certaines dispositions du texte

Verraient leur entrée en vigueur reportée :

- au 1er janvier 2020, les dispositions relatives aux obligations de moyens renforcées et à la régulation administrative de ces plateformes par le Conseil supérieur de l'audiovisuel (CSA) (articles 2 et 3, I et I bis de l'article 4) ; votre commission a adopté l'amendement COM-52 de son rapporteur pour décaler au 1er juillet 2020 cette date, la navette parlementaire pouvant manifestement s'achever avant la fin de la présente année ;

- et au 1er janvier 2021 le transfert au CSA du contrôle de la mise en oeuvre des dispositions relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques (au titre de l'article 6-1 de LCEN), afin de laisser à cette autorité et à la Commission nationale de l'informatique et des libertés - aujourd'hui compétente - le temps de s'organiser (I ter de l'article 4).

Les autres dispositions du texte entreraient en vigueur immédiatement, dès sa publication.

Votre commission a adopté l'article 9 ainsi modifié

Article 10
(Art. L. 371-1, L. 771-1, L. 773-1 et L. 774-1 du code de l'éducation;
art. 108 de la loi n°86-1067 relative à la liberté de communication ;
art. 57 et 58 [abrogé] de la loi n° 2004-575 pour
la confiance dans l'économie numérique)
Application outre-mer

L'article 10 de la proposition de loi tend à préciser l'application de certaines dispositions du présent texte dans certains outre-mers.

Il prévoit l'application :

- de l'article L. 312-9 du code de l'éducation (modifié par l'article 6 bis), à Wallis-et-Futuna (1° du I) ;

- de l'article L. 721-2 du code de l'éducation (modifié par l'article 6 ter) à Wallis-et-Futuna, en Polynésie française et en Nouvelle-Calédonie (2° du I) ;

- des diverses modifications apportées à la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication à Wallis-et-Futuna, en Polynésie française et en Nouvelle-Calédonie (II) ;

- et des diverses modifications apportées à la LCEN à Wallis-et-Futuna, en Polynésie française et en Nouvelle-Calédonie (III).

Au bénéfice de la correction d'une erreur de référence (amendement COM-53 du rapporteur), votre commission a adopté l'article 10 ainsi modifié.

EXAMEN EN COMMISSION

__________

MERCREDI 11 DÉCEMBRE 2019

- Présidence de M. Philippe Bas, président -

M. Christophe-André Frassa, rapporteur. - Au terme d'une trentaine d'auditions sur cette proposition de loi visant à lutter contre les contenus haineux sur Internet, déposée à l'Assemblée nationale à l'initiative de Mme Laetitia Avia, je me propose, pour ceux qui n'étaient pas encore parlementaires à l'époque de la loi du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN), de faire un résumé des épisodes précédents.

Un point, d'abord, sur la mobilisation des acteurs publics et des intermédiaires techniques contre les discours de haine sur Internet.

Les discours de haine sur Internet sont un phénomène préoccupant, mais dont l'ampleur reste toujours difficile à évaluer.

Comme la Commission nationale consultative des droits de l'homme (CNCDH) en dressait déjà le constat en 2015, « la prolifération des contenus haineux sur la toile, qui se nourrissent régulièrement des tensions sociales et de la crise de la citoyenneté, devient un phénomène très inquiétant. Elle constitue le terreau de conflits croissants entre groupes et communautés remettant en cause le vivre ensemble démocratique ».

L'absence d'outils de mesure officiels et exhaustifs permettant d'apprécier l'ampleur et l'évolution de ce phénomène est donc d'autant plus regrettable.

En France, seuls certains indices de tendance indirects peuvent ainsi être utilisés. En 2018, sur les 163 723 signalements effectués auprès de la plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (Pharos), 14 000 relevaient de la haine en ligne ou de discriminations. La majorité des signalements concernait des contenus présents sur les grands réseaux sociaux américains.

À l'échelle de l'Europe, la Commission européenne a adopté en 2016 une approche volontariste, mais privilégiant l'autorégulation. Elle a ainsi conclu avec les principales plateformes concernées un « code de conduite » pour inciter celles-ci à prendre des mesures proactives afin d'endiguer la diffusion des contenus de haine sur Internet. Cette approche reposant sur les engagements volontaires des acteurs a produit certains résultats, comme l'atteste le dernier bilan fourni en février dernier par les services de la Commission.

Un exemple dont nous avions déjà abordé l'existence à l'occasion de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information - la loi « anti-fake news » - mérite ici d'être cité. Il s'agit de la loi allemande NetzDG, dont le bilan est pour le moins contrasté à ce jour. Il semble que la principale faiblesse de cette loi soit l'effet de « sur-censure » qu'elle induit. Les observateurs font état d'un niveau élevé de contenus licites supprimés en Allemagne et de nombreux contentieux contestant des retraits injustifiés. Les autorités allemandes semblent même décidées à réviser ce dispositif de façon anticipée.

En France, en l'état du droit, les hébergeurs bénéficient d'un régime de responsabilité protecteur en contrepartie d'obligations de coopération.

Transposant en droit français la directive « e-commerce » du 8 juin 2000, la LCEN prévoit un régime de responsabilité spécifique pour les fournisseurs d'accès à Internet et les hébergeurs à raison des contenus à la diffusion desquels ils contribuent.

Les hébergeurs, en particulier, bénéficient d'une exonération facilitée de leur responsabilité civile ou pénale. Celle-ci ne peut être engagée en l'absence de connaissance de l'illicéité des contenus stockés ou, en cas de connaissance de l'illicéité manifeste des contenus stockés, s'ils ont alors procédé promptement à leur retrait.

Ce régime juridique protecteur est destiné à éviter que l'engagement trop systématique de leur responsabilité pénale ou civile ne soit un frein à la libre expression sur Internet des citoyens, qui dépendent d'eux pour échanger. Il s'applique à un spectre d'acteurs extrêmement large, qui englobe désormais les grandes plateformes bien connues : les moteurs de recherche, les réseaux sociaux, les plateformes de diffusion de vidéos, etc. En outre, les hébergeurs ne peuvent pas être soumis à une obligation générale de surveillance des réseaux.

En échange de ce régime favorable, les intermédiaires techniques sont tenus de coopérer avec la puissance publique pour lutter contre la diffusion desdits contenus illicites. Cela se traduit par une obligation de recueil et de conservation de données sur leurs utilisateurs, de dénonciation des activités illicites, de transparence, voire de blocage des contenus sur demande de l'autorité judiciaire et, dans certains cas, de l'administration.

La proposition de loi présentée par la députée Laetitia Avia s'inscrit dans le plan national triennal 2018-2020 de lutte contre le racisme et l'antisémitisme publié par le Gouvernement en mars 2018, qui prévoyait de modifier la législation nationale en vue de lutter contre la haine en ligne.

Elle tente une difficile synthèse entre deux orientations bien différentes :

- d'un côté, une approche insistant sur les obligations de résultat mises à la charge des plateformes pour l'effacement rapide et exhaustif des propos haineux en ligne, sous peine de sanctions, comme le recommandait le rapport intitulé Renforcer la lutte contre le racisme et l'antisémitisme remis au Premier ministre en septembre 2018 et dont Laetitia Avia était co-auteure avec Karim Amellal et Gil Taïeb ;

- et de l'autre, une approche par la régulation, centrée sur un contrôle plus poussé des moyens mis en oeuvre par les plateformes, afin de s'assurer qu'ils sont suffisants pour lutter efficacement contre la haine en ligne, en cohérence avec les conclusions de la mission « Régulation des réseaux sociaux » publiées en mai 2019 et faisant suite à la rencontre entre le Président de la République et Mark Zuckerberg, président-directeur général de Facebook.

La première innovation du texte est la création d'un nouveau délit sanctionnant l'absence de retrait en 24 heures des contenus odieux sanctionnée par un nouveau délit.

Le coeur de la proposition de loi adoptée par l'Assemblée nationale consiste en effet en la création d'une obligation de suppression de certains contenus haineux manifestement illicites, dans les 24 heures après leur notification aux grandes plateformes - réseaux sociaux ou moteurs de recherche à fort trafic accessibles sur le territoire français. Chaque « non-retrait » dans les temps d'un tel contenu serait pénalement réprimé par un nouveau délit spécifique : un an de prison et 250 000 euros d'amende, portés au quintuple pour les personnes morales.

Les contenus « haineux » concernés sont, par le jeu d'ajouts et de renvois successifs, devenus nombreux et disparates : injures aggravées, apologies de crimes, provocations à la discrimination, à la haine ou à la violence, harcèlement sexuel, exposition de mineurs à des messages violents ou pornographiques, traite des êtres humains, proxénétisme, pédopornographie et provocation au terrorisme.

Les associations de lutte contre les discriminations seraient autorisées à exercer les droits reconnus à la partie civile contre le nouveau délit de refus de retrait d'un contenu manifestement haineux, et il est prévu qu'une association de protection de l'enfance puisse notifier un tel contenu à la place d'un mineur.

Les règles formelles de notification de tous les contenus illicites - haineux ou non - sont drastiquement simplifiées.

Deuxième innovation de la proposition de loi : l'instauration d'une régulation ambitieuse des plateformes, avec de nouvelles obligations de moyens sous la supervision du Conseil supérieur de l'audiovisuel (CSA).

La proposition de loi transmise impose de nouvelles obligations de moyens renforcés aux plateformes en matière de lutte contre les contenus haineux en ligne : mise en place d'un dispositif de notification, information des utilisateurs, possibilité de contester des décisions de retrait ou de maintien de contenus, transparence des activités, protection spécifique des mineurs.

Elle confie au CSA une nouvelle mission de régulation administrative de ces plateformes. Chargé de s'assurer de leur coopération et du respect de ces nouvelles obligations de moyens, il disposerait pour ce faire d'un pouvoir réglementaire lui permettant de formuler des recommandations contraignantes, d'un pouvoir d'investigation, et il pourrait prononcer des sanctions pécuniaires considérables et dissuasives, l'amende administrative pouvant atteindre 4 % du chiffre d'affaires annuel mondial de l'opérateur.

Le texte transfère également au CSA la compétence aujourd'hui confiée à une personnalité qualifiée de la CNIL pour contrôler le blocage et le déréférencement administratifs de sites terroristes ou pédopornographiques.

Enfin, afin de prévenir la haine et de punir les auteurs, le texte prévoit en outre des améliorations marginales de la formation et de l'organisation judiciaire de la répression.

La proposition de loi permet de spécialiser un parquet et une juridiction en matière de lutte contre la haine en ligne et complète les obligations du contrôle judiciaire et du sursis probatoire, réaffirmant la possibilité de prononcer une interdiction d'adresser des messages électroniques à une victime.

Elle prévoit d'inscrire expressément dans le code de l'éducation la sensibilisation des élèves et la formation des enseignants en matière de lutte contre la diffusion des contenus haineux.

J'en viens maintenant à la position que je vous propose d'adopter en commission des lois, qui consiste à rééquilibrer et mieux sécuriser juridiquement cet ensemble de mesures inégalement abouties.

À titre liminaire, je note que si nous partageons les objectifs affichés, la discussion de ce texte pose un problème de méthode.

L'intention première des auteurs de cette proposition de loi est louable, nous la partageons tous, et il existe un large consensus au Sénat pour mieux responsabiliser les grandes plateformes qui jouent un rôle décisif dans la diffusion sur Internet de discours de haine.

Les travaux et propositions de notre assemblée ces dernières années en attestent, incitant régulièrement le Gouvernement à ne pas avoir une position attentiste, mais à agir à l'échelon national dans l'attente d'une hypothétique solution harmonisée au niveau européen souvent annoncée, mais longtemps retardée. Tel est le cas notamment des recommandations de la commission d'enquête du Sénat pour une souveraineté numérique afin d'améliorer la régulation des acteurs « systémiques » du numérique et de mieux responsabiliser les plateformes, ou encore de la résolution européenne du Sénat en faveur d'une révision de la directive e-commerce.

Malheureusement, alors que les mesures proposées s'inscrivent clairement dans le cadre d'un plan gouvernemental global de lutte contre les discriminations, je regrette vivement le choix qui a été fait de recourir à une proposition de loi plutôt qu'à un projet de loi, ce qui prive à nouveau le Parlement d'une étude d'impact.

Nuisant à la clarté de nos débats, l'existence de trois autres textes adoptés ou en voie de l'être - la directive Services de médias audiovisuels (SMA), le règlement européen sur les contenus terroristes, le projet de loi de réforme de l'audiovisuel - risque également d'interférer avec certaines dispositions de la présente proposition de loi, voire d'induire une modification de cette proposition quelques mois après son adoption définitive par le Parlement.

L'article 1er, coeur de cette proposition de loi, prévoit un dispositif pénal inabouti et déséquilibré au détriment de la liberté d'expression.

En exigeant des opérateurs de plateformes qu'ils apprécient le caractère manifestement illicite des messages haineux signalés dans un délai particulièrement bref, alors, d'une part, que cet exercice de qualification juridique est difficile pour certaines infractions contextuelles, et alors, d'autre part, qu'ils sont sous la menace de sanctions pénales explicites et dissuasives en cas d'erreur, ce dispositif encouragera mécaniquement les plateformes à retirer, par excès de prudence, des contenus pourtant licites.

D'autres effets pervers sont également à redouter : la multiplication du recours à des filtres automatisés et l'instrumentalisation des signalements par des groupes organisés de pression ou d'influence - « raids numériques » contre des contenus licites, mais polémiques. À redouter également, l'impossibilité de traiter en priorité, dans un délai couperet uniforme de 24 heures, les contenus les plus nocifs qui ont un caractère d'évidence et doivent être retirés encore plus rapidement - terrorisme, pédopornographie - par rapport à d'autres infractions moins graves ou plus longues à qualifier, car « contextuelles ». Enfin, tout aussi regrettables, le contournement du juge et l'abandon de la police de la liberté d'expression sur Internet aux grandes plateformes étrangères.

Le dispositif pénal prévu semble par ailleurs difficilement applicable - il a même été qualifié de « droit pénal purement expressif » par des représentants du parquet, tant les contraintes procédurales et considérations budgétaires limitent le pouvoir d'action de l'autorité judiciaire en la matière. Il présente tout d'abord un problème d'imputabilité concrète, s'agissant des personnes physiques. Qui du modérateur sous-traitant indien ou du dirigeant américain sera poursuivi ? Et s'agissant des personnes morales, comment qualifier l'intention pénale des organes dirigeants des hébergeurs concernés, domiciliés à l'étranger et dont il faut démontrer la complicité ?

Ce dispositif présente également un problème de caractérisation de l'intentionnalité : le simple non retrait suffira-t-il, ou sera-t-il nécessaire pour l'autorité de poursuite de caractériser une absence de diligences normales de l'opérateur dans sa capacité à qualifier l'illégalité manifeste d'un contenu ?

Nous constatons enfin une contrariété probable au droit européen.

La Commission européenne a transmis au Gouvernement des observations longues, sur douze pages, et très critiques alertant sur la violation probable de la directive « e-commerce » et de la Charte des droits fondamentaux de l'Union européenne.

Selon elle, le texte viole plusieurs principes majeurs du droit européen : principe du « pays d'origine », responsabilité atténuée des hébergeurs, interdiction d'instaurer une surveillance généralisée des réseaux. Rappelant l'existence de plusieurs initiatives législatives européennes en cours, la Commission a invité formellement la France à surseoir à l'adoption de ce texte.

Le Gouvernement n'ayant été capable d'offrir aucune solution alternative pour rendre opérant l'article 1er et écarter le risque de surblocage de propos licites, je vous recommanderai donc à ce stade la suppression de cette nouvelle sanction pénale inapplicable et contraire au droit européen.

Certaines dispositions intéressantes méritent d'être conservées ou améliorées, en les intégrant au régime général prévu par la LCEN : la substitution de messages aux contenus haineux retirés et la possibilité - et non l'obligation - de leur conservation en vue d'enquêtes judiciaires ; l'ajout des injures publiques à caractère discriminatoire et du négationnisme aux contenus devant faire l'objet d'un dispositif technique de notification spécifique mis en place par les hébergeurs ; la simplification des notifications prévues par la LCEN, en la rendant conforme au droit européen ; la reconnaissance de l'action des associations de protection de l'enfance.

L'autre volet du texte, la régulation des plateformes constitue en revanche une solution pertinente que je vous propose d'approuver et de préciser.

J'estime que l'imposition d'obligations de moyens sous la supervision d'un régulateur armé de sanctions dissuasives est la solution la plus adaptée pour contraindre les grandes plateformes à une lutte plus efficace contre les discours de haine véhiculés sur les réseaux.

J'ai souhaité tenir compte des observations de la Commission européenne et rendre ce dispositif plus respectueux du droit européen en proportionnant les obligations mises à la charge des plateformes au risque d'atteinte à la dignité humaine et en écartant tout risque de surveillance généralisée des réseaux.

Pour améliorer la rédaction de certaines des obligations de moyens mises à la charge des plateformes, j'ai prévu également : l'absence d'information systématique des auteurs de contenus au stade de la simple notification par un tiers, pour éviter les spams et « raids numériques » contre les auteurs de contenus licites, mais polémiques ; la possibilité dans certains cas exceptionnels de ne pas informer l'auteur de contenus retirés, notamment pour préserver les enquêtes en cours ; et la suppression de l'obligation générale faite aux plateformes d'empêcher la réapparition de tout contenu illicite - la procédure dite « notice and stay down » - contraire au droit européen.

Si j'approuve plusieurs clarifications procédurales concernant les pouvoirs de régulation et de sanction attribués au CSA, je m'inquiète à cet égard du risque de manque de moyens et de compétences techniques du régulateur pour expertiser efficacement les plateformes.

Pour conclure, je vous proposerai plusieurs amendements visant à compléter le texte concernant la viralité, le financement et l'interopérabilité, pour mieux s'attaquer aux ressorts profonds du problème de la haine sur internet.

Comme une personne entendue lors des auditions en a fait l'observation, en l'état actuel du texte, une plateforme qui retire un contenu haineux vu 8 millions de fois 23 heures et 59 minutes après sa notification respecterait parfaitement l'obligation de résultat instaurée à l'article 1er de la proposition de loi. Dès lors, je vous proposerai de compléter ce texte pour lutter plus efficacement contre la viralité des contenus haineux. À ce titre, il conviendrait, d'une part, d'ajuster le champ des acteurs soumis à la régulation du CSA pour intégrer les plateformes moins grandes, mais très virales, et, d'autre part, d'encourager les plateformes, sous le contrôle du CSA, à prévoir des dispositifs techniques de désactivation rapide de certaines fonctionnalités de rediffusion massive des contenus.

Je vous proposerai également d'approuver un amendement d'appel pour s'attaquer au financement des entrepreneurs de haine par la publicité - c'est ce que l'on désigne par l'expression « follow the money » -, en associant mieux les régies publicitaires à la lutte contre le financement de sites condamnés pour certaines infractions, par un renforcement des obligations de transparence à leur charge.

Enfin, je propose d'intégrer l'obligation d'interopérabilité à la boîte à outils du régulateur. Comme le recommandait la commission d'enquête du Sénat sur la souveraineté numérique, il convient d'approfondir l'obligation de portabilité. La possibilité d'encourager l'interopérabilité permettrait ainsi aux victimes de haine de se « réfugier » sur d'autres plateformes avec des politiques de modération différentes, tout en pouvant continuer à échanger avec les contacts qu'elles avaient noués jusqu'ici.

Je remercie mes collègues Catherine Morin-Desailly et Yves Bouloux d'avoir été des rapporteurs pour avis efficaces sur ce texte, dont nous avons essayé de tirer le meilleur pour vous en soumettre une version amendée qui nous paraît présentable.

M. Philippe Bas, président - Je remercie également les deux commissions pour avis pour leur travail convergent.

Mme Catherine Morin-Desailly est excusée, mais je suis ravi d'accueillir Yves Bouloux, rapporteur pour avis de la commission des affaires économiques.

M. Yves Bouloux, rapporteur pour avis de la commission des affaires économiques. - Je tiens d'abord à vous remercier pour cette invitation à participer à vos travaux en tant que rapporteur pour avis. Les deux rapporteurs pour avis ont travaillé en bonne intelligence avec le rapporteur au fond, il faut le souligner.

La commission des affaires économiques partage la position de votre rapporteur sur le risque d'atteinte disproportionnée que porterait l'article premier à la liberté d'expression.

Pour autant, nous reconnaissons que la question posée par la proposition de loi est légitime, et nous nous sommes concentrés sur ce qui, à nos yeux, constitue le moyen le plus efficace de lutter contre la diffusion en masse des propos haineux illicites, à savoir le dispositif de régulation administrative des plateformes que contient cette proposition de loi.

Il propose en quelque sorte un nouveau modèle de régulation du numérique qui nous semble pertinent. Ce nouveau modèle comporte trois grandes caractéristiques : un régulateur spécialisé, des obligations de moyens, et une régulation qui s'applique en priorité aux acteurs les plus structurants du marché, qui ont un impact massif.

Les quelques amendements que nous avons adoptés visent à améliorer ce volet du texte, en le rendant davantage proportionné, mais aussi plus efficace. Je pense notamment à un amendement qui permet au CSA d'imposer des obligations à une entreprise qui serait sous les seuils du champ d'application du texte.

Enfin, un élément de contexte me paraît devoir être souligné : le Gouvernement n'a pas jugé nécessaire de nous transmettre l'avis de la Commission européenne... Malgré nos demandes, nous avons dû en prendre connaissance par voie de presse ! Nous avons donc connu des gouvernements plus coopératifs...

M. Philippe Bas, président - J'ai personnellement écrit au ministre pour regretter l'insuffisante information du Parlement. Je n'ai pas obtenu de réponse à ce jour.

Mme Marie-Pierre de la Gontrie. - Le constat initial ayant donné lieu à cette proposition de loi n'est pas critiquable. Personne ne peut contester la nécessité de lutter contre les propos haineux en ligne. Dès lors que nous allons entrer dans des processus d'amélioration du texte, il ne faudrait pas que le Gouvernement nous fasse ce procès.

La législation actuelle, vieille de quinze ans, est sans doute insuffisante. Mais plusieurs difficultés se présentent, que je rassemblerai en deux champs d'égale gravité.

Le premier champ est celui de la limitation de la liberté d'expression.

S'agissant de l'obligation de retrait dans un délai de 24 heures après notification prévue à l'article 1er, la crainte est qu'elle aboutisse à un « sur-retrait ». En effet, les conséquences sont tellement lourdes pour les plateformes qui n'opéreraient pas ce retrait dans le délai requis qu'elles préféreront retirer du contenu à titre préventif. Or des questions se posent sur ce que l'on appelle les contenus « gris » : ce qui est nettement haineux ne pose pas de difficulté ; ce qui est nettement non-haineux n'en pose pas davantage ; en revanche, entre les deux, la situation est bien plus délicate. L'Allemagne s'est essayée à légiférer sur ce sujet, et au fil des années, nous avons noté un « sur-retrait » problématique.

Ici le texte ne prévoit pas de sanction relative au « sur-retrait ». Nous proposerons donc des amendements en ce sens.

Autre problème en matière de liberté d'expression, la disparition du juge judiciaire dans le processus.

Je ne suis pas gênée par principe par le fait qu'une instance ou une personne privée soit chargée de veiller au respect de la loi. Mais nous sommes là dans un domaine particulier, celui de la liberté d'expression, où l'intervention du juge judiciaire est importante. Or dans le texte il n'intervient qu'a posteriori, ce qui pose problème. Je ferai des propositions au nom de mon groupe sur ce sujet.

Le deuxième champ de difficultés, qui n'est pas mince, est la question de la compatibilité de la proposition de loi avec le droit européen.

Nous avons dû nous procurer, par d'autres moyens que par une transmission officielle, les observations de la Commission européenne ; le Gouvernement se flatte de n'avoir pas reçu un « avis circonstancié » qui marquerait une protestation formelle de sa part, mais seulement des « observations » critiques prétendument moins contraignantes. Je constate pour ma part à leur lecture que la longueur des observations de la Commission et leur argumentation charpentée sont une critique implacable du texte ! Nous ne pouvons pas les balayer d'un revers de main.

Nous pouvons d'ailleurs y ajouter l'avis circonstancié de la République tchèque, dont nous n'avons pas pu non plus obtenir communication - ni de traduction en français -, mais qui comporte, semble-t-il, des observations également assez sévères.

Il est préoccupant à double titre pour le Sénat de voter une législation incompatible avec la législation européenne : cela exposerait d'abord la France à un risque de condamnation ultérieure. Mais n'oublions pas également le risque de contentieux en France : le juge français pourrait très bien s'appuyer sur la contrariété de cette loi avec une directive européenne pour en écarter l'application lors d'un contentieux.

Une procédure pourrait donc être engagée par une plateforme pour contester une éventuelle condamnation, en arguant du non-respect de la directive e-commerce et des observations de douze pages de la Commission pour défendre sa cause. Et un juge français pourrait, sans même avoir besoin de saisir une juridiction européenne, lui donner raison. C'est vraiment servir sur un plateau des arguments de défense aux plateformes potentiellement incriminées. Cela pose un problème très sérieux.

Le rapporteur a fait des propositions. Avec des raisonnements parfois différents, nous sommes tous en réalité sur la même ligne. Comment faire pour lutter contre les contenus haineux en respectant à la fois la liberté d'expression et le droit européen ?

Nous approuverons les amendements du rapporteur, et présenterons également en séance des amendements sur cinq thèmes différents : premièrement, exclure explicitement la presse en ligne du champ de ce texte ; deuxièmement tenter de réinstaurer un délai de 24 heures - il est symboliquement difficile de ne pas le conserver, et un système de double délai pourrait être prévu, imposant 24 heures pour un contenu manifestement haineux et un délai plus long pour les « zones grises », avec une validation du juge a posteriori - ; troisièmement proposer des sanctions symétriques en cas de retrait abusif ; quatrièmement renforcer le rôle du CSA ; cinquièmement prévoir « la transparence des algorithmes ». Avec ce texte, nous risquons en effet d'imposer aux plateformes de créer des algorithmes dont nous ne saurons rien, et si nous ne prévoyons pas d'une manière ou d'une autre une obligation d'accès à ces algorithmes, nous aurons perdu la partie.

Mme Brigitte Lherbier. - Nous sommes tous exposés à des propos haineux, jusque sur le site du Sénat. Les représentants d'associations liées à la gendarmerie, qui détectent sur Internet des propos inadmissibles ainsi que des sites pédopornographiques, m'ont dit qu'aussitôt repérés et contraints à fermer, ces sites rouvraient sous une forme différente. C'est un jeu permanent du chat et de la souris. Que pouvons-nous faire contre ce phénomène ?

Mme Jacqueline Eustache-Brinio. - Cette proposition de loi m'est apparue dès sa lecture comme une usine à gaz risquant de poser d'importants problèmes d'application. Je partage les réserves émises par le rapporteur et Mme de la Gontrie à son sujet, notamment sur l'article 1er.

Le délai de 24 heures sera non seulement difficile à faire appliquer, mais il risquera en outre de compromettre la bonne marche de certaines procédures judiciaires. En effet, si les contenus disparaissent dans les 24 heures, certaines procédures contre la cyberhaine risquent de ne pouvoir être menées à bien faute de preuve.

L'impossibilité de la levée de l'anonymat pose problème. Nous ne savons souvent pas à qui nous avons affaire sur internet. Même si nous parvenons à obtenir la fermeture d'un compte d'où émanent des propos haineux, nous ne sommes pas à l'abri de sa réapparition sous une autre forme. En l'absence d'une levée efficace de l'anonymat, la cyberhaine ne peut que s'aggraver.

M. Jean-Yves Leconte. - La technique est toujours plus rapide que la loi. Nous ne pouvons donc pas nous interroger sur des évolutions législatives sans admettre que tout ce que nous ferons ne suffira pas compte tenu des évolutions techniques à venir. Pour que la loi soit réellement appliquée, elle devra être extraterritoriale. Et même cela ne suffira pas.

Par ailleurs, même si l'on peut mieux responsabiliser les plateformes, le concept même de liberté d'expression oblige à responsabiliser d'abord ceux qui l'exercent. La révolution numérique entraîne des changements dans la manière d'être citoyen qui s'expriment sur internet, la démocratie exige que l'on insiste sur l'éducation et la responsabilisation des auteurs de propos litigieux.

Enfin, l'esprit humain étant sans limites, il est probable qu'aucun algorithme ne permettra de bloquer les choses. Peut-on demander à des algorithmes de faire mieux que la justice, en imposant un délai de 24 heures ? Cela me semble compliqué. En somme, demande-t-on ici aux plateformes une obligation de moyens ou une obligation de résultat ? Cette dernière me semble impossible. L'obligation de moyens, elle, pourrait impliquer la tolérance de certains bugs, à condition d'obtenir par ailleurs la transparence des algorithmes.

M. Philippe Bonnecarrère. - Le problème auquel la proposition de loi souhaite s'attaquer est réel. Mais apporte-t-elle une bonne ou une mauvaise réponse à cette bonne question, qui est comment lutter contre les contenus haineux ?

La proposition du rapporteur de rééquilibrer et de sécuriser le texte me semble pertinente, et je la partage. Une partie du texte, de l'article 2 à la fin de l'article 6, ne me paraît pas soulever de débat. Il en va bien autrement pour l'article 1er...

L'approche par la régulation ne pose pas, à mon sens, de difficulté. Il s'agit en partie d'une nouveauté dans le domaine du numérique, qui s'inscrit dans le prolongement des réflexions et initiatives nées après la rencontre entre le Président de la République et le président-directeur général de Facebook. Les propositions présentées sont intéressantes et mènent à des solutions crédibles. L'idée est de regarder la façon dont les plateformes s'organisent et les moyens qu'elles mobilisent pour mettre en oeuvre le contrôle des contenus haineux. Ce sont des sujets très concrets : nombre de modérateurs, modalités de leur formation et de leur qualification, mode de financement, etc. Au-delà des grands principes, il est effectivement nécessaire de « mettre les mains dans le cambouis ». Et le régulateur aura la possibilité de contrôler et de s'assurer de la mise en oeuvre cette obligation de moyens. Il s'agit là d'une véritable avancée positive, sur un sujet insoluble depuis plusieurs années, et douloureux pour de nombreuses victimes de propos inacceptables sur internet.

Reste le dispositif d'obligation de résultat prévu à l'article 1er, qu'accompagne une forte dimension pénale. J'y suis pour ma part extrêmement défavorable. L'article 1er pose un problème majeur quant aux principes de légalité des peines et de proportionnalité des sanctions. Si ce texte poursuivait sa route, l'article 1er ferait d'ailleurs l'objet d'un tel nombre de réserves neutralisantes de la part du Conseil constitutionnel qu'il serait probablement difficilement opérationnel.

Un problème de conventionalité se pose également, au regard du droit de l'Union européenne. L'auteure de la proposition considère qu'il est possible de faire jouer des dérogations à la directive « e-commerce » en vertu d'une atteinte à la dignité de la personne humaine. Mais il faudrait pour cela que la dérogation soit ciblée et proportionnée.

À mes yeux, le dispositif pénal de l'article 1er ne répond pas au principe de légalité des peines, n'est pas suffisamment ciblé quant au principe de proportionnalité - du fait de l'ampleur des sanctions proposées - et viole le droit européen.

Je regrette aussi que ce texte soit examiné en procédure accélérée. Sur ce type de sujet, c'est une erreur, d'autant qu'une solution plus satisfaisante pourrait être trouvée pour l'article 1er en laissant se poursuivre la navette entre l'Assemblée et le Sénat.

C'est enfin un sujet évolutif. Des propositions de la Présidente de la commission, Ursula von der Leyen, prévoient ainsi la réforme de la directive « e-commerce ». À cette occasion, ce point méritera de faire l'objet d'un suivi particulier.

Mme Maryse Carrère. - En dépit de la clarté du rapport dont je remercie notre rapporteur, je regrette que nous n'ayons eu ni le temps ni les éléments pour mieux étudier ce texte complexe. Nous faisons face à une hausse préoccupante du racisme, de l'antisémitisme et de la xénophobie, tout particulièrement en ligne. L'impunité en ligne doit cesser ! Le coeur du problème est que les auteurs d'infractions se croient protégés par leur relatif anonymat, nous disposons pourtant, me semble-t-il, d'un arsenal juridique qui nous permet de remonter jusqu'à eux.

Nous sommes face à des entreprises puissantes : les géants d'Internet. Cela doit nous interroger sur l'effectivité de cette proposition de loi et sur la question de la régulation d'Internet. Nous allons déléguer la régulation des contenus à ces entreprises : c'est une privatisation de la censure !

L'article 1er pose la question des notifications abusives : les plateformes, par peur d'être condamnées, ne risquent-elles pas de censurer trop de contenus, notamment en automatisant leur censure ?

La création de nouveaux délits risque d'aggraver l'engorgement de nos tribunaux et pose la question de la formation des personnels de justice.

Nous renforçons à juste titre les missions du CSA, mais quid de ses moyens ? Il en va de même pour l'Éducation nationale : nous prévoyons qu'elle doit assurer de nouvelles missions de sensibilisation, mais sans moyens supplémentaires.

Nous avons donc de vrais doutes sur l'applicabilité et l'efficacité de cette proposition de loi, ainsi que sur les moyens qui seront alloués.

M. Marc-Philippe Daubresse. - Beaucoup a déjà été dit sur les zones grises évoquées par notre collègue Marie-Pierre de la Gontrie. Nous sommes à la confluence des questions d'efficacité et des principes de liberté. Avec cette loi de circonstance, nous nous aventurons sur un terrain glissant et risquons de faire des bêtises par précipitation. Pas de sanction graduée respectueuse du principe de proportionnalité, non-conformité à la réglementation européenne - actuelle et future -, pas de recours devant une autorité judiciaire, pas de sanction caractérisée contre un retrait abusif, etc. : tout cela est contraire aux principes de notre État de droit, dans lequel la liberté d'expression est une liberté fondamentale qui doit être correctement encadrée.

Je suis très sceptique sur l'autorégulation des plateformes : on voit comme cela se passe avec Wikipédia, c'est du grand n'importe quoi ! Et comment gérer les faux comptes ? Une fois qu'un compte est fermé, un nouveau faux compte s'ouvre ailleurs, et cela peut même être fait par algorithme ! Nous allons déroger aux grands principes de la liberté sans même être efficaces ! Au demeurant, ce texte présente plusieurs risques d'inconstitutionnalité.

Plus généralement, nous devrions réfléchir - pourquoi pas une mission d'information - sur la poursuite des infractions de presse à l'heure du numérique, et ce afin de ne pas légiférer dans la circonstance. Il ne s'agit pas de remettre en cause les lois fondamentales, car bien souvent ce ne sont pas les textes, mais les contextes, qui posent problème.

M. Christophe-André Frassa, rapporteur. - Dans son état actuel, le texte ne répond qu'imparfaitement aux questions que nous pose la viralité des contenus. Les professionnels de la déstabilisation sont toujours plus avancés que le législateur, qui doit prendre le temps d'observer un phénomène avant d'y répondre.

Nous devons encore travailler sur le pseudonymat. N'oublions pas - comme le rappelle la CNIL - que l'anonymat protège aussi les victimes de la haine en ligne qui peuvent ainsi continuer à exister en ligne. La levée du pseudonymat est avant tout une question de moyens - notamment humains - pour accéder aux données stockées par les plateformes. Cela ne relève pas tant de la loi, que d'un changement des pratiques et d'un renforcement des compétences et des ressources de nos services.

La transparence des algorithmes est un objectif que l'on peut partager et les plateformes ont désormais tout intérêt à jouer le jeu.

Nous avions essayé d'avancer sur la sanction symétrique - pour non retrait de l'illicite et pour retrait abusif du licite - en recherchant une rédaction équilibrée de l'article 1er, afin d'éviter justement le surblocage systématique par les plateformes. Mais c'était avant que la Commission européenne ne produise douze pages d'observations... Ne reproduisons pas les dérives de la loi allemande qui, à l'époque de nos travaux législatifs sur les fake news, nous avait été présentée comme un parangon : des procédures judiciaires sont en cours pour blocage abusif et la loi va sûrement devoir être révisée.

Je n'ai jamais été très convaincu par ce délai couperet et intangible de 24 heures. Dans un premier temps, nous avions imaginé créer une sorte de référé, comme pour les fake news, afin de ne pas donner trop d'importance aux plateformes et renvoyer la décision finale au juge.

Sur le sujet de la presse en ligne, je suis ouvert à vos propositions.

Les questions de constitutionnalité de ce texte sont effectivement nombreuses et m'ont conduit à vous faire les propositions d'amendement que je vais vous présenter.

EXAMEN DES ARTICLES

M. Christophe-André Frassa, rapporteur. - L'amendement COM-23 rectifié concerne l'intitulé du chapitre Ier. Je peux néanmoins d'ores et déjà vous annoncer que j'y serai défavorable, car il est incompatible avec mon amendement COM-26 portant sur l'article 1er.

L'amendement COM-23 rectifié n'est pas adopté.

Article 1er

M. Christophe-André Frassa, rapporteur. - L'article 1er tend à créer une nouvelle obligation de suppression de certains contenus haineux manifestement illicites par les grandes plateformes, dans les vingt-quatre heures après leur notification. Tout manquement à cette obligation de résultat serait pénalement réprimé par un nouveau délit : chaque non-retrait dans les temps prévus serait puni d'un an de prison et de 250 000 euros d'amende, une somme portée à 1,250 million d'euros pour les personnes morales. La rédaction proposée reste encore juridiquement très inaboutie, je l'ai évoqué dans mon propos liminaire : ce dispositif reste déséquilibré au détriment de la liberté d'expression - risque de « sur-censure », recours massif à des filtres automatisés, contournement du juge.

L'applicabilité concrète de ce nouveau délit est douteuse - certains représentants du parquet que nous avons auditionnés parlent d'un « droit pénal purement expressif » - et pose un problème d'imputabilité et de caractérisation de l'intentionnalité.

Le délai couperet de vingt-quatre heures interdit de prioriser entre les contenus les plus nocifs qui ont un caractère d'évidence et ceux qui nécessitent d'être analysés et contextualisés par des juristes.

Je ne reviens pas sur les observations de la Commission européenne, pour laquelle ce dispositif viole plusieurs principes majeurs du droit européen, notamment la responsabilité aménagée des hébergeurs résultant de la directive « e-commerce » et la liberté d'expression garantie par le Charte des droits fondamentaux.

Face aux risques pour la liberté d'expression, cette nouvelle sanction pénale inapplicable et contraire au droit européen ne peut qu'être supprimée, à ce stade, par le Sénat. Je vous propose toutefois de conserver certaines dispositions intéressantes en les améliorant et en les intégrant au régime général prévu par la loi pour la confiance dans l'économie numérique (LCEN), à savoir la substitution de messages informatifs aux contenus illicites retirés, et la possibilité de leur conservation pour les enquêtes judiciaires. Il en va de même de l'ajout des injures publiques à caractère discriminatoire et du négationnisme aux contenus devant faire l'objet d'un dispositif technique de notification spécifique mis en place par les hébergeurs.

Aussi, je vous propose d'adopter l'amendement COM-26 visant à rédiger cet article et, en conséquence, je ne peux qu'être défavorable à l'amendement COM-20 de M. Thani Mohamed Soilihi.

L'amendement COM-26 est adopté ; les amendements COM-20, COM-8, COM-12, COM-14 et COM-1 deviennent sans objet.

Article additionnel après l'article 1er

L'amendement COM-9 n'est pas adopté.

Article 1er bis (nouveau)

Les amendements identiques de cohérence COM-27 et COM-2 sont adoptés ; l'amendement COM-25 devient sans objet.

Article 1er ter A (nouveau)

M. Christophe-André Frassa, rapporteur. - L'amendement COM-28 simplifie le formalisme des notifications de contenus illicites.

L'amendement COM-28 est adopté.

Article 1er ter B (nouveau)

L'amendement COM-3 n'est pas adopté.

L'amendement de cohérence COM-29 est adopté.

M. Christophe-André Frassa, rapporteur. - À la demande des associations de protection de l'enfance, l'amendement COM-30 prévoit une exception limitée à l'information normalement systématique des représentants légaux du mineur en faveur duquel elles interviennent pour obtenir le retrait d'un contenu illicite qu'il leur a signalé ; serait ainsi réservé le cas où cela est contraire à l'intérêt de l'enfant.

L'amendement COM-30 est adopté.

Article 1er ter (nouveau)

Les amendements identiques de suppression COM-31 et COM-4 sont adoptés.

- Présidence de Mme Catherine Di Folco, vice-présidente -

Article 2

M. Christophe-André Frassa, rapporteur. - L'amendement COM-32 définit le champ des opérateurs concernés par la nouvelle régulation des plateformes, qui seront désormais assujetties à des obligations de moyens renforcés, sous la supervision du Conseil supérieur de l'audiovisuel (CSA). Il reprend les principaux éléments de la proposition de loi transmise en incluant les réseaux sociaux à fort trafic - ceux qui dépassent un seuil d'activité fixé par décret pris en Conseil d'État - mais en excluant les moteurs de recherche en raison de leur rôle bien moins déterminant que les réseaux dans la propagation de la haine et, surtout, de leurs caractéristiques techniques différentes. Par ailleurs, il introduit un critère plus souple de « viralité » pour permettre au CSA d'attraire dans le champ de sa régulation un site ou service qui, bien qu'ayant une activité moindre, joue pourtant un rôle significatif dans la diffusion en ligne des propos haineux.

Notre collègue Yves Bouloux poursuit exactement la même logique avec l'amendement COM-56, à quelques différences rédactionnelles mineures près. J'y suis favorable à condition qu'il soit rendu identique à celui de la commission.

M. Yves Bouloux, rapporteur pour avis. - Bien entendu.

L'amendement COM-32 est adopté. L'amendement COM-56, ainsi modifié, est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-33 vise à tenir compte des observations de la Commission européenne et à rendre la régulation des plateformes plus respectueuse du droit européen. Il prévoit ainsi de proportionner les obligations à la charge des plateformes à leurs capacités et au risque d'atteinte à la dignité humaine. Je suis favorable à l'amendement COM-57, à condition qu'il soit rendu identique à celui de la commission. Je suis également favorable au sous-amendement de précision COM-55 rectifié.

Le sous-amendement COM-55 rectifié est adopté. L'amendement COM-33, ainsi modifié, est adopté, de même que l'amendement COM-57, ainsi modifié.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-34 vise à clarifier les pouvoirs du CSA.

L'amendement COM-34 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-35 tend à améliorer la rédaction de certaines des obligations de moyens mis à la charge des plateformes : il prévoit l'absence d'information systématique des auteurs de contenus au stade de la simple notification par un tiers, pour éviter les spams et « raids numériques » contre auteurs de contenus licites, mais polémiques ; et, à titre exceptionnel, la possibilité, dans certains cas, de ne pas informer l'auteur de contenus retirés, notamment pour préserver les enquêtes en cours.

L'amendement COM-35 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-36 opère des clarifications rédactionnelles relatives à la procédure de contre-notification ou d'appel.

L'amendement COM-36 est adopté.

M. Christophe-André Frassa, rapporteur. - Les amendements identiques COM-37, COM-24 rectifié et COM-58 suppriment l'obligation mise à la charge des plateformes d'empêcher, de façon générale et indiscriminée, la réapparition de contenus haineux illicites déjà retirés ; c'est ce que l'on appelle la procédure de « notice and stay down ». Cela était manifestement contraire au droit de l'Union européenne : la directive « e-commerce » interdit toute forme de surveillance généralisée des réseaux.

Les amendements COM-37, COM-24 rectifié et COM-58 sont adoptés.

L'amendement COM-5 n'est pas adopté.

Article 3

L'amendement COM-6 n'est pas adopté.

L'amendement de clarification rédactionnelle COM-38 est adopté.

L'amendement de cohérence COM-39 est adopté, de même que l'amendement de précision COM-40 et l'amendement de cohérence COM-41.

Article 3 bis (nouveau)

M. Christophe-André Frassa, rapporteur. - L'amendement COM-42 vise à aligner le montant des amendes encourues par les éditeurs et les intermédiaires techniques en cas de non-retrait d'un contenu illicite.

L'amendement COM-42 est adopté.

Article 4

M. Christophe-André Frassa, rapporteur. - Je suis favorable à l'amendement de précision COM-16 de Mme Morin-Desailly, sous réserve d'une correction légistique mineure : il convient de supprimer la mention « , l'exception du premier alinéa du I ».

L'amendement COM-16, ainsi modifié, est adopté.

L'amendement de cohérence COM-43 est adopté.

M. Christophe-André Frassa, rapporteur. - Je suis favorable à l'amendement COM-17 de Mme Morin-Desailly, car il précise la terminologie relative aux pouvoirs du CSA.

L'amendement COM-17 est adopté.

M. Christophe-André Frassa, rapporteur. - Je suis aussi favorable à l'amendement COM-18 de Mme Morin-Desailly, qui clarifie et simplifie la procédure de sanction applicable aux plateformes devant le CSA.

L'amendement COM-18 est adopté.

M. Christophe-André Frassa, rapporteur. - Je suis également favorable à l'amendement COM-19 de Mme Morin-Desailly, sous réserve de l'adoption de mon sous-amendement de précision COM-54. Il s'agit de régler les modalités de publicité des décisions de sanction des plateformes par le CSA.

Le sous-amendement COM-54 est adopté. L'amendement COM-19, ainsi modifié, est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-44 vise à faire de la publicité des mises en demeure et des sanctions prononcées par le CSA une faculté et non une obligation.

Mme Marie-Pierre de la Gontrie. - Il n'est pas anodin de remplacer une obligation par une faculté.

M. Christophe-André Frassa, rapporteur. - C'est déjà le cas par exemple pour les pouvoirs de sanction reconnus à la formation restreinte de la CNIL ; et il s'agit d'éviter d'autoriser le prononcé d'une sanction complémentaire automatique.

L'amendement COM-44 est adopté.

L'amendement de cohérence COM-45 est adopté, de même que l'amendement COM-59.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-60 vise à encourager les plateformes, sous le contrôle du CSA, à prévoir des dispositifs techniques de désactivation rapide de certaines fonctionnalités de rediffusion massive des contenus. Il s'agit de mieux lutter contre la viralité.

L'amendement COM-60 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-61 vise à intégrer l'interopérabilité parmi les outils du nouveau régulateur des grandes plateformes.

Mme Marie-Pierre de la Gontrie. - C'est très important.

L'amendement COM-61 est adopté.

Article 6

M. Christophe-André Frassa, rapporteur. - L'amendement COM-46 vise à maintenir dans la LCEN la mention expresse du « principe de subsidiarité » : une demande judiciaire pour rendre inaccessible un contenu doit d'abord viser son hébergeur et, à défaut, les fournisseurs d'accès à Internet. En outre, il tend à supprimer les modalités peu convaincantes retenues pour le nouveau système de « blocage administratif des sites miroirs ».

L'amendement COM-46 est adopté ; l'amendement COM-21 rectifié devient sans objet.

Article additionnel après l'article 6

M. Christophe-André Frassa, rapporteur. - L'amendement COM-22 rectifié de notre collègue Thani Mohamed Soilihi et des membres du groupe LaREM vise à mieux associer les régies publicitaires à la lutte contre le financement de sites facilitant la diffusion en ligne des discours de haine : il renforce les obligations de transparence à leur charge.

Bien que la rédaction proposée soit encore probablement perfectible, cette approche mérite d'être soutenue à ce stade, afin de lever la réticence du Gouvernement à nous faire des propositions en la matière. Mon avis est favorable.

L'amendement COM-22 rectifié est adopté.

Article 6 bis A (nouveau)

L'amendement rédactionnel COM-47 est adopté.

Article 6 bis B (nouveau)

L'amendement rédactionnel COM-48 est adopté.

Article 6 bis C (nouveau)

L'amendement de cohérence COM-49 est adopté.

Articles additionnels après l'article 6 bis C (nouveau)

M. Christophe-André Frassa, rapporteur. - Pour l'application de l'article 45 de la Constitution, il convient de définir le périmètre de notre proposition de loi qui, à mon sens, inclut des dispositions relatives :

- au régime particulier de responsabilité civile ou pénale atténuée des intermédiaires techniques (hébergeurs et fournisseurs d'accès) ;

- aux obligations de coopération avec les autorités publiques mises à leur charge pour des motifs de prévention des atteintes à la dignité humaine ;

- au blocage administratif et judiciaire des sites internet ;

- aux compétences et aux pouvoirs de régulation et de sanction dévolus au CSA en matière de lutte contre les contenus haineux.

À l'inverse, ne présentent pas de lien, même indirect, avec le texte déposé, des amendements visant à modifier les règles générales de la responsabilité civile ou pénale, ou à créer de nouvelles infractions ne concernant pas les intermédiaires techniques.

Les amendements COM-10, COM-11 et COM-13 sont déclarés irrecevables en application de l'article 45 de la Constitution.

Article additionnel après l'article 6 bis (nouveau)

M. Christophe-André Frassa, rapporteur. - Je suis favorable à l'amendement COM-15 de notre collègue Jean-Pierre Grand qui précise que l'information sur les violences en milieu scolaire doit inclure les violences en ligne.

L'amendement COM-15 est adopté.

Article 6 ter (nouveau)

L'amendement rédactionnel COM-50 est adopté.

Article 7

M. Christophe-André Frassa, rapporteur. - L'amendement COM-51 vise à placer expressément auprès du CSA le nouvel observatoire de la haine en ligne, créé par la proposition de loi, et à renvoyer au pouvoir réglementaire la fixation de ses missions et de sa composition.

L'amendement COM-51 est adopté.

Article 9 (nouveau)

M. Christophe-André Frassa, rapporteur. - L'amendement COM-52 vise à décaler l'entrée en vigueur du présent texte au 1er juillet 2020, au lieu du 1er janvier 2020.

L'amendement COM-52 est adopté.

M. Christophe-André Frassa, rapporteur. - Je suis défavorable à l'amendement COM-7, qui est contraire à la position de la commission sur l'article 3.

L'amendement COM-7 n'est pas adopté.

Article 10 (nouveau)

L'amendement de correction COM-53 est adopté.

La proposition de loi est adoptée dans la rédaction issue des travaux de la commission.

Le sort des amendements examinés par la commission est retracé dans le tableau suivant :

Auteur

Objet

Sort de l'amendement

Chapitre Ier : Obligation renforcée de retrait des contenus haineux en ligne
(Division et intitulé nouveaux)

M. MOHAMED SOILIHI

23 rect.

Modification de l'intitulé du chapitre 1er

Rejeté

Article 1er
Obligation pour les grandes plateformes de supprimer en 24 heures certains contenus manifestement illicites ;
liste des contenus et répression pénale des manquements ; exercice des droits reconnus
à la partie civile par les associations de lutte contre les discriminations

M. FRASSA, rapporteur

26

Suppression du délit de « non-retrait » de contenus haineux

Adopté

M. MOHAMED SOILIHI

20

Modification du délit de « non-retrait » de contenus haineux

Rejeté

M. GRAND

8

Extension à tous les hébergeurs de l'obligation de retrait en 24 heures des contenus haineux

Satisfait ou sans objet

M. GRAND

12

Prise en compte de la qualité « apparente » pour caractériser l'injure haineuse

Satisfait ou sans objet

M. GRAND

14

Doublement des sanctions pénales pour défaut de retrait lorsqu'il est demandé par une personne dépositaire de l'autorité publique ou chargée d'une mission de service public

Satisfait ou sans objet

M. GRAND

1

Rédactionnel

Satisfait ou sans objet

Article additionnel après l'article 1er

M. GRAND

9

Élargissement de la protection fonctionnelle aux agents victimes de diffusion de contenus haineux en ligne

Rejeté

Article 1er bis (nouveau)
Formalisme de la nouvelle procédure de notification
d'un contenu manifestement haineux

M. FRASSA, rapporteur

27

Suppression de l'article

Adopté

M. GRAND

2

Suppression de l'article

Adopté

M. MOHAMED SOILIHI

25

Formalisme de la notification des contenus haineux

Satisfait ou sans objet

Article 1er ter A (nouveau)
Simplification du formalisme des notifications prévues par la LCEN pour engager
de la responsabilité des hébergeurs à raison de contenus illicites

M. FRASSA, rapporteur

28

Simplification des notifications de contenu illicites

Adopté

Article 1er ter B (nouveau)
Notification de contenus haineux par une association
de protection de l'enfance saisie par un mineur

M. GRAND

3

Suppression de l'article

Rejeté

M. FRASSA, rapporteur

29

Cohérence rédactionnelle

Adopté

M. FRASSA, rapporteur

30

Exception à l'information systématique du représentant légal par les associations notifiant un contenu illicite à la demande d'un mineur

Adopté

Article 1er ter (nouveau)
Sanction des notifications abusives ou malveillantes

M. FRASSA, rapporteur

31

Suppression de l'article

Adopté

M. GRAND

4

Suppression de l'article

Adopté

Article 2
Obligations de moyens mises à la charge des plateformes
en matière de traitement des notifications de contenu haineux en ligne

M. FRASSA, rapporteur

32

Définition du champ des opérateurs concernés par la nouvelle régulation des plateformes

Adopté

M. BOULOUX

56

Définition du champ des opérateurs concernés par la nouvelle régulation des plateformes

Adopté avec modification

M. FRASSA, rapporteur

33

Proportionnalité des obligations de moyens renforcées à la charge des plateformes

Adopté

M. MOHAMED SOILIHI

55 rect.

Précision

Adopté

M. BOULOUX

57

Proportionnalité des obligations de moyens renforcées à la charge des plateformes

Adopté avec modification

M. FRASSA, rapporteur

34

Clarification des pouvoirs du CSA

Adopté

M. FRASSA, rapporteur

35

Clarifications de l'information des auteurs de contenus notifiés ou retirés

Adopté

M. FRASSA, rapporteur

36

Clarifications rédactionnelles à la procédure de contre-notification ou d'appel

Adopté

M. FRASSA, rapporteur

37

Suppression du « notice and stay down »

Adopté

M. MOHAMED SOILIHI

24 rect.

Suppression du « notice and stay down »

Adopté

M. BOULOUX

58

Suppression du « notice and stay down »

Adopté

M. GRAND

5

Précision rédactionnelle

Rejeté

Article 3
Autres obligations de moyens mises à la charge des plateformes
en matière d'information et de coopération avec les autorités

M. GRAND

6

Suppression de l'article

Rejeté

M. FRASSA, rapporteur

38

Clarification rédactionnelle

Adopté

M. FRASSA, rapporteur

39

Cohérence rédactionnelle

Adopté

M. FRASSA, rapporteur

40

Indicateurs qualitatifs et quantitatifs sur la modération des plateformes

Adopté

M. FRASSA, rapporteur

41

Cohérence rédactionnelle

Adopté

Article 3 bis (nouveau)
Renforcement de l'amende pour non-coopération avec l'autorité judiciaire
en matière de lutte contre les contenus illicites

M. FRASSA, rapporteur

42

Alignement des sanctions encourues par les éditeurs sur celles des hébergeurs

Adopté

Article 4
Nouvelles missions du CSA : surveillance des obligations à la charge des plateformes,
recommandations, pouvoirs de contrôle et de sanction ;
contrôle du blocage administratif des sites terroristes ou pédopornographiques

Mme MORIN-DESAILLY

16

Champ du contrôle du CSA

Adopté avec modification

M. FRASSA, rapporteur

43

Cohérence rédactionnelle

Adopté

Mme MORIN-DESAILLY

17

Pouvoirs du CSA

Adopté

Mme MORIN-DESAILLY

18

Procédure de sanction devant le CSA

Adopté

Mme MORIN-DESAILLY

19

Modalités de publicité des décisions de sanction des plateformes par le CSA

Adopté

M. FRASSA, rapporteur

54

Modalités de publicité des décisions de sanction des plateformes par le CSA

Adopté

M. FRASSA, rapporteur

44

Modalités de publicité des décisions de sanction des plateformes par le CSA

Adopté

M. FRASSA, rapporteur

45

Cohérence rédactionnelle

Adopté

M. BOULOUX

59

Partage d'information sur les contenus haineux illicites entre plateformes

Adopté

M. FRASSA, rapporteur

60

Lutte contre la viralité

Adopté

M. FRASSA, rapporteur

61

Interopérabilité

Adopté

Article 6
Simplification de la procédure de blocage et de déréférencement des sites haineux
(directement auprès des FAI, sans subsidiarité ;
sur injonction administrative contre les sites ou serveurs miroirs)

M. FRASSA, rapporteur

46

Suppression de l'article

Adopté

M. MOHAMED SOILIHI

21 rect.

Assèchement des ressources publicitaires des sites propageant des contenus illicites 

Satisfait ou sans objet

Article additionnel après l'article 6

M. MOHAMED SOILIHI

22 rect.

Obligations de transparence à la charge des régies publicitaires

Adopté

Article 6 bis A (nouveau)
Spécialisation d'un parquet et d'une juridiction
en matière de lutte contre la haine en ligne

M. FRASSA, rapporteur

47

Cohérence rédactionnelle

Adopté

Article 6 bis B (nouveau)
Possibilité de prononcer une interdiction d'adresser des messages électroniques à une victime

M. FRASSA, rapporteur

48

Cohérence rédactionnelle

Adopté

Article 6 bis C (nouveau)
Compétence du juge unique en matière correctionnelle
à l'égard des refus de retrait d'un contenu haineux

M. FRASSA, rapporteur

49

Suppression de l'article

Adopté

Article additionnel après l'article 6 bis C (nouveau)

M. GRAND

10

Protection de l'identité des agents de la police et de la gendarmerie nationales

Irrecevable au titre de l'article 45 de la Constitution

M. GRAND

11

Protection du droit à l'image des fonctionnaires de la police nationale, des militaires et des agents des douanes

Irrecevable au titre de l'article 45 de la Constitution

M. GRAND

13

Protection du droit à l'image des fonctionnaires de la police nationale, des militaires et des agents des douanes

Irrecevable au titre de l'article 45 de la Constitution

Article additionnel après l'article 6 bis (nouveau)
Sensibilisation des élèves à la lutte
contre la diffusion des contenus haineux en ligne

M. GRAND

15

Sensibilisation aux violences en ligne en milieu scolaire 

Adopté

Article 6 ter (nouveau)
Formation des enseignants en matière de lutte
contre la diffusion des contenus haineux

M. FRASSA, rapporteur

50

Rédactionnel

Adopté

Article 7
Observatoire de la haine en ligne

M. FRASSA, rapporteur

51

Précision

Adopté

Article 9 (nouveau)
Entrée en vigueur

M. FRASSA, rapporteur

52

Modification de l'entrée en vigueur

Adopté

M. GRAND

7

Modification de l'entrée en vigueur

Rejeté

Article 10 (nouveau)
Application outre-mer

M. FRASSA, rapporteur

53

Rédactionnel

Adopté