Allez au contenu, Allez à la navigation

Proposition de loi visant à lutter contre la haine sur internet

5 février 2020 : Lutte contre la haine sur internet ( rapport - nouvelle lecture )

CHAPITRE IV BIS
RENFORCEMENT DE L'EFFICACITÉ DE LA RÉPONSE PÉNALE À L'ÉGARD DES AUTEURS DE CONTENUS HAINEUX EN LIGNE

Article 6 bis A
(art. 15-3-3 [nouveau] du code de procédure pénale)
Spécialisation d'un parquet et d'une juridiction
en matière de lutte contre la haine en ligne

L'article 6 bis A permet de désigner par décret un tribunal de grande instance, soit une juridiction et un parquet, spécialisé en matière de lutte contre la haine en ligne.

Cette spécialisation n'entraînera pas d'unification du contentieux au sein de cette juridiction ou des poursuites à l'initiative de ce seul parquet, puisque la compétence exercée le sera de manière concurrente et permettra en conséquence de traiter les affaires dans le ressort le plus adéquat.

La commission a adopté l'article 6 bis A
de la proposition de loi sans modification.

Article 6 bis B
(art. 138 du code de procédure pénale; art. 132-45 et 131-4-1 du code pénal)
Possibilité de prononcer une interdiction
d'adresser des messages électroniques à une victime

L'article 6 bis B vise à améliorer les outils à la disposition de l'autorité judiciaire pour surveiller les auteurs d'infractions à caractère haineux en ligne et prévenir leur commission.

Il n'a fait l'objet, à l'Assemblée comme au Sénat, que de modifications rédactionnelles ou de cohérence.

La commission a adopté l'article 6 bis B
de la proposition de loi sans modification.

Article 6 bis C (supprimé)
Compétence du juge unique en matière correctionnelle
à l'égard des refus de retrait d'un contenu haineux

L'article 6 bis C précise la compétence du juge unique en matière correctionnelle à l'égard des refus de retrait d'un contenu haineux.

Comme en première lecture, et tout en étant favorable au juge unique, la commission a adopté l'amendement COM-14 du rapporteur, supprimant l'ensemble de ces dispositions par cohérence avec sa position sur le délit de non-retrait d'un contenu illicite (supprimé à l'article 1er).

La commission a supprimé l'article 6 bis C
de la proposition de loi.

CHAPITRE V
DISPOSITIONS FINALES

Article 7
Observatoire de la haine en ligne

L'article 7 tend à créer un observatoire de la haine en ligne.

Le rapporteur, s'il éprouve toujours de sérieuses réserves sur l'utilité réelle de confier ainsi à la loi la création d'un organe purement consultatif et dénué d'autres compétences, admet néanmoins l'intérêt d'inciter le régulateur à rassembler les expertises pour l'éclairer sur des enjeux juridiques et sociaux complexes de la lutte contre les contenus illicites sur internet.

La commission a adopté l'article 7
de la proposition de loi sans modification.

Article 9
Entrée en vigueur

L'article 9 précise les modalités d'entrée en vigueur de certaines dispositions du texte.

La commission a adopté un amendement de cohérence (COM-15 du rapporteur) précisant l'application dans le temps de dispositions ajoutées ou supprimées par les autres amendements du rapporteur.

La commission a adopté l'article 9
de la proposition de loi ainsi modifié.

*

La commission a adopté la proposition de loi ainsi modifiée.

EXAMEN EN COMMISSION

__________

MERCREDI 5 FÉVRIER 2020

M. Christophe-André Frassa, rapporteur. - Chers collègues, nous sommes saisis en nouvelle lecture de la proposition de loi visant à lutter contre les contenus haineux sur internet. Ce texte, vous le savez, vise à lutter contre la propagation de certains « discours de haine » sur internet. Il renforce les sanctions pénales encourues par les grandes plateformes qui ne retireraient pas certains contenus illicites 24 heures après leur signalement. Il met également en place une régulation administrative des grandes plateformes, sous l'égide du Conseil supérieur de l'audiovisuel (CSA), qui serait chargé de contrôler le respect des nouvelles obligations de coopération et de moyens mises à leur charge. Il facilite enfin, à la marge, l'organisation de la réponse judiciaire et promeut certaines actions de prévention en milieu scolaire.

Partageant l'objectif poursuivi par ce texte, le Sénat a abordé son examen en première lecture dans un esprit ouvert et constructif ; en témoignent les nombreuses améliorations adoptées par la commission et en séance grâce aux amendements émanant de la quasi-totalité des groupes politiques de notre assemblée. Nous avons tenté de tenir une délicate ligne de crête entre, d'une part, la protection des victimes de haine et, d'autre part, la protection de la liberté d'expression telle qu'elle est pratiquée dans notre pays.

Examiné - hélas ! - selon la procédure accélérée, ce texte n'a fait l'objet que d'une seule lecture par l'Assemblée nationale, puis par le Sénat avant la réunion d'une commission mixte paritaire. Cette précipitation, que nous avons déplorée, a desservi le rapprochement des positions, et elle ne semble sérieusement justifiée par aucune contrainte de calendrier. Malgré un travail constructif entre rapporteurs, la principale divergence avec les députés tient à la rédaction retenue par l'Assemblée nationale pour l'article 1er, qui crée un délit de non-retrait en 24 heures des contenus haineux, et ce en dépit d'un large consensus sur la nécessité de renforcer la régulation des plateformes et d'encourager la prévention et l'efficacité des sanctions contre les auteurs de haine en ligne.

Preuve d'une large convergence de vues entre les deux chambres, l'Assemblée nationale a conservé, lors de la nouvelle lecture, de nombreux apports du Sénat.

Les modalités générales de notification des contenus illicites aux hébergeurs, en application de la loi pour la confiance dans l'économie numérique (LCEN), ont été précisées afin d'être rendues plus aisées pour les internautes, tout en restant pleinement respectueuses du droit européen. Les principaux apports du Sénat pour sécuriser juridiquement la régulation des grandes plateformes et la rendre plus conforme au droit européen ont été conservés. Nous avons ainsi précisé les nouvelles obligations de moyens, strictement proportionnées à l'objectif de préservation de la dignité humaine, en interdisant toute obligation de surveillance générale des réseaux. Nous avons aussi renforcé les pouvoirs de contrôle - accès aux algorithmes - et de sanction du CSA - publicité des décisions, quantum des amendes administratives.

Consensuelles entre nos deux chambres, les dispositions relatives à l'éducation et la prévention de la haine en ligne et celles qui sont destinées à renforcer l'efficacité des sanctions judiciaires des auteurs de contenus illicites - spécialisation du parquet, injonction - n'ont fait l'objet que de corrections formelles.

Enfin, ont été conservées ou confortées les mesures introduites par notre assemblée pour lutter contre le financement des sites haineux - « follow the money » -, en limitant la publicité susceptible d'y être diffusée, pour lutter contre la viralité, en encourageant les plateformes à limiter les fonctionnalités de partage et l'exposition du public aux contenus signalés, et pour consacrer dans la LCEN la jurisprudence du Conseil constitutionnel sur la mise en jeu de la responsabilité civile et pénale des hébergeurs.

Notre principale divergence concerne, comme je l'ai dit, le délit de non-retrait en 24 heures de contenus haineux, dispositif pénal que nous avons jugé juridiquement inabouti, contraire au droit européen et déséquilibré au détriment de la liberté d'expression. L'Assemblée nationale a rétabli en nouvelle lecture la création de ce nouveau délit, tout en le modifiant encore une fois. Ainsi, les types de contenus haineux concernés par l'obligation de retrait ont encore changé ! En sont désormais exclues les infractions de traite des êtres humains, de proxénétisme, ainsi que l'exposition des mineurs à des messages violents, incitant au terrorisme, ou à des jeux dangereux, seule l'exposition des mineurs à des messages pornographiques étant conservée. La peine de prison a été supprimée, au profit d'une amende. Le critère d'intentionnalité du délit de non-retrait de contenu haineux a été précisé, et l'infraction serait désormais explicitement constituée même en cas de simple négligence.

De façon inopinée, les députés ont introduit en séance, à l'initiative du Gouvernement, la nouvelle obligation pour tout hébergeur ou éditeur, quelle que soit l'importance de son activité, de retirer en une heure les contenus à caractère terroriste ou pédopornographique notifiés par l'administration, sous peine de lourdes sanctions pénales.

Il importe de rester ferme sur la défense de la liberté d'expression et de lutter plus efficacement contre les ressorts de la haine en ligne. Les hésitations des députés et les nouvelles modifications apportées au dernier moment à un dispositif pénal pourtant déjà largement amendé par eux en première lecture sont bien la preuve de son caractère encore inabouti. Je vous proposerai donc plusieurs amendements pour confirmer l'approche du Sénat en première lecture.

Premièrement, sur le retrait en 24 heures des contenus haineux par les grandes plateformes, il faut privilégier une obligation de moyens sanctionnée par le régulateur. Le Sénat ne s'est évidemment pas résolu à l'inaction face aux grandes plateformes, mais il privilégie les solutions qui conservent toute leur place à la puissance publique, par le biais de la régulation du CSA, plutôt que des innovations incertaines déléguant toujours plus aux géants américains du numérique la police de la liberté d'expression.

Tout en refusant de créer ce nouveau délai couperet pénalement sanctionné au moindre manquement, le Sénat a réaffirmé, en première lecture, que le délai de 24 heures pour le retrait d'un contenu manifestement haineux doit être un objectif à atteindre pour les grandes plateformes, consacrant ainsi une obligation juridique de moyens. Le régulateur se voit d'ailleurs confier à cette fin de solides pouvoirs de contrôle et de sanction - l'amende administrative pouvant aller jusqu'à 4 % du chiffre d'affaires annuel - afin de s'assurer que les plateformes mettent en oeuvre suffisamment de ressources humaines et techniques pour pouvoir remplir cet objectif.

Deuxièmement, concernant le retrait en une heure des contenus à caractère terroriste ou pédopornographique, il faut attendre le règlement européen et écarter l'adoption précipitée d'un dispositif juridiquement fragile ; la gravité du sujet mérite mieux qu'un amendement de dernière minute que personne n'a réellement pu expertiser.

Troisièmement, il convient de prévoir un meilleur encadrement de la conservation des contenus illicites retirés par les hébergeurs en vue de faciliter les poursuites. Leur conservation doit être temporaire, en vue d'une transmission à la justice. Il faut trouver un équilibre délicat entre la facilitation des enquêtes et les contraintes imposées aux hébergeurs.

Quatrièmement, concernant la viralité, les faux comptes, les « fermes à trolls » et l'interopérabilité, je regrette que l'Assemblée nationale ait supprimé du texte plusieurs mesures significatives introduites par le Sénat pour s'attaquer aux ressorts profonds de la diffusion de la haine en ligne - je vous proposerai de les rétablir.

Il s'agit d'abord la possibilité d'introduire une certaine souplesse dans le champ de la régulation du CSA, afin de lui permettre de contrôler et d'imposer des obligations aux sites qui, sans répondre au critère de fort trafic, accentuent fortement la viralité des contenus. Je propose également de réintroduire le dispositif permettant au CSA d'encourager la lutte contre les faux comptes qui, sur les réseaux sociaux, ne sont dédiés qu'à la seule propagation de contenus haineux illicites, les « fermes à trolls ». Enfin, me paraît fondamentale la mission d'encouragement de l'interopérabilité des grandes plateformes confiée au CSA, afin de fluidifier le passage des utilisateurs de l'une à l'autre pour qu'ils puissent réellement choisir celles ayant les politiques de modération des contenus qui leur conviennent le mieux. Je vous inviterai à adopter le texte ainsi modifié.

M. Philippe Bas, président. - Le Sénat est de bonne volonté et essaie d'être constructif : tout en reconnaissant toute l'importance du sujet, nous voulons faire un travail juridiquement correct. Nous aurions pu nous contenter de repousser cette proposition de loi, en nouvelle lecture, eu égard à l'absence d'accord en commission mixte paritaire. La formule que propose notre rapporteur est meilleure, elle permet de réaffirmer notre attachement à l'objectif du texte et au processus de régulation des plateformes pour lutter contre la haine sur internet.

M. Pierre-Yves Collombat. - Je ne critique en rien la position du rapporteur, mais j'ai du mal à comprendre comment cette proposition de loi sera efficace pour lutter contre un danger réel certes, mais plutôt insaisissable. De quoi cette montagne de régulation peut-elle accoucher ? D'un côté, des règles s'accumulent et, de l'autre, certains font ce qu'ils veulent.

M. Alain Richard. - La discussion porte sur la disposition punitive. L'Assemblée nationale préfère un mécanisme pénal, tandis que notre rapporteur propose une sanction administrative, délivrée par une autorité indépendante. Toutefois, il me semble que l'objection du rapporteur selon laquelle les gestionnaires de plateformes risquent de procéder à des retraits de contenus de manière excessive - ce qui est contraire à la liberté d'expression - reste valable dans le cadre d'une sanction administrative, d'autant que celle-ci peut être infligée plus rapidement et qu'elle est, financièrement, extrêmement dissuasive.

À cet égard, je crois me souvenir que, selon une jurisprudence du Conseil constitutionnel, les sanctions fixées en relation avec le chiffre d'affaires ne peuvent s'appliquer qu'à des infractions à caractère économique. Je m'interroge donc sur la constitutionnalité de cette sanction pour une infraction d'opinion.

M. Christophe-André Frassa, rapporteur. - Monsieur Collombat, dans un monde où internet va aussi vite que la lumière, le législateur n'a pas la même viralité qu'un tweet, mais s'emploie à ce que la loi soit efficace et applicable.

Une obligation de moyens sous la supervision d'un régulateur semble une solution prometteuse, souple, et beaucoup plus réalisable.

L'Assemblée nationale a privilégié le principe d'une obligation de retrait tweet par tweet, avec une sanction pénale. Nous avons le contre-exemple allemand de la loi Netzwerkdurchsetzungsgesetz (NetzDG) : les grandes plateformes ne cherchent pas à regarder si le contenu est illicite ou manifestement haineux, elles préfèrent retirer les tweets, prenant le risque d'une requête ultérieure de l'auteur qui considérerait ce retrait abusif. Les requêtes contestant les retraits indus s'accumulent devant les tribunaux allemands, aboutissant à une révision anticipée de la loi NetzDG, avant la clause de revoyure, pour répondre notamment à cet effet pervers.

Nous privilégions le second aspect de cette proposition de loi, l'obligation de moyens, dont la sanction est dissuasive car fondée sur un pourcentage du chiffre d'affaires.

M. Alain Richard. - Rendez-vous à la première question prioritaire de constitutionnalité (QPC)...

Mme Brigitte Lherbier. - Il faut préférer une option réalisable quand nous légiférons, sinon le malfaisant sort renforcé de l'inapplication des lois. La sanction pénale est certes un symbole important, mais l'exemple allemand m'a convaincue, restons efficace et méfions-nous des effets pervers imprévus.

EXAMEN DES ARTICLES

M. Philippe Bas, président. - Les amendements du rapporteur visent, pour la plupart, à rétablir le texte adopté par le Sénat en première lecture.

Article 1er

M. Christophe-André Frassa, rapporteur. - L'amendement COM-1 supprime des dispositions introduites par le Gouvernement en nouvelle lecture en séance à l'Assemblée nationale, à la dernière minute, sans débat approfondi, et n'entretenant qu'un lien très indirect avec le texte restant en discussion. Cet amendement avait aussi été déposé au Sénat à la dernière minute, et avait été rejeté. Le Gouvernement souhaite créer pour tout hébergeur ou éditeur, sans critère de taille, une nouvelle obligation de retirer désormais en une heure les contenus à caractère terroriste ou pédopornographique notifiés par l'administration.

Un projet de règlement européen est en cours de préparation ; attendons-le avant d'introduire à la va-vite ce dispositif bancal.

L'amendement COM-1 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-2 rétablit l'approche du Sénat en première lecture, qui avait écarté la création d'un nouveau délit de non-retrait de tout contenu haineux en 24 heures, lui préférant une obligation de moyens sous le contrôle du régulateur.

L'amendement COM-2 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-3 confirme la position du Sénat en première lecture sur l'exclusion des moteurs de recherche du champ de la proposition de loi.

L'amendement COM-3 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-4 confirme la position du Sénat en première lecture, pour mieux lutter contre la viralité ; nous avions souhaité une définition plus souple du champ des opérateurs concernés par la nouvelle régulation des plateformes, assujettis à de nouvelles obligations de moyens renforcés, sous la supervision du CSA.

L'amendement COM-4 est adopté, de même que l'amendement de coordination COM-5.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-6 reprend un amendement de précision de Mme Carrère concernant les messages se substituant aux contenus retirés.

L'amendement COM-6 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-7 sur l'obligation de conservation des contenus illicites retirés par les hébergeurs en vue de faciliter d'éventuelles poursuites ultérieures vise à rétablir la rédaction du Sénat en première lecture.

L'amendement COM-7 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-8 est de conséquence. La suppression du délit de non-retrait rend sans objet les dispositions donnant intérêt à agir aux associations.

L'amendement COM-8 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-9, de cohérence et de coordination, reprend la rédaction du Sénat en première lecture.

L'amendement COM-9 est adopté.

Article 1er ter B

M. Christophe-André Frassa, rapporteur. - L'amendement COM-10 vise, comme en première lecture, à réserver aux seules associations de protection de l'enfance reconnues d'utilité publique la possibilité de notifier un contenu haineux lorsqu'elles en sont saisies par un mineur.

M. Philippe Bas, président. - C'est un sujet très sensible.

L'amendement COM-10 est adopté.

Article 3

M. Christophe-André Frassa, rapporteur. - L'amendement COM-11 reprend et précise les dispositions adoptées par le Sénat en première lecture afin de renforcer les obligations des réseaux sociaux en matière de lutte contre les comptes uniquement dédiés à la diffusion de contenus illicites, dits « fermes à trolls ».

L'amendement COM-11 est adopté.

Article 4

M. Christophe-André Frassa, rapporteur. - L'amendement COM-12 réintroduit l'interopérabilité.

L'amendement COM-12 est adopté, de même que l'amendement de coordination COM-13.

Article 6 bis C

L'amendement de cohérence COM-14 est adopté.

Article 9

L'amendement de cohérence COM-15 est adopté.

La proposition de loi est adoptée dans la rédaction issue des travaux de la commission.

Le sort des amendements examinés par la commission est retracé dans le tableau suivant :

Auteur

Objet

Sort de l'amendement

Article 1er
Simplification du formalisme des notifications prévues par la LCEN
pour engager la responsabilité des hébergeurs à raison de contenus illicites

M. FRASSA, rapporteur

1

Retrait en une heure des contenus terroristes ou pédopornographiques

Adopté

M. FRASSA, rapporteur

2

Retrait en 24 heures de certains contenus haineux

Adopté

M. FRASSA, rapporteur

3

Exclusion des moteurs de recherche du champ de la proposition de loi

Adopté

M. FRASSA, rapporteur

4

Facilité d'attraire les plateforme virales dans le champ de la régulation du CSA

Adopté

M. FRASSA, rapporteur

5

Coordination

Adopté

M. FRASSA, rapporteur

6

Messages se substituant aux contours retirés

Adopté

M. FRASSA, rapporteur

7

Conservation des contenus retirés aux fins de poursuites

Adopté

M. FRASSA, rapporteur

8

Conséquence

Adopté

M. FRASSA, rapporteur

9

Cohérence et coordination

Adopté

Article 1er ter B
Notification de contenus haineux par une association
de protection de l'enfance saisie par un mineur

M. FRASSA, rapporteur

10

Reconnaissance d'utilité publique des associations de protection de l'enfance

Adopté

Article 3
Autres obligations de moyens mises à la charge des plateformes
en matière d'information et de coopération avec les autorités

M. FRASSA, rapporteur

11

Lutte contre les faux comptes

Adopté

Article 4
Nouvelles missions du CSA : surveillance des obligations à la charge des plateformes,
recommandations, pouvoirs de contrôle et de sanction ;
contrôle du blocage administratif des sites terroristes ou pédopornographiques

M. FRASSA, rapporteur

12

Intéropérabilité

Adopté

M. FRASSA, rapporteur

13

Coordination

Adopté

Article 6 bis C
Compétence du juge unique en matière correctionnelle
à l'égard des refus de retrait d'un contenu haineux

M. FRASSA, rapporteur

14

Coordination

Adopté

Article 9
Entrée en vigueur

M. FRASSA, rapporteur

15

Coordination

Adopté