Allez au contenu, Allez à la navigation

Proposition de loi visant à lutter contre la haine sur internet

5 février 2020 : Lutte contre la haine sur internet ( rapport - nouvelle lecture )

Rapport n° 299 (2019-2020) de M. Christophe-André FRASSA, fait au nom de la commission des lois, déposé le 5 février 2020

Disponible au format PDF (527 Koctets)


N° 299

SÉNAT

SESSION ORDINAIRE DE 2019-2020

Enregistré à la Présidence du Sénat le 5 février 2020

RAPPORT

FAIT

au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale (1) sur la proposition de loi, adoptée par l'Assemblée nationale en nouvelle lecture, visant à lutter contre les contenus haineux sur internet,

Par M. Christophe-André FRASSA,

Sénateur

(1) Cette commission est composée de : M. Philippe Bas, président ; MM. François-Noël Buffet, Jean-Pierre Sueur, Mme Catherine Di Folco, MM. Jacques Bigot, André Reichardt, Mme Sophie Joissains, M. Arnaud de Belenet, Mme Nathalie Delattre, MM. Pierre-Yves Collombat, Alain Marc, vice-présidents ; M. Christophe-André Frassa, Mme Laurence Harribey, M. Loïc Hervé, Mme Marie Mercier, secrétaires ; Mme Esther Benbassa, MM. François Bonhomme, Philippe Bonnecarrère, Mmes Agnès Canayer, Maryse Carrère, Josiane Costes, MM. Mathieu Darnaud, Marc-Philippe Daubresse, Mme Jacky Deromedi, MM. Yves Détraigne, Jérôme Durain, Mme Jacqueline Eustache-Brinio, MM. Jean-Luc Fichet, Pierre Frogier, Mmes Françoise Gatel, Marie-Pierre de la Gontrie, M. François Grosdidier, Mme Muriel Jourda, MM. Patrick Kanner, Éric Kerrouche, Jean-Yves Leconte, Henri Leroy, Mme Brigitte Lherbier, MM. Didier Marie, Hervé Marseille, Jean Louis Masson, Thani Mohamed Soilihi, Alain Richard, Vincent Segouin, Simon Sutour, Mmes Lana Tetuanui, Claudine Thomas, Catherine Troendlé, M. Dany Wattebled.

Voir les numéros :

Première lecture : 1785, 1989, 2062 et T.A. 310

Commission mixte paritaire : 2558

Nouvelle lecture : 2534, 2583 et T.A. 388

Première lecture : 645 (2018-2019), 173, 184, 197, 198 et T.A. 36 rect. (2019-2020)

Commission mixte paritaire : 239 et 240 (2019-2020)

Nouvelle lecture : 270 et 300 (2019-2020)

L'ESSENTIEL

Réunie le mercredi 5 février 2020 sous la présidence de Philippe Bas, la commission des lois a adopté en nouvelle lecture, avec modifications, sur le rapport de Christophe-André Frassa, la proposition de loi visant à lutter contre les contenus haineux sur internet dont elle était saisie.

Le texte transmis par l'Assemblée nationale vise à lutter contre la propagation de certains « discours de haine » sur internet. Il renforce les sanctions pénales encourues par les réseaux sociaux et les moteurs de recherche qui ne retireraient pas un tel contenu 24 heures après son signalement. Il met également en place une régulation administrative des grandes plateformes, sous l'égide du Conseil supérieur de l'audiovisuel (CSA), qui serait chargé de contrôler le respect des nouvelles obligations de coopération et de moyens mises à leur charge. Il facilite enfin, à la marge, l'organisation de la réponse judiciaire et promeut certaines actions de prévention en milieu scolaire.

I. UN LARGE CONSENSUS : RENFORCER LA RÉGULATION DES PLATEFORMES, LA PRÉVENTION ET L'EFFICACITÉ DES SANCTIONS DES AUTEURS DE CONTENUS HAINEUX SUR INTERNET

A. LA POSITION CONSTRUCTIVE DU SÉNAT EN PREMIÈRE LECTURE : RÉÉQUILIBRER, SÉCURISER ET COMPLÉTER UN TEXTE UTILE MAIS PERFECTIBLE

Partageant l'objectif poursuivi par ce texte, le Sénat avait abordé son examen en première lecture dans un esprit ouvert et constructif, comme en témoignent les nombreuses améliorations adoptées en commission et en séance grâce aux amendements émanant de la quasi-totalité des groupes politiques de notre assemblée.

Pour tenter de tenir la ligne de crête entre, d'une part, la protection des victimes de haine et, d'autre part, la protection de la liberté d'expression à laquelle est traditionnellement attaché notre pays, le Sénat avait souhaité rééquilibrer et mieux sécuriser juridiquement certaines des mesures proposées.

À l'initiative de la commission, le Sénat avait écarté la création d'un nouveau délit de « non-retrait » de tout contenu haineux en 24 heures, trop déséquilibré aux dépens de la liberté d'expression, lui préférant une obligation de moyens sous le contrôle du régulateur.

Le Sénat ne s'est pas résolu à l'inaction face aux grandes plateformes, mais il a privilégié les solutions qui conservaient toute leur place à la puissance publique - par le biais de la régulation du CSA - plutôt que des innovations incertaines déléguant toujours plus aux géants américains du numérique la police de la liberté d'expression.

Notre assemblée a ainsi approuvé l'instauration d'une régulation administrative des grandes plateformes, en clarifiant leurs obligations pour mieux tenir compte des exigences du droit européen (directive « e-commerce »), en proportionnant les obligations à la charge des plateformes au risque d'atteinte à la dignité humaine et en écartant toute obligation générale de surveillance des réseaux.

Le Sénat a également proposé plusieurs ajouts au texte pour mieux s'attaquer à la viralité des discours de haine ainsi qu'à leur financement par la publicité, et promouvoir l'interopérabilité entre plateformes afin de garantir aux victimes un passage plus fluide de l'une à l'autre.

Sur la forme, dès l'issue de la première lecture, trois des vingt articles transmis ont été adoptés dans les mêmes termes par les deux assemblées grâce à un vote conforme du Sénat (articles 5, 6 bis et 8).

B. L'ÉCHEC DE LA COMMISSION MIXTE PARITAIRE, SYMPTÔME D'UN RECOURS ABUSIF À LA PROCÉDURE ACCÉLÉRÉE QUI NE PERMET PAS DE RAPPROCHER SEREINEMENT LES POSITIONS

Examinée selon la procédure accélérée, cette proposition de loi n'a fait l'objet que d'une seule lecture par l'Assemblée nationale puis par le Sénat avant la réunion d'une commission mixte paritaire.

Votre rapporteur a déjà eu l'occasion de regretter fortement cette décision, qui a desservi le rapprochement des positions, et ne semble sérieusement justifiée par aucune contrainte de calendrier pour un texte dont la réflexion a été entamée il y a plus de deux ans et dont l'inscription en séance au Sénat a été repoussée à chaque lecture de plusieurs semaines... temps qui aurait justement pu être mis à profit pour mener à bien une navette normale.

Malgré un travail constructif entre rapporteurs, la commission mixte paritaire, réunie au Sénat le mercredi 8 janvier 2020, a constaté qu'elle ne pouvait élaborer un texte commun, la principale divergence avec les députés restant la rédaction retenue par l'Assemblée nationale pour l'article 1er, qui crée un délit de « non-retrait » en 24 heures des contenus haineux.

C. DES CONVERGENCES CONFIRMÉES EN NOUVELLE LECTURE PAR L'ASSEMBLÉE NATIONALE : L'INTÉGRATION DE NOMBREUX APPORTS DU SÉNAT 

Preuve d'une large convergence de vues entre les deux chambres, l'Assemblée nationale a conservé, lors de la nouvelle lecture, de nombreux apports du Sénat.

Les modalités générales de notification des contenus illicites aux hébergeurs, en application de la loi pour la confiance dans l'économie numérique (LCEN) du 21 juin 2004, ont été précisées afin d'être rendues plus aisées pour les internautes tout en restant pleinement respectueuses du droit européen (article 1er ter A).

Les principaux apports du Sénat pour sécuriser juridiquement la régulation des grandes plateformes et la rendre plus conforme au droit européen ont été conservés, s'agissant notamment des précisions relatives :

- aux nouvelles obligations de moyens, strictement proportionnées à l'objectif de préservation de la dignité humaine, en interdisant toute obligation de surveillance générale des réseaux (articles 2 et 3) ;

- et aux pouvoirs de contrôle (accès aux algorithmes) et de sanction du CSA (publicité des décisions, quantum des amendes administratives) (article 4).

Consensuelles entre nos deux chambres, les dispositions relatives à l'éducation et la prévention de la haine en ligne (articles 6 bis A, 6 bis B et 6 bis C) et celles destinés à renforcer l'efficacité des sanctions judiciaires des auteurs de contenus illicites (spécialisation, injonction) (articles 6 bis, 6 ter A et 6 ter) n'ont fait l'objet, le cas échéant, que de mesures de coordination.

Enfin, des ajouts introduits au Sénat et destinés à s'attaquer à des sujets laissés de côté par le texte initial ont été conservés ou confortés :

- les mesures introduites pour lutter contre le financement des sites haineux (« follow the money »), en limitant la publicité susceptible d'y être diffusée (article 6 bis AA) ;

- celles destinées à mieux lutter contre la viralité, en encourageant les plateformes à limiter les fonctionnalités de partage et l'exposition du public aux contenus signalés (article 4) ;

- et la consécration dans la LCEN de la jurisprudence du Conseil constitutionnel sur la mise en jeu de la responsabilité civile et pénale des hébergeurs (article 7 bis).

II. LA PERSISTANCE DE POINTS DE DÉSACCORD SUR LESQUELS LE SÉNAT ENTEND À NOUVEAU REVENIR POUR PRÉSERVER LA LIBERTÉ D'EXPRESSION

A. DES DÉSACCORDS PERSISTANTS SUR DES QUESTIONS DE PRINCIPE ET L'EFFICACITÉ DE CERTAINS DISPOSITIFS

1. Le rétablissement par l'Assemblée nationale du délit de « non-retrait » des contenus haineux dans une version encore remaniée

L'Assemblée nationale a rétabli en nouvelle lecture la création d'un nouveau délit de « non-retrait » en 24 heures des contenus haineux signalés aux grandes plateformes (article 1er).

Les députés ont à nouveau apporté plusieurs modifications à ce dispositif pourtant déjà largement amendé par eux en première lecture.

Ils ont d'abord procédé à des ajustements significatifs du champ des acteurs et des types de contenus haineux concernés par l'obligation de retrait :

- en réintégrant les moteurs de recherche (le Sénat n'ayant conservé que les réseaux sociaux) ;

- en conservant l'ajout du négationnisme proposé par le Sénat en première lecture (art. 24 bis de la loi du 29 juillet 1881 sur la liberté de la presse), mais en excluant désormais les infractions de traite des êtres humains (art. 225-4-1 du code pénal), de proxénétisme (art. 225-5 et 225-6 du même code), ainsi que l'exposition des mineurs à des messages violents, incitant au terrorisme, ou à des jeux dangereux (art. 227-24 du même code), seule l'exposition des mineurs à des messages pornographiques étant conservée.

Ils ont également introduit plusieurs corrections au mécanisme pénal envisagé.

La peine de prison a été supprimée, au profit du seul prononcé d'une amende, dont le montant serait désormais fixé à 250 000 euros  (sans quintuplement pour les personnes morales) car, selon la rapporteure Laetitia Avia, « l'utilité [de l'emprisonnement] n'est pas avérée s'agissant de personnes morales ».

Le critère d'intentionnalité du délit de « non-retrait » de contenu haineux a été précisé - et l'infraction serait désormais explicitement constituée même en cas de simple négligence en l'absence d'examen proportionné et nécessaire du contenu notifié »).

Par le jeu d'un renvoi, a été rappelée la possibilité de recours a posteriori devant un juge (par la voie du référé prévu par LCEN ou du référé conservatoire civil de droit commun).

Enfin, les contenus notifiés comme illicites devront être conservés pendant la durée de la prescription pour faciliter les enquêtes.

2. L'introduction inopinée d'une nouvelle sanction pénale en cas de non-retrait en une heure des contenus terroristes et pédopornographiques

Les députés ont introduit en séance, à l'initiative du Gouvernement, une nouvelle obligation pour tout hébergeur ou éditeur, quelle que soit l'importance de son activité, de retirer en une heure les contenus à caractère terroriste ou pédopornographique notifiés par l'administration, sous peine de lourdes sanctions pénales (un an d'emprisonnement et 250.000 euros d'amende, portés au quintuple pour les personnes morales).

B. LA POSITION DE VOTRE COMMISSION : RESTER FERME SUR LA DÉFENSE DE LA LIBERTÉ D'EXPRESSION, LUTTER PLUS EFFICACEMENT CONTRE LES RESSORTS DE LA HAINE EN LIGNE

1. Sur le retrait en 24 heures des contenus haineux par les grandes plateformes : privilégier une obligation de moyens sanctionnée par le régulateur

Confirmant l'approche du Sénat en première lecture, la commission des lois a de nouveau écarté l'instauration d'un nouveau délit de « non-retrait » de tout contenu haineux en 24 heures, pour lui préférer la création de nouvelles obligations de moyens, sous le contrôle du régulateur.

Jugé inabouti voire dangereux par de nombreux acteurs tant de la société civile que de l'économie numérique, le dispositif pénal apparaît trop déséquilibré aux dépens de la liberté d'expression (risque de « sur-censure » ou de « sur-blocage » par précaution de propos licites mais polémiques, mise à l'écart du juge judiciaire), juridiquement fragile (problèmes d'imputabilité, d'intentionnalité, d'articulation avec le régime général de la LCEN) et probablement contraire au droit de l'Union européenne (la Commission européenne ayant adressé à la France de longues observations critiques pointant la violation de la directive e-commerce et de la Charte des droits fondamentaux de l'Union européenne).

Ainsi, tout en refusant de créer ce nouveau délai couperet pénalement sanctionné au moindre manquement (une obligation de résultat), la commission a réaffirmé que le délai de 24 heures pour le retrait d'un contenu manifestement haineux doit être un objectif à atteindre pour les grandes plateformes, consacrant ainsi une obligation juridique de moyens. Le régulateur se voit d'ailleurs confier à cette fin de solides pouvoirs de contrôle (passant au besoin par la communication des algorithmes utilisés) et de sanction (l'amende administrative pouvant aller jusqu'à 4 % du chiffre d'affaires annuel) afin de s'assurer que les plateformes mettent en oeuvre suffisamment de ressources humaines et techniques pour pouvoir remplir cet objectif.

2. Sur le retrait en une heure des contenus à caractère terroriste ou pédopornographique : attendre le règlement européen et écarter l'adoption précipitée d'un dispositif juridiquement fragile

La commission des lois a supprimé l'obligation de retrait en une heure introduite par le Gouvernement en séance à l'Assemblée nationale, à la dernière minute, sans débat approfondi, et n'entretenant qu'un lien très indirect avec le texte restant en discussion.

Elle a estimé que la gravité du sujet méritait mieux que l'adoption précipitée d'un dispositif aussi fragile juridiquement, déjà rejeté à ce titre en première lecture par le Sénat.

En effet, d'une part, le projet de règlement européen dont s'inspirent maladroitement ces dispositions est toujours en cours de négociation, il fait encore l'objet de vifs débats, et il n'inclut pas à ce stade les contenus pédopornographiques.

D'autre part, le dispositif proposé apparaît particulièrement déséquilibré, ne reprenant aucune des principales garanties envisagées par le projet de règlement européen :

- en cas de force majeure ou d'impossibilité technique insurmontable, le projet de règlement prévoit des cas d'exonération de responsabilité qui sont absents du texte adopté par l'Assemblée nationale ;

- en cas d'erreur de l'administration, rien n'est prévu pour préserver les contenus retirés afin de les rétablir à la demande de l'administration ou d'un juge.

Enfin, faute du moindre début d'étude d'impact, le Parlement ne dispose à ce jour d'aucune évaluation du coût de cette mesure, qui s'appliquerait à tous les hébergeurs quels que soient leur taille ou leurs moyens. Or, elle impliquera pour beaucoup de lourds investissements (astreintes de personnel, adaptation des systèmes d'information) que l'État devra inévitablement compenser, en application de la jurisprudence du Conseil constitutionnel sur l'indemnisation des « surcoûts spécifiques » imposés aux intermédiaires techniques pour des motifs d'ordre public1(*).

3. Sur la conservation des contenus illicites retirés par les hébergeurs en vue de faciliter les poursuites : prévoir un meilleur encadrement

La commission des lois a souhaité encadrer plus strictement la conservation des contenus illicites retirés par les hébergeurs - qui doit être temporaire, et en vue d'une transmission à la justice - et renvoyer à un décret en Conseil d'État pris après avis de la Commission nationale de l'informatique et des libertés (CNIL) la fixation de sa durée et ses modalités (mesures de sécurité, notamment).

Il s'agit ici de trouver un équilibre délicat entre la facilitation des enquêtes et les contraintes imposées aux hébergeurs, équilibre auquel n'est pas parvenue l'Assemblée nationale.

Exiger, comme l'imposent les députés, une conservation obligatoire des contenus illicites « pendant le délai de prescription de l'action publique », sans plus de précision, poserait de graves et nombreux problèmes :

- la durée de conservation sera variable en fonction de chacune des différentes infractions que constituent les contenus retirés ; or ces infractions ne sont pas de même nature - les unes relèvent du régime spécifique du droit de la presse instauré par la loi de 1881, les autres du droit pénal général ; elles ont aussi chacune des délais variables de prescription ;

- le calcul de cette durée est lui-même d'une appréciation complexe, qui incomberait au cas par cas aux hébergeurs, alors que ce délai dépend de la qualification juridique de l'infraction et d'éléments extérieurs (notamment les actes ou circonstances interruptifs de prescription, dont les intermédiaires techniques n'ont pas forcément connaissance) ;

- au total, la durée de conservation des contenus retirés risque d'être manifestement excessive, notamment au regard du droit européen de la protection des données des personnes concernées par les contenus litigieux (règlement général sur la protection des données - RGPD - et directive « police-justice »).

À cet égard, votre rapporteur s'inquiète vivement de la nature extrêmement sensible des fichiers que risquent de constituer ainsi les hébergeurs pour conserver aussi longtemps tous les contenus illicites signalés : c'est prendre le risque de voir se constituer de véritable banques de données privées de contenus odieux exposés aux risques de fuites ou de détournements.

4. Viralité, « fermes à trolls », interopérabilité : maintenir des avancées permettant de s'attaquer aux ressorts profonds de la diffusion de la haine en ligne

Regrettant que l'Assemblée nationale ait supprimé du texte plusieurs avancées significatives introduites par le Sénat afin de s'attaquer aux ressorts profonds de la diffusion de la haine en ligne, la commission des lois a rétabli :

- la possibilité d'introduire une certaine souplesse dans le champ de la régulation du CSA, afin de lui permettre de contrôler et d'imposer des obligations aux sites qui, sans répondre au critère de fort trafic, accentuent fortement la viralité des contenus ;

- le dispositif permettant au CSA d'encourager la lutte contre les faux comptes qui, sur les réseaux sociaux, ne sont dédiés qu'à la seule propagation de contenus haineux illicites (« fermes à trolls ») ;

- la mission d'encouragement de l'interopérabilité des grandes plateformes confiée au CSA, afin de fluidifier le passage des utilisateurs de l'une à l'autre pour qu'ils puissent réellement choisir celles ayant les politiques de modération des contenus qui leur conviennent le mieux.

*

* *

La proposition de loi ainsi adoptée par la commission sera examinée en séance publique le 26 février 2020.

EXAMEN DES ARTICLES

CHAPITRE IER
SIMPLIFICATION DES DISPOSITIFS DE NOTIFICATION DE CONTENUS HAINEUX EN LIGNE

Article 1er
(art. 6 et 6-2 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Obligation de suppression en une heure et blocage administratif des contenus à caractère terroriste ou pédopornographique ;
obligation pour les grandes plateformes de supprimer en 24 heures certains contenus haineux manifestement illicites

L'article 1er adopté par l'Assemblée nationale tend à créer une nouvelle obligation de suppression de certains contenus « haineux » manifestement illicites par les grandes plateformes, dans les 24 heures après leur notification par toute personne, dont la méconnaissance serait pénalement réprimée (250.000 euros d'amende).

Y a été ajoutée, à l'initiative du Gouvernement, une obligation pour tout hébergeur et tout éditeur de supprimer en une heure les contenus à caractère terroriste ou pédopornographique signalés par l'administration, sous peine de sanctions pénales (un an de prison et 250.000 euros d'amende, portés au quintuple pour les personnes morales).

La commission a supprimé, comme en première lecture, ces dispositifs pénaux juridiquement fragiles au profit d'obligations de moyens sous la régulation du CSA.

1. Sur le retrait en 24 heures des contenus haineux par les grandes plateformes

1.1 Le texte adopté par l'Assemblée nationale en nouvelle lecture : le rétablissement du délit de « non retrait » des contenus haineux dans une version encore remaniée

L'Assemblée nationale a rétabli en nouvelle lecture la création d'un nouveau délit sanctionnant l'absence de retrait en 24 heures de certains contenus haineux signalés aux plateformes (moteurs de recherche ou réseaux sociaux) dont l'activité dépasse des seuils déterminés par décret.

À cette occasion, les députés ont modifié le champ matériel de ce dispositif - pourtant déjà largement amendé par eux en première lecture, tant en commission qu'en séance. Ajustant à nouveau la liste des types de contenus illicites concernés par l'obligation de retrait, les députés ont conservé l'ajout du négationnisme proposé par le Sénat (art. 24 bis de la loi du 29 juillet 1881 sur la liberté de la presse) ; ils ont exclu les infractions de traite des êtres humains (art. 225-4-1 du code pénal) et de proxénétisme (art. 225-5 et 225-6 du même code), pourtant introduites par eux en première lecture ; de manière plus surprenante, ils ont exclu l'exposition des mineurs à des messages violents, incitant au terrorisme, ou à des jeux dangereux (art. 227-24 du même code), tout en conservant l'exposition des mineurs à des messages pornographiques.

Le champ matériel des contenus concernés par la proposition de loi :
des hésitations à chaque lecture, des choix contestables,
un résultat peu lisible

Fondement textuel

Description de l'infraction

Texte initial

AN
1re lect.

AN
Nlle lect.

Infractions de presse
(loi du 29 juillet 1881 sur la liberté de la presse)

Cinquième alinéa de l'article 24

Apologie de certains crimes (atteinte volontaire à la vie, atteinte volontaire à l'intégrité de la personne, agression sexuelle, vol aggravé, extorsion, destruction, dégradation ou détérioration volontaire dangereuse pour les personnes), des crimes de guerre, des crimes contre l'humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage ou des crimes et délits de collaboration avec l'ennemi, y compris si ces crimes n'ont pas donné lieu à la condamnation de leurs auteurs

OUI

OUI

OUI

Sixième alinéa de l'article 24

Cris ou chants séditieux

OUI

NON

NON

Septième alinéa de l'article 24

Provocation à la discrimination, à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou
de leur non-appartenance à une ethnie, une nation, une race ou une religion

NON

OUI

OUI

Huitième alinéa de l'article 24

Provocation à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l'égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du code pénal

NON

OUI

OUI

Article 24 bis

Contestation de l'existence d'un ou plusieurs crimes contre l'humanité

NON

NON

OUI

Troisième alinéa de l'article 33

Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée

OUI

OUI

OUI

Quatrième alinéa de l'article 33

Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap

OUI

OUI

OUI

Infractions relevant du droit pénal général
(code pénal)

Article 222-33

Harcèlement sexuel

NON

OUI

OUI

Article 225-4-1

Traite des êtres humains

NON

OUI

NON

Articles 225-5
et 225-6

Proxénétisme

NON

OUI

NON

Article 227-23

Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d'image pornographique d'un mineur ; consultation habituelle ou en contrepartie d'un paiement d'un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs

NON

OUI

OUI

Article 227-24

Fabrication, transport, diffusion ou commerce de message violent, incitant au terrorisme, à des jeux dangereux ou pornographique susceptible d'être vu ou perçu par un mineur

NON

OUI

OUI
message porno-
graphique

NON
autre message

Article 421-2-5

Provocation directe à des actes de terrorisme ou apologie publique de ces actes

NON

OUI

OUI

Les députés ont réintégré les moteurs de recherche parmi les plateformes soumises à l'obligation de retrait en 24 heures (et par ricochet à la régulation du CSA) - alors que le Sénat n'avait conservé que les réseaux sociaux. Selon la rapporteure, Laetitia Avia, ces deux catégories d'opérateurs devraient en effet être traitées de la même manière « à raison de leur interaction active avec les contenus, dont ils favorisent la diffusion accélérée ». Concernant les modalités de suppression d'un contenu litigieux, la rédaction retenue en nouvelle lecture se veut plus précise et n'exige plus des moteurs son « déréférencement » (modification de la base d'indexation), mais seulement son « [retrait] de la page de résultats des recherches » (modification de l'affichage en réponse à une requête).

Les députés ont également introduit plusieurs corrections au dispositif pénal lui-même :

- la peine de prison a été supprimée, au profit du seul prononcé d'une amende, dont le montant serait désormais fixé à 250 000 euros (peine énoncée de façon autonome au nouvel article 6-2, sans renvoi aux sanctions pénales prévues au VI de l'article 6 de la LCEN, excluant de ce fait le quintuplement du montant et les peines complémentaires qui y sont prévues pour les personnes morales) ; selon la rapporteure, « l'utilité [de l'emprisonnement] n'est pas avérée s'agissant de personnes morales », ce que n'avait pas manqué de relever la commission en première lecture au Sénat ;

- le critère d'intentionnalité du délit de « non-retrait » de contenu haineux a été précisé. La rédaction choisie, à l'inverse de ce que soutient2(*) la rapporteure de l'Assemblée nationale, élargit encore plus les cas d'engagement de la responsabilité pénale des plateformes, puisque l'infraction pourra désormais explicitement être constituée même en cas de simple négligence le caractère intentionnel [...] peut résulter de l'absence d'examen proportionné et nécessaire du contenu notifié »). Pour se conformer aux remarques sévères de la Commission européenne3(*) et respecter la directive e-commerce, le rapporteur estime que le législateur doit, au contraire, mieux encadrer les cas d'engagement de responsabilité des plateformes en prévoyant explicitement des clauses d'exonération (en cas d'afflux massif de notifications, de problèmes techniques ou humains de modération insurmontables - pannes, grèves -, de nécessité de contextualiser certains contenus, etc.)

Par le jeu d'un renvoi, a été rappelée la possibilité de recours a posteriori devant un juge (par la voie du référé prévu par la LCEN4(*) ou du référé conservatoire civil de droit commun5(*)).

Enfin, les contenus notifiés comme illicites devront être conservés par les plateformes pendant toute la durée de la prescription, et ce afin de faciliter les enquêtes ultérieures sur les infractions que constituent les contenus retirés.

1.2 La position de la commission des lois du Sénat : écarter un dispositif pénal insatisfaisant pour privilégier une obligation de moyens sanctionnée par le régulateur

Confirmant l'approche du Sénat en première lecture, la commission des lois a de nouveau écarté l'instauration d'un délit de « non-retrait » en 24 heures de tout contenu haineux notifié, pour lui préférer la création de nouvelles obligations de moyens, sous le contrôle du régulateur (amendement COM-2 du rapporteur).

Jugé inabouti voire dangereux par de nombreux acteurs tant de la société civile que de l'économie numérique, le dispositif pénal apparaît toujours trop déséquilibré aux dépens de la liberté d'expression (risque de « sur-censure » ou de « sur-blocage » par précaution de propos licites mais polémiques, mise à l'écart du juge judiciaire), source d'effets pervers (impossibilité de prioriser les retraits en fonction de la gravité des contenus illicites, renforcement de la modération purement algorithmique, incitation aux raids numériques), juridiquement fragile (problèmes d'imputabilité, d'intentionnalité, d'articulation avec le régime général de la LCEN) et probablement contraire au droit de l'Union européenne.

Il est en effet préférable de privilégier les solutions qui conservent toute leur place à la puissance publique - la régulation des plateformes sous l'égide d'une autorité administrative indépendante - plutôt que des innovations pénales juridiquement incertaines, déléguant toujours davantage aux acteurs privés et aux géants américains du numérique la responsabilité d'exercer sur les réseaux la police de la liberté d'expression.

Il ne s'agit évidemment pas de se résoudre à l'inaction, mais d'adapter l'action publique à la spécificité d'internet et des plateformes : tout en refusant de créer ce nouveau délai couperet pénalement sanctionné au moindre manquement (une obligation de résultat), la commission a réaffirmé que le délai de 24 heures pour le retrait d'un contenu manifestement haineux doit être un objectif à atteindre pour les grandes plateformes, consacrant ici une obligation juridique de moyens (amendement COM-5 du rapporteur).

Pour mémoire, le régulateur se voit d'ailleurs confier à cette fin de solides pouvoirs de contrôle (passant au besoin par la communication des algorithmes utilisés) et de sanction (l'amende administrative pouvant aller jusqu'à 4 % du chiffre d'affaires annuel) afin de s'assurer que les plateformes mettent en oeuvre suffisamment de ressources humaines et techniques pour pouvoir remplir cet objectif.

La commission des lois a également confirmé la position du Sénat en première lecture concernant l'obligation de conservation des contenus illicites retirés par les hébergeurs en vue de faciliter d'éventuelles poursuites ultérieures (amendement COM-7 du rapporteur), souhaitant encadrer plus strictement cette conservation (temporaire, et en vue d'une transmission à la justice) en renvoyant à un décret en Conseil d'État, pris après avis de la CNIL, la fixation de sa durée et de ses modalités (mesures de sécurité, notamment).

Exiger, comme l'imposent les députés, une conservation obligatoire des contenus illicites « pendant le délai de prescription de l'action publique », sans plus de précision, poserait de graves et nombreux problèmes :

- la durée de conservation serait variable en fonction de chacune des différentes infractions que constituent les contenus retirés ; or ces infractions ne sont pas de même nature - les unes relèvent du régime spécifique du droit de la presse instauré par la loi de 1881, les autres du droit pénal général ; elles ont aussi chacune des délais variables de prescription ;

- le calcul de cette durée est lui-même d'une appréciation complexe, qui incomberait au cas par cas aux hébergeurs, alors que ce délai dépend de la qualification juridique de l'infraction et d'éléments extérieurs (notamment les actes ou circonstances interruptifs de prescription, dont les intermédiaires techniques n'ont pas forcément connaissance) ;

- au total, la durée de conservation des contenus retirés risque d'être manifestement excessive, notamment au regard du droit européen de la protection des données des personnes concernées par les contenus litigieux (RGPD et directive « police-justice »).

À ce titre, le rapporteur s'inquiète vivement de la nature extrêmement sensible des fichiers que risquent de constituer ainsi les hébergeurs afin de conserver sur de longues périodes tous les contenus illicites signalés : c'est prendre le risque de voir s'accumuler de véritables banques de données privées de contenus odieux exposés aux risques de fuites ou de détournements.

La commission des lois a enfin souhaité, comme en première lecture, mieux définir le champ des opérateurs concernés par la nouvelle régulation des plateformes qui seront désormais assujettis à des obligations de moyens renforcés, sous la supervision du CSA :

- d'une part, en excluant les moteurs de recherche (amendement COM-3 du rapporteur) en raison de leur rôle bien moins déterminant que les réseaux dans la propagation de la haine6(*), et surtout de leurs caractéristiques techniques différentes7(*). Le rapporteur note à cet égard que la loi allemande « NetzDG », dont les députés se prévalent souvent comme modèle, exclut les moteurs de recherche de son périmètre ;

- d'autre part, en réintroduisant un critère plus souple de « viralité » (amendement COM-4 du rapporteur) permettant au CSA d'attraire dans le champ de sa régulation un site ou service qui, bien qu'ayant une activité moindre, joue pourtant un rôle significatif dans la diffusion en ligne des propos haineux en raison de l'importance de son activité (notamment la portée de son audience, le nombre de ses utilisateurs ou sa part de marché sur son secteur), et de la nature technique du service proposé (notamment l'implication des utilisateurs dans la production et la diffusion de contenu, ou la facilité de partage automatisé et massif de contenus).

2. Sur le retrait en une heure des contenus à caractère terroriste ou pédopornographique : attendre l'adoption du règlement européen et écarter le vote précipité d'un dispositif juridiquement fragile

L'Assemblée nationale a introduit en nouvelle lecture au sein de l'article 1er une nouvelle obligation pour tout hébergeur et tout éditeur de supprimer en une heure les contenus à caractère terroriste ou pédopornographique signalés par l'administration, sous peine de sanctions pénales (un an de prison et 250.000 euros d'amende, portés au quintuple pour les personnes morales).

Le champ étroit du blocage administratif : une exception au contrôle
du juge justifiée par l'extrême gravité et l'évidence des infractions combattues

La LCEN autorise l'administration à ordonner directement aux intermédiaires techniques le blocage de certains sites véhiculant des contenus de nature terroriste ou pédopornographique (article 6-1).

Cette exception au contrôle préalable par un juge des atteintes à la liberté d'expression est possible, exceptionnellement8(*), en raison du caractère particulièrement grave et d'évidence de l'illicéité alléguée.

L'administration responsable de l'émission et du suivi de ces notifications est l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC).

À ce titre, le blocage administratif est soumis à des conditions et garanties particulières :

- un principe de subsidiarité : l'autorité administrative doit d'abord demander aux éditeurs de services internet ou aux hébergeurs le retrait de ces contenus, en en informant simultanément les fournisseurs d'accès internet (FAI)9(*) ; c'est en l'absence de retrait de ces contenus dans un délai de 24 heures qu'elle peut notifier la liste des adresses des contenus incriminés aux FAI qui « doivent alors empêcher sans délai l'accès à ces adresses ». Le manquement à ces obligations est sanctionné pénalement par un an d'emprisonnement et 75 000 euros d'amende (montant quintuplé pour les personnes morales) ;

- un contrôle administratif indépendant : une personnalité qualifiée, désignée en son sein par la Commission nationale de l'informatique et des libertés « s'assure de la régularité des demandes de retrait et des conditions d'établissement, de mise à jour, de communication et d'utilisation de la liste [des adresses des contenus incriminés]» et peut, à tout moment, recommander à l'autorité administrative d'y mettre fin, voire saisir la juridiction administrative si l'autorité administrative ne suit pas cette recommandation.

Pour la période de mars 2018 à février 2019, la personnalité qualifiée a recensé 18 014 demandes de retrait de contenus (10 091 de sites de nature terroriste et 7 923 de sites à caractère pédopornographique) pour 13 421 contenus retirés (6 796 sites de nature terroriste et 6 625 sites à caractère pédopornographique), 879 demandes de blocage (82 sites de nature terroriste et 797 sites à caractère pédopornographique) et 6 581 demandes de déréférencement (2 294 sites de nature terroriste et 3 587 sites à caractère pédopornographique).

À l'initiative de son rapporteur (amendement COM-1), la commission des lois du Sénat a supprimé cette nouvelle obligation adoptée à l'initiative du Gouvernement, par un amendement de dernière minute, sans débat approfondi, et n'entretenant qu'un lien très indirect avec le texte restant en discussion.

Elle a estimé que la gravité du sujet méritait mieux que l'adoption précipitée d'un dispositif aussi fragile juridiquement, déjà rejeté à ce titre en première lecture par le Sénat.

En effet, d'une part, le projet de règlement européen10(*) dont s'inspirent maladroitement ces dispositions est toujours en cours de négociation. Il fait encore l'objet de vifs débats et n'inclut pas à ce stade les contenus pédopornographiques.

D'autre part, le dispositif proposé apparaît particulièrement déséquilibré, ne reprenant aucune des principales garanties envisagées par le projet de règlement européen :

- en cas de force majeure ou d'impossibilité technique insurmontable, le projet de règlement prévoit des cas d'exonération de responsabilité qui sont absents du texte adopté par l'Assemblée nationale ;

- en cas d'erreur de l'administration, rien n'est prévu pour préserver les contenus retirés afin de les rétablir à la demande de l'administration ou d'un juge.

En outre, faute du moindre début d'étude d'impact, le Parlement ne dispose à ce jour d'aucune évaluation du coût de cette mesure, qui s'appliquerait à tous les hébergeurs quels que soient leur taille ou leurs moyens. Or, elle impliquera pour beaucoup de lourds investissements (astreintes de personnel, adaptation des systèmes d'information) que l'État devra inévitablement compenser, en application de la jurisprudence du Conseil constitutionnel sur l'indemnisation des « surcoûts spécifiques » imposés aux intermédiaires techniques pour des motifs d'ordre public11(*).

Au surplus, l'absence de notification régulière à la Commission européenne des dispositions de l'article 1er relatives au retrait en une heure de contenus terroristes ou pédopornographiques risque de fragiliser ce dispositif voire d'en paralyser complètement l'application.

En effet, conformément à la directive de 2015 visant à prévenir les obstacles au commerce12(*), les États membres doivent informer la Commission de tout projet de règle technique relative aux services de la société de l'information ; cette notification doit intervenir à un stade où les modifications du projet sont encore possibles, les autorités européennes bénéficiant d'une période minimale de statu quo avant une adoption définitive pour faire part de leurs observations ou critiques13(*) ; selon la Cour de justice de l'Union européenne14(*), est inopposable aux particuliers et doit être annulé ou laissé inappliqué tout texte adopté en méconnaissance de ces obligations (absence de notification ou violation du délai de statu quo).

La France a ainsi notifié en 2014 le projet d'article 6-1 de la LCEN, relatif au blocage administratif en 24 heures des contenus terroristes et pédopornographiques, tout comme son décret d'application.

Si le Gouvernement a notifié la présente proposition de loi dans sa version issue des travaux de l'Assemblée nationale en première lecture, il n'a en revanche pas notifié les dispositions nouvelles relatives au retrait en une heure de certains contenus illicites que son amendement a introduites en séance en nouvelle lecture15(*) au I de l'article 1er. La méconnaissance de cette obligation procédurale risque donc de fragiliser sérieusement toutes poursuites susceptibles d'être engagées sur le fondement des dispositions dont la notification a été omise, ce qui est particulièrement regrettable concernant des agissements aussi odieux.

Enfin, à l'initiative du rapporteur, la commission a adopté des amendements de précision (COM-6) et de cohérence (COM-8 et COM-9) rétablissant certaines dispositions adoptées par le Sénat en première lecture.

La commission a adopté l'article 1er
de la proposition de loi ainsi modifié.

Article 1er ter A
(art. 6 de la loi n° 2004-575 pour la confiance dans l'économie numérique)
Simplification du formalisme des notifications prévues par la LCEN pour engager la responsabilité des hébergeurs à raison de contenus illicites

L'article 1er ter A tend à faciliter la procédure de notification des contenus illicites auprès des hébergeurs prévue par la loi pour la confiance dans l'économie numérique (LCEN), en réduisant les informations à fournir par les notifiants.

La LCEN prévoit en effet actuellement un formalisme rigoureux pour pouvoir engager la responsabilité des hébergeurs à raison des contenus qui leurs sont notifiés et qui ne seraient pas promptement retirés s'ils sont manifestement illicites.

Approuvant l'objectif de simplification recherché, le Sénat a modifié en première lecture le dispositif proposé pour prendre en compte les observations critiques de la Commission européenne et le rendre conforme à la directive e-commerce (nécessité d'indiquer la localisation précise du contenu illicite et les motifs juridiques de l'illicéité alléguée ; exceptions lorsque le dispositif technique de notification le permet ; dérogation à l'obligation de contacter préalablement l'auteur du contenu haineux). L'Assemblée nationale en a légèrement précisé le champ en nouvelle lecture.

La commission a adopté l'article 1er ter A
de la proposition de loi sans modification.

Article 1er ter B
(art. 6-2 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Notification de contenus haineux
par une association de protection de l'enfance saisie par un mineur

L'article 1er ter B ouvre aux associations de protection de l'enfance la possibilité de notifier un contenu haineux lorsqu'elles en sont saisies par un mineur.

Les mineurs bénéficient ainsi de l'appui moral et technique de professionnels qui ont une plus grande familiarité avec les dispositifs de notification, savent plus aisément qualifier juridiquement les propos litigieux, et peuvent leur proposer écoute et conseils pour y faire face.

À l'initiative de son rapporteur, la commission des lois a rétabli l'exigence que ce dispositif soit réservé aux associations reconnues d'utilité publique.

L'exigence pour les associations d'être reconnues d'utilité publique a été supprimée par l'Assemblée nationale en nouvelle lecture au motif qu'il convenait « de ne pas réduire trop drastiquement le nombre [des associations] qui pourront venir en aide aux mineurs ». Le rapporteur refuse cette approche purement quantitative et estime au contraire indispensable de s'assurer de la qualité de la prise en charge de mineurs victimes de contenus illicites sur les réseaux sociaux (amendement COM-10). Il est particulièrement regrettable que la rédaction choisie par les députés ouvre la voie à l'intervention d'acteurs aux compétences sociales et juridiques insuffisamment solides, voire peu scrupuleux, alors que sont en jeu des personnes particulièrement vulnérables et des informations parfois très sensibles (données personnelles de mineurs, photographies intimes, etc.)

Concernant l'information des représentants légaux du mineur ayant saisi l'association, le Sénat avait prévu en première lecture une exception dans le cas où cela serait contraire à l'intérêt de l'enfant.

En effet, lors de leurs auditions, les associations de protection de l'enfance sur internet se sont inquiétées auprès du rapporteur de ce que les contenus litigieux qui leur sont signalés pour en obtenir le retrait font parfois référence à la vie affective et aux pratiques ou orientations sexuelles - vraies ou supposées - des victimes mineures, qui ne souhaitent pas les voir dévoilées à leurs proches - ou pas de cette façon. L'absence d'exception à l'obligation d'information systématique des représentants légaux risquait donc de décourager lesdits mineurs de recourir à ces associations pour leur venir en aide.

Les députés ont rétabli en nouvelle lecture le caractère systématique de l'information des représentants légaux des mineurs, préférant ajouter la précision selon laquelle cette information se fait « selon des modalités adaptées à l'intérêt de l'enfant ».

Le rapporteur, qui aurait préféré conserver le dispositif plus précis adopté par le Sénat en première lecture, est prêt par souci de compromis à se rallier à cette rédaction : on pourrait estimer en effet, comme son homologue députée, que cette dernière « laisse aux associations une grande latitude dans le choix des mesures à prendre et la façon de les mettre en oeuvre pour effectuer cette information »16(*), et qu'elle devra donc être interprétée comme permettant aux associations de différer l'information aussi longtemps que l'intérêt supérieur de l'enfant l'exigera. À défaut d'obtenir en séance des assurances suffisantes du Gouvernement sur cette interprétation, le rapporteur proposera de revenir à la version du Sénat.

La commission a adopté l'article 1er ter B
de la proposition de loi ainsi modifié.

CHAPITRE II
DEVOIR DE COOPÉRATION DES OPÉRATEURS
DE PLATEFORME DANS LA LUTTE CONTRE
LES CONTENUS HAINEUX EN LIGNE

Article 2
(art. 6-3 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Obligations de moyens mises à la charge des plateformes
en matière de traitement des notifications de contenus haineux en ligne

L'article 2 vise à organiser une régulation administrative des grandes plateformes en mettant à leur charge de nouvelles obligations de moyens en matière de traitement des notifications de contenus haineux en ligne.

Celles-ci doivent notamment prévoir un dispositif technique de notification directement accessible depuis les contenus, l'envoi d'un accusé de réception et d'informations sur les suites données, la mobilisation de moyens humains et technologiques adaptés à leur traitement rapide, et un mécanisme pour contester les décisions de retrait ou de maintien de contenus.

Les principaux apports du Sénat en première lecture pour améliorer la lisibilité du dispositif et le sécuriser juridiquement en le rendant conforme au droit européen ont été conservés par l'Assemblée nationale, s'agissant notamment des précisions relatives aux nouvelles obligations de moyens, strictement proportionnées à l'objectif de préservation de la dignité humaine et de l'interdiction de toute obligation de surveillance générale des réseaux.

La commission a adopté l'article 2
de la proposition de loi sans modification.

Article 3
(art. 6-3 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Autres obligations de moyens mises à la charge des plateformes
en matière d'information et de coopération avec les autorités

L'article 3 complète les nouvelles obligations de moyens imposées aux plateformes en ligne par des exigences d'information publique des utilisateurs sur la modération (règles, recours, sanctions), de transparence et de coopération avec les autorités (signalements aux autorités publiques et désignation d'un représentant légal en France).

L'essentiel des modifications rédactionnelles et de cohérence ont été conservées en nouvelle lecture par l'Assemblée nationale.

La commission des lois a souhaité revenir, dans une version légèrement remaniée (amendement COM-11 du rapporteur), sur la suppression du dispositif introduit en séance par le Sénat en première lecture à l'initiative de Bruno Retailleau pour lutter contre les faux comptes qui, sur les réseaux sociaux, ne sont dédiés qu'à la seule propagation de contenus haineux illicites (« fermes à trolls »).

La commission a adopté l'article 3
de la proposition de loi ainsi modifié.

Article 3 bis
(art. 6 de la loi n° 2004-575 pour la confiance dans l'économie numérique)
Renforcement de l'amende pour non-coopération avec l'autorité judiciaire
en matière de lutte contre les contenus illicites

L'article 3 bis vise à procéder au quasi-triplement du montant de l'amende encourue par un fournisseur d'accès ou un hébergeur qui méconnaîtrait des diverses obligations de coopération avec l'autorité judiciaire imposées par la LCEN en matière de lutte contre les contenus illicites.

Le montant de l'amende prévue pour les personnes physiques serait ainsi porté de 75 000 à 250 000 euros (ce qui, en application de l'article 131-38 du code pénal, porterait l'amende à 1 250 000 euros pour les personnes morales).

La commission a adopté l'article 3 bis
de la proposition de loi sans modification.

CHAPITRE III
RÔLE DU CONSEIL SUPÉRIEUR DE L'AUDIOVISUEL
DANS LA LUTTE CONTRE
LES CONTENUS HAINEUX EN LIGNE

Article 4
(art. 17-3 [nouveau], 19 et 42-7 de la loi n° 86-1067 relative à
la liberté de communication ; art. 6-1 de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Nouvelles missions du CSA :
surveillance des obligations à la charge des plateformes, recommandations, pouvoirs de contrôle et de sanction ;
contrôle du blocage administratif des sites terroristes
ou pédopornographiques

L'article 4 tend à confier au Conseil supérieur de l'audiovisuel (CSA) la régulation des grands opérateurs de plateformes pour contribuer à la lutte contre les contenus haineux sur internet : suivi des obligations de moyens mises à leur charge, édiction de recommandations, pouvoir de contrôle et de sanction en cas de manquement. Cette autorité administrative indépendante se verrait également attribuer le contrôle du blocage administratif des sites terroristes ou pédopornographiques.

Outre plusieurs précisions rédactionnelles, l'Assemblée nationale a conservé, lors de la nouvelle lecture, de nombreux apports du Sénat tenant tant aux pouvoirs de contrôle (accès aux algorithmes) qu'aux pouvoirs de sanction du CSA (publicité des décisions, quantum des amendes administratives).

De même, certaines des missions confiées au CSA par le Sénat afin d'encourager les pratiques des plateformes ont été reprises et précisées par l'Assemblée nationale :

- pour renforcer l'efficacité de la coopération entre plateformes, la possibilité pour le CSA de les inciter à mettre en place des outils de partage d'information dans un format ouvert sur les contenus haineux illicites ;

- pour lutter plus efficacement contre la « viralité » de certains contenus haineux, la faculté pour le régulateur d'encourager les plateformes à limiter le partage et l'exposition de certains contenus notifiés.

Les députés y ont ajouté en séance une mission d'encouragement à la lutte contre la rediffusion massive de contenus haineux identiques ou équivalents à ceux déjà retirés, dont l'objectif est éminemment louable mais dont le rapporteur doute qu'elle soit conforme à l'interprétation de la directive e-commerce par la jurisprudence la plus récente de la Cour de justice de l'Union européenne17(*).

Regrettant vivement sa suppression par l'Assemblée nationale, la commission a souhaité maintenir l'interopérabilité parmi les outils du nouveau régulateur des grandes plateformes. Face à des grandes plateformes dont le modèle, fondé sur « l'économie de l'attention », tend à valoriser la diffusion des contenus les plus clivants, l'interopérabilité doit permettre aux victimes de haine de mettre réellement en concurrence les différentes plateformes et de choisir celles avec des politiques de modération qui leur conviennent le mieux, tout en pouvant continuer à échanger avec les contacts qu'elles avaient noués jusqu'ici (amendement COM-12 du rapporteur).

Le rapporteur comprend difficilement l'obstination d'une partie des députés à vouloir priver les victimes de haine en ligne de la possibilité de changer plus facilement de plateforme, au prétexte que « cette problématique devrait être traitée de manière plus globale » (selon la rapporteure de l'Assemblée nationale) - alors que l'objet même de ce texte est précisément d'agir sans attendre les propositions de l'Union européenne.

La commission a adopté un amendement de coordination COM-13 du rapporteur.

La commission a adopté l'article 4
de la proposition de loi ainsi modifié.

CHAPITRE IV
AMÉLIORATION DE LA LUTTE CONTRE
LA DIFFUSION DE CONTENUS HAINEUX EN LIGNE

Article 6
(art. 6-4 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Simplification de la procédure de blocage et
de déréférencement des sites haineux
(lutte contre les « sites miroirs »)

L'article 6 entend simplifier les conditions permettant à l'administration de solliciter le blocage ou le déréférencement de sites reprenant des contenus haineux déjà jugé illicites.

Répondant aux principales critiques de la commission des lois du Sénat, qui avait supprimé cet article en première lecture, le Gouvernement a proposé en séance une version améliorée de ce dispositif de blocage des « sites miroirs » pour en restreindre le champ matériel et temporel (décision judiciaire préalable ; durée de la mesure administrative ne pouvant excéder celle ordonnée par l'autorité judiciaire ; restriction du champ aux seuls fournisseurs d'accès à internet, à l'exclusion des fournisseurs de noms de domaines).

L'Assemblée nationale, à l'initiative du Gouvernement, a complété ce dispositif pour permettre d'y associer les annonceurs, leurs mandataires, ainsi que les prestataires intermédiaires de la publicité en ligne, en prévoyant de les rendre destinataires des listes de sites faisant l'objet d'une demande de blocage.

La commission a adopté l'article 6
de la proposition de loi sans modification.

Article 6 bis AA
Obligations de transparence
à la charge acteurs de la publicité en ligne
(« Follow the money »)

L'article 6 bis AA vise à mieux associer les acteurs de la publicité en ligne à la lutte contre le financement de sites facilitant la diffusion en ligne des discours de haine en renforçant les obligations de transparence à leur charge.

Introduite dans le présent texte à l'initiative du Sénat en première lecture, cette disposition a fait l'objet de plusieurs réécritures substantielles au cours de la navette parlementaire.

Dans le dernier état de sa rédaction, issue d'un amendement du Gouvernement en nouvelle lecture en séance à l'Assemblée nationale, la transparence des dépenses publicitaires ne serait plus générale mais concernerait uniquement les sites faisant l'objet d'une décision de blocage judiciaire ou administrative.

Les annonceurs, leurs mandataires, ainsi que les prestataires intermédiaires de la publicité en ligne, seraient destinataires des listes de sites faisant l'objet d'une demande de blocage (dans les conditions désormais prévues à l'article 6-4 de la LCEN par les dispositions de l'article 6). Ils devraient alors rendre publique au minimum une fois par an sur leurs sites internet l'existence de ces relations et les mentionner dans leur rapport annuel.

Le rapporteur soutient ces modalités de lutte contre la haine en ligne qui visent à s'attaquer au financement de sites diffusant de façon quasi professionnelle de tels discours (« follow the money ») et jouent sur le risque réputationnel pour les annonceurs (« name and shame »).

La commission a adopté l'article 6 bis AA
de la proposition de loi sans modification.

CHAPITRE IV BIS
RENFORCEMENT DE L'EFFICACITÉ DE LA RÉPONSE PÉNALE À L'ÉGARD DES AUTEURS DE CONTENUS HAINEUX EN LIGNE

Article 6 bis A
(art. 15-3-3 [nouveau] du code de procédure pénale)
Spécialisation d'un parquet et d'une juridiction
en matière de lutte contre la haine en ligne

L'article 6 bis A permet de désigner par décret un tribunal de grande instance, soit une juridiction et un parquet, spécialisé en matière de lutte contre la haine en ligne.

Cette spécialisation n'entraînera pas d'unification du contentieux au sein de cette juridiction ou des poursuites à l'initiative de ce seul parquet, puisque la compétence exercée le sera de manière concurrente et permettra en conséquence de traiter les affaires dans le ressort le plus adéquat.

La commission a adopté l'article 6 bis A
de la proposition de loi sans modification.

Article 6 bis B
(art. 138 du code de procédure pénale; art. 132-45 et 131-4-1 du code pénal)
Possibilité de prononcer une interdiction
d'adresser des messages électroniques à une victime

L'article 6 bis B vise à améliorer les outils à la disposition de l'autorité judiciaire pour surveiller les auteurs d'infractions à caractère haineux en ligne et prévenir leur commission.

Il n'a fait l'objet, à l'Assemblée comme au Sénat, que de modifications rédactionnelles ou de cohérence.

La commission a adopté l'article 6 bis B
de la proposition de loi sans modification.

Article 6 bis C (supprimé)
Compétence du juge unique en matière correctionnelle
à l'égard des refus de retrait d'un contenu haineux

L'article 6 bis C précise la compétence du juge unique en matière correctionnelle à l'égard des refus de retrait d'un contenu haineux.

Comme en première lecture, et tout en étant favorable au juge unique, la commission a adopté l'amendement COM-14 du rapporteur, supprimant l'ensemble de ces dispositions par cohérence avec sa position sur le délit de non-retrait d'un contenu illicite (supprimé à l'article 1er).

La commission a supprimé l'article 6 bis C
de la proposition de loi.

CHAPITRE V
DISPOSITIONS FINALES

Article 7
Observatoire de la haine en ligne

L'article 7 tend à créer un observatoire de la haine en ligne.

Le rapporteur, s'il éprouve toujours de sérieuses réserves sur l'utilité réelle de confier ainsi à la loi la création d'un organe purement consultatif et dénué d'autres compétences, admet néanmoins l'intérêt d'inciter le régulateur à rassembler les expertises pour l'éclairer sur des enjeux juridiques et sociaux complexes de la lutte contre les contenus illicites sur internet.

La commission a adopté l'article 7
de la proposition de loi sans modification.

Article 9
Entrée en vigueur

L'article 9 précise les modalités d'entrée en vigueur de certaines dispositions du texte.

La commission a adopté un amendement de cohérence (COM-15 du rapporteur) précisant l'application dans le temps de dispositions ajoutées ou supprimées par les autres amendements du rapporteur.

La commission a adopté l'article 9
de la proposition de loi ainsi modifié.

*

La commission a adopté la proposition de loi ainsi modifiée.

EXAMEN EN COMMISSION

__________

MERCREDI 5 FÉVRIER 2020

M. Christophe-André Frassa, rapporteur. - Chers collègues, nous sommes saisis en nouvelle lecture de la proposition de loi visant à lutter contre les contenus haineux sur internet. Ce texte, vous le savez, vise à lutter contre la propagation de certains « discours de haine » sur internet. Il renforce les sanctions pénales encourues par les grandes plateformes qui ne retireraient pas certains contenus illicites 24 heures après leur signalement. Il met également en place une régulation administrative des grandes plateformes, sous l'égide du Conseil supérieur de l'audiovisuel (CSA), qui serait chargé de contrôler le respect des nouvelles obligations de coopération et de moyens mises à leur charge. Il facilite enfin, à la marge, l'organisation de la réponse judiciaire et promeut certaines actions de prévention en milieu scolaire.

Partageant l'objectif poursuivi par ce texte, le Sénat a abordé son examen en première lecture dans un esprit ouvert et constructif ; en témoignent les nombreuses améliorations adoptées par la commission et en séance grâce aux amendements émanant de la quasi-totalité des groupes politiques de notre assemblée. Nous avons tenté de tenir une délicate ligne de crête entre, d'une part, la protection des victimes de haine et, d'autre part, la protection de la liberté d'expression telle qu'elle est pratiquée dans notre pays.

Examiné - hélas ! - selon la procédure accélérée, ce texte n'a fait l'objet que d'une seule lecture par l'Assemblée nationale, puis par le Sénat avant la réunion d'une commission mixte paritaire. Cette précipitation, que nous avons déplorée, a desservi le rapprochement des positions, et elle ne semble sérieusement justifiée par aucune contrainte de calendrier. Malgré un travail constructif entre rapporteurs, la principale divergence avec les députés tient à la rédaction retenue par l'Assemblée nationale pour l'article 1er, qui crée un délit de non-retrait en 24 heures des contenus haineux, et ce en dépit d'un large consensus sur la nécessité de renforcer la régulation des plateformes et d'encourager la prévention et l'efficacité des sanctions contre les auteurs de haine en ligne.

Preuve d'une large convergence de vues entre les deux chambres, l'Assemblée nationale a conservé, lors de la nouvelle lecture, de nombreux apports du Sénat.

Les modalités générales de notification des contenus illicites aux hébergeurs, en application de la loi pour la confiance dans l'économie numérique (LCEN), ont été précisées afin d'être rendues plus aisées pour les internautes, tout en restant pleinement respectueuses du droit européen. Les principaux apports du Sénat pour sécuriser juridiquement la régulation des grandes plateformes et la rendre plus conforme au droit européen ont été conservés. Nous avons ainsi précisé les nouvelles obligations de moyens, strictement proportionnées à l'objectif de préservation de la dignité humaine, en interdisant toute obligation de surveillance générale des réseaux. Nous avons aussi renforcé les pouvoirs de contrôle - accès aux algorithmes - et de sanction du CSA - publicité des décisions, quantum des amendes administratives.

Consensuelles entre nos deux chambres, les dispositions relatives à l'éducation et la prévention de la haine en ligne et celles qui sont destinées à renforcer l'efficacité des sanctions judiciaires des auteurs de contenus illicites - spécialisation du parquet, injonction - n'ont fait l'objet que de corrections formelles.

Enfin, ont été conservées ou confortées les mesures introduites par notre assemblée pour lutter contre le financement des sites haineux - « follow the money » -, en limitant la publicité susceptible d'y être diffusée, pour lutter contre la viralité, en encourageant les plateformes à limiter les fonctionnalités de partage et l'exposition du public aux contenus signalés, et pour consacrer dans la LCEN la jurisprudence du Conseil constitutionnel sur la mise en jeu de la responsabilité civile et pénale des hébergeurs.

Notre principale divergence concerne, comme je l'ai dit, le délit de non-retrait en 24 heures de contenus haineux, dispositif pénal que nous avons jugé juridiquement inabouti, contraire au droit européen et déséquilibré au détriment de la liberté d'expression. L'Assemblée nationale a rétabli en nouvelle lecture la création de ce nouveau délit, tout en le modifiant encore une fois. Ainsi, les types de contenus haineux concernés par l'obligation de retrait ont encore changé ! En sont désormais exclues les infractions de traite des êtres humains, de proxénétisme, ainsi que l'exposition des mineurs à des messages violents, incitant au terrorisme, ou à des jeux dangereux, seule l'exposition des mineurs à des messages pornographiques étant conservée. La peine de prison a été supprimée, au profit d'une amende. Le critère d'intentionnalité du délit de non-retrait de contenu haineux a été précisé, et l'infraction serait désormais explicitement constituée même en cas de simple négligence.

De façon inopinée, les députés ont introduit en séance, à l'initiative du Gouvernement, la nouvelle obligation pour tout hébergeur ou éditeur, quelle que soit l'importance de son activité, de retirer en une heure les contenus à caractère terroriste ou pédopornographique notifiés par l'administration, sous peine de lourdes sanctions pénales.

Il importe de rester ferme sur la défense de la liberté d'expression et de lutter plus efficacement contre les ressorts de la haine en ligne. Les hésitations des députés et les nouvelles modifications apportées au dernier moment à un dispositif pénal pourtant déjà largement amendé par eux en première lecture sont bien la preuve de son caractère encore inabouti. Je vous proposerai donc plusieurs amendements pour confirmer l'approche du Sénat en première lecture.

Premièrement, sur le retrait en 24 heures des contenus haineux par les grandes plateformes, il faut privilégier une obligation de moyens sanctionnée par le régulateur. Le Sénat ne s'est évidemment pas résolu à l'inaction face aux grandes plateformes, mais il privilégie les solutions qui conservent toute leur place à la puissance publique, par le biais de la régulation du CSA, plutôt que des innovations incertaines déléguant toujours plus aux géants américains du numérique la police de la liberté d'expression.

Tout en refusant de créer ce nouveau délai couperet pénalement sanctionné au moindre manquement, le Sénat a réaffirmé, en première lecture, que le délai de 24 heures pour le retrait d'un contenu manifestement haineux doit être un objectif à atteindre pour les grandes plateformes, consacrant ainsi une obligation juridique de moyens. Le régulateur se voit d'ailleurs confier à cette fin de solides pouvoirs de contrôle et de sanction - l'amende administrative pouvant aller jusqu'à 4 % du chiffre d'affaires annuel - afin de s'assurer que les plateformes mettent en oeuvre suffisamment de ressources humaines et techniques pour pouvoir remplir cet objectif.

Deuxièmement, concernant le retrait en une heure des contenus à caractère terroriste ou pédopornographique, il faut attendre le règlement européen et écarter l'adoption précipitée d'un dispositif juridiquement fragile ; la gravité du sujet mérite mieux qu'un amendement de dernière minute que personne n'a réellement pu expertiser.

Troisièmement, il convient de prévoir un meilleur encadrement de la conservation des contenus illicites retirés par les hébergeurs en vue de faciliter les poursuites. Leur conservation doit être temporaire, en vue d'une transmission à la justice. Il faut trouver un équilibre délicat entre la facilitation des enquêtes et les contraintes imposées aux hébergeurs.

Quatrièmement, concernant la viralité, les faux comptes, les « fermes à trolls » et l'interopérabilité, je regrette que l'Assemblée nationale ait supprimé du texte plusieurs mesures significatives introduites par le Sénat pour s'attaquer aux ressorts profonds de la diffusion de la haine en ligne - je vous proposerai de les rétablir.

Il s'agit d'abord la possibilité d'introduire une certaine souplesse dans le champ de la régulation du CSA, afin de lui permettre de contrôler et d'imposer des obligations aux sites qui, sans répondre au critère de fort trafic, accentuent fortement la viralité des contenus. Je propose également de réintroduire le dispositif permettant au CSA d'encourager la lutte contre les faux comptes qui, sur les réseaux sociaux, ne sont dédiés qu'à la seule propagation de contenus haineux illicites, les « fermes à trolls ». Enfin, me paraît fondamentale la mission d'encouragement de l'interopérabilité des grandes plateformes confiée au CSA, afin de fluidifier le passage des utilisateurs de l'une à l'autre pour qu'ils puissent réellement choisir celles ayant les politiques de modération des contenus qui leur conviennent le mieux. Je vous inviterai à adopter le texte ainsi modifié.

M. Philippe Bas, président. - Le Sénat est de bonne volonté et essaie d'être constructif : tout en reconnaissant toute l'importance du sujet, nous voulons faire un travail juridiquement correct. Nous aurions pu nous contenter de repousser cette proposition de loi, en nouvelle lecture, eu égard à l'absence d'accord en commission mixte paritaire. La formule que propose notre rapporteur est meilleure, elle permet de réaffirmer notre attachement à l'objectif du texte et au processus de régulation des plateformes pour lutter contre la haine sur internet.

M. Pierre-Yves Collombat. - Je ne critique en rien la position du rapporteur, mais j'ai du mal à comprendre comment cette proposition de loi sera efficace pour lutter contre un danger réel certes, mais plutôt insaisissable. De quoi cette montagne de régulation peut-elle accoucher ? D'un côté, des règles s'accumulent et, de l'autre, certains font ce qu'ils veulent.

M. Alain Richard. - La discussion porte sur la disposition punitive. L'Assemblée nationale préfère un mécanisme pénal, tandis que notre rapporteur propose une sanction administrative, délivrée par une autorité indépendante. Toutefois, il me semble que l'objection du rapporteur selon laquelle les gestionnaires de plateformes risquent de procéder à des retraits de contenus de manière excessive - ce qui est contraire à la liberté d'expression - reste valable dans le cadre d'une sanction administrative, d'autant que celle-ci peut être infligée plus rapidement et qu'elle est, financièrement, extrêmement dissuasive.

À cet égard, je crois me souvenir que, selon une jurisprudence du Conseil constitutionnel, les sanctions fixées en relation avec le chiffre d'affaires ne peuvent s'appliquer qu'à des infractions à caractère économique. Je m'interroge donc sur la constitutionnalité de cette sanction pour une infraction d'opinion.

M. Christophe-André Frassa, rapporteur. - Monsieur Collombat, dans un monde où internet va aussi vite que la lumière, le législateur n'a pas la même viralité qu'un tweet, mais s'emploie à ce que la loi soit efficace et applicable.

Une obligation de moyens sous la supervision d'un régulateur semble une solution prometteuse, souple, et beaucoup plus réalisable.

L'Assemblée nationale a privilégié le principe d'une obligation de retrait tweet par tweet, avec une sanction pénale. Nous avons le contre-exemple allemand de la loi Netzwerkdurchsetzungsgesetz (NetzDG) : les grandes plateformes ne cherchent pas à regarder si le contenu est illicite ou manifestement haineux, elles préfèrent retirer les tweets, prenant le risque d'une requête ultérieure de l'auteur qui considérerait ce retrait abusif. Les requêtes contestant les retraits indus s'accumulent devant les tribunaux allemands, aboutissant à une révision anticipée de la loi NetzDG, avant la clause de revoyure, pour répondre notamment à cet effet pervers.

Nous privilégions le second aspect de cette proposition de loi, l'obligation de moyens, dont la sanction est dissuasive car fondée sur un pourcentage du chiffre d'affaires.

M. Alain Richard. - Rendez-vous à la première question prioritaire de constitutionnalité (QPC)...

Mme Brigitte Lherbier. - Il faut préférer une option réalisable quand nous légiférons, sinon le malfaisant sort renforcé de l'inapplication des lois. La sanction pénale est certes un symbole important, mais l'exemple allemand m'a convaincue, restons efficace et méfions-nous des effets pervers imprévus.

EXAMEN DES ARTICLES

M. Philippe Bas, président. - Les amendements du rapporteur visent, pour la plupart, à rétablir le texte adopté par le Sénat en première lecture.

Article 1er

M. Christophe-André Frassa, rapporteur. - L'amendement COM-1 supprime des dispositions introduites par le Gouvernement en nouvelle lecture en séance à l'Assemblée nationale, à la dernière minute, sans débat approfondi, et n'entretenant qu'un lien très indirect avec le texte restant en discussion. Cet amendement avait aussi été déposé au Sénat à la dernière minute, et avait été rejeté. Le Gouvernement souhaite créer pour tout hébergeur ou éditeur, sans critère de taille, une nouvelle obligation de retirer désormais en une heure les contenus à caractère terroriste ou pédopornographique notifiés par l'administration.

Un projet de règlement européen est en cours de préparation ; attendons-le avant d'introduire à la va-vite ce dispositif bancal.

L'amendement COM-1 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-2 rétablit l'approche du Sénat en première lecture, qui avait écarté la création d'un nouveau délit de non-retrait de tout contenu haineux en 24 heures, lui préférant une obligation de moyens sous le contrôle du régulateur.

L'amendement COM-2 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-3 confirme la position du Sénat en première lecture sur l'exclusion des moteurs de recherche du champ de la proposition de loi.

L'amendement COM-3 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-4 confirme la position du Sénat en première lecture, pour mieux lutter contre la viralité ; nous avions souhaité une définition plus souple du champ des opérateurs concernés par la nouvelle régulation des plateformes, assujettis à de nouvelles obligations de moyens renforcés, sous la supervision du CSA.

L'amendement COM-4 est adopté, de même que l'amendement de coordination COM-5.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-6 reprend un amendement de précision de Mme Carrère concernant les messages se substituant aux contenus retirés.

L'amendement COM-6 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-7 sur l'obligation de conservation des contenus illicites retirés par les hébergeurs en vue de faciliter d'éventuelles poursuites ultérieures vise à rétablir la rédaction du Sénat en première lecture.

L'amendement COM-7 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-8 est de conséquence. La suppression du délit de non-retrait rend sans objet les dispositions donnant intérêt à agir aux associations.

L'amendement COM-8 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-9, de cohérence et de coordination, reprend la rédaction du Sénat en première lecture.

L'amendement COM-9 est adopté.

Article 1er ter B

M. Christophe-André Frassa, rapporteur. - L'amendement COM-10 vise, comme en première lecture, à réserver aux seules associations de protection de l'enfance reconnues d'utilité publique la possibilité de notifier un contenu haineux lorsqu'elles en sont saisies par un mineur.

M. Philippe Bas, président. - C'est un sujet très sensible.

L'amendement COM-10 est adopté.

Article 3

M. Christophe-André Frassa, rapporteur. - L'amendement COM-11 reprend et précise les dispositions adoptées par le Sénat en première lecture afin de renforcer les obligations des réseaux sociaux en matière de lutte contre les comptes uniquement dédiés à la diffusion de contenus illicites, dits « fermes à trolls ».

L'amendement COM-11 est adopté.

Article 4

M. Christophe-André Frassa, rapporteur. - L'amendement COM-12 réintroduit l'interopérabilité.

L'amendement COM-12 est adopté, de même que l'amendement de coordination COM-13.

Article 6 bis C

L'amendement de cohérence COM-14 est adopté.

Article 9

L'amendement de cohérence COM-15 est adopté.

La proposition de loi est adoptée dans la rédaction issue des travaux de la commission.

Le sort des amendements examinés par la commission est retracé dans le tableau suivant :

Auteur

Objet

Sort de l'amendement

Article 1er
Simplification du formalisme des notifications prévues par la LCEN
pour engager la responsabilité des hébergeurs à raison de contenus illicites

M. FRASSA, rapporteur

1

Retrait en une heure des contenus terroristes ou pédopornographiques

Adopté

M. FRASSA, rapporteur

2

Retrait en 24 heures de certains contenus haineux

Adopté

M. FRASSA, rapporteur

3

Exclusion des moteurs de recherche du champ de la proposition de loi

Adopté

M. FRASSA, rapporteur

4

Facilité d'attraire les plateforme virales dans le champ de la régulation du CSA

Adopté

M. FRASSA, rapporteur

5

Coordination

Adopté

M. FRASSA, rapporteur

6

Messages se substituant aux contours retirés

Adopté

M. FRASSA, rapporteur

7

Conservation des contenus retirés aux fins de poursuites

Adopté

M. FRASSA, rapporteur

8

Conséquence

Adopté

M. FRASSA, rapporteur

9

Cohérence et coordination

Adopté

Article 1er ter B
Notification de contenus haineux par une association
de protection de l'enfance saisie par un mineur

M. FRASSA, rapporteur

10

Reconnaissance d'utilité publique des associations de protection de l'enfance

Adopté

Article 3
Autres obligations de moyens mises à la charge des plateformes
en matière d'information et de coopération avec les autorités

M. FRASSA, rapporteur

11

Lutte contre les faux comptes

Adopté

Article 4
Nouvelles missions du CSA : surveillance des obligations à la charge des plateformes,
recommandations, pouvoirs de contrôle et de sanction ;
contrôle du blocage administratif des sites terroristes ou pédopornographiques

M. FRASSA, rapporteur

12

Intéropérabilité

Adopté

M. FRASSA, rapporteur

13

Coordination

Adopté

Article 6 bis C
Compétence du juge unique en matière correctionnelle
à l'égard des refus de retrait d'un contenu haineux

M. FRASSA, rapporteur

14

Coordination

Adopté

Article 9
Entrée en vigueur

M. FRASSA, rapporteur

15

Coordination

Adopté

LA LOI EN CONSTRUCTION

Pour naviguer dans les rédactions successives du texte, le tableau synoptique de la loi en construction est disponible sur le site du Sénat à l'adresse suivante :

http://www.senat.fr/dossier-legislatif/ppl18-645.html


* 1 L'avant dernier alinéa de l'article 6-1 de la LCEN rappelle ce principe, consacré en premier lieu par la décision du Conseil constitutionnel n° 2000-441 DC du 28 décembre 2000, Loi de finances rectificative pour 2000, cons. 41.

* 2 Selon elle, « cette disposition permet de tenir compte du cas, envisagé par la Commission européenne dans ses observations sur le texte, où la nature du contenu nécessiterait une évaluation de son contexte plus conséquente, qui ne peut pas raisonnablement être effectuée dans le délai de 24 heures, ou de l'hypothèse d'un contenu destiné à dénoncer un propos haineux ».

* 3 « Afin de garantir la protection des droits fondamentaux, il convient de veiller à ce que ledit délai fixé soit proportionné et raisonnable compte tenu, notamment, du contenu illicite concerné. Plus particulièrement, tout délai fixé au cours duquel les plateformes en ligne sont tenues d'agir suite à la notification de la présence d'un contenu illicite doit également permettre une certaine flexibilité dans certains cas justifiés, par exemple lorsque la nature du contenu nécessite une évaluation de son contexte plus conséquente qui ne pourrait être raisonnablement effectuée dans le délai fixé. »

* 4 Prévu au 8 du I de l'article 6 de la LCEN.

* 5 Prévu à l'article 835 du code de procédure civile.

* 6 Ils organisent la visibilité des contenus sur le web de façon algorithmique, constante et prévisible, et il n'y a normalement pas de traitement particulier en fonction de l'identité de l'auteur de la recherche ; la hiérarchisation des contenus affichés par les moteurs n'a pas un caractère social, l'utilisateur n'a pas de possibilité directe de poster du contenu, de partager ou d'y réagir pour en augmenter l'audience (like, share, etc.) ;

L'utilisateur d'un moteur de recherche n'y voit que les informations qu'il est venu chercher en fonction de sa requête, contrairement aux réseaux sociaux où une foule de contenus publiés par ses contacts lui est proposée (en fonction de ses abonnements, des groupes dont il est membre...). Et si les moteurs de recherche contribuent à la visibilité des sites internet, ce ne sont pas eux qui rendent directement ces sites ni leurs contenus publics ; un site se retrouve référencé dans le moteur de recherche non pas à la demande de son auteur mais automatiquement.

* 7 Les caractéristiques techniques des moteurs de recherche rendent quasiment impossible de désindexer - ou de ne pas afficher en réponse à une requête - un seul propos haineux précis (un commentaire ou une image sur la page d'un média, d'un forum, ou d'un site de débat participatif) sans rendre inaccessible - ou invisible - tout le reste, et donc tous les autres contenus pourtant licites.

* 8 Décision n° 2011-625 DC du 10 mars 2011, Loi d'orientation et de programmation pour la performance de la sécurité intérieure (LOPPSI), cons. 5 à 8.

* 9 La notification peut intervenir sans demande préalable de retrait si l'éditeur de service n'a pas fourni les informations permettant de l'identifier et de le contacter.

* 10 Proposition de règlement du parlement européen et du conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne.

* 11 L'avant-dernier alinéa de l'article 6-1 de la LCEN rappelle ce principe, consacré en premier lieu par la décision du Conseil constitutionnel n° 2000-441 DC du 28 décembre 2000, Loi de finances rectificative pour 2000, cons. 41.

* 12 Directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d'information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l'information

* 13 Pour une présentation exhaustive de la procédure, voire le site internet de la Commission européenne dédié :

https://ec.europa.eu/growth/tools-databases/tris/fr/

* 14 Affaires C-194/94, CIA Security International SA, et C-443/98,Unilever Italia SpA

* 15 L'introduction par amendement au sein d'un texte législatif et au cours de la navette de dispositions nouvelles relevant de la directive de 2015 et devant être notifiées donne régulièrement lieu à des notifications complémentaires adressées à la Commission européenne : Voir en ce sens les notifications initiales (avant le dépôt du texte) et complémentaires (après la première lecture) de nombreux articles de la loi dite « République numérique ».

* 16 Compte rendu de la réunion de la commission des lois du mardi 14 janvier 2020.

* 17 L'exception ménagée par la Cour de justice de l'Union européenne (affaire C-18/18, Glawischnig-Piesczek) permet certes de demander aux hébergeurs d'empêcher la réapparition de certains contenus, mais elle ne s'applique que de façon limitée à ceux reconnus illicites par une juridiction, et non à ceux simplement notifiés puis retirés par une plateforme sans intervention d'un juge (« Le droit de l'Union ne s'oppose pas à ce qu'une juridiction d'un État membre puisse enjoindre à un hébergeur de supprimer les informations qu'il stocke et dont le contenu est identique à celui d'une information déclarée illicite précédemment »).