Allez au contenu, Allez à la navigation

Proposition de loi visant à lutter contre la haine sur internet

11 décembre 2019 : Lutte contre la haine sur internet ( rapport - première lecture )

Rapport n° 197 (2019-2020) de M. Christophe-André FRASSA, fait au nom de la commission des lois, déposé le 11 décembre 2019

Disponible au format PDF (1,2 Moctet)

Tableau comparatif au format PDF (237 Koctets)


N° 197

SÉNAT

SESSION ORDINAIRE DE 2019-2020

Enregistré à la Présidence du Sénat le 11 décembre 2019

RAPPORT

FAIT

au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale (1) sur la proposition de loi, adoptée par l'Assemblée nationale après engagement de la procédure accélérée, visant à lutter contre les contenus haineux sur internet,

Par M. Christophe-André FRASSA,

Sénateur

(1) Cette commission est composée de : M. Philippe Bas, président ; MM. François-Noël Buffet, Jean-Pierre Sueur, Mme Catherine Di Folco, MM. Jacques Bigot, André Reichardt, Mme Sophie Joissains, M. Arnaud de Belenet, Mme Nathalie Delattre, MM. Pierre-Yves Collombat, Alain Marc, vice-présidents ; M. Christophe-André Frassa, Mme Laurence Harribey, M. Loïc Hervé, Mme Marie Mercier, secrétaires ; Mme Esther Benbassa, MM. François Bonhomme, Philippe Bonnecarrère, Mmes Agnès Canayer, Maryse Carrère, Josiane Costes, MM. Mathieu Darnaud, Marc-Philippe Daubresse, Mme Jacky Deromedi, MM. Yves Détraigne, Jérôme Durain, Mme Jacqueline Eustache-Brinio, MM. Jean-Luc Fichet, Pierre Frogier, Mmes Françoise Gatel, Marie-Pierre de la Gontrie, M. François Grosdidier, Mme Muriel Jourda, MM. Patrick Kanner, Éric Kerrouche, Jean-Yves Leconte, Henri Leroy, Mme Brigitte Lherbier, MM. Didier Marie, Hervé Marseille, Jean Louis Masson, Thani Mohamed Soilihi, Alain Richard, Vincent Segouin, Simon Sutour, Mmes Lana Tetuanui, Claudine Thomas, Catherine Troendlé, M. Dany Wattebled.

Voir les numéros :

Assemblée nationale (15ème législ.) :

1785, 1989, 2062 et T.A. 310

Sénat :

645 (2018-2019), 173, 184 et 198 (2019-2020)

L'ESSENTIEL

Réunie le 11 décembre 2019 sous la présidence de Philippe Bas, la commission des lois a adopté avec modifications, sur le rapport de Christophe-André Frassa, la proposition de loi visant à lutter contre les contenus haineux sur internet.

Examiné après engagement de la procédure accélérée, ce texte vise à lutter contre la propagation de certains « discours de haine » sur internet. Il renforce les sanctions pénales encourues par les réseaux sociaux et les moteurs de recherche qui ne retireraient pas en 24 heures de tels contenus et met en place une régulation administrative de ces grandes plateformes sous l'égide du CSA. Il facilite également l'organisation de la réponse judiciaire et promeut certaines actions de prévention en milieu scolaire.

Lors de ses travaux, la commission a adopté 45 amendements afin notamment :

- de supprimer le nouveau délit de « non-retrait » de contenu haineux, trop inabouti - car déséquilibré aux dépens de la liberté d'expression - et juridiquement fragile - alors même qu'elle touche à la matière pénale et intervient dans un champ régi par le droit de l'Union européenne ;

- de clarifier la régulation administrative des grandes plateformes pour mieux tenir compte des exigences du droit européen (directive « e-commerce »), en proportionnant les obligations à la charge des plateformes au risque d'atteinte à la dignité humaine et en écartant toute obligation générale de surveillance des réseaux ;

- de mieux s'attaquer à la viralité des discours de haine ainsi qu'à leur financement par la publicité, et de promouvoir l'interopérabilité entre plateformes pour garantir aux victimes un passage plus fluide de l'une à l'autre.

I. LA MOBILISATION DES ACTEURS PUBLICS ET DES INTERMÉDIAIRES TECHNIQUES CONTRE LES DISCOURS DE HAINE SUR INTERNET

A. LES DISCOURS DE HAINE SUR INTERNET : UN PHÉNOMÈNE PRÉOCCUPANT MAIS DONT L'AMPLEUR RESTE DIFFICILE À ÉVALUER

Comme la commission nationale consultative des droits de l'Homme (CNCDH) en dressait déjà le constat en 2015, « la prolifération des contenus haineux sur la toile, qui se nourrissent régulièrement des tensions sociales et de la crise de la citoyenneté, devient un phénomène très inquiétant. Elle constitue le terreau de conflits croissants entre groupes et communautés remettant en cause le vivre ensemble démocratique »1(*).

S'il n'en nie évidemment pas la réalité, votre rapporteur regrette cependant l'absence de moyens fiables et exhaustifs permettant de mesurer l'ampleur et l'évolution du phénomène.

En France, seuls certains indices de tendance indirects peuvent ainsi être relevés. En 2018, sur les 163 723 signalements à la plateforme Pharos, 14 000 relevaient de la haine en ligne ou de discriminations2(*). La majorité des signalements concernait des contenus présents sur les grands réseaux sociaux américains. Plus de la moitié constituaient des injures ou diffamations xénophobes ou discriminatoires, et plus du tiers, de la provocation publique à la haine et la discrimination raciale, ethnique ou religieuse.

À l'échelle de l'Europe, la Commission européenne a adopté en 2016 une approche volontariste mais privilégiant l'auto-régulation : elle a ainsi conclu avec les principales plateformes concernées un « Code de conduite » pour inciter celles-ci à prendre des mesures proactives et endiguer la diffusion des contenus de haine sur Internet.

Cette approche reposant sur les engagements volontaires des acteurs a produit des résultats sensibles : fin 2018, 89 % des contenus signalés et 72 % des contenus considérés comme des discours de haine illégaux étaient examinés et traités dans les 24 heures du signalement, contre respectivement 40 % et 28 % lors du lancement du code de conduite en 2016.

Taux de traitement en moins de 24 heures des notifications
par les entreprises parties au code de conduite

Source : Commission européenne, quatrième évaluation du code de conduite contre les discours de haine illégaux en ligne, février 2019.

B.  LE RÔLE DES HÉBERGEURS : UN RÉGIME DE RESPONSABILITÉ PROTECTEUR EN CONTREPARTIE D'OBLIGATIONS DE COOPÉRATION

Transposant en droit français la directive « e-commerce » du 8 juin 20003(*), la loi pour la confiance dans l'économie numérique (LCEN) du 21 juin 2004 prévoit un régime de responsabilité spécifique pour les fournisseurs d'accès à Internet4(*) et les hébergeurs5(*) à raison des contenus à la diffusion desquels ils contribuent.

Les hébergeurs, en particulier, bénéficient d'une exonération facilitée de leur responsabilité civile ou pénale : celle-ci ne peut être engagée en l'absence de connaissance de l'illicéité des contenus stockés ou, en cas de connaissance de l'illicéité manifeste des contenus stockés, s'ils ont procédé promptement à leur retrait.

Ce régime juridique protecteur est destiné à éviter que l'engagement trop systématique de leur responsabilité ne soit un frein à la libre expression sur internet des citoyens qui dépendent d'eux pour échanger.

Il s'applique à un spectre d'acteurs extrêmement large, qui englobe désormais les grandes plateformes bien connues : les moteurs de recherche (Google, Qwant), les réseaux sociaux (Facebook, Twitter), les plateformes de diffusion de vidéos (YouTube, Dailymotion), etc.

En outre, les hébergeurs ne peuvent pas être soumis à une obligation générale de surveillance des informations qu'ils stockent ni de recherche des activités illicites, sous réserve des demandes « ciblées et temporaires de l'autorité judiciaire ».

En échange de ce régime favorable, les intermédiaires techniques sont tenus de coopérer avec la puissance publique pour lutter contre la diffusion desdits contenus illicites : cela se traduit par une obligation de recueil et de conservation de données sur leurs utilisateurs, de dénonciation des activités illicites, de transparence, voire de blocage des contenus.

II. LA PROPOSITION DE LOI TRANSMISE : UNE DIFFICILE SYNTHÈSE ENTRE OBLIGATIONS DE RÉSULTATS ET DE MOYENS

La proposition de loi présentée par la députée Laetitia Avia s'inscrit dans le plan national triennal 2018-2020 de lutte contre racisme et l'antisémitisme publié par le Gouvernement en mars 2018, qui prévoyait de modifier la législation nationale en vue de lutter contre la haine en ligne.

Elle tente une difficile synthèse entre deux orientations bien différentes :

- une approche insistant sur les obligations de résultat mises à la charge des plateformes pour l'effacement rapide et exhaustif des propos haineux en ligne, sous peine de sanctions, comme le recommandait le rapport Renforcer la lutte contre le racisme et l'antisémitisme6(*) remis au Premier ministre en septembre 2018 dont Mme Avia était co-auteure (avec Karim Amellal et Gil Taïeb) ;

- et une approche par la régulation, centrée sur un contrôle plus poussé des moyens mis en oeuvre par les plateformes, afin de s'assurer qu'ils sont suffisants pour lutter efficacement contre la haine en ligne, en cohérence avec les conclusions de la mission « Régulation des réseaux sociaux »7(*) publiées en mai 2019 (et faisant suite à la rencontre entre le Président de la République et Mark Zuckerberg, président-directeur général de Facebook).

A. LA PRINCIPALE DISPOSITION DU TEXTE : UNE OBLIGATION DE RETRAIT EN 24 HEURES DES CONTENUS ODIEUX SANCTIONNÉE PAR UN NOUVEAU DÉLIT

Le coeur de la proposition de loi adoptée par l'Assemblée nationale consiste en la création d'une obligation de suppression de certains contenus haineux manifestement illicites, dans les 24 heures après leur notification aux grandes plateformes (réseaux sociaux ou moteurs de recherche à fort trafic accessibles sur le territoire français). Chaque « non retrait » dans les temps d'un tel contenu serait pénalement réprimé par un nouveau délit spécifique (un an de prison et 250 000 euros d'amende, portés au quintuple pour les personnes morales).

Les contenus « haineux » concernés sont, par le jeu d'ajouts et de renvois successifs, devenus nombreux et disparates (injures aggravées, apologies de crimes, provocations à la discrimination, à la haine ou à la violence, harcèlement sexuel, exposition de mineurs à des messages violents ou pornographiques, traite des êtres humains, proxénétisme, pédopornographie et provocation au terrorisme...)

Les associations de lutte contre les discriminations seraient autorisées à exercer les droits reconnus à la partie civile contre le nouveau délit de refus de retrait d'un contenu manifestement haineux, et il est prévu qu'une association de protection de l'enfance puisse notifier un tel contenu à la place d'un mineur.

Les règles formelles de notification de tous les contenus illicites (haineux ou non) son drastiquement simplifiées.

B. L'INSTAURATION D'UNE RÉGULATION AMBITIEUSE DES PLATEFORMES : DE NOUVELLES OBLIGATIONS DE MOYENS SOUS LA SUPERVISION DU CONSEIL SUPÉRIEUR DE L'AUDIOVISUEL

La proposition de loi transmise impose de nouvelles obligations de moyens aux plateformes en matière de lutte contre les contenus haineux en ligne (dispositif de notification ; information des utilisateurs ; possibilité de contester des décisions de retrait ou de maintien de contenus ; transparence des activités ; protection spécifique des mineurs).

Elle confie au Conseil supérieur de l'audiovisuel (CSA) une nouvelle mission de régulation administrative de ces plateformes. Chargé de s'assurer de leur coopération et du respect de ces nouvelles obligations de moyens, il disposerait pour ce faire d'un pouvoir réglementaire (lui permettant de formuler des recommandations contraignantes) et d'investigation, et pourrait prononcer des sanctions pécuniaires considérables et dissuasives (l'amende administrative pouvant atteindre 4 % du chiffre d'affaires annuel mondial de l'opérateur).

Le texte transfère également au CSA la compétence aujourd'hui confiée à une personnalité qualifiée de la CNIL pour contrôler le blocage et le déréférencement administratifs de sites terroristes ou pédopornographiques.

C. PRÉVENIR LA HAINE ET PUNIR LES AUTEURS : DES AMÉLIORATIONS MARGINALES DE LA FORMATION ET DE L'ORGANISATION JUDICIAIRE DE LA RÉPRESSION

La proposition de loi permet de spécialiser un parquet et une juridiction en matière de lutte contre la haine en ligne et complète les obligations du contrôle judiciaire et du sursis probatoire (réaffirmant la possibilité de prononcer une interdiction d'adresser des messages électroniques à une victime).

Elle prévoit d'inscrire expressément dans le code de l'éducation la sensibilisation des élèves et la formation des enseignants en matière de lutte contre la diffusion des contenus haineux.

III. LA POSITION DE LA COMMISSION DES LOIS : RÉÉQUILIBRER
ET MIEUX SÉCURISER JURIDIQUEMENT UN ENSEMBLE DE MESURES INÉGALEMENT ABOUTIES

A. DES OBJECTIFS PARTAGÉS, UN PROBLÈME DE MÉTHODE

L'intention première des auteurs de cette proposition de loi est louable et il existe un large consensus au Sénat pour mieux responsabiliser les grandes plateformes qui jouent un rôle décisif dans la diffusion sur internet de discours de haine.

Les travaux et propositions de notre assemblée ces dernières années en attestent, incitant régulièrement le Gouvernement à ne pas avoir une position attentiste mais à agir à l'échelon national avant une hypothétique solution harmonisée au niveau européen souvent annoncée mais longtemps retardée. Tel est le cas notamment des recommandations de la commission d'enquête du Sénat pour une souveraineté numérique8(*) afin d'améliorer la régulation des acteurs « systémiques » du numérique et de mieux responsabiliser les plateformes, ou encore la résolution européenne du Sénat en faveur d'une révision de la directive « e-commerce »9(*).

Malheureusement, alors que les mesures proposées s'inscrivent clairement dans le cadre d'un plan gouvernemental global de lutte contre les discriminations, votre rapporteur regrette vivement le choix qui a été fait de recourir à une proposition de loi plutôt qu'à un projet de loi privant à nouveau le Parlement d'une étude d'impact.

Nuisant à la clarté de nos débats, l'existence de trois autres textes adoptés ou en voie de l'être (directive « service de médias audiovisuels », règlement européen sur les contenus terroristes, projet de loi de réforme de l'audiovisuel) risque également d'interférer avec certaines dispositions de la présente proposition de loi, voire d'en imposer la réécriture à brève échéance.

B. L'ARTICLE 1ER : UN DISPOSITIF PÉNAL INABOUTI ET DÉSÉQUILIBRÉ AU DÉTRIMENT DE LA LIBERTÉ D'EXPRESSION

1. Un risque de déséquilibre au détriment de la conception française de la liberté d'expression

En exigeant des opérateurs de plateformes qu'ils apprécient le caractère manifestement illicite des messages haineux signalés dans un délai particulièrement bref, alors, d'une part, que cet exercice de qualification juridique est difficile pour certaines infractions contextuelles, et alors, d'autre part, qu'ils sont sous la menace de sanctions pénales lourdes en cas d'erreur, ce dispositif encouragera mécaniquement les plateformes à retirer - par excès de prudence - des contenus pourtant licites.

D'autres effets pervers sont également à redouter :

- la multiplication du recours à des filtres automatisés ;

- l'instrumentalisation des signalements par des groupes organisés de pression ou d'influence (« raids numériques » contre des contenus licites mais polémiques) ;

- l'impossibilité de prioriser, dans un délai couperet uniforme de 24 heures, les contenus les plus nocifs qui ont un caractère d'évidence et doivent être retirés encore plus rapidement - terrorisme, pédopornographie - à côté d'autres infractions moins graves ou plus longues à qualifier car « contextuelles » ;

- le contournement du juge et l'abandon de la police de la liberté d'expression sur internet aux grandes plateformes étrangères.

2. Un « droit pénal purement expressif » ? Des problèmes d'imputabilité et d'intentionnalité

Le dispositif pénal semble difficilement applicable - il a même été qualifié de « droit pénal purement expressif » par des représentants du parquet, tant les contraintes procédurales et considérations budgétaires limitent le pouvoir d'action de l'autorité judiciaire en la matière -, et présente :

- un problème d'imputabilité concrète, s'agissant des personnes physiques (qui du modérateur sous-traitant indien ou du dirigeant américain sera poursuivi ?) et, surtout, des personnes morales (comment qualifier l'intention pénale des organes dirigeants des hébergeurs concernés, domiciliés à l'étranger et dont il faut démontrer la complicité ?) ;

- un problème de caractérisation de l'intentionnalité : le simple non retrait suffira-t-il, ou sera-t-il nécessaire pour l'autorité de poursuite de caractériser une absence de diligences normales de l'opérateur dans sa capacité à qualifier l'illégalité manifeste d'un contenu ?

3. Une contrariété probable au droit européen

La Commission européenne a transmis au Gouvernement des observations longues et très critiques alertant sur la violation probable de la directive « e-commerce » et de la Charte des droits fondamentaux de l'Union européenne.

Selon elle, le texte viole plusieurs principes majeurs du droit européen (principe du « pays d'origine » ; responsabilité atténuée des hébergeurs ; interdiction d'instaurer une surveillance généralisée des réseaux). Rappelant l'existence de plusieurs initiatives législatives européennes en cours, la commission a invité formellement la France à surseoir à l'adoption de ce texte.

Le Gouvernement n'ayant été capable d'offrir aucune solution alternative pour rendre opérant l'article 1er, et écarter le risque de sur-blocage de propos licites, le rapporteur a recommandé à la commission, qui l'a suivi, la suppression à ce stade de cette nouvelle sanction pénale inapplicable et contraire au droit européen.

Certaines dispositions intéressantes ont été conservées ou améliorées, en les intégrant au régime général prévu par la LCEN :

- la substitution de messages aux contenus haineux retirés et la possibilité (et non l'obligation) de leur conservation en vue d'enquêtes judiciaires ;

- l'ajout des injures publiques à caractère discriminatoire et du négationnisme aux contenus devant faire l'objet d'un dispositif technique de notification spécifique mis en place par les hébergeurs ;

- la simplification des notifications prévues par la LCEN, en la rendant conforme au droit européen ;

- la reconnaissance de l'action des associations de protection de l'enfance.

C. LA RÉGULATION DES PLATEFORMES : UNE SOLUTION PERTINENTE APPROUVÉE ET PRÉCISÉE

Le rapporteur estime que l'imposition d'obligations de moyens sous la supervision d'un régulateur armé de sanctions dissuasives est la solution la plus pertinente pour contraindre les grandes plateformes à une lutte plus efficace contre les discours de haine véhiculés sur les réseaux.

Il a souhaité d'abord tenir compte des observations de la commission européenne et rendre ce dispositif plus respectueux du droit européen :

- proportionnant les obligations à la charge des plateformes au risque d'atteinte à la dignité humaine ;

- et écartant toute obligation générale de surveillance des réseaux.

Pour améliorer la rédaction de certaines des obligations de moyens mis à la charge des plateformes, la commission a prévu, à son initiative :

- l'absence d'information systématique des auteurs de contenus au stade de la simple notification par un tiers, pour éviter les spams et « raids numériques » contre les auteurs de contenus licites mais polémiques ;

- à titre exceptionnel, la possibilité dans certains cas de ne pas informer l'auteur de contenus retirés, notamment pour préserver les enquêtes en cours ;

- la suppression de l'obligation générale faite aux plateformes d'empêcher la réapparition de tout contenu illicite (« notice and stay down ») contraire au droit européen.

La commission a également approuvé plusieurs clarifications procédurales concernant les pouvoirs de régulation et de sanction attribués au CSA. Le rapporteur a indiqué toutefois s'inquiéter à cet égard du risque de manque de moyens et de compétences techniques du régulateur pour expertiser efficacement les plateformes.

D. VIRALITÉ, FINANCEMENT, INTEROPÉRABILITÉ : DES PROPOSITIONS COMPLÉMENTAIRES POUR MIEUX S'ATTAQUER AUX RESSORTS PROFONDS DU PROBLÈME

1. Mieux s'attaquer à la viralité, coeur du problème

Comme il en a été fait l'observation au cours des auditions, en l'état du texte, une plateforme qui retire un contenu haineux vu 8 millions de fois 23 heures après sa notification respecterait parfaitement l'obligation de résultat instaurée à l'article 1er de la proposition de loi...

Dès lors, le rapporteur a souhaité compléter ce texte pour lutter plus efficacement contre la viralité des contenus haineux, qui est le véritable coeur du problème à traiter. À ce titre, il a proposé :

- d'ajuster le champ des acteurs soumis aux obligations de moyens renforcés de lutte contre les contenus haineux, pour permettre au CSA d'attraire les plateformes moins grandes mais très virales dans le champ de sa régulation ;

- d'encourager les plateformes, sous le contrôle du CSA, à prévoir des dispositifs techniques de désactivation rapide de certaines fonctionnalités de rediffusion massive des contenus.

2. S'attaquer au financement des entrepreneurs de haine par la publicité

La commission a également adopté un amendement visant à mieux associer les régies publicitaires à la lutte contre le financement de sites facilitant la diffusion en ligne des discours de haine par un renforcement des obligations de transparence à leur charge.

3. Intégrer l'obligation d'interopérabilité à la boîte à outils du régulateur

Enfin, comme le recommandait la commission d'enquête du Sénat sur la souveraineté numérique, votre rapporteur a souhaité approfondir l'obligation de portabilité, en complétant la boîte à outil du régulateur des plateformes. La possibilité d'encourager l'interopérabilité permettrait ainsi aux victimes de haine de se « réfugier » sur d'autres plateformes avec des politiques de modération différentes, tout en pouvant continuer à échanger avec les contacts qu'elles avaient noués jusqu'ici.

EXAMEN DES ARTICLES
DE LA PROPOSITION DE LOI

CHAPITRE IER
SIMPLIFICATION DES DISPOSITIFS DE NOTIFICATION DE CONTENUS HAINEUX EN LIGNE

Article 1er
(art. 6 de la loi n° 2004-575 pour la confiance dans l'économie numérique)
Obligation pour les grandes plateformes de supprimer en 24 heures certains contenus manifestement illicites ; liste des contenus et répression pénale des manquements ; exercice des droits reconnus
à la partie civile par les associations de lutte contre les discriminations

L'article 1er de la proposition de loi tend à créer une nouvelle obligation de suppression de certains contenus « haineux » manifestement illicites par les grandes plateformes (réseaux sociaux ou moteurs de recherche à fort trafic accessibles sur le territoire français), dans les 24 heures après leur notification, dont la méconnaissance serait pénalement réprimée par un nouveau délit (un an de prison et 250 000 euros d'amende, somme portée au quintuple pour les personnes morales).

1. Le rôle des hébergeurs face aux contenus illicites sur internet : un régime de responsabilité protecteur mais des obligations de coopération

Pour recevoir et émettre des informations ou accéder à des services en ligne, les utilisateurs d'internet dépendent d'une chaîne d'intermédiaires techniques aux activités variées : fournisseurs d'accès à internet, hébergeurs de données et prestataires de services aux dénominations diverses (annuaires, forums, moteurs de recherche, réseaux sociaux, etc.).

Plus facile à identifier - et à attraire en justice - et souvent plus solvables que les auteurs de contenus illicites diffusés grâce à eux sur internet, ces intermédiaires font l'objet depuis les années 2000 d'un régime juridique protecteur destiné à éviter que l'engagement trop systématique de leur responsabilité pénale ou civile ne soit un frein à leur développement économique ou à la libre expression sur internet.

Les hébergeurs :
une définition datée, une notion actualisée et
considérablement élargie par la jurisprudence
pour répondre aux évolutions technologiques

La notion d'hébergeur a été définie il y a près de 15 ans, elle figure dans la directive e-commerce (« service de la société de l'information consistant à stocker des informations fournies par un destinataire du service ») et dans la LCEN qui la transpose (« personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services »).

Outre les prestataires d'hébergement traditionnels offrant des espaces de stockage de données (comme OVH), sont apparus depuis les années 2010 des prestataires de services nouveaux, utilisant des algorithmes d'indexation, de classement et de mise en avant, valorisant et diffusant des textes, images ou vidéos produits par les utilisateurs eux-mêmes, et permettant aux internautes de former des réseaux de relations et d'échanges. L'essor du « Web 2.0 » a ainsi mis à mal la distinction juridique classique entre hébergeur et éditeur.

La jurisprudence - à qui il est seule revenu d'actualiser la notion faute de révision de la directive e-commerce -, vérifie désormais pour octroyer le statut d'hébergeur l'absence de « rôle actif de nature à lui confier une connaissance ou un contrôle des données stockées »10(*).

Dès lors, eu égard à leur rôle, ont pu être qualifiées d'hébergeurs et bénéficier du régime protecteur de responsabilité aménagée de nombreuses plateformes de partage de contenus créés par leurs utilisateurs, qu'il s'agisse de sites de partage de vidéos (YoutubeDailymotion...), de réseaux sociaux (FacebookTwitterLinkedInViadeo), de forums de discussion ou d'agrégateurs d'actualités, de plateformes commerciales de mise en relation (eBayPriceMinister...), de sites de streaming, de comparateurs de prix (Shopping.com). Il en est allé de même pour les moteurs de recherche (GoogleQwant...), eu égard au caractère largement automatisé des opérations d'indexation et de présentation des contenus.

Transposant en droit français la directive « e-commerce » du 8 juin 200011(*), la loi pour la confiance dans l'économie numérique (LCEN) du 21 juin 2004 prévoit ainsi un régime de responsabilité spécifique pour les fournisseurs d'accès12(*) et les hébergeurs13(*) à raison des contenus à la diffusion desquels ils contribuent. Les acteurs exerçant une activité d'intermédiaire dans la mise à disposition de contenus en ligne voient leur responsabilité plus facilement écartée que dans le régime de droit commun, en contrepartie d'une obligation de collaboration dans la lutte contre la diffusion des contenus illicites.

Les hébergeurs, en particulier, bénéficient d'une exonération facilitée de leur responsabilité civile et pénale : celle-ci ne peut être engagée en l'absence de connaissance de l'illicéité des contenus stockés ou, en cas de connaissance de l'illicéité manifeste des contenus stockés, s'ils ont procédé promptement à leur retrait. Ce régime protecteur s'applique ainsi à un spectre d'acteurs extrêmement large qui englobe désormais les grandes plateformes bien connues : les moteurs de recherche (Google, Qwant) les réseaux sociaux (Facebook, Twitter), les plateformes de diffusion de vidéos (YouTube, Dailymotion), etc.

En outre, les hébergeurs ne peuvent pas être soumis à une obligation générale de surveillance des informations qu'ils stockent ni de recherche des activités illicites (sous réserve des demandes « ciblées et temporaires de l'autorité judiciaire »).

En échange de ce régime favorable, les intermédiaires techniques sont tenus de coopérer avec la puissance publique pour lutter contre la diffusion desdits contenus illicites : cela se traduit par une obligation de recueil et de conservation de données sur leurs utilisateurs, de dénonciation des activités illicites, de transparence, voire de blocage des contenus.

La « responsabilisation » des hébergeurs :
des obligations de coopérer à la lutte
contre les contenus illicites

En l'état du droit, en France, les hébergeurs doivent :

- retirer promptement tout contenu illicite dont ils ont connaissance (2 et 3 du I de l'article 6 de la LCEN) ;

- détenir et conserver pendant une certaine durée les données d'identification et de connexion de tout contributeur à la création d'un contenu en ligne (ce qui doit faciliter l'engagement et l'efficacité de poursuites ultérieures) ;

- répondre aux réquisitions de l'autorité judiciaire aux fins de communication de ces données identifiantes (II de l'article 6 de la LCEN) ;

- se conformer aux décisions administratives (article 6-1 de la LCEN) et aux jugements ordonnant le blocage de certains contenus illicites (8 du I de l'article 6) ;

- mettre en place, pour certaines infractions particulièrement odieuses, un mécanisme de notification « facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données » (7 du I de l'article 6 de la LCEN) ;

informer « promptement » les autorités publiques compétentes en cas de signalement d'activités illicites (idem) ;

- et rendre publics les moyens qu'ils consacrent à cette lutte (idem).

Des dispositions pénales spécifiques viennent sanctionner le manquement de tout hébergeur à ces obligations de coopération (1 et 2 du VI de l'article 6 de la LCEN).

2. Le texte adopté par l'Assemblée nationale : imposer à certains hébergeurs une obligation de résultat (retrait en 24 heures des contenus odieux), sanctionnée par un nouveau délit

Dans le dernier état de sa rédaction, l'article 1er, qui a subi des modifications substantielles à l'Assemblée nationale en commission puis en séance, créerait une obligation de retrait ou de suppression pour tout contenu « haineux » manifestement illicite, dans les 24 heures après sa notification aux grandes plateformes (réseaux sociaux ou moteurs de recherche à fort trafic) accessibles sur le territoire français. La méconnaissance en serait pénalement réprimée par l'instauration d'un nouveau délit spécifique puni d'un an de prison et 250 000 euros d'amende par infraction.

Par sa portée, ce dispositif se veut radicalement nouveau, puisqu'il s'agirait désormais bien d'une « obligation de résultat », selon les termes de la rapporteure de l'Assemblée nationale : énoncé au sein d'un nouvel article 6-2, le régime spécifique instauré aurait vocation à se combiner avec le régime général de responsabilité des intermédiaires techniques issu de la LCEN (« sans préjudice des dispositions [de] l'article 6 »), imposant pour une sous-catégorie d'hébergeurs, et pour un sous-ensemble de contenus illicites, de nouvelles contraintes particulières et des sanctions spécifiques.

Son champ d'application organique et territorial recouvrirait ainsi certains grands opérateurs de plateformes en ligne présents en France : les réseaux sociaux14(*) et les moteurs de recherche15(*) qui dépassent des seuils d'activité sur le territoire français déterminés par décret.

Interrogé par votre rapporteur, le Gouvernement n'a malheureusement pas été en mesure d'indiquer précisément ni les types de seuils et niveaux envisagés, ni le nombre d'opérateurs susceptibles d'être concernés en fonction desdits seuils, faisant seulement référence au décret pris pour l'application des obligations de transparence et de loyauté instaurées depuis la loi « République numérique » (seuil fixé en la matière à cinq millions de visiteurs uniques par mois, par plateforme, calculé sur la base de la dernière année civile16(*)) ;

Le champ d'application matériel de l'obligation de retrait a été modifié lors de l'examen du texte en commission puis en séance, et a fait l'objet d'âpres discussions et de nombreux amendements destinés à l'élargir à un nombre croissant d'infractions.

En l'état du texte transmis, ce champ recouvrirait les contenus relevant manifestement de certaines infractions ayant un caractère particulièrement odieux : injures aggravées, apologies de certains crimes, provocations à la discrimination, à la haine ou à la violence, harcèlement sexuel, exposition de mineurs à des messages violents ou pornographiques, traite des êtres humains, proxénétisme, pédopornographie et provocation au terrorisme (infractions visées, par référence, au 7 du I de l'article 6 de la LCEN qui prévoit la mise en place de dispositifs de notification par les hébergeurs au titre de leur devoir de coopération dans la lutte contre certains contenus illégaux, auxquelles ont été ajoutées les injures à caractère discriminatoire) :

Fondement textuel

Description de l'infraction

PPL initiale

Texte transmis

Cinquième alinéa de l'article 24
de la loi du 29 juillet 1881 sur la liberté de la presse

Apologie des crimes d'atteinte volontaire à la vie, d'atteinte volontaire à l'intégrité de la personne, d'agression sexuelle, de vol aggravé, d'extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l'humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage ou des crimes et délits de collaboration avec l'ennemi, y compris si ces crimes n'ont pas donné lieu à la condamnation de leurs auteurs

OUI

OUI

Sixième alinéa de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse

Cris ou chants séditieux

OUI

NON

Septième alinéa de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse

Provocation à la discrimination, à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou
de leur non-appartenance à une ethnie, une nation, une race ou une religion

NON

OUI

Huitième alinéa de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse

Provocation à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l'égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du code pénal.

NON

OUI

Troisième alinéa de l'article 33 de la loi du 29 juillet 1881 sur la liberté de la presse

Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée

OUI

OUI

Quatrième alinéa de l'article 33
de la loi du
29 juillet 1881 sur la liberté de la presse

Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap.

OUI

OUI

Article 222-33
du code pénal

Harcèlement sexuel

NON

OUI

Article 225-4-1
du code pénal

Traite des êtres humains

NON

OUI

Articles 225-5 et 225-6 du code pénal

Proxénétisme

NON

OUI

Article 227-23
du code pénal

Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d'image pornographique d'un mineur ; consultation habituelle ou en contrepartie d'un paiement d'un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs

NON

OUI

Article 227-24
du code pénal

Fabrication, transport, diffusion ou commerce de message violent ou pornographique susceptible d'être vu ou perçu par un mineur

NON

OUI

Article 421-2-5
du code pénal

Provocation directe à des actes de terrorisme ou apologie publique de ces actes

NON

OUI

La précision que seules les illicéités ayant un caractère manifeste relèvent de l'obligation de retrait en 24 heures transpose explicitement, au sein du nouveau régime de responsabilité instauré par le présent article pour les grands opérateurs de plateformes, une importante réserve d'interprétation17(*) énoncée par le Conseil constitutionnel à propos du cadre général de la LCEN.

Le régime particulier d'obligation de retrait des contenus manifestement illicites et de sanction instauré par le texte est, pour le reste, bien plus rigoureux que celui prévu par la LCEN. Alors que la LCEN prévoit une obligation de « prompt » retrait (dont le respect a ainsi vocation à être apprécié en fonction du contenu, de l'illicéité alléguée et des diligences de l'hébergeur) et ne détaille pas les conditions concrètes d'engagement de la responsabilité pénale en cas de manquement (qui pourrait être recherchée au titre de la complicité avec l'auteur des contenus18(*)), la proposition de loi crée, elle, une obligation de retrait dans un délai préfix (24 heures après notification) dont la méconnaissance est réprimée par l'instauration d'un nouveau délit spécifique, chaque « non retrait » de contenu étant passible d'une sanction pénale (quelle que soit, à cet égard, l'infraction sous-jacente dont relève ledit contenu illicite).

Les peines encourues sont fixées par un renvoi à celles prévues au 1 du VI de l'article 6 de la LCEN soit, en l'état actuel du droit :

- pour les hébergeurs personnes physiques ou le dirigeant de droit ou de fait d'une personne morale exerçant cette activité, un an d'emprisonnement et 75 000 euros d'amende ;

- pour les personnes morales, outre une amende de 375 000 euros19(*), l'interdiction, pour une durée de cinq ans au plus, d'exercer directement ou indirectement l'activité professionnelle dans l'exercice ou à l'occasion de laquelle l'infraction a été commise, et l'affichage de la décision prononcée ou la diffusion de celle-ci soit par la presse écrite, soit par tout moyen de communication au public par voie électronique.

La proposition de loi, dans son article 3 bis, propose cependant d'augmenter considérablement le montant de ces amendes, portant les sanctions encourues, par infraction, à 250 000 euros pour les personnes physiques, et donc à 1,25 million d'euros pour les personnes morales.

3. Une intention louable mais un dispositif inabouti : le risque de nombreux effets pervers et des obstacles juridiques non résolus

L'intention première des auteurs de cette proposition de loi est louable et il existe un large consensus pour tenter de mieux responsabiliser les grandes plateformes qui jouent un rôle décisif dans la diffusion sur internet de propos constituant des infractions.

Les travaux et propositions du Sénat ces dernières années en attestent d'ailleurs :

- la commission d'enquête du Sénat pour une souveraineté numérique, dont votre rapporteur était membre, a récemment formulé à l'unanimité plusieurs recommandations pour améliorer la régulation des acteurs « systémiques » du numérique et pour mieux responsabiliser les plateformes ;

- le Sénat a également pris position sur ce sujet en adoptant, à l'initiative de notre collègue Catherine Morin-Desailly, présidente de la commission de la culture et rapporteure pour avis du présent texte, une résolution européenne en faveur d'une révision de la directive « e-commerce » (qui appelle à faire émerger un « troisième statut », à côté de celui des hébergeurs et des éditeurs, défini au niveau européen, et ménageant la liberté d'expression et la compétitivité des acteurs du secteur).

Néanmoins, la rédaction proposée par le texte de cet article reste très inaboutie - car trop déséquilibrée aux dépens de la liberté d'expression - et juridiquement fragile - alors même qu'elle touche à la matière pénale et intervient dans un champ régi par le droit de l'Union européenne.

3.1 Sur-censure et contournement du juge : un risque de déséquilibre au détriment de la conception française de la liberté d'expression

Votre rapporteur a été alerté des risques d'effets pervers que présente ce texte par les nombreux acteurs de la société civile qu'il a entendus en audition (représentants des avocats, de Conseil national du numérique, de la Commission nationale consultative des droits de l'Homme, des associations de défense des libertés numériques) ou dont il a reçu contributions.

Comme eux, votre rapporteur estime que, tel qu'il est envisagé à ce stade, le dispositif reste trop déséquilibré et ne manquera pas d'entraîner de nombreux effets pervers et un risque de rompre les équilibres de notre conception traditionnelle de la liberté d'expression.

En exigeant des opérateurs de plateformes qu'ils apprécient le caractère manifestement illicite des messages haineux signalés dans un délai particulièrement bref, alors, d'une part, que cet exercice de qualification juridique est difficile pour certaines infractions contextuelles, et alors, d'autre part, qu'ils sont sous la menace de sanctions pénales explicites et dissuasives en cas d'erreur, ce dispositif encouragera mécaniquement les plateformes à retirer - par excès de prudence - des contenus pourtant licites. Un trop grand zèle dans la suppression de contenus et un comportement de « sur-censure » n'engageront d'ailleurs pas, eux, la responsabilité pénale des plateformes, quand celle des personnes notifiant à tort restera quasiment impossible à rechercher en pratique20(*). Votre rapporteur ne doute dès lors pas que les grands opérateurs de plateformes auront vite fait le bilan des risques économiques et réputationnels encourus par eux entre, d'une part, les retraits insuffisants pénalement sanctionnés par la puissance publique et, d'autre part, les cas de retraits excessifs où ils s'exposent seulement au mécontentement d'utilisateurs individuels...

Mais d'autres effets pervers sont également à redouter :

- la multiplication du recours à des filtres automatisés21(*) de reconnaissance, d'analyse et de retrait des contenus par les plateformes, sans intervention humaine, alors qu'il s'agit de prendre des décisions touchant aux droits fondamentaux des utilisateurs ;

- l'instrumentalisation des signalements par des groupes organisés de pression ou d'influence (« raids numériques » contre des contenus licites mais polémiques), prospérant sur l'attitude trop précautionneuse des plateformes face au risque de sanction pénale ;

- l'impossibilité de prioriser, dans un délai couperet uniforme de 24 heures, les nombreuses notifications à traiter (en privilégiant les contenus les plus nocifs qui ont un caractère d'évidence et doivent être retirés encore plus rapidement - terrorisme, pédopornographie- et d'autres infractions, moins graves ou plus « contextuelles », nécessitant d'être analysées pour en apprécier le caractère manifestement illicite).

Enfin, la faculté donnée à chacun de s'exprimer librement, de publier des vidéos ou des photos, et plus largement de partager des contenus, suppose un équilibre délicat entre la liberté reconnue aux personnes et la protection des droits d'autrui.

L'une des garanties essentielles pour assurer cet équilibre repose sur l'intervention de l'autorité judiciaire. Or le dispositif proposé ferait essentiellement reposer l'appréciation du caractère illicite d'un contenu sur les seules plateformes, en lieu et place de l'autorité judiciaire. Il est alors plus que probable que, pour trancher, les références juridiques (Premier Amendement tempéré par leurs conditions générales d'utilisation draconiennes) et les moyens (les algorithmes qu'ils développent et les modérateurs humains qui sont généralement leurs sous-traitants) seront ceux des géants américains du numérique, parfois éloignés des règles posées par l'Union européenne et notre législation nationale.

Dans un champ aussi sensible que celui des droits fondamentaux de nos concitoyens, c'est au juge, et à lui seul, qu'il doit normalement revenir d'apprécier le caractère abusif de l'exercice de la liberté d'expression. Votre rapporteur ne se résout pas à renforcer aussi massivement l'influence qu'ont les grandes plateformes étrangères en France en leur déléguant sans garanties la police de la liberté d'expression sur internet.

3.2 Un « droit pénal purement expressif » ? Des problèmes d'imputabilité, d'intentionnalité et de cumul

Alors même que ce texte entend instaurer un nouveau délit en cas de « non retrait » de certains contenus, votre rapporteur est frappé que des représentants du parquet qu'il a entendu n'aient pas hésité à qualifier le dispositif proposé de « droit pénal purement expressif », les peines encourues n'ayant pas réellement vocation à être prononcées en pratique mais répondant à un pur objectif d'affichage, à vocation dissuasive.

En l'état du texte, les dispositions pénales proposées présentent d'abord un problème d'imputabilité. Faute d'avoir reçu des réponses satisfaisantes permettant de la lever, votre rapporteur relève qu'une ambiguïté demeure quant aux personnes susceptibles d'être poursuivies du fait de l'absence de retrait en 24 heures des contenus « haineux ». Pour définir la sanction pénale, le texte proposé par le 6e alinéa de l'article 1er de la proposition de loi renvoie en effet aux seules« peines prévues » au 1 du VI de l'article 6 de la LCEN, sans jamais préciser l'imputabilité de l'infraction énoncée.

À supposer même que cette difficulté soit surmontée, s'agissant des personnes physiques, la seule dont la responsabilité pénale semble pouvoir être recherchée n'est sans doute, en pratique, ni le modérateur de contenu chargé de l'examen du contenu illicite, ni le dirigeant de l'entreprise si celle-ci a son siège à l'étranger, mais, selon le Gouvernement22(*), le « représentant légal » nommé en France. Votre rapporteur relève pourtant que l'article 3, qui prévoit l'obligation de sa désignation, ne fait de ce représentant qu'un simple « interlocuteur référent » chargé de « recevoir les demandes de l'autorité judiciaire » dénué de pouvoir de décision ou de direction au sein des opérateurs.

S'agissant des personnes morales, les difficultés à engager leur responsabilité ont été soulignées par la rapporteure de l'Assemblée nationale elle-même, qui indique dans son rapport, à propos de la LCEN : « votre rapporteure n'a trouvé aucun cas où un hébergeur avait vu sa responsabilité pénale engagée à raison des contenus qu'ils stockaient, pour des raisons tenant à la fois à des contraintes procédurales lourdes et des considérations budgétaires limitant le pouvoir d'action de l'autorité judiciaire mais aussi aux difficultés à qualifier l'intention pénale des organes dirigeants des hébergeurs concernés, domiciliés à l'étranger et dont il faut démontrer la complicité ». Votre rapporteur ne voit pas en quoi le dispositif proposé par le présent article règlerait chacune de ces très sérieuses difficultés.

Le dispositif pénal proposé soulève en outre un problème d'intentionnalité dans la caractérisation de l'élément moral23(*). Dans le cas de l'absence de retrait en 24 heures d'un contenu manifestement illicite au regard des infractions « haineuses » visées par la proposition de loi, votre rapporteur s'interroge si la simple absence de retrait suffira bien à entraîner la condamnation de la personne physique ou morale (« obligation de résultat ») ou si, plus vraisemblablement, il sera nécessaire pour l'autorité de poursuite de caractériser une absence de diligences normales de l'opérateur dans sa capacité à qualifier l'illégalité manifeste d'un contenu.

Il ressort des échanges de votre rapporteur avec des magistrats comme avec les services de la Chancellerie que l'intentionnalité ne pourra selon eux être caractérisée que lorsque l'absence de retrait en 24 heures aura été constatée à plusieurs reprises et qu'il sera donc établi qu'elle résulte d'une absence de volonté de la mettre en oeuvre.

Votre rapporteur, regrette que ces dispositions ne figurent pas expressément et bien plus clairement dans la loi pénale (mais il s'agirait alors plutôt d'instaurer une obligation de moyens). Il estime en tout état de cause juridiquement tortueux ce processus, qui ne pourra reposer en l'état du texte que sur l'engagement quasi-systématique de l'action publique contre les plateformes en cas de non retrait d'un contenu manifestement illicite, pour en démontrer le manque de diligences. Cet engagement supposera d'abord qu'une plainte soit déposée par les personnes ayant demandé le retrait, et que l'autorité judiciaire dispose de moyens suffisants pour engager des poursuites. Si de tels moyens existent désormais, notamment la plainte en ligne, pour faciliter la première étape du processus, ceux du Parquet, comme des juges du siège, demeurent limités et devraient d'abord être consacrés à la poursuite des auteurs des contenus illicites.

Enfin, votre rapporteur relève que la coexistence des deux régimes de responsabilité semble pouvoir amener les opérateurs à subir une double sanction pénale pour un même fait : d'une part, au titre du délit spécifique de « non retrait » en 24 heures d'un contenu haineux (instauré par l'article 1er de la proposition de loi), et d'autre part, au titre de l'infraction constituée par le contenu illicite dont ils assurent le stockage lui-même, l'absence de « prompt retrait » engageant alors leur responsabilité pénale à ce titre (en application du 3 du I de l'article 6 de la LCEN).

3° Une contrariété probable au droit européen

Selon la Commission européenne, à qui le dispositif proposé a été notifié, le texte rédigé par l'Assemblée nationale semble contraire à plusieurs principes majeurs du droit de l'Union européenne : la libre prestation des services, précisée par la directive « e-commerce » pour les services de la société de l'information, ainsi que la liberté d'expression, garantie par la Charte des droits fondamentaux. La Commission mentionne ainsi expressément dans son avis transmis au Gouvernement une possible violation des principes du « pays d'origine », de responsabilité aménagée des hébergeurs, et de l'interdiction d'instaurer une surveillance généralisée des réseaux.

Résumé des observations de la Commission européenne

Violation de la libre prestation
des services de la société de l'information

(Article 3 de la directive sur le commerce électronique)

- Violation du principe du « pays d'origine » (Article 3(1), (2) et (3))

Les États membres ne peuvent restreindre la libre circulation des services de la société de l'information en provenance d'un autre État membre, et c'est à ce dernier de veiller à ce que les prestataires établis sur son territoire respectent les dispositions relevant du domaine coordonné par la directive « e-commerce » (principe du « pays d'origine »).

La proposition de loi s'appliquera aux plateformes en ligne qui atteignent un seuil de connexions depuis le territoire français, sa portée territoriale s'étend donc aux plateformes en ligne établies dans d'autres États membres.

Pourtant, la proposition de loi notifiée impose des obligations24(*) potentiellement très lourdes aux plateformes en ligne. Ces mesures constituent une restriction à la prestation transfrontalière des services.

Les seuils prévus pour s'assurer de la proportionnalité de ces obligations sont sans incidence sur le fait qu'un nombre significatif de plateformes sera touché par ces restrictions. Au surplus, ledit seuil d'activité ne résulte d'aucune analyse d'impact quantitative ni qualitative ; aucune information n'a été fournie afin de justifier une corrélation directe entre le nombre de connexions depuis le territoire français et la taille de la plateforme en ligne.

- Absence de motifs valables pour déroger à ce principe (Article 3(4))

Toute dérogation au principe du pays d'origine doit être ciblée (« prise à l'encontre d'un service de la société de l'information ») et proportionnelle à l'objectif poursuivi.

En ce qui concerne le caractère ciblé des mesures, la Commission n'est pas convaincue que cette exigence soit satisfaite en l'espèce. Elle a également des doutes en ce qui concerne la proportionnalité de cette mesure.

Violation du régime de responsabilité aménagée des hébergeurs
et de l'interdiction d'instaurer une surveillance généralisée des réseaux

(Articles 14 et 15 de la directive sur le commerce électronique)

La directive sur le commerce électronique prévoit, sous certaines conditions, une exclusion de responsabilité pour les fournisseurs de services d'hébergement. Pour en bénéficier, un fournisseur de services d'hébergement se doit d'agir « promptement » pour retirer les informations ou rendre l'accès à celles-ci impossible lorsqu'il en a effectivement connaissance.

- L'allègement des notifications : une violation des règles permettant de présumer une prise de connaissance avérée des fournisseurs de services d'hébergement et ainsi d'engager leur responsabilité

Du point de vue de la Commission, les conditions minimales de notification prévues dans la proposition de loi (articles 1er bis et 1er ter A) ne respecteraient pas les normes établies par la CJUE et les recommandations de la Commission en la matière : elle n'impose en effet plus d'identifier ni l'emplacement exact du contenu illicite, ni les dispositions légales prétendument enfreintes.

- L'obligation d'agir dans un délai fixé (24 h) : une charge excessive, un risque de sur-blocage et d'atteinte à la liberté d'expression

Selon la directive, un service d'hébergement est tenu d'agir promptement après notification ; ce délai doit être proportionné et raisonnable compte tenu, notamment, du contenu illicite concerné. Il doit également permettre une certaine flexibilité dans certains cas justifiés.

La Commission estime qu'il est peu probable que les rares garanties prévues (retrait limité au « manifestement illicite », contre-notifications) soient suffisantes afin de supprimer le risque de sur-blocage et d'atteinte à la liberté d'expression dû à l'établissement d'un délai fixe aussi court (24 heures) et aux lourdes sanctions prévues.

- L'obligation d'empêcher la réapparition de contenus haineux : une violation de l'interdiction d'instaurer des obligations générales de surveillance

Selon la proposition de loi (article 2), les plateformes en ligne seraient tenues de mettre en oeuvre les moyens appropriés pour empêcher la rediffusion de tout contenu supprimé ou déréférencé.

Pour respecter cette obligation, les plateformes en ligne pourraient en pratique être contraintes d'appliquer un filtrage automatique et général de tout leur contenu. La proposition de loi ne fournit pas des garanties appropriées et proportionnées à cet égard.

Le champ d'application du texte inclut également des types de contenus nécessitant une évaluation approfondie de leur contexte pour être qualifiées d'illicites. La proposition de loi risque ainsi :

- d'entraîner la suppression de contenus licites et par conséquent de porter atteinte à la liberté d'expression ;

- de porter atteinte à la protection de la vie privée et des données à caractère personnel des utilisateurs ;

- et de porter atteinte à la liberté d'entreprise des plateformes en ligne.

Rappelant l'existence de plusieurs initiatives législatives européennes en cours, la Commission européenne a invité formellement la France à surseoir à l'adoption de ce texte.

Pressé par votre rapporteur qui souhaitait connaître le contenu de ces observations, l'analyse que le Gouvernement en faisait et les suites qu'il comptait y donner, le cabinet du secrétaire d'État au numérique a refusé de les lui transmettre25(*), tout en l'assurant lors de son audition qu'il en serait tenu compte pour procéder à quelques ajustements marginaux, sans remettre en cause sa détermination à faire rapidement aboutir la proposition de loi.

Malgré les questions de votre rapporteur, le Gouvernement a ainsi été incapable de détailler la nature des ajustements requis - ni même de dévoiler le calendrier selon lequel il envisageait d'apporter ces corrections.

Il n'a pas non plus donné suite à la suggestion du président de la commission des lois, Philippe Bas, de lever la procédure accélérée pour permettre, grâce à la poursuite de la navette, d'envisager sereinement de nouvelles solutions plus conformes au droit.

Dès lors, le dispositif prévoyant une nouvelle sanction pénale proposé par l'article 1er restant manifestement encore inabouti - trop déséquilibré aux dépens de la liberté d'expression, probablement inapplicable et contraire au droit européen -, votre rapporteur n'a pu que proposer au Sénat sa suppression (amendement COM-26).

Certaines dispositions intéressantes méritant cependant d'être conservées ou améliorées, votre commission les a intégrées, à l'initiative du rapporteur, au régime général prévu par la LCEN, en prévoyant ainsi :

- la substitution de messages aux contenus haineux retirés et la possibilité (et non l'obligation) de leur conservation en vue d'enquêtes judiciaires ;

- l'ajout des injures publiques à caractère discriminatoire et du négationnisme aux contenus devant faire l'objet d'un dispositif technique de notification spécifique mis en place par les hébergeurs.

Enfin, l'intitulé du chapitre Ier de la proposition de loi a été adapté pour tenir compte de ces modifications.

Votre commission a adopté l'article 1er ainsi modifié.

Article 1er bis (supprimé)
Formalisme de la nouvelle procédure de notification
d'un contenu manifestement haineux

L'article 1er bis de la proposition de loi fixe un formalisme allégé pour la nouvelle procédure de notification des contenus haineux auprès des opérateurs de plateforme en ligne à fort trafic.

Par cohérence avec la suppression de la procédure spécifique de signalement de certains contenus haineux auprès des plateformes à fort trafic, à l'article 1er, votre commission a supprimé le présent article dont les dispositions fixaient un formalisme particulièrement allégé pour ces notifications.

Adoptant en conséquence les amendements identiques COM-27 de votre rapporteur et COM-2 de notre collègue Jean-Pierre Grand, votre commission a supprimé l'article 1er bis.

Article 1er ter A
(art. 6 de la loi n° 2004-575 pour la confiance dans l'économie numérique)
Simplification du formalisme des notifications prévues par la LCEN pour engager de la responsabilité des hébergeurs à raison de contenus illicites

Introduit par un amendement du Gouvernement en séance à l'Assemblée nationale, l'article 1er ter A de la proposition de loi tend à faciliter la procédure de notification des contenus illicites auprès des hébergeurs prévue par la loi pour la confiance dans l'économie numérique (LCEN), en réduisant les informations à fournir par les notifiants.

1. Les notifications prévues par la LCEN : un formalisme rigoureux pour engager de la responsabilité des hébergeurs à raison de contenus illicites

La directive « e-commerce »26(*) et la loi du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN) qui la transpose27(*) ménagent un régime de responsabilité atténuée en faveur des hébergeurs. En raison de la nature même de leur activité, qui rend techniquement et économiquement difficile le contrôle de la totalité des contenus stockés, et pour éviter une surveillance généralisée des réseaux qui découlerait d'une responsabilité solidaire et automatique du fait de tous ces contenus, l'engagement de leur responsabilité civile ou pénale est notamment tributaire de la connaissance qu'ils ont, ou pas, du caractère illicite d'un contenu donné.

Les prestataires de services d'hébergement ne peuvent ainsi voir leur responsabilité engagée dans deux hypothèses :

- en l'absence de connaissance de l'illicéité des contenus stockés ;

- en cas de connaissance de l'illicéité manifeste des contenus stockés, s'ils ont procédé promptement à leur retrait.

La philosophie de la directive « e-commerce » repose donc sur le fait que l'illicéité de certains contenus stockés a vocation à être portée à la connaissance des hébergeurs soit à la suite de démarches effectuées de leur propre initiative (les grandes plateformes déploient ainsi des dispositifs automatisés de reconnaissance de certains contenus), soit via les notifications qui leur sont adressées par des tiers.

Ces signalements de contenus illicites ne faisant pas l'objet de développements spécifiques dans la directive « e-commerce », une certaine latitude a été laissée en la matière aux États membres.

En France, pour faciliter l'engagement de la responsabilité des hébergeurs, la LCEN a instauré une présomption de connaissance par ceux-ci de l'existence d'un contenu dès lors que la notification qui leur est adressée comprend certains éléments précis (sur leur auteur, le contenu notifié, l'illicéité alléguée, et les démarches préalables entreprises).

En outre, tout en excluant de mettre à leur charge une obligation générale de surveillance des informations qu'ils traitent, la LCEN soumet les intermédiaires techniques à une obligation particulières de collaboration à la lutte contre certains contenus odieux28(*) et contre les activités illégales de jeux d'argent. À ce titre, fournisseurs d'accès internet comme hébergeurs doivent mettre en place un dispositif de signalement, « facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données », spécifique pour ces infractions.

La méconnaissance de cette obligation est pénalement sanctionnée par un an d'emprisonnement et de 75 000 euros d'amende ou, dans le cas de personnes morales, une amende de 375 000 euros.

2. Une simplification bienvenue qui doit toutefois respecter le droit européen et mieux tenir compte des facilités techniques offertes par les plateformes

L'Assemblée nationale a adopté en séance un amendement du Gouvernement simplifiant drastiquement le formalisme des « notifications LCEN » : les données relatives au notifiant seraient considérablement réduites (l'adresse électronique remplaçant par exemple l'indication des professions, domicile, nationalité, lieu et date de naissance des personnes physiques), l'exigence de « localisation précise » du contenu litigieux disparaîtrait, tout comme celle d'indiquer les dispositions légales violées.

Votre rapporteur salue cette démarche de simplification des mécanismes de notification des contenus, qui doit permettre de faciliter les signalements en évitant un formalisme parfois trop fastidieux qui peut décourager certaines victimes.

Dans ses observations, la Commission européenne estime toutefois que la rédaction envisagée par l'Assemblée nationale risque de ne pas respecter les exigences de la directive « e-commerce ».

Selon elle : « contrairement à la norme établie actuellement dans la LCEN, il ne serait pas nécessaire pour une notification d'identifier l'emplacement exact du contenu faisant l'objet de ladite notification. La recherche active d'un tel emplacement incombe ainsi à la plateforme, qui devra par exemple parcourir de nombreux contenus (comme de longues vidéos ou de longs textes). De plus, le projet notifié supprimerait l'exigence actuelle prévue par la LCEN permettant d'identifier les dispositions légales prétendument enfreintes. Ceci impliquerait que les plateformes en ligne pourraient être amenées à évaluer toutes les dispositions nationales concernant toutes les catégories de contenus relevant de l'article premier »

Dès lors, à l'initiative de votre rapporteur, votre commission a adopté un amendement COM-28 qui, outre une correction rédactionnelle, rétablit l'exigence que la notification, pour valoir présomption de connaissance du contenu signalé auprès des hébergeurs, indique bien :

- premièrement, la localisation précise du contenu,

- et, deuxièmement, les motifs juridiques de l'illicéité alléguée.

Toutefois, par souci de simplicité, votre rapporteur a souhaité tenir compte des possibilités techniques désormais offertes par la plupart des grandes plateformes en réservant explicitement les cas où :

- un dispositif technique directement accessible depuis le contenu litigieux permet de procéder précisément à la notification (la première exigence devrait alors être considérée comme remplie) ;

- la plateforme a prévu un dispositif technique de notification proposant d'indiquer la catégorie d'infraction à laquelle peut être rattaché ledit contenu litigieux (la seconde exigence devrait ainsi être considérée comme remplie).

En outre, il a souhaité dispenser les personnes notifiant des contenus odieux de l'obligation qui leur est faite, sous le régime actuel, d'apporter la preuve des démarches entreprises pour contacter préalablement l'auteur des propos litigieux. Cette exigence de la LCEN est une « sur-transposition » qui ne figure pas dans la directive « e-commerce » et ne résulte ni de la jurisprudence ni des lignes directrices de la commission européenne. Elle ne constitue pas une garantie pour les hébergeurs et, dans le cas très particulier des contenus odieux, obligerait indument les victimes à poursuivre un contact malvenu avec l'auteur de propos haineux.

Votre commission a adopté l'article 1er ter A ainsi modifié.

Article 1er ter B
(art. 6-2 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Notification de contenus haineux par une association
de protection de l'enfance saisie par un mineur

L'article 1er ter B de la proposition de loi ouvre aux associations de protection de l'enfance sur internet la possibilité de notifier un contenu haineux lorsqu'elles en sont saisies par un mineur.

Figurant parmi les utilisateurs les plus actifs des réseaux sociaux, les mineurs sont particulièrement exposés aux cyberviolences et, plus généralement aux contenus illicites. Sans avoir un caractère statistiquement représentatif, une enquête29(*) réalisée dans les établissements où l'association Génération numérique intervient permet de dresser un premier tableau du phénomène : plus de la moitié des jeunes seraient exposés à des propos haineux sur internet, la tranche d'âge des 15-18 ans étant davantage confrontée aux contenus choquants que celle des 11-14 ans (du fait notamment de sa forte présence sur les réseaux sociaux). Si 42 % des mineurs exposés à des propos choquants sur internet déclare ne pas réagir, c'est à 29 % parce qu'ils ne savaient pas comment répondre, et pour 25 % parce qu'ils considèrent que c'est inutile.

Fruit de réflexions transpartisanes, le présent article, introduit en séance à l'Assemblée nationale, entend dès lors donner un fondement législatif à l'action de certaines associations qui proposent de servir d'interface aux mineurs pour effectuer, à leur place ou en leur nom, la notification auprès des hébergeurs des infractions dont ils sont victimes ou témoins sur internet. Les mineurs bénéficient ainsi de l'appui moral et technique de professionnels qui ont une plus grande familiarité avec les dispositifs de notification, savent plus aisément qualifier juridiquement les propos litigieux, et peuvent leur proposer écoute et conseils pour y faire face.

L'association e-Enfance, reçue en audition par votre rapporteur, opère ainsi un numéro national gratuit et confidentiel (12 000 appels en 2019) ainsi qu'un site internet. Elle bénéficie du statut de « signaleur de confiance » (« trusted flagger ») auprès de la plateforme publique PHAROS et de certains grands opérateurs privés (comme YouTube, par exemple), permettant un traitement accéléré des signalements qui font l'objet d'une pré-qualification juridique.

Le dispositif adopté prévoit ainsi de consacrer dans la loi de telles initiatives en précisant les rôles et obligations respectifs de ces associations (condition d'agrément ; information à chaque stade de la procédure du mineur qui l'a saisie et, obligatoirement, de ses représentants légaux ; conservation des données) et des plateformes (accusé de réception ; obligation de réponse et d'information sur les suites données à la notification).

Lors de leurs auditions, les associations de protection de l'enfance sur internet se sont cependant inquiétées auprès de votre rapporteur de ce que, dans de nombreux cas, les contenus litigieux qui leurs sont signalés pour en obtenir le retrait font référence à la vie affective et aux pratiques ou orientations sexuelles - vraies ou supposées - des victimes mineures, qui ne souhaitent parfois pas les voir dévoilées de cette façon. En l'état, le dispositif proposé risquerait donc de décourager lesdits mineurs de recourir à ces associations pour leur venir en aide.

Pour répondre à ce problème sans revenir sur l'indispensable information due aux représentants légaux, votre commission a adopté l'amendement COM-30 de son rapporteur qui prévoit une exception limitée au cas où cela serait contraire à l'intérêt de l'enfant.

Au bénéfice d'un amendement COM-29 de cohérence rédactionnelle de son rapporteur, votre commission a adopté l'article 1er ter B ainsi modifié.

Article 1er ter (supprimé)
Sanction des notifications abusives ou malveillantes

L'article 1er ter de la proposition de loi tend à créer un délit de signalement abusif d'un contenu sur la base du dispositif prévu à l'alinéa 3 de l'article 1er de la proposition de loi. Le fait de signaler un contenu comme étant illicite alors que l'inexactitude de ce fait est connue serait sanctionné d'un an d'emprisonnement et de 15 000 euros d'amende.

Cet article reprend la sanction figurant au 4 du I. de l'article 6 de la LCEN qui punit « le fait, pour toute personne, de présenter [...] un contenu ou une activité comme étant illicite dans le but d'en obtenir le retrait ou d'en faire cesser la diffusion, alors qu'elle sait cette information inexacte » « d'une peine d'un an d'emprisonnement et de 15 000 euros d'amende ».

Par cohérence avec la suppression du dispositif auquel cette infraction est liée et dans la mesure où un dispositif équivalent existe déjà dans la LCEN, votre commission a adopté les amendements identiques COM-31 de son rapporteur et COM-4 de notre collègue Jean-Pierre Grand, et supprimé cet article.

CHAPITRE II
DEVOIR DE COOPÉRATION DES OPÉRATEURS
DE PLATEFORME DANS LA LUTTE CONTRE
LES CONTENUS HAINEUX EN LIGNE

Article 2
(art. 6-2 et 6-3 [nouveaux] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Obligations de moyens mises à la charge des plateformes en matière de traitement des notifications de contenus haineux en ligne

L'article 2 de la proposition de loi vise à organiser une régulation administrative des grandes plateformes en mettant à leur charge de nouvelles obligations de moyens en matière de traitement des notifications de contenus haineux en ligne.

Celles-ci doivent notamment prévoir un dispositif technique de notification directement accessible depuis les contenus, l'envoi d'un accusé de réception et d'informations sur les suites données, la mobilisation de moyens humains et technologiques adaptés à leur traitement rapide, et un mécanisme pour contester les décisions de retrait ou de maintien de contenus.

Votre rapporteur estime que l'imposition d'obligations de moyens sous la supervision d'un régulateur armé de sanctions dissuasives est effectivement la solution la plus pertinente pour contraindre les grandes plateformes à une lutte plus efficace contre les discours de haine véhiculés sur les réseaux.

Par une première série de modifications, la commission des lois a souhaité mieux définir le champ des opérateurs concernés par la nouvelle régulation des plateformes qui seront désormais assujettis à des obligations de moyens renforcés, sous la supervision du CSA (amendements COM-32 du rapporteur, COM-56 de notre collègue Yves Bouloux, rapporteur pour avis au nom de la commission des affaires économiques) :

D'une part, sont repris les principaux éléments de la proposition de loi transmise en incluant les réseaux sociaux à forts trafic (dépassant un seuil d'activité fixé par décret pris en Conseil d'État), mais en excluant les moteurs de recherche (en raison de leur rôle bien moins déterminant que les réseaux dans la propagation de la haine, et surtout de leurs caractéristiques techniques différentes - qui rend quasiment impossible de désindexer un seul propos haineux précis sans rendre inaccessible tout le reste d'une page ou d'un site pourtant licite).

D'autre part, est introduit un critère plus souple de « viralité » permettant au CSA d'attraire dans le champ de sa régulation un site ou service qui, bien qu'ayant une activité moindre, joue pourtant un rôle significatif dans la diffusion en ligne des propos haineux en raison :

- de l'importance de son activité, notamment la portée de son audience, le nombre de ses utilisateurs ou sa part de marché sur son secteur,

- et de la nature technique du service proposé, notamment l'implication des utilisateurs dans la production et la diffusion de contenu, ou la facilité de partage automatisé et massif de contenus.

Une deuxième série de modifications apportées au texte par la commission vise à tenir compte des observations de la commission européenne et à rendre ce dispositif plus respectueux du droit européen :

- en proportionnant les obligations mises à la charge des plateformes au risque d'atteinte à la dignité humaine (amendements COM-33 du rapporteur, COM-57 de notre collègue Yves Bouloux, rapporteur pour avis au nom de la commission des affaires économiques, et sous-amendement COM-55 rect. de notre collègue Thani Mohammed Soilihi) ;

- et en écartant toute obligation générale de surveillance des réseaux (amendements identiques COM-37 du rapporteur, COM-58 de notre collègue Yves Bouloux, rapporteur pour avis au nom de la commission des affaires économiques et COM-24 rect. de notre collègue Thani Mohammed Soilihi, qui suppriment l'obligation générale faite aux plateformes d'empêcher la réapparition de tout contenu illicite - « notice and stay down » contraire au droit européen).

Une troisième série de modifications ont été adoptées par la commission afin de clarifier les procédures de notifications (amendements COM-35 et COM-36 du rapporteur):

- en prévoyant une exigence générale de célérité dans les accusés de réception ("sans délai"/"promptement") ; cette souplesse, dont la commission européenne rappelle la nécessité dans ses observations, sera appréciée de façon globale par le régulateur, le CSA pouvant naturellement sanctionner des délais moyens trop longs; 

- en supprimant l'information systématique de l'auteur du contenu litigieux au stade de la simple notification par un tiers ; une telle obligation est en effet contreproductive, risquant de soumettre les auteurs de contenus licites mais polémiques à une forme de spam voire à des "raids numériques" (l'information des auteurs de contenus doit intervenir s'ils sont effectivement retirés, et non dès le stade de la notification par un tiers avant tout examen par la plateforme) ;

- en clarifiant la procédure de contre-notification ou d'appel (qui suit le retrait par une plateforme d'un contenu illicite ou son refus), pour préciser que l'auteur d'un contenu retiré doit être informé de cette décision et des raisons qui l'ont motivée, ainsi que de la possibilité de la contester. Est toutefois également ménagée une importante exception d'ordre public à cette obligation d'information, pour préserver les enquêtes en cours.

Au bénéfice d'un amendement COM-34 de clarification rédactionnelle du rapporteur, votre commission a adopté l'article 2 ainsi modifié.

Article 3
(art. 6-3 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Autres obligations de moyens mises à la charge des plateformes en matière d'information et de coopération avec les autorités

L'article 3 de la proposition de loi complète les nouvelles obligations de moyens imposées aux plateformes en ligne par des exigences d'information publique des utilisateurs sur la modération (règles, recours, sanctions), de transparence et de coopération avec les autorités (signalements aux autorités publiques et désignation d'un représentant légal en France).

Cet article regroupe ainsi les autres obligations de moyens imposées aux grandes plateformes en ligne :

- information publique, claire et détaillée, sur les modalités de modération ;

- transparence des moyens humains et technologiques ainsi que de procédures consacrées à la lutte contre la haine en ligne ;

- sensibilisation spécifique des mineurs et de leurs parents lors de l'inscription à leur service ;

- prompte information des autorités publiques sur les contenus qui leurs sont notifiés ;

- désignation d'un représentant légal, interlocuteur référent sur le territoire français, dont les missions consisteront à mettre en oeuvre ces obligations et à répondre aux demandes de l'autorité judiciaire ;

- formulation simple et non discriminatoire des conditions générales d'utilisation de leurs services relatives aux contenus haineux.

Au bénéfice de quatre amendements de clarification rédactionnelle (COM-38, COM-39, COM-40 et COM-41 du rapporteur), votre commission a adopté l'article 3 ainsi modifié.

Article 3 bis
(art. 6 de la loi n° 2004-575 pour la confiance dans l'économie numérique)
Renforcement de l'amende pour non-coopération
avec l'autorité judiciaire en matière de lutte
contre les contenus illicites

L'article 3 bis de la proposition de loi est issu de l'adoption par la Commission des lois de l'Assemblée nationale d'un amendement de la rapporteure. Il reprend le I de l'article 5 de la proposition de loi initiale, qui vise à tripler le montant de l'amende encourue en cas de méconnaissance, par un acteur numérique, de ses obligations de coopération avec l'autorité judiciaire en matière de lutte contre les contenus illicites.

Le 1 du VI de l'article 6 de la LCEN prévoit les sanctions applicables aux personnes physiques et morales qui :

- n'ont pas satisfait aux obligations définies aux quatrième et cinquième alinéas du 7 du I de l'article ;

- n'ont pas satisfait à celles prévues à l'article 6-1 de la loi ;

- n'ont pas conservé les éléments d'information visés au II de l'article ;

- ou n'ont pas déféré à la demande d'une autorité judiciaire d'obtenir communication desdits éléments.

En l'état du droit, les quatrième et cinquième alinéas du 7 du I de l'article 6 de la LCEN prévoient l'obligation pour les personnes visées par la LCEN de mettre en place un dispositif facilement accessible et visible. Ce dispositif doit permettre à toute personne de porter à leur connaissance certains contenus illicites liés à des infractions d'une particulière gravité (visées par la loi du 29 juillet 1881 sur la liberté de la presse et le code pénal). Elles ont également l'obligation, d'une part, d'informer promptement les autorités publiques compétentes de toutes activités illicites qui leur seraient signalées à ce titre, et, d'autre part, de rendre publics les moyens qu'elles consacrent à la lutte contre ces activités illicites.

Ces mêmes obligations sont prévues pour la protection des usagers contre les sites de jeux d'argent illégaux et la dénonciation de ces sites aux autorités.

La proposition de loi prévoit par ailleurs dans son article 1er que ces sanctions s'appliqueront également en cas de non retrait en 24 heures de ces contenus illicites par les plateformes en ligne.

Cet article propose de porter le montant de l'amende prévue pour les personnes physiques à 250 000 euros, ce qui, en application de l'article 131-38 du code pénal, porterait l'amende à 1 250 000 euros pour les personnes morales.

Votre commission estime proportionnée cette augmentation des sanctions à l'égard des personnes visées par la LCEN. Elle considère toutefois que, par cohérence, cette augmentation doit s'appliquer non seulement aux opérateurs de plateformes (commerciales ou non) et aux fournisseurs d'accès internet mais également aux éditeurs de sites internet qui sont visés au 2 du VI de l'article 6.

Elle a, en conséquence, adopté l'amendement COM-42 de votre rapporteur, afin que l'amende prévue soit également applicable aux éditeurs de services en lignes.

Votre commission a adopté l'article 3 bis ainsi modifié.

CHAPITRE III
RÔLE DU CONSEIL SUPÉRIEUR DE L'AUDIOVISUEL
DANS LA LUTTE CONTRE
LES CONTENUS HAINEUX EN LIGNE

Article 4
(art. 17-3 [nouveau], 19 et 42-7 de la loi n° 86-1067 relative à
la liberté de communication ; art. 6-1 de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Nouvelles missions du CSA :
surveillance des obligations à la charge des plateformes, recommandations, pouvoirs de contrôle et de sanction ;
contrôle du blocage administratif des sites terroristes
ou pédopornographiques

L'article 4 de la proposition de loi tend à confier au Conseil supérieur de l'audiovisuel (CSA) la régulation des grands opérateurs de plateformes pour contribuer à la lutte contre les contenus haineux sur internet : suivi des obligations de moyens mises à leur charge, édiction de recommandations, pouvoir de sanction en cas de manquement. Cette autorité administrative indépendante se verrait également attribuer le contrôle du blocage administratif des sites terroristes ou pédopornographiques.

1. Une nouvelle extension des compétences du CSA en matière de régulation des plateformes

Le CSA est le régulateur du secteur audiovisuel. À ce titre, il « garantit l'exercice de la liberté de communication audiovisuelle par tout procédé de communication électronique »30(*), et s'assure de façon générale du respect et de la conciliation de plusieurs grands principes : égalité de traitement, indépendance et impartialité du secteur public de la communication audiovisuelle, qualité et diversité des programmes, honnêteté, indépendance et pluralisme de l'information, promotion de la cohésion sociale, lutte contre les discriminations et respect des droits des femmes dans le domaine de la communication audiovisuelle.

Certaines de ses compétences comportent ainsi une dimension impliquant la défense de droits ou libertés fondamentaux (défense du pluralisme31(*), respect de la dignité humaine32(*), etc.)

Un pas important a été récemment franchi dans ce domaine, lorsque les missions du CSA ont été étendues pour en faire le régulateur de la lutte contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou de porter atteinte à la sincérité des scrutins. À ce titre, la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information a :

- d'une part, mis à la charge des opérateurs de plateformes des obligations nouvelles (moyens techniques de signalements et transparence) ;

- et, d'autre part, doté le régulateur de nouvelles prérogatives (adresser, en cas de nécessité des recommandations aux opérateurs de plateforme en ligne; pouvoir s'assurer du suivi des obligations en recueillant toute information auprès des opérateurs ; publier un bilan périodique des mesures prises et de leur effectivité).

S'inspirant de ce mode de régulation, la proposition de loi transmise entend désormais charger également le CSA de veiller au respect du devoir de coopération des opérateurs en matière de lutte contre la haine en ligne. Son article 4 tend ainsi à insérer les prérogatives du régulateur en la matière dans un nouvel article 17-3 de la loi du 30 septembre 1986 précitée, calqué sur l'article 17-2 de la même loi consacré à la lutte contre les fausses informations.

Ne relèveraient de sa régulation que les opérateurs soumis aux obligations de moyens renforcées de coopération dans la lutte contre les contenus haineux (énoncées à l'article 6-3 de la LCEN, dans sa rédaction résultant des articles 2 et 3 du présent texte).

Il disposerait d'un pouvoir d'orientation, pouvant adresser en cas de nécessité aux opérateurs de plateformes, outre des recommandationsdes bonnes pratiques et des lignes directrices.

En cas de non-respect par un opérateur du devoir de coopération, le CSA pourrait également engager une procédure de sanction. Pour caractériser un manquement, le CSA devrait se fonder :

- d'une part, sur la façon dont l'opérateur exécute ses obligations de moyens ;

- et d'autre part, sur la manière dont l'opérateur se conforme aux recommandations émises par le Conseil pour s'assurer du respect desdites obligations ainsi que de celles relatives au retrait de contenus en 24 heures ; à cette occasion, le Conseil devra apprécier « le caractère insuffisant ou excessif du comportement de l'opérateur en matière de retrait ».

Toute sanction serait conditionnée à une mise en demeure préalable.

Le texte fixe également la nature de la sanction (une amende administrative), son montant maximum (4 % du chiffre d'affaires annuel mondial de l'opérateur) et les règles de son prononcé (précisant que la sanction devant prendre en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré). Il autoriserait en outre la publication des mises en demeure et sanctions.

Il transfère également au CSA la compétence aujourd'hui confiée à une personnalité qualifiée de la CNIL pour contrôler le blocage et le déréférencement administratifs de sites terroristes ou pédopornographiques.

2. La position de votre commission

La mission régulatrice du CSA a été précisée par votre commission par l'adoption de trois amendements (COM-16, 17 et 18) de notre collègue Catherine Morin-Desailly, rapporteure pour avis au nom de la commission de la culture, visant respectivement à :

réaffirmer son rôle comme instance de supervision « systémique », chargée de vérifier et d'imposer le respect des obligations de moyens à la charge des plateformes, et non comme instance d'appel dans un litige sur un cas concret de modération de contenu, comme l'envisageait la proposition de loi initiale ;

- mieux aligner la typologie des outils de régulation créés par la proposition de loi sur les pratiques actuelles du CSA, en ne conservant que les « recommandations » comme outil d'orientation et de droit souple ; 

- et clarifier la procédure de sanction applicable aux opérateurs qui ne se conformeraient pas aux obligations de coopération et de moyens.

Les modalités selon lesquelles sont rendues publiques les décisions prononcées par le CSA à l'encontre des opérateurs ont été précisées, afin de faire de la publicité des mises en demeures et des sanctions une faculté et non une obligation, sur le modèle des pouvoirs de sanction actuellement reconnus à la formation restreinte de la CNIL (amendement COM-44 du rapporteur, amendement COM-19 de notre collègue Catherine Morin-Desailly, rapporteure pour avis au nom de la commission de la culture, et sous-amendement COM-54 du rapporteur).

Enfin, les missions confiées au CSA afin d'encourager certaines pratiques des plateformes ont été précisées et enrichies :

- pour renforcer l'efficacité de la coopération entre plateformes, la commission a souhaité que le CSA puisse les inciter à mettre en place des outils de partage d'information sur les contenus haineux illicites (amendements COM-59 de notre collègue Yves Bouloux, rapporteur pour avis au nom de la commission des affaires économiques) ;

- pour lutter plus efficacement contre la « viralité » de certains contenus haineux, la commission a également prévu que le CSA encourage les plateformes à prévoir des dispositifs techniques de désactivation rapide de certaines fonctionnalités de rediffusion massive des contenus (amendement COM-60 du rapporteur). Ces limitations de la viralité n'auraient vocation à être activées que de façon proportionnée, dans certaines circonstances, par exemple lorsque les contenus font l'objet de signalements nombreux et répétés par des « signaleurs de confiance », ou lorsque ces contenus litigieux émanent de comptes récidivistes ayant déjà facilité la diffusion de contenus illicites ;

- la commission a enfin souhaité intégrer l'interopérabilité parmi les outils du nouveau régulateur des grandes plateformes. Face à des grandes plateformes dont le modèle, fondé sur « l'économie de l'attention », tend à valoriser la diffusion des contenus les plus clivants, l'interopérabilité doir permettre aux victimes de haine de se « réfugier » sur d'autres plateformes avec des politiques de modération différentes, tout en pouvant continuer à échanger avec les contacts qu'elles avaient noués jusqu'ici, (amendement COM-61 du rapporteur). Il s'agit de la traduction d'une recommandation de la commission d'enquête du Sénat sur la souveraineté numérique qui avait été appuyée par plusieurs organisations professionnelles du numérique, des hébergeurs et FAI associatifs, et certaines organisations de défense des libertés sur Internet.

Au bénéfice de deux amendements de cohérence rédactionnelle (COM-43 et COM-45) du rapporteur, votre commission a adopté l'article 4 ainsi modifié.

Article 5 (suppression maintenue)
Coopération avec l'autorité judiciaire

Les dispositions de l'article 5 ont été déplacées au sein de la proposition de loi (aux articles 3 et 3 bis) par la commission des lois de l'Assemblée nationale, qui l'a donc supprimé.

Votre commission a maintenu la suppression de l'article 5.

CHAPITRE IV
AMÉLIORATION DE LA LUTTE CONTRE LA DIFFUSION DE CONTENUS HAINEUX EN LIGNE

Article 6 (supprimé)
Simplification de la procédure de blocage et
de déréférencement des sites haineux
(directement auprès des FAI, sans subsidiarité ;
sur injonction administrative contre les sites ou serveurs miroirs)

L'article 6 de la proposition de loi entend simplifier les conditions permettant de solliciter blocage judicaire de contenus illicites et autoriser des injonctions administratives de blocage aux fournisseurs d'accès pour rendre inaccessibles certains sites reproduisant des contenus haineux.

Les dispositifs juridiques de blocage de contenus illicites sur internet

1. « Référé internet » et référés spécifiques : des blocages ciblés sous le contrôle du juge judiciaire

Le blocage judiciaire de contenus illicites est expressément prévu par la LCEN : « l'autorité judiciaire peut prescrire en référé ou sur requête [à tout hébergeur] ou, à défaut, [tout fournisseur d'accès à internet] toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d'un service de communication au public en ligne » (8 du I de l'article 6).

Ce « référé internet » relève de la compétence du juge civil qui peut l'ordonner à l'égard de tout type de contenu susceptible de causer un dommage à un tiers ; en application de l'interdiction de mettre une obligation de surveillance générale à la charge des intermédiaires techniques, il doit demeurer limité dans son étendue matérielle et dans le temps.

Le législateur a instauré un principe de subsidiarité, dont la jurisprudence a inégalement tenu compte à ce jour : alors que certaines juridictions en font application stricte, pour la Cour de cassation, « la prescription de ces mesures n'est pas subordonnée à la mise en cause préalable des prestataires d'hébergement »

Distinct du référé de droit commun (art. 809 du code de procédure civile), il coexiste également avec d'autres référés spécifiques : le référé « droit d'auteur » (dans le domaine de la lutte contre la contrefaçon de droits d'auteur ou de droits voisins, en application de l'article L. 336-2 du code de la propriété intellectuelle), le référé spécial de la loi de 1881 (permettant l'arrêt d'un site internet en cas de trouble manifestement illicite résultant de messages constituant des infractions de presse particulièrement graves), le référé spécial autorisant le blocage d'un site internet provoquant au terrorisme ou en faisant l'apologie.

2. Le champ étroit du blocage administratif : une exception au contrôle du juge justifiée par l'extrême gravité et l'évidence des infractions combattues

La LCEN autorise l'administration à ordonner directement aux intermédiaires techniques le blocage de certains sites véhiculant des contenus de nature terroriste ou pédopornographique (article 6-1).

Cette exception au contrôle préalable par un juge des atteintes à la liberté d'expression est possible, exceptionnellement33(*), en raison du caractère particulièrement grave et d'évidence de l'illicéité alléguée.

L'administration responsable de l'émission et du suivi de ces notifications est l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC).

À ce titre, le blocage administratif est soumis à des conditions et garanties particulières :

- un principe de subsidiarité : l'autorité administrative doit d'abord demander aux éditeurs de service internet ou aux hébergeurs le retrait de ces contenus, en en informant simultanément les fournisseurs d'accès internet (FAI)34(*) ; c'est en l'absence de retrait de ces contenus dans un délai de 24 heures qu'elle peut notifier la liste des adresses des contenus incriminés aux FAI qui « doivent alors empêcher sans délai l'accès à ces adresses »,

- un contrôle administratif indépendant : une personnalité qualifiée, désignée en son sein par la Commission nationale de l'informatique et des libertés « s'assure de la régularité des demandes de retrait et des conditions d'établissement, de mise à jour, de communication et d'utilisation de la liste [liste des adresses des contenus incriminés]» et peut, à tout moment, recommander à l'autorité administrative d'y mettre fin, voire saisir la juridiction administrative si l'autorité administrative ne suit pas cette recommandation.

Pour la période s'étalant entre mars 2018 et février 2019, la personnalité qualifiée a recensé 18 014 demandes de retrait de contenus (10 091 de sites de nature terroriste et 7 923 de sites à caractère pédopornographique) pour 13 421 contenus retirés (6 796 sites de nature terroriste et 6 625 sites à caractère pédopornographique), 879 demandes de blocage (82 sites de nature terroriste et 797 sites à caractère pédopornographique) et 6 581 demandes de déréférencement (2 294 sites de nature terroriste et 3 587 sites à caractère pédopornographique).

3. Le blocage mixte, ordonné sur décision de l'autorité judiciaire sollicitée par l'autorité administrative

De création récente, ces dispositifs de blocage « mixtes » ont un caractère sectoriel :

- le référé « jeux en ligne », instauré en 2010, permet au président de l'Autorité de régulation des jeux en ligne, après avoir enjoint, en vain, les hébergeurs de prendre toute mesure propre à empêcher l'accès à un site de jeux ou de paris en ligne illégal, de demander au président du TGI de Paris d'ordonner aux FAI, en la forme des référés, l'arrêt de l'accès à ce site ainsi que « toute mesure destinée à faire cesser le référencement du site » de l'opérateur par un moteur de recherche ou un annuaire ;

- le référé « services d'investissement en ligne », ouvert depuis 2016 au bénéfice du président de l'Autorité des marchés financiers à l'égard des sites d'investissement en ligne illégaux est identique au référé « jeux en ligne », à l'exception de la possibilité de demander le déréférencement de ces sites 

- le référé « consommation », permet, depuis 2014, à la direction générale de la concurrence, de la consommation et de la répression des fraudes de saisir le président du TGI de Paris, en référé ou sur requête, afin qu'il ordonne aux hébergeurs ou aux FAI « toutes mesures proportionnées propres à prévenir un dommage ou à faire cesser un dommage causé par le contenu d'un service de communication au public en ligne ».

1. Le « principe de subsidiarité » dans le cadre du « référé internet » pour obtenir un blocage de contenus : une garantie dont la suppression n'est étayée par aucune évaluation ou étude d'impact

La nouvelle rédaction proposée pour le 8 du I de l'article 6 de la LCEN autoriserait le juge à prescrire toute mesure utile indifféremment à l'hébergeur ou au FAI. Selon la rapporteure de l'Assemblée nationale, cette mesure permettrait de clarifier le droit applicable, d'unifier la jurisprudence et d'accélérer la mise en oeuvre d'une décision de blocage judiciaire.

La commission a souhaité, au contraire, maintenir dans la LCEN la mention expresse du principe de subsidiarité, qui constitue une garantie pour la libre expression sur internet, estimant que sa suppression n'était pas suffisamment étayée à ce stade : outre que les blocages par les FAI sont souvent aisément contournables techniquement à l'aide de mesures désormais répandues même dans le grand public (modification des serveurs DNS, utilisation de services « VPN » - réseau privé virtuel, etc.), il paraît plus efficace pour la lutte contre la haine de s'en prendre à la cause et de faire supprimer matériellement les contenus illicites chez l'hébergeur concerné, avant de tenter d'en limiter le symptôme en restreignent leur diffusion par certains FAI.

2. Le blocage de contenus haineux reprenant ceux déjà jugés illicites : un objectif légitime, une rédaction à revoir

Le présent article étend la faculté de procéder au blocage ou au déréférencement de contenus jugés illicites, pour viser en particulier les « sites miroirs » dupliquant des contenus précédemment jugés comme tels.

Selon la rapporteure de l'Assemblée nationale, il s'agit de remédier aux insuffisances du droit actuel en matière de réapparition de contenus haineux jugés comme tels par une décision définitive de l'autorité judiciaire.

Votre rapporteur partage cet objectif d'efficacité, et il est particulièrement sensible aux difficultés rencontrées par nos services pour mettre fin à la réapparition incessante de sites véhiculant des propos pourtant maintes fois condamnés par nos juridictions35(*).

Il tient néanmoins à rappeler, comme le Conseil d'État dans son avis sur la proposition de loi initiale, le cadre constitutionnel contraignant dans lequel de telles demandes de blocage doivent impérativement s'inscrire : dès lors qu'il s'agit de porter atteinte à la liberté d'expression, « les exigences constitutionnelles ne permettent pas de procéder à l'interdiction de ces "contenus miroirs", quels que soient le degré et la gravité de leur illicéité, sans l'intervention d'un juge. »36(*)

Il estime donc d'autant plus regrettable les modalités peu convaincantes retenues pour introduire un nouveau système de « blocage administratif des sites miroirs ». Dans sa rédaction issue de l'Assemblée nationale, le II de cet article prévoit que l'administration puisse « demander » aux fournisseurs d'accès de bloquer l'accès à des contenus reprenant ceux déclarés illicites par un juge, sans préciser le statut ni le régime juridique de ces demandes. Dès lors :

- soit ces demandes administratives sont contraignantes pour les intermédiaires techniques, et elles sont alors largement disproportionnées (bloquer « tout site, tout serveur ou tout autre procédé électronique », c'est risquer la sur-censure de contenus pourtant licites, car une même adresse électronique et un même site ou serveur peuvent regrouper - à côté d'un seul contenu illicite - une pluralité de contenus tiers licites). La jurisprudence du Conseil constitutionnel, protectrice de la liberté d'expression et de l'office du juge en la matière, semble également faire obstacle à un tel régime administratif. Est omise du dispositif, enfin, la question de l'indemnisation des surcoûts exposés par les intermédiaires destinataires de ces demandes ;

- soit ces notifications ne sont pas contraignantes pour les intermédiaires techniques, elles ont le statut de simples informations, et alors l'administration demande au législateur de prévoir une pratique qu'elle peut pourtant mener de son propre chef... et qu'elle utilise d'ailleurs déjà (via l'OCLCTIC) sans avoir besoin pour ce faire de l'autorisation du législateur. Au surplus, une lecture littérale du texte semble subordonner désormais la possibilité pour l'administration de retourner devant un juge à l'envoi préalable de ces demandes aux FAI, ce qui n'est évidemment pas satisfaisant en termes d'efficacité.

Constatant que le dispositif proposé n'était à ce stade pas abouti, et dans l'espoir qu'une rédaction juridiquement plus satisfaisante en soit proposée par le Gouvernement lors de la discussion du texte en séance publique, votre commission a adopté l'amendement de suppression COM-46 du rapporteur.

Elle a en conséquence supprimé l'article 6.

Article 6 bis AA (nouveau)
Obligations de transparence à la charge des régies publicitaires

L'article 6 bis AA de la proposition de loi vise à mieux associer les régies publicitaires à la lutte contre le financement de sites facilitant la diffusion en ligne des discours de haine en renforçant les obligations de transparence à leur charge. Il résulte de l'adoption d'un amendement COM-22 rect. présenté par notre collègue Thani Mohamed Soilihi et les membres du groupe La République En Marche.

Comme le rappellent ses auteurs, le rapport de Karim Amellal, Laëtitia Avia, Gil Taïeb, Renforcer la lutte contre le racisme et l'antisémitisme sur Internet, remis le 20 septembre 2018, insiste sur la nécessité de lutter contre la publicité' sur des sites diffusant des discours de haine pour tarir, par ce biais, la source de leur financement. Il suggère pour ce faire d'inciter les annonceurs à rendre publique la liste des supports de leurs annonces publicitaires - et en particulier, les sites internet.

Les dispositions proposées visent donc à prévoir que le commissaire aux comptes attesterait désormais que l'annonceur publicitaire soit bien en possession de la liste des domaines et sous-domaines internet sur lesquels le vendeur d'espace publicitaire a diffusé des publicités. En cas de manquement de l'annonceur publicitaire à cette obligation, l'autorité administrative pourrait prononcer une sanction pécuniaire dont le montant prend en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré, sans pouvoir excéder 4 % du chiffre d'affaires annuel mondial total de l'exercice précédent.

Votre rapporteur soutient les modalités de lutte contre la haine en ligne qui visent à s'attaquer au financement de sites diffusant de façon quasi-professionnelle de tels discours (« follow the money ») et jouent sur le risque réputationnel pour les annonceurs (« name and shame »). Des initiatives comparables avaient été proposées lors de l'examen du texte à l'Assemblée nationale, mais retirées à la demande du Gouvernement.

Votre rapporteur entend aussi les inquiétudes des annonceurs - dont les représentants ont été reçus par notre collègues rapporteur pour avis de la commission des affaires économiques - face à une sanction dont le montant est considérable et un dispositif qui ne prend peut-être pas encore pleinement en compte ni la complexité de la chaîne des acteurs de la diffusion publicitaire ni leurs pouvoirs respectifs dans le choix concret des lieux d'exposition des messages publicitaires sur internet.

Néanmoins, bien que la rédaction proposée soit encore perfectible, la commission a souhaité, à ce stade, adopter cet amendement d'appel afin de lever la réticence du Gouvernement à faire au Parlement des propositions en la matière.

Votre commission a adopté l'article 6 bis AA ainsi rédigé.

CHAPITRE IV BIS
RENFORCEMENT DE L'EFFICACITÉ DE LA RÉPONSE PÉNALE À L'ÉGARD DES AUTEURS DE CONTENUS HAINEUX EN LIGNE

Article 6 bis A
(art. 15-3-3 [nouveau] du code de procédure pénale)
Spécialisation d'un parquet et d'une juridiction
en matière de lutte contre la haine en ligne

L'article 6 bis A de la proposition de loi, issu d'un amendement du Gouvernement adopté en séance publique à l'Assemblée nationale, permet de désigner par décret un tribunal de grande instance, soit une juridiction et un parquet, spécialisé en matière de lutte contre la haine en ligne.

Cette spécialisation n'entraîne pas d'unification du contentieux au sein de cette juridiction ou des poursuites à l'initiative de ce seul parquet, puisque la compétence exercée le sera de manière concurrente et permettra en conséquence de traiter les affaires dans le ressort le plus adéquat.

Cette compétence pourra être exercée pour le harcèlement sexuel commis par l'utilisation d'un service de communication au public en ligne ou par le biais d'un support numérique ou électronique (article 222-33 du code pénal), les raids numériques et le cyber harcèlement discriminatoire (articles 222-33-2-2, 132-76 et 132-77 du code pénal) dans les cas où une plainte en ligne aura été déposée.

Votre commission considère que la spécialisation concurrente d'une juridiction peut-être utile en matière de cyber harcèlement et se justifie d'autant plus avec le déploiement des dispositifs de plainte en ligne. Il est toutefois important de ne pas déposséder les juridictions en principe territorialement compétentes de ces contentieux. En l'état, le dispositif proposé par cet article paraît donc équilibré.

Approuvant un amendement de cohérence COM-47 présenté par votre rapporteur, votre commission a adopté cet article ainsi modifié.

Article 6 bis B
(art. 138 du code de procédure pénale; art. 132-45 et 131-4-1 du code pénal)
Possibilité de prononcer une interdiction
d'adresser des messages électroniques à une victime

L'article 6 bis B de la proposition de loi est issu d'un amendement de Mme Abadie adopté en séance publique à l'Assemblée nationale. Il se compose de trois parties.

1. Le dispositif adopté par l'Assemblée nationale

Le I. tend à introduire dans l'article 138 du code de procédure pénale la possibilité de prononcer dans le cadre du contrôle judiciaire l'interdiction d'adresser des messages de manière directe ou indirecte à la victime par tout moyen, y compris par voie électronique.

Le II. prévoit la possibilité de prononcer cette même interdiction dans le cadre de la condamnation ou de l'application des peines
(article 132-45 du code pénal).

Le I et le II reprennent les interdictions déjà prévues de contacter la victime qui figurent au 9° de l'article 138 du code de procédure pénale et au 13° de l'article 132-45 et dont la jurisprudence a établi qu'elles visaient également les communications électroniques.

Le III. dépasse par sa portée l'objet du texte examiné et permet de corriger une imprécision de la loi n°2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice concernant le bracelet électronique qui modifie l'article 131-4-1 du code pénal pour prévoir la peine de détention à domicile sous surveillance électronique. Il propose d'accorder au juge qui prononce cette peine la possibilité de prononcer également les mesures de contrôles prévues à l'article 132-44 et les obligations prévues à l'article 132-45 du même code.

2. La position de votre commission

Bien que les apports en matière de protection des victimes soient limités par rapport au droit existant, votre commission est favorable aux précisions apportées au I et II. de l'article. Le III. vise en fait à corriger une imperfection de la loi du 23 mars 2019 et, n'étant pas sans lien avec le texte, peut y trouver sa place.

Votre commission a adopté cet article modifié par un amendement COM-48 de cohérence.

Article 6 bis C (supprimé)
Compétence du juge unique en matière correctionnelle
à l'égard des refus de retrait d'un contenu haineux

L'article 6 bis C de la proposition de loi précise la compétence du juge unique en matière correctionnelle à l'égard des refus de retrait d'un contenu haineux. Il est issu de deux amendements identiques, l'un de MM. Mazars et Terlier et l'autre du Gouvernement, adoptés en séance publique à l'Assemblée nationale.

Le 1° entend confier à un juge unique en matière correctionnelle la compétence en matière de délit de non retrait d'un message illicite tel qu'il est prévu à l'article 1er de la proposition de loi.

Le 2° tend :

- d'une part à tirer les conséquences de la décision DC 2019-778 du 21 mars 2019 du Conseil constitutionnel en prévoyant que l'appelant d'une décision d'un juge unique disposera d'un mois pour demander que son affaire soit examinée par la cour dans une formation collégiale ;

- d'autre part, comme le 3°, à corriger une erreur de référence concernant le juge unique.

Tout en étant favorable au juge unique, votre commission a adopté l'amendement COM-49 du rapporteur, supprimant l'ensemble de ces dispositions par cohérence avec sa position sur le délit de non retrait d'un contenu illicite.

Elle a en conséquence supprimé cet article.

CHAPITRE IV TER
PRÉVENTION DE LA DIFFUSION
DE CONTENUS HAINEUX EN LIGNE

Article 6 bis
(art. L. 312-9 du code de l'éducation)
Sensibilisation des élèves à la lutte
contre la diffusion des contenus haineux en ligne

L'article 6 bis de la proposition de loi vise à préciser le contenu des programmes scolaires afin d'introduire la prévention de la diffusion de contenus haineux en ligne dans l'enseignement à l'utilisation des outils et des ressources numériques

Introduit à l'initiative de la commission des affaires culturelles et de l'éducation de l'Assemblée nationale, saisie pour avis, cet article complète les dispositions relatives à la formation à l'utilisation responsable des outils et des ressources numériques37(*) afin de mentionner expressément « la lutte contre la diffusion de messages haineux en ligne » dans le contenu de l'enseignement dispensé.

Tout en approuvant cet ajout, votre rapporteur relève qu'il revêt ici une portée essentiellement symbolique, la sensibilisation des élèves à la lutte contre la diffusion des contenus haineux en ligne faisant largement partie de la formation au numérique en milieu scolaire.

Votre commission a adopté l'article 6 bis sans modification

Article 6 ter A (nouveau)
(art. L. 121-1°du code de l'éducation)
Information sur les violences, y compris en ligne

L'article 6 ter A vise à inscrire dans le code de l'éducation la lutte contre la diffusion des contenus haineux en ligne dans la section du code de l'éducation relative à la formation à l'utilisation des outils et des ressources numériques.

Adoptées à l'initiative de notre collègue Jean-Pierre Grand (amendement COM-15), ces dispositions précisent que les écoles, les collèges et les lycées assurent une mission d'information sur les violences, y compris en ligne.

Votre commission a adopté l'article 6 ter A ainsi rédigé.

Article 6 ter
(art. L. 721-2°du code de l'éducation)
Formation des enseignants en matière de lutte
contre la diffusion des contenus haineux

L'article 6 ter de la proposition de loi vise à renforcer la formation des enseignants en introduisant la prévention de la diffusion de contenus haineux en ligne dans la formation délivrée par les instituts nationaux supérieurs du professorat et de l'éducation.

Introduit à l'initiative de la commission des affaires culturelles et de l'éducation de l'Assemblée nationale, saisie pour avis, cet article complète les missions des instituts nationaux supérieurs du professorat et de l'éducation38(*) pour mentionner expressément la « lutte contre la diffusion des contenus haineux ».

Les associations de protection de l'enfance sur internet entendues par votre rapporteur qui interviennent en milieu scolaire (Respect Zone, E-Enfance, Génération numérique) ont unanimement insisté sur le rôle du milieu scolaire et l'importance d'une meilleure formation des enseignants dans la maitrise des outils numériques et la prévention la diffusion des contenus haineux. Il est renvoyé à cet égard aux travaux de notre collègue Catherine Morin-Desailly, rapporteure pour avis au nom de la commission de la culture, et aux développements qu'elle y consacre dans son propre rapport.

Au bénéfice de l'amendement COM-50 du rapporteur corrigeant une erreur de référence, votre commission a adopté l'article 6 ter ainsi modifié.

CHAPITRE V
DISPOSITIONS FINALES

Article 7
Observatoire de la haine en ligne

L'article 7 de la proposition de loi tend à créer un observatoire de la haine en ligne.

S'il accepte volontiers l'utilité d'un tel observatoire pour éclairer le débat sur des enjeux juridiques et sociaux complexes de la lutte contre les contenus illicites sur internet, votre rapporteur éprouve certaines réserves sur l'utilité réelle de confier ainsi à la loi la création d'un organe purement consultatif et dénué d'autres compétences.

À tout le moins, par souci de rationalisation administrative, et après que votre rapporteur s'est assuré de l'accord tant du CSA que du Gouvernement, votre commission a adopté l'amendement COM-51 tendant à placer expressément cet observatoire de la haine en ligne auprès du CSA et à renvoyer au pouvoir réglementaire la fixation de ses missions et de sa composition.

Votre commission a adopté l'article 7 ainsi modifié

Article 8 (suppression maintenue)
Gage

L'article 8 de la proposition de loi tendait à gager financièrement l'initiative parlementaire en application de l'article 40 de la Constitution. Il a été supprimé par le Gouvernement.

Votre commission a maintenu la suppression de l'article 8.

Article 9
Entrée en vigueur

L'article 9 de la proposition de loi précise les modalités d'entrée en vigueur de certaines dispositions du texte

Verraient leur entrée en vigueur reportée :

- au 1er janvier 2020, les dispositions relatives aux obligations de moyens renforcées et à la régulation administrative de ces plateformes par le Conseil supérieur de l'audiovisuel (CSA) (articles 2 et 3, I et I bis de l'article 4) ; votre commission a adopté l'amendement COM-52 de son rapporteur pour décaler au 1er juillet 2020 cette date, la navette parlementaire pouvant manifestement s'achever avant la fin de la présente année ;

- et au 1er janvier 2021 le transfert au CSA du contrôle de la mise en oeuvre des dispositions relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques (au titre de l'article 6-1 de LCEN), afin de laisser à cette autorité et à la Commission nationale de l'informatique et des libertés - aujourd'hui compétente - le temps de s'organiser (I ter de l'article 4).

Les autres dispositions du texte entreraient en vigueur immédiatement, dès sa publication.

Votre commission a adopté l'article 9 ainsi modifié

Article 10
(Art. L. 371-1, L. 771-1, L. 773-1 et L. 774-1 du code de l'éducation;
art. 108 de la loi n°86-1067 relative à la liberté de communication ;
art. 57 et 58 [abrogé] de la loi n° 2004-575 pour
la confiance dans l'économie numérique)
Application outre-mer

L'article 10 de la proposition de loi tend à préciser l'application de certaines dispositions du présent texte dans certains outre-mers.

Il prévoit l'application :

- de l'article L. 312-9 du code de l'éducation (modifié par l'article 6 bis), à Wallis-et-Futuna (1° du I) ;

- de l'article L. 721-2 du code de l'éducation (modifié par l'article 6 ter) à Wallis-et-Futuna, en Polynésie française et en Nouvelle-Calédonie (2° du I) ;

- des diverses modifications apportées à la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication à Wallis-et-Futuna, en Polynésie française et en Nouvelle-Calédonie (II) ;

- et des diverses modifications apportées à la LCEN à Wallis-et-Futuna, en Polynésie française et en Nouvelle-Calédonie (III).

Au bénéfice de la correction d'une erreur de référence (amendement COM-53 du rapporteur), votre commission a adopté l'article 10 ainsi modifié.

EXAMEN EN COMMISSION

__________

MERCREDI 11 DÉCEMBRE 2019

- Présidence de M. Philippe Bas, président -

M. Christophe-André Frassa, rapporteur. - Au terme d'une trentaine d'auditions sur cette proposition de loi visant à lutter contre les contenus haineux sur Internet, déposée à l'Assemblée nationale à l'initiative de Mme Laetitia Avia, je me propose, pour ceux qui n'étaient pas encore parlementaires à l'époque de la loi du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN), de faire un résumé des épisodes précédents.

Un point, d'abord, sur la mobilisation des acteurs publics et des intermédiaires techniques contre les discours de haine sur Internet.

Les discours de haine sur Internet sont un phénomène préoccupant, mais dont l'ampleur reste toujours difficile à évaluer.

Comme la Commission nationale consultative des droits de l'homme (CNCDH) en dressait déjà le constat en 2015, « la prolifération des contenus haineux sur la toile, qui se nourrissent régulièrement des tensions sociales et de la crise de la citoyenneté, devient un phénomène très inquiétant. Elle constitue le terreau de conflits croissants entre groupes et communautés remettant en cause le vivre ensemble démocratique ».

L'absence d'outils de mesure officiels et exhaustifs permettant d'apprécier l'ampleur et l'évolution de ce phénomène est donc d'autant plus regrettable.

En France, seuls certains indices de tendance indirects peuvent ainsi être utilisés. En 2018, sur les 163 723 signalements effectués auprès de la plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (Pharos), 14 000 relevaient de la haine en ligne ou de discriminations. La majorité des signalements concernait des contenus présents sur les grands réseaux sociaux américains.

À l'échelle de l'Europe, la Commission européenne a adopté en 2016 une approche volontariste, mais privilégiant l'autorégulation. Elle a ainsi conclu avec les principales plateformes concernées un « code de conduite » pour inciter celles-ci à prendre des mesures proactives afin d'endiguer la diffusion des contenus de haine sur Internet. Cette approche reposant sur les engagements volontaires des acteurs a produit certains résultats, comme l'atteste le dernier bilan fourni en février dernier par les services de la Commission.

Un exemple dont nous avions déjà abordé l'existence à l'occasion de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information - la loi « anti-fake news » - mérite ici d'être cité. Il s'agit de la loi allemande NetzDG, dont le bilan est pour le moins contrasté à ce jour. Il semble que la principale faiblesse de cette loi soit l'effet de « sur-censure » qu'elle induit. Les observateurs font état d'un niveau élevé de contenus licites supprimés en Allemagne et de nombreux contentieux contestant des retraits injustifiés. Les autorités allemandes semblent même décidées à réviser ce dispositif de façon anticipée.

En France, en l'état du droit, les hébergeurs bénéficient d'un régime de responsabilité protecteur en contrepartie d'obligations de coopération.

Transposant en droit français la directive « e-commerce » du 8 juin 2000, la LCEN prévoit un régime de responsabilité spécifique pour les fournisseurs d'accès à Internet et les hébergeurs à raison des contenus à la diffusion desquels ils contribuent.

Les hébergeurs, en particulier, bénéficient d'une exonération facilitée de leur responsabilité civile ou pénale. Celle-ci ne peut être engagée en l'absence de connaissance de l'illicéité des contenus stockés ou, en cas de connaissance de l'illicéité manifeste des contenus stockés, s'ils ont alors procédé promptement à leur retrait.

Ce régime juridique protecteur est destiné à éviter que l'engagement trop systématique de leur responsabilité pénale ou civile ne soit un frein à la libre expression sur Internet des citoyens, qui dépendent d'eux pour échanger. Il s'applique à un spectre d'acteurs extrêmement large, qui englobe désormais les grandes plateformes bien connues : les moteurs de recherche, les réseaux sociaux, les plateformes de diffusion de vidéos, etc. En outre, les hébergeurs ne peuvent pas être soumis à une obligation générale de surveillance des réseaux.

En échange de ce régime favorable, les intermédiaires techniques sont tenus de coopérer avec la puissance publique pour lutter contre la diffusion desdits contenus illicites. Cela se traduit par une obligation de recueil et de conservation de données sur leurs utilisateurs, de dénonciation des activités illicites, de transparence, voire de blocage des contenus sur demande de l'autorité judiciaire et, dans certains cas, de l'administration.

La proposition de loi présentée par la députée Laetitia Avia s'inscrit dans le plan national triennal 2018-2020 de lutte contre le racisme et l'antisémitisme publié par le Gouvernement en mars 2018, qui prévoyait de modifier la législation nationale en vue de lutter contre la haine en ligne.

Elle tente une difficile synthèse entre deux orientations bien différentes :

- d'un côté, une approche insistant sur les obligations de résultat mises à la charge des plateformes pour l'effacement rapide et exhaustif des propos haineux en ligne, sous peine de sanctions, comme le recommandait le rapport intitulé Renforcer la lutte contre le racisme et l'antisémitisme remis au Premier ministre en septembre 2018 et dont Laetitia Avia était co-auteure avec Karim Amellal et Gil Taïeb ;

- et de l'autre, une approche par la régulation, centrée sur un contrôle plus poussé des moyens mis en oeuvre par les plateformes, afin de s'assurer qu'ils sont suffisants pour lutter efficacement contre la haine en ligne, en cohérence avec les conclusions de la mission « Régulation des réseaux sociaux » publiées en mai 2019 et faisant suite à la rencontre entre le Président de la République et Mark Zuckerberg, président-directeur général de Facebook.

La première innovation du texte est la création d'un nouveau délit sanctionnant l'absence de retrait en 24 heures des contenus odieux sanctionnée par un nouveau délit.

Le coeur de la proposition de loi adoptée par l'Assemblée nationale consiste en effet en la création d'une obligation de suppression de certains contenus haineux manifestement illicites, dans les 24 heures après leur notification aux grandes plateformes - réseaux sociaux ou moteurs de recherche à fort trafic accessibles sur le territoire français. Chaque « non-retrait » dans les temps d'un tel contenu serait pénalement réprimé par un nouveau délit spécifique : un an de prison et 250 000 euros d'amende, portés au quintuple pour les personnes morales.

Les contenus « haineux » concernés sont, par le jeu d'ajouts et de renvois successifs, devenus nombreux et disparates : injures aggravées, apologies de crimes, provocations à la discrimination, à la haine ou à la violence, harcèlement sexuel, exposition de mineurs à des messages violents ou pornographiques, traite des êtres humains, proxénétisme, pédopornographie et provocation au terrorisme.

Les associations de lutte contre les discriminations seraient autorisées à exercer les droits reconnus à la partie civile contre le nouveau délit de refus de retrait d'un contenu manifestement haineux, et il est prévu qu'une association de protection de l'enfance puisse notifier un tel contenu à la place d'un mineur.

Les règles formelles de notification de tous les contenus illicites - haineux ou non - sont drastiquement simplifiées.

Deuxième innovation de la proposition de loi : l'instauration d'une régulation ambitieuse des plateformes, avec de nouvelles obligations de moyens sous la supervision du Conseil supérieur de l'audiovisuel (CSA).

La proposition de loi transmise impose de nouvelles obligations de moyens renforcés aux plateformes en matière de lutte contre les contenus haineux en ligne : mise en place d'un dispositif de notification, information des utilisateurs, possibilité de contester des décisions de retrait ou de maintien de contenus, transparence des activités, protection spécifique des mineurs.

Elle confie au CSA une nouvelle mission de régulation administrative de ces plateformes. Chargé de s'assurer de leur coopération et du respect de ces nouvelles obligations de moyens, il disposerait pour ce faire d'un pouvoir réglementaire lui permettant de formuler des recommandations contraignantes, d'un pouvoir d'investigation, et il pourrait prononcer des sanctions pécuniaires considérables et dissuasives, l'amende administrative pouvant atteindre 4 % du chiffre d'affaires annuel mondial de l'opérateur.

Le texte transfère également au CSA la compétence aujourd'hui confiée à une personnalité qualifiée de la CNIL pour contrôler le blocage et le déréférencement administratifs de sites terroristes ou pédopornographiques.

Enfin, afin de prévenir la haine et de punir les auteurs, le texte prévoit en outre des améliorations marginales de la formation et de l'organisation judiciaire de la répression.

La proposition de loi permet de spécialiser un parquet et une juridiction en matière de lutte contre la haine en ligne et complète les obligations du contrôle judiciaire et du sursis probatoire, réaffirmant la possibilité de prononcer une interdiction d'adresser des messages électroniques à une victime.

Elle prévoit d'inscrire expressément dans le code de l'éducation la sensibilisation des élèves et la formation des enseignants en matière de lutte contre la diffusion des contenus haineux.

J'en viens maintenant à la position que je vous propose d'adopter en commission des lois, qui consiste à rééquilibrer et mieux sécuriser juridiquement cet ensemble de mesures inégalement abouties.

À titre liminaire, je note que si nous partageons les objectifs affichés, la discussion de ce texte pose un problème de méthode.

L'intention première des auteurs de cette proposition de loi est louable, nous la partageons tous, et il existe un large consensus au Sénat pour mieux responsabiliser les grandes plateformes qui jouent un rôle décisif dans la diffusion sur Internet de discours de haine.

Les travaux et propositions de notre assemblée ces dernières années en attestent, incitant régulièrement le Gouvernement à ne pas avoir une position attentiste, mais à agir à l'échelon national dans l'attente d'une hypothétique solution harmonisée au niveau européen souvent annoncée, mais longtemps retardée. Tel est le cas notamment des recommandations de la commission d'enquête du Sénat pour une souveraineté numérique afin d'améliorer la régulation des acteurs « systémiques » du numérique et de mieux responsabiliser les plateformes, ou encore de la résolution européenne du Sénat en faveur d'une révision de la directive e-commerce.

Malheureusement, alors que les mesures proposées s'inscrivent clairement dans le cadre d'un plan gouvernemental global de lutte contre les discriminations, je regrette vivement le choix qui a été fait de recourir à une proposition de loi plutôt qu'à un projet de loi, ce qui prive à nouveau le Parlement d'une étude d'impact.

Nuisant à la clarté de nos débats, l'existence de trois autres textes adoptés ou en voie de l'être - la directive Services de médias audiovisuels (SMA), le règlement européen sur les contenus terroristes, le projet de loi de réforme de l'audiovisuel - risque également d'interférer avec certaines dispositions de la présente proposition de loi, voire d'induire une modification de cette proposition quelques mois après son adoption définitive par le Parlement.

L'article 1er, coeur de cette proposition de loi, prévoit un dispositif pénal inabouti et déséquilibré au détriment de la liberté d'expression.

En exigeant des opérateurs de plateformes qu'ils apprécient le caractère manifestement illicite des messages haineux signalés dans un délai particulièrement bref, alors, d'une part, que cet exercice de qualification juridique est difficile pour certaines infractions contextuelles, et alors, d'autre part, qu'ils sont sous la menace de sanctions pénales explicites et dissuasives en cas d'erreur, ce dispositif encouragera mécaniquement les plateformes à retirer, par excès de prudence, des contenus pourtant licites.

D'autres effets pervers sont également à redouter : la multiplication du recours à des filtres automatisés et l'instrumentalisation des signalements par des groupes organisés de pression ou d'influence - « raids numériques » contre des contenus licites, mais polémiques. À redouter également, l'impossibilité de traiter en priorité, dans un délai couperet uniforme de 24 heures, les contenus les plus nocifs qui ont un caractère d'évidence et doivent être retirés encore plus rapidement - terrorisme, pédopornographie - par rapport à d'autres infractions moins graves ou plus longues à qualifier, car « contextuelles ». Enfin, tout aussi regrettables, le contournement du juge et l'abandon de la police de la liberté d'expression sur Internet aux grandes plateformes étrangères.

Le dispositif pénal prévu semble par ailleurs difficilement applicable - il a même été qualifié de « droit pénal purement expressif » par des représentants du parquet, tant les contraintes procédurales et considérations budgétaires limitent le pouvoir d'action de l'autorité judiciaire en la matière. Il présente tout d'abord un problème d'imputabilité concrète, s'agissant des personnes physiques. Qui du modérateur sous-traitant indien ou du dirigeant américain sera poursuivi ? Et s'agissant des personnes morales, comment qualifier l'intention pénale des organes dirigeants des hébergeurs concernés, domiciliés à l'étranger et dont il faut démontrer la complicité ?

Ce dispositif présente également un problème de caractérisation de l'intentionnalité : le simple non retrait suffira-t-il, ou sera-t-il nécessaire pour l'autorité de poursuite de caractériser une absence de diligences normales de l'opérateur dans sa capacité à qualifier l'illégalité manifeste d'un contenu ?

Nous constatons enfin une contrariété probable au droit européen.

La Commission européenne a transmis au Gouvernement des observations longues, sur douze pages, et très critiques alertant sur la violation probable de la directive « e-commerce » et de la Charte des droits fondamentaux de l'Union européenne.

Selon elle, le texte viole plusieurs principes majeurs du droit européen : principe du « pays d'origine », responsabilité atténuée des hébergeurs, interdiction d'instaurer une surveillance généralisée des réseaux. Rappelant l'existence de plusieurs initiatives législatives européennes en cours, la Commission a invité formellement la France à surseoir à l'adoption de ce texte.

Le Gouvernement n'ayant été capable d'offrir aucune solution alternative pour rendre opérant l'article 1er et écarter le risque de surblocage de propos licites, je vous recommanderai donc à ce stade la suppression de cette nouvelle sanction pénale inapplicable et contraire au droit européen.

Certaines dispositions intéressantes méritent d'être conservées ou améliorées, en les intégrant au régime général prévu par la LCEN : la substitution de messages aux contenus haineux retirés et la possibilité - et non l'obligation - de leur conservation en vue d'enquêtes judiciaires ; l'ajout des injures publiques à caractère discriminatoire et du négationnisme aux contenus devant faire l'objet d'un dispositif technique de notification spécifique mis en place par les hébergeurs ; la simplification des notifications prévues par la LCEN, en la rendant conforme au droit européen ; la reconnaissance de l'action des associations de protection de l'enfance.

L'autre volet du texte, la régulation des plateformes constitue en revanche une solution pertinente que je vous propose d'approuver et de préciser.

J'estime que l'imposition d'obligations de moyens sous la supervision d'un régulateur armé de sanctions dissuasives est la solution la plus adaptée pour contraindre les grandes plateformes à une lutte plus efficace contre les discours de haine véhiculés sur les réseaux.

J'ai souhaité tenir compte des observations de la Commission européenne et rendre ce dispositif plus respectueux du droit européen en proportionnant les obligations mises à la charge des plateformes au risque d'atteinte à la dignité humaine et en écartant tout risque de surveillance généralisée des réseaux.

Pour améliorer la rédaction de certaines des obligations de moyens mises à la charge des plateformes, j'ai prévu également : l'absence d'information systématique des auteurs de contenus au stade de la simple notification par un tiers, pour éviter les spams et « raids numériques » contre les auteurs de contenus licites, mais polémiques ; la possibilité dans certains cas exceptionnels de ne pas informer l'auteur de contenus retirés, notamment pour préserver les enquêtes en cours ; et la suppression de l'obligation générale faite aux plateformes d'empêcher la réapparition de tout contenu illicite - la procédure dite « notice and stay down » - contraire au droit européen.

Si j'approuve plusieurs clarifications procédurales concernant les pouvoirs de régulation et de sanction attribués au CSA, je m'inquiète à cet égard du risque de manque de moyens et de compétences techniques du régulateur pour expertiser efficacement les plateformes.

Pour conclure, je vous proposerai plusieurs amendements visant à compléter le texte concernant la viralité, le financement et l'interopérabilité, pour mieux s'attaquer aux ressorts profonds du problème de la haine sur internet.

Comme une personne entendue lors des auditions en a fait l'observation, en l'état actuel du texte, une plateforme qui retire un contenu haineux vu 8 millions de fois 23 heures et 59 minutes après sa notification respecterait parfaitement l'obligation de résultat instaurée à l'article 1er de la proposition de loi. Dès lors, je vous proposerai de compléter ce texte pour lutter plus efficacement contre la viralité des contenus haineux. À ce titre, il conviendrait, d'une part, d'ajuster le champ des acteurs soumis à la régulation du CSA pour intégrer les plateformes moins grandes, mais très virales, et, d'autre part, d'encourager les plateformes, sous le contrôle du CSA, à prévoir des dispositifs techniques de désactivation rapide de certaines fonctionnalités de rediffusion massive des contenus.

Je vous proposerai également d'approuver un amendement d'appel pour s'attaquer au financement des entrepreneurs de haine par la publicité - c'est ce que l'on désigne par l'expression « follow the money » -, en associant mieux les régies publicitaires à la lutte contre le financement de sites condamnés pour certaines infractions, par un renforcement des obligations de transparence à leur charge.

Enfin, je propose d'intégrer l'obligation d'interopérabilité à la boîte à outils du régulateur. Comme le recommandait la commission d'enquête du Sénat sur la souveraineté numérique, il convient d'approfondir l'obligation de portabilité. La possibilité d'encourager l'interopérabilité permettrait ainsi aux victimes de haine de se « réfugier » sur d'autres plateformes avec des politiques de modération différentes, tout en pouvant continuer à échanger avec les contacts qu'elles avaient noués jusqu'ici.

Je remercie mes collègues Catherine Morin-Desailly et Yves Bouloux d'avoir été des rapporteurs pour avis efficaces sur ce texte, dont nous avons essayé de tirer le meilleur pour vous en soumettre une version amendée qui nous paraît présentable.

M. Philippe Bas, président - Je remercie également les deux commissions pour avis pour leur travail convergent.

Mme Catherine Morin-Desailly est excusée, mais je suis ravi d'accueillir Yves Bouloux, rapporteur pour avis de la commission des affaires économiques.

M. Yves Bouloux, rapporteur pour avis de la commission des affaires économiques. - Je tiens d'abord à vous remercier pour cette invitation à participer à vos travaux en tant que rapporteur pour avis. Les deux rapporteurs pour avis ont travaillé en bonne intelligence avec le rapporteur au fond, il faut le souligner.

La commission des affaires économiques partage la position de votre rapporteur sur le risque d'atteinte disproportionnée que porterait l'article premier à la liberté d'expression.

Pour autant, nous reconnaissons que la question posée par la proposition de loi est légitime, et nous nous sommes concentrés sur ce qui, à nos yeux, constitue le moyen le plus efficace de lutter contre la diffusion en masse des propos haineux illicites, à savoir le dispositif de régulation administrative des plateformes que contient cette proposition de loi.

Il propose en quelque sorte un nouveau modèle de régulation du numérique qui nous semble pertinent. Ce nouveau modèle comporte trois grandes caractéristiques : un régulateur spécialisé, des obligations de moyens, et une régulation qui s'applique en priorité aux acteurs les plus structurants du marché, qui ont un impact massif.

Les quelques amendements que nous avons adoptés visent à améliorer ce volet du texte, en le rendant davantage proportionné, mais aussi plus efficace. Je pense notamment à un amendement qui permet au CSA d'imposer des obligations à une entreprise qui serait sous les seuils du champ d'application du texte.

Enfin, un élément de contexte me paraît devoir être souligné : le Gouvernement n'a pas jugé nécessaire de nous transmettre l'avis de la Commission européenne... Malgré nos demandes, nous avons dû en prendre connaissance par voie de presse ! Nous avons donc connu des gouvernements plus coopératifs...

M. Philippe Bas, président - J'ai personnellement écrit au ministre pour regretter l'insuffisante information du Parlement. Je n'ai pas obtenu de réponse à ce jour.

Mme Marie-Pierre de la Gontrie. - Le constat initial ayant donné lieu à cette proposition de loi n'est pas critiquable. Personne ne peut contester la nécessité de lutter contre les propos haineux en ligne. Dès lors que nous allons entrer dans des processus d'amélioration du texte, il ne faudrait pas que le Gouvernement nous fasse ce procès.

La législation actuelle, vieille de quinze ans, est sans doute insuffisante. Mais plusieurs difficultés se présentent, que je rassemblerai en deux champs d'égale gravité.

Le premier champ est celui de la limitation de la liberté d'expression.

S'agissant de l'obligation de retrait dans un délai de 24 heures après notification prévue à l'article 1er, la crainte est qu'elle aboutisse à un « sur-retrait ». En effet, les conséquences sont tellement lourdes pour les plateformes qui n'opéreraient pas ce retrait dans le délai requis qu'elles préféreront retirer du contenu à titre préventif. Or des questions se posent sur ce que l'on appelle les contenus « gris » : ce qui est nettement haineux ne pose pas de difficulté ; ce qui est nettement non-haineux n'en pose pas davantage ; en revanche, entre les deux, la situation est bien plus délicate. L'Allemagne s'est essayée à légiférer sur ce sujet, et au fil des années, nous avons noté un « sur-retrait » problématique.

Ici le texte ne prévoit pas de sanction relative au « sur-retrait ». Nous proposerons donc des amendements en ce sens.

Autre problème en matière de liberté d'expression, la disparition du juge judiciaire dans le processus.

Je ne suis pas gênée par principe par le fait qu'une instance ou une personne privée soit chargée de veiller au respect de la loi. Mais nous sommes là dans un domaine particulier, celui de la liberté d'expression, où l'intervention du juge judiciaire est importante. Or dans le texte il n'intervient qu'a posteriori, ce qui pose problème. Je ferai des propositions au nom de mon groupe sur ce sujet.

Le deuxième champ de difficultés, qui n'est pas mince, est la question de la compatibilité de la proposition de loi avec le droit européen.

Nous avons dû nous procurer, par d'autres moyens que par une transmission officielle, les observations de la Commission européenne ; le Gouvernement se flatte de n'avoir pas reçu un « avis circonstancié » qui marquerait une protestation formelle de sa part, mais seulement des « observations » critiques prétendument moins contraignantes. Je constate pour ma part à leur lecture que la longueur des observations de la Commission et leur argumentation charpentée sont une critique implacable du texte ! Nous ne pouvons pas les balayer d'un revers de main.

Nous pouvons d'ailleurs y ajouter l'avis circonstancié de la République tchèque, dont nous n'avons pas pu non plus obtenir communication - ni de traduction en français -, mais qui comporte, semble-t-il, des observations également assez sévères.

Il est préoccupant à double titre pour le Sénat de voter une législation incompatible avec la législation européenne : cela exposerait d'abord la France à un risque de condamnation ultérieure. Mais n'oublions pas également le risque de contentieux en France : le juge français pourrait très bien s'appuyer sur la contrariété de cette loi avec une directive européenne pour en écarter l'application lors d'un contentieux.

Une procédure pourrait donc être engagée par une plateforme pour contester une éventuelle condamnation, en arguant du non-respect de la directive e-commerce et des observations de douze pages de la Commission pour défendre sa cause. Et un juge français pourrait, sans même avoir besoin de saisir une juridiction européenne, lui donner raison. C'est vraiment servir sur un plateau des arguments de défense aux plateformes potentiellement incriminées. Cela pose un problème très sérieux.

Le rapporteur a fait des propositions. Avec des raisonnements parfois différents, nous sommes tous en réalité sur la même ligne. Comment faire pour lutter contre les contenus haineux en respectant à la fois la liberté d'expression et le droit européen ?

Nous approuverons les amendements du rapporteur, et présenterons également en séance des amendements sur cinq thèmes différents : premièrement, exclure explicitement la presse en ligne du champ de ce texte ; deuxièmement tenter de réinstaurer un délai de 24 heures - il est symboliquement difficile de ne pas le conserver, et un système de double délai pourrait être prévu, imposant 24 heures pour un contenu manifestement haineux et un délai plus long pour les « zones grises », avec une validation du juge a posteriori - ; troisièmement proposer des sanctions symétriques en cas de retrait abusif ; quatrièmement renforcer le rôle du CSA ; cinquièmement prévoir « la transparence des algorithmes ». Avec ce texte, nous risquons en effet d'imposer aux plateformes de créer des algorithmes dont nous ne saurons rien, et si nous ne prévoyons pas d'une manière ou d'une autre une obligation d'accès à ces algorithmes, nous aurons perdu la partie.

Mme Brigitte Lherbier. - Nous sommes tous exposés à des propos haineux, jusque sur le site du Sénat. Les représentants d'associations liées à la gendarmerie, qui détectent sur Internet des propos inadmissibles ainsi que des sites pédopornographiques, m'ont dit qu'aussitôt repérés et contraints à fermer, ces sites rouvraient sous une forme différente. C'est un jeu permanent du chat et de la souris. Que pouvons-nous faire contre ce phénomène ?

Mme Jacqueline Eustache-Brinio. - Cette proposition de loi m'est apparue dès sa lecture comme une usine à gaz risquant de poser d'importants problèmes d'application. Je partage les réserves émises par le rapporteur et Mme de la Gontrie à son sujet, notamment sur l'article 1er.

Le délai de 24 heures sera non seulement difficile à faire appliquer, mais il risquera en outre de compromettre la bonne marche de certaines procédures judiciaires. En effet, si les contenus disparaissent dans les 24 heures, certaines procédures contre la cyberhaine risquent de ne pouvoir être menées à bien faute de preuve.

L'impossibilité de la levée de l'anonymat pose problème. Nous ne savons souvent pas à qui nous avons affaire sur internet. Même si nous parvenons à obtenir la fermeture d'un compte d'où émanent des propos haineux, nous ne sommes pas à l'abri de sa réapparition sous une autre forme. En l'absence d'une levée efficace de l'anonymat, la cyberhaine ne peut que s'aggraver.

M. Jean-Yves Leconte. - La technique est toujours plus rapide que la loi. Nous ne pouvons donc pas nous interroger sur des évolutions législatives sans admettre que tout ce que nous ferons ne suffira pas compte tenu des évolutions techniques à venir. Pour que la loi soit réellement appliquée, elle devra être extraterritoriale. Et même cela ne suffira pas.

Par ailleurs, même si l'on peut mieux responsabiliser les plateformes, le concept même de liberté d'expression oblige à responsabiliser d'abord ceux qui l'exercent. La révolution numérique entraîne des changements dans la manière d'être citoyen qui s'expriment sur internet, la démocratie exige que l'on insiste sur l'éducation et la responsabilisation des auteurs de propos litigieux.

Enfin, l'esprit humain étant sans limites, il est probable qu'aucun algorithme ne permettra de bloquer les choses. Peut-on demander à des algorithmes de faire mieux que la justice, en imposant un délai de 24 heures ? Cela me semble compliqué. En somme, demande-t-on ici aux plateformes une obligation de moyens ou une obligation de résultat ? Cette dernière me semble impossible. L'obligation de moyens, elle, pourrait impliquer la tolérance de certains bugs, à condition d'obtenir par ailleurs la transparence des algorithmes.

M. Philippe Bonnecarrère. - Le problème auquel la proposition de loi souhaite s'attaquer est réel. Mais apporte-t-elle une bonne ou une mauvaise réponse à cette bonne question, qui est comment lutter contre les contenus haineux ?

La proposition du rapporteur de rééquilibrer et de sécuriser le texte me semble pertinente, et je la partage. Une partie du texte, de l'article 2 à la fin de l'article 6, ne me paraît pas soulever de débat. Il en va bien autrement pour l'article 1er...

L'approche par la régulation ne pose pas, à mon sens, de difficulté. Il s'agit en partie d'une nouveauté dans le domaine du numérique, qui s'inscrit dans le prolongement des réflexions et initiatives nées après la rencontre entre le Président de la République et le président-directeur général de Facebook. Les propositions présentées sont intéressantes et mènent à des solutions crédibles. L'idée est de regarder la façon dont les plateformes s'organisent et les moyens qu'elles mobilisent pour mettre en oeuvre le contrôle des contenus haineux. Ce sont des sujets très concrets : nombre de modérateurs, modalités de leur formation et de leur qualification, mode de financement, etc. Au-delà des grands principes, il est effectivement nécessaire de « mettre les mains dans le cambouis ». Et le régulateur aura la possibilité de contrôler et de s'assurer de la mise en oeuvre cette obligation de moyens. Il s'agit là d'une véritable avancée positive, sur un sujet insoluble depuis plusieurs années, et douloureux pour de nombreuses victimes de propos inacceptables sur internet.

Reste le dispositif d'obligation de résultat prévu à l'article 1er, qu'accompagne une forte dimension pénale. J'y suis pour ma part extrêmement défavorable. L'article 1er pose un problème majeur quant aux principes de légalité des peines et de proportionnalité des sanctions. Si ce texte poursuivait sa route, l'article 1er ferait d'ailleurs l'objet d'un tel nombre de réserves neutralisantes de la part du Conseil constitutionnel qu'il serait probablement difficilement opérationnel.

Un problème de conventionalité se pose également, au regard du droit de l'Union européenne. L'auteure de la proposition considère qu'il est possible de faire jouer des dérogations à la directive « e-commerce » en vertu d'une atteinte à la dignité de la personne humaine. Mais il faudrait pour cela que la dérogation soit ciblée et proportionnée.

À mes yeux, le dispositif pénal de l'article 1er ne répond pas au principe de légalité des peines, n'est pas suffisamment ciblé quant au principe de proportionnalité - du fait de l'ampleur des sanctions proposées - et viole le droit européen.

Je regrette aussi que ce texte soit examiné en procédure accélérée. Sur ce type de sujet, c'est une erreur, d'autant qu'une solution plus satisfaisante pourrait être trouvée pour l'article 1er en laissant se poursuivre la navette entre l'Assemblée et le Sénat.

C'est enfin un sujet évolutif. Des propositions de la Présidente de la commission, Ursula von der Leyen, prévoient ainsi la réforme de la directive « e-commerce ». À cette occasion, ce point méritera de faire l'objet d'un suivi particulier.

Mme Maryse Carrère. - En dépit de la clarté du rapport dont je remercie notre rapporteur, je regrette que nous n'ayons eu ni le temps ni les éléments pour mieux étudier ce texte complexe. Nous faisons face à une hausse préoccupante du racisme, de l'antisémitisme et de la xénophobie, tout particulièrement en ligne. L'impunité en ligne doit cesser ! Le coeur du problème est que les auteurs d'infractions se croient protégés par leur relatif anonymat, nous disposons pourtant, me semble-t-il, d'un arsenal juridique qui nous permet de remonter jusqu'à eux.

Nous sommes face à des entreprises puissantes : les géants d'Internet. Cela doit nous interroger sur l'effectivité de cette proposition de loi et sur la question de la régulation d'Internet. Nous allons déléguer la régulation des contenus à ces entreprises : c'est une privatisation de la censure !

L'article 1er pose la question des notifications abusives : les plateformes, par peur d'être condamnées, ne risquent-elles pas de censurer trop de contenus, notamment en automatisant leur censure ?

La création de nouveaux délits risque d'aggraver l'engorgement de nos tribunaux et pose la question de la formation des personnels de justice.

Nous renforçons à juste titre les missions du CSA, mais quid de ses moyens ? Il en va de même pour l'Éducation nationale : nous prévoyons qu'elle doit assurer de nouvelles missions de sensibilisation, mais sans moyens supplémentaires.

Nous avons donc de vrais doutes sur l'applicabilité et l'efficacité de cette proposition de loi, ainsi que sur les moyens qui seront alloués.

M. Marc-Philippe Daubresse. - Beaucoup a déjà été dit sur les zones grises évoquées par notre collègue Marie-Pierre de la Gontrie. Nous sommes à la confluence des questions d'efficacité et des principes de liberté. Avec cette loi de circonstance, nous nous aventurons sur un terrain glissant et risquons de faire des bêtises par précipitation. Pas de sanction graduée respectueuse du principe de proportionnalité, non-conformité à la réglementation européenne - actuelle et future -, pas de recours devant une autorité judiciaire, pas de sanction caractérisée contre un retrait abusif, etc. : tout cela est contraire aux principes de notre État de droit, dans lequel la liberté d'expression est une liberté fondamentale qui doit être correctement encadrée.

Je suis très sceptique sur l'autorégulation des plateformes : on voit comme cela se passe avec Wikipédia, c'est du grand n'importe quoi ! Et comment gérer les faux comptes ? Une fois qu'un compte est fermé, un nouveau faux compte s'ouvre ailleurs, et cela peut même être fait par algorithme ! Nous allons déroger aux grands principes de la liberté sans même être efficaces ! Au demeurant, ce texte présente plusieurs risques d'inconstitutionnalité.

Plus généralement, nous devrions réfléchir - pourquoi pas une mission d'information - sur la poursuite des infractions de presse à l'heure du numérique, et ce afin de ne pas légiférer dans la circonstance. Il ne s'agit pas de remettre en cause les lois fondamentales, car bien souvent ce ne sont pas les textes, mais les contextes, qui posent problème.

M. Christophe-André Frassa, rapporteur. - Dans son état actuel, le texte ne répond qu'imparfaitement aux questions que nous pose la viralité des contenus. Les professionnels de la déstabilisation sont toujours plus avancés que le législateur, qui doit prendre le temps d'observer un phénomène avant d'y répondre.

Nous devons encore travailler sur le pseudonymat. N'oublions pas - comme le rappelle la CNIL - que l'anonymat protège aussi les victimes de la haine en ligne qui peuvent ainsi continuer à exister en ligne. La levée du pseudonymat est avant tout une question de moyens - notamment humains - pour accéder aux données stockées par les plateformes. Cela ne relève pas tant de la loi, que d'un changement des pratiques et d'un renforcement des compétences et des ressources de nos services.

La transparence des algorithmes est un objectif que l'on peut partager et les plateformes ont désormais tout intérêt à jouer le jeu.

Nous avions essayé d'avancer sur la sanction symétrique - pour non retrait de l'illicite et pour retrait abusif du licite - en recherchant une rédaction équilibrée de l'article 1er, afin d'éviter justement le surblocage systématique par les plateformes. Mais c'était avant que la Commission européenne ne produise douze pages d'observations... Ne reproduisons pas les dérives de la loi allemande qui, à l'époque de nos travaux législatifs sur les fake news, nous avait été présentée comme un parangon : des procédures judiciaires sont en cours pour blocage abusif et la loi va sûrement devoir être révisée.

Je n'ai jamais été très convaincu par ce délai couperet et intangible de 24 heures. Dans un premier temps, nous avions imaginé créer une sorte de référé, comme pour les fake news, afin de ne pas donner trop d'importance aux plateformes et renvoyer la décision finale au juge.

Sur le sujet de la presse en ligne, je suis ouvert à vos propositions.

Les questions de constitutionnalité de ce texte sont effectivement nombreuses et m'ont conduit à vous faire les propositions d'amendement que je vais vous présenter.

EXAMEN DES ARTICLES

M. Christophe-André Frassa, rapporteur. - L'amendement COM-23 rectifié concerne l'intitulé du chapitre Ier. Je peux néanmoins d'ores et déjà vous annoncer que j'y serai défavorable, car il est incompatible avec mon amendement COM-26 portant sur l'article 1er.

L'amendement COM-23 rectifié n'est pas adopté.

Article 1er

M. Christophe-André Frassa, rapporteur. - L'article 1er tend à créer une nouvelle obligation de suppression de certains contenus haineux manifestement illicites par les grandes plateformes, dans les vingt-quatre heures après leur notification. Tout manquement à cette obligation de résultat serait pénalement réprimé par un nouveau délit : chaque non-retrait dans les temps prévus serait puni d'un an de prison et de 250 000 euros d'amende, une somme portée à 1,250 million d'euros pour les personnes morales. La rédaction proposée reste encore juridiquement très inaboutie, je l'ai évoqué dans mon propos liminaire : ce dispositif reste déséquilibré au détriment de la liberté d'expression - risque de « sur-censure », recours massif à des filtres automatisés, contournement du juge.

L'applicabilité concrète de ce nouveau délit est douteuse - certains représentants du parquet que nous avons auditionnés parlent d'un « droit pénal purement expressif » - et pose un problème d'imputabilité et de caractérisation de l'intentionnalité.

Le délai couperet de vingt-quatre heures interdit de prioriser entre les contenus les plus nocifs qui ont un caractère d'évidence et ceux qui nécessitent d'être analysés et contextualisés par des juristes.

Je ne reviens pas sur les observations de la Commission européenne, pour laquelle ce dispositif viole plusieurs principes majeurs du droit européen, notamment la responsabilité aménagée des hébergeurs résultant de la directive « e-commerce » et la liberté d'expression garantie par le Charte des droits fondamentaux.

Face aux risques pour la liberté d'expression, cette nouvelle sanction pénale inapplicable et contraire au droit européen ne peut qu'être supprimée, à ce stade, par le Sénat. Je vous propose toutefois de conserver certaines dispositions intéressantes en les améliorant et en les intégrant au régime général prévu par la loi pour la confiance dans l'économie numérique (LCEN), à savoir la substitution de messages informatifs aux contenus illicites retirés, et la possibilité de leur conservation pour les enquêtes judiciaires. Il en va de même de l'ajout des injures publiques à caractère discriminatoire et du négationnisme aux contenus devant faire l'objet d'un dispositif technique de notification spécifique mis en place par les hébergeurs.

Aussi, je vous propose d'adopter l'amendement COM-26 visant à rédiger cet article et, en conséquence, je ne peux qu'être défavorable à l'amendement COM-20 de M. Thani Mohamed Soilihi.

L'amendement COM-26 est adopté ; les amendements COM-20, COM-8, COM-12, COM-14 et COM-1 deviennent sans objet.

Article additionnel après l'article 1er

L'amendement COM-9 n'est pas adopté.

Article 1er bis (nouveau)

Les amendements identiques de cohérence COM-27 et COM-2 sont adoptés ; l'amendement COM-25 devient sans objet.

Article 1er ter A (nouveau)

M. Christophe-André Frassa, rapporteur. - L'amendement COM-28 simplifie le formalisme des notifications de contenus illicites.

L'amendement COM-28 est adopté.

Article 1er ter B (nouveau)

L'amendement COM-3 n'est pas adopté.

L'amendement de cohérence COM-29 est adopté.

M. Christophe-André Frassa, rapporteur. - À la demande des associations de protection de l'enfance, l'amendement COM-30 prévoit une exception limitée à l'information normalement systématique des représentants légaux du mineur en faveur duquel elles interviennent pour obtenir le retrait d'un contenu illicite qu'il leur a signalé ; serait ainsi réservé le cas où cela est contraire à l'intérêt de l'enfant.

L'amendement COM-30 est adopté.

Article 1er ter (nouveau)

Les amendements identiques de suppression COM-31 et COM-4 sont adoptés.

- Présidence de Mme Catherine Di Folco, vice-présidente -

Article 2

M. Christophe-André Frassa, rapporteur. - L'amendement COM-32 définit le champ des opérateurs concernés par la nouvelle régulation des plateformes, qui seront désormais assujetties à des obligations de moyens renforcés, sous la supervision du Conseil supérieur de l'audiovisuel (CSA). Il reprend les principaux éléments de la proposition de loi transmise en incluant les réseaux sociaux à fort trafic - ceux qui dépassent un seuil d'activité fixé par décret pris en Conseil d'État - mais en excluant les moteurs de recherche en raison de leur rôle bien moins déterminant que les réseaux dans la propagation de la haine et, surtout, de leurs caractéristiques techniques différentes. Par ailleurs, il introduit un critère plus souple de « viralité » pour permettre au CSA d'attraire dans le champ de sa régulation un site ou service qui, bien qu'ayant une activité moindre, joue pourtant un rôle significatif dans la diffusion en ligne des propos haineux.

Notre collègue Yves Bouloux poursuit exactement la même logique avec l'amendement COM-56, à quelques différences rédactionnelles mineures près. J'y suis favorable à condition qu'il soit rendu identique à celui de la commission.

M. Yves Bouloux, rapporteur pour avis. - Bien entendu.

L'amendement COM-32 est adopté. L'amendement COM-56, ainsi modifié, est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-33 vise à tenir compte des observations de la Commission européenne et à rendre la régulation des plateformes plus respectueuse du droit européen. Il prévoit ainsi de proportionner les obligations à la charge des plateformes à leurs capacités et au risque d'atteinte à la dignité humaine. Je suis favorable à l'amendement COM-57, à condition qu'il soit rendu identique à celui de la commission. Je suis également favorable au sous-amendement de précision COM-55 rectifié.

Le sous-amendement COM-55 rectifié est adopté. L'amendement COM-33, ainsi modifié, est adopté, de même que l'amendement COM-57, ainsi modifié.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-34 vise à clarifier les pouvoirs du CSA.

L'amendement COM-34 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-35 tend à améliorer la rédaction de certaines des obligations de moyens mis à la charge des plateformes : il prévoit l'absence d'information systématique des auteurs de contenus au stade de la simple notification par un tiers, pour éviter les spams et « raids numériques » contre auteurs de contenus licites, mais polémiques ; et, à titre exceptionnel, la possibilité, dans certains cas, de ne pas informer l'auteur de contenus retirés, notamment pour préserver les enquêtes en cours.

L'amendement COM-35 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-36 opère des clarifications rédactionnelles relatives à la procédure de contre-notification ou d'appel.

L'amendement COM-36 est adopté.

M. Christophe-André Frassa, rapporteur. - Les amendements identiques COM-37, COM-24 rectifié et COM-58 suppriment l'obligation mise à la charge des plateformes d'empêcher, de façon générale et indiscriminée, la réapparition de contenus haineux illicites déjà retirés ; c'est ce que l'on appelle la procédure de « notice and stay down ». Cela était manifestement contraire au droit de l'Union européenne : la directive « e-commerce » interdit toute forme de surveillance généralisée des réseaux.

Les amendements COM-37, COM-24 rectifié et COM-58 sont adoptés.

L'amendement COM-5 n'est pas adopté.

Article 3

L'amendement COM-6 n'est pas adopté.

L'amendement de clarification rédactionnelle COM-38 est adopté.

L'amendement de cohérence COM-39 est adopté, de même que l'amendement de précision COM-40 et l'amendement de cohérence COM-41.

Article 3 bis (nouveau)

M. Christophe-André Frassa, rapporteur. - L'amendement COM-42 vise à aligner le montant des amendes encourues par les éditeurs et les intermédiaires techniques en cas de non-retrait d'un contenu illicite.

L'amendement COM-42 est adopté.

Article 4

M. Christophe-André Frassa, rapporteur. - Je suis favorable à l'amendement de précision COM-16 de Mme Morin-Desailly, sous réserve d'une correction légistique mineure : il convient de supprimer la mention « , l'exception du premier alinéa du I ».

L'amendement COM-16, ainsi modifié, est adopté.

L'amendement de cohérence COM-43 est adopté.

M. Christophe-André Frassa, rapporteur. - Je suis favorable à l'amendement COM-17 de Mme Morin-Desailly, car il précise la terminologie relative aux pouvoirs du CSA.

L'amendement COM-17 est adopté.

M. Christophe-André Frassa, rapporteur. - Je suis aussi favorable à l'amendement COM-18 de Mme Morin-Desailly, qui clarifie et simplifie la procédure de sanction applicable aux plateformes devant le CSA.

L'amendement COM-18 est adopté.

M. Christophe-André Frassa, rapporteur. - Je suis également favorable à l'amendement COM-19 de Mme Morin-Desailly, sous réserve de l'adoption de mon sous-amendement de précision COM-54. Il s'agit de régler les modalités de publicité des décisions de sanction des plateformes par le CSA.

Le sous-amendement COM-54 est adopté. L'amendement COM-19, ainsi modifié, est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-44 vise à faire de la publicité des mises en demeure et des sanctions prononcées par le CSA une faculté et non une obligation.

Mme Marie-Pierre de la Gontrie. - Il n'est pas anodin de remplacer une obligation par une faculté.

M. Christophe-André Frassa, rapporteur. - C'est déjà le cas par exemple pour les pouvoirs de sanction reconnus à la formation restreinte de la CNIL ; et il s'agit d'éviter d'autoriser le prononcé d'une sanction complémentaire automatique.

L'amendement COM-44 est adopté.

L'amendement de cohérence COM-45 est adopté, de même que l'amendement COM-59.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-60 vise à encourager les plateformes, sous le contrôle du CSA, à prévoir des dispositifs techniques de désactivation rapide de certaines fonctionnalités de rediffusion massive des contenus. Il s'agit de mieux lutter contre la viralité.

L'amendement COM-60 est adopté.

M. Christophe-André Frassa, rapporteur. - L'amendement COM-61 vise à intégrer l'interopérabilité parmi les outils du nouveau régulateur des grandes plateformes.

Mme Marie-Pierre de la Gontrie. - C'est très important.

L'amendement COM-61 est adopté.

Article 6

M. Christophe-André Frassa, rapporteur. - L'amendement COM-46 vise à maintenir dans la LCEN la mention expresse du « principe de subsidiarité » : une demande judiciaire pour rendre inaccessible un contenu doit d'abord viser son hébergeur et, à défaut, les fournisseurs d'accès à Internet. En outre, il tend à supprimer les modalités peu convaincantes retenues pour le nouveau système de « blocage administratif des sites miroirs ».

L'amendement COM-46 est adopté ; l'amendement COM-21 rectifié devient sans objet.

Article additionnel après l'article 6

M. Christophe-André Frassa, rapporteur. - L'amendement COM-22 rectifié de notre collègue Thani Mohamed Soilihi et des membres du groupe LaREM vise à mieux associer les régies publicitaires à la lutte contre le financement de sites facilitant la diffusion en ligne des discours de haine : il renforce les obligations de transparence à leur charge.

Bien que la rédaction proposée soit encore probablement perfectible, cette approche mérite d'être soutenue à ce stade, afin de lever la réticence du Gouvernement à nous faire des propositions en la matière. Mon avis est favorable.

L'amendement COM-22 rectifié est adopté.

Article 6 bis A (nouveau)

L'amendement rédactionnel COM-47 est adopté.

Article 6 bis B (nouveau)

L'amendement rédactionnel COM-48 est adopté.

Article 6 bis C (nouveau)

L'amendement de cohérence COM-49 est adopté.

Articles additionnels après l'article 6 bis C (nouveau)

M. Christophe-André Frassa, rapporteur. - Pour l'application de l'article 45 de la Constitution, il convient de définir le périmètre de notre proposition de loi qui, à mon sens, inclut des dispositions relatives :

- au régime particulier de responsabilité civile ou pénale atténuée des intermédiaires techniques (hébergeurs et fournisseurs d'accès) ;

- aux obligations de coopération avec les autorités publiques mises à leur charge pour des motifs de prévention des atteintes à la dignité humaine ;

- au blocage administratif et judiciaire des sites internet ;

- aux compétences et aux pouvoirs de régulation et de sanction dévolus au CSA en matière de lutte contre les contenus haineux.

À l'inverse, ne présentent pas de lien, même indirect, avec le texte déposé, des amendements visant à modifier les règles générales de la responsabilité civile ou pénale, ou à créer de nouvelles infractions ne concernant pas les intermédiaires techniques.

Les amendements COM-10, COM-11 et COM-13 sont déclarés irrecevables en application de l'article 45 de la Constitution.

Article additionnel après l'article 6 bis (nouveau)

M. Christophe-André Frassa, rapporteur. - Je suis favorable à l'amendement COM-15 de notre collègue Jean-Pierre Grand qui précise que l'information sur les violences en milieu scolaire doit inclure les violences en ligne.

L'amendement COM-15 est adopté.

Article 6 ter (nouveau)

L'amendement rédactionnel COM-50 est adopté.

Article 7

M. Christophe-André Frassa, rapporteur. - L'amendement COM-51 vise à placer expressément auprès du CSA le nouvel observatoire de la haine en ligne, créé par la proposition de loi, et à renvoyer au pouvoir réglementaire la fixation de ses missions et de sa composition.

L'amendement COM-51 est adopté.

Article 9 (nouveau)

M. Christophe-André Frassa, rapporteur. - L'amendement COM-52 vise à décaler l'entrée en vigueur du présent texte au 1er juillet 2020, au lieu du 1er janvier 2020.

L'amendement COM-52 est adopté.

M. Christophe-André Frassa, rapporteur. - Je suis défavorable à l'amendement COM-7, qui est contraire à la position de la commission sur l'article 3.

L'amendement COM-7 n'est pas adopté.

Article 10 (nouveau)

L'amendement de correction COM-53 est adopté.

La proposition de loi est adoptée dans la rédaction issue des travaux de la commission.

Le sort des amendements examinés par la commission est retracé dans le tableau suivant :

Auteur

Objet

Sort de l'amendement

Chapitre Ier : Obligation renforcée de retrait des contenus haineux en ligne
(Division et intitulé nouveaux)

M. MOHAMED SOILIHI

23 rect.

Modification de l'intitulé du chapitre 1er

Rejeté

Article 1er
Obligation pour les grandes plateformes de supprimer en 24 heures certains contenus manifestement illicites ;
liste des contenus et répression pénale des manquements ; exercice des droits reconnus
à la partie civile par les associations de lutte contre les discriminations

M. FRASSA, rapporteur

26

Suppression du délit de « non-retrait » de contenus haineux

Adopté

M. MOHAMED SOILIHI

20

Modification du délit de « non-retrait » de contenus haineux

Rejeté

M. GRAND

8

Extension à tous les hébergeurs de l'obligation de retrait en 24 heures des contenus haineux

Satisfait ou sans objet

M. GRAND

12

Prise en compte de la qualité « apparente » pour caractériser l'injure haineuse

Satisfait ou sans objet

M. GRAND

14

Doublement des sanctions pénales pour défaut de retrait lorsqu'il est demandé par une personne dépositaire de l'autorité publique ou chargée d'une mission de service public

Satisfait ou sans objet

M. GRAND

1

Rédactionnel

Satisfait ou sans objet

Article additionnel après l'article 1er

M. GRAND

9

Élargissement de la protection fonctionnelle aux agents victimes de diffusion de contenus haineux en ligne

Rejeté

Article 1er bis (nouveau)
Formalisme de la nouvelle procédure de notification
d'un contenu manifestement haineux

M. FRASSA, rapporteur

27

Suppression de l'article

Adopté

M. GRAND

2

Suppression de l'article

Adopté

M. MOHAMED SOILIHI

25

Formalisme de la notification des contenus haineux

Satisfait ou sans objet

Article 1er ter A (nouveau)
Simplification du formalisme des notifications prévues par la LCEN pour engager
de la responsabilité des hébergeurs à raison de contenus illicites

M. FRASSA, rapporteur

28

Simplification des notifications de contenu illicites

Adopté

Article 1er ter B (nouveau)
Notification de contenus haineux par une association
de protection de l'enfance saisie par un mineur

M. GRAND

3

Suppression de l'article

Rejeté

M. FRASSA, rapporteur

29

Cohérence rédactionnelle

Adopté

M. FRASSA, rapporteur

30

Exception à l'information systématique du représentant légal par les associations notifiant un contenu illicite à la demande d'un mineur

Adopté

Article 1er ter (nouveau)
Sanction des notifications abusives ou malveillantes

M. FRASSA, rapporteur

31

Suppression de l'article

Adopté

M. GRAND

4

Suppression de l'article

Adopté

Article 2
Obligations de moyens mises à la charge des plateformes
en matière de traitement des notifications de contenu haineux en ligne

M. FRASSA, rapporteur

32

Définition du champ des opérateurs concernés par la nouvelle régulation des plateformes

Adopté

M. BOULOUX

56

Définition du champ des opérateurs concernés par la nouvelle régulation des plateformes

Adopté avec modification

M. FRASSA, rapporteur

33

Proportionnalité des obligations de moyens renforcées à la charge des plateformes

Adopté

M. MOHAMED SOILIHI

55 rect.

Précision

Adopté

M. BOULOUX

57

Proportionnalité des obligations de moyens renforcées à la charge des plateformes

Adopté avec modification

M. FRASSA, rapporteur

34

Clarification des pouvoirs du CSA

Adopté

M. FRASSA, rapporteur

35

Clarifications de l'information des auteurs de contenus notifiés ou retirés

Adopté

M. FRASSA, rapporteur

36

Clarifications rédactionnelles à la procédure de contre-notification ou d'appel

Adopté

M. FRASSA, rapporteur

37

Suppression du « notice and stay down »

Adopté

M. MOHAMED SOILIHI

24 rect.

Suppression du « notice and stay down »

Adopté

M. BOULOUX

58

Suppression du « notice and stay down »

Adopté

M. GRAND

5

Précision rédactionnelle

Rejeté

Article 3
Autres obligations de moyens mises à la charge des plateformes
en matière d'information et de coopération avec les autorités

M. GRAND

6

Suppression de l'article

Rejeté

M. FRASSA, rapporteur

38

Clarification rédactionnelle

Adopté

M. FRASSA, rapporteur

39

Cohérence rédactionnelle

Adopté

M. FRASSA, rapporteur

40

Indicateurs qualitatifs et quantitatifs sur la modération des plateformes

Adopté

M. FRASSA, rapporteur

41

Cohérence rédactionnelle

Adopté

Article 3 bis (nouveau)
Renforcement de l'amende pour non-coopération avec l'autorité judiciaire
en matière de lutte contre les contenus illicites

M. FRASSA, rapporteur

42

Alignement des sanctions encourues par les éditeurs sur celles des hébergeurs

Adopté

Article 4
Nouvelles missions du CSA : surveillance des obligations à la charge des plateformes,
recommandations, pouvoirs de contrôle et de sanction ;
contrôle du blocage administratif des sites terroristes ou pédopornographiques

Mme MORIN-DESAILLY

16

Champ du contrôle du CSA

Adopté avec modification

M. FRASSA, rapporteur

43

Cohérence rédactionnelle

Adopté

Mme MORIN-DESAILLY

17

Pouvoirs du CSA

Adopté

Mme MORIN-DESAILLY

18

Procédure de sanction devant le CSA

Adopté

Mme MORIN-DESAILLY

19

Modalités de publicité des décisions de sanction des plateformes par le CSA

Adopté

M. FRASSA, rapporteur

54

Modalités de publicité des décisions de sanction des plateformes par le CSA

Adopté

M. FRASSA, rapporteur

44

Modalités de publicité des décisions de sanction des plateformes par le CSA

Adopté

M. FRASSA, rapporteur

45

Cohérence rédactionnelle

Adopté

M. BOULOUX

59

Partage d'information sur les contenus haineux illicites entre plateformes

Adopté

M. FRASSA, rapporteur

60

Lutte contre la viralité

Adopté

M. FRASSA, rapporteur

61

Interopérabilité

Adopté

Article 6
Simplification de la procédure de blocage et de déréférencement des sites haineux
(directement auprès des FAI, sans subsidiarité ;
sur injonction administrative contre les sites ou serveurs miroirs)

M. FRASSA, rapporteur

46

Suppression de l'article

Adopté

M. MOHAMED SOILIHI

21 rect.

Assèchement des ressources publicitaires des sites propageant des contenus illicites 

Satisfait ou sans objet

Article additionnel après l'article 6

M. MOHAMED SOILIHI

22 rect.

Obligations de transparence à la charge des régies publicitaires

Adopté

Article 6 bis A (nouveau)
Spécialisation d'un parquet et d'une juridiction
en matière de lutte contre la haine en ligne

M. FRASSA, rapporteur

47

Cohérence rédactionnelle

Adopté

Article 6 bis B (nouveau)
Possibilité de prononcer une interdiction d'adresser des messages électroniques à une victime

M. FRASSA, rapporteur

48

Cohérence rédactionnelle

Adopté

Article 6 bis C (nouveau)
Compétence du juge unique en matière correctionnelle
à l'égard des refus de retrait d'un contenu haineux

M. FRASSA, rapporteur

49

Suppression de l'article

Adopté

Article additionnel après l'article 6 bis C (nouveau)

M. GRAND

10

Protection de l'identité des agents de la police et de la gendarmerie nationales

Irrecevable au titre de l'article 45 de la Constitution

M. GRAND

11

Protection du droit à l'image des fonctionnaires de la police nationale, des militaires et des agents des douanes

Irrecevable au titre de l'article 45 de la Constitution

M. GRAND

13

Protection du droit à l'image des fonctionnaires de la police nationale, des militaires et des agents des douanes

Irrecevable au titre de l'article 45 de la Constitution

Article additionnel après l'article 6 bis (nouveau)
Sensibilisation des élèves à la lutte
contre la diffusion des contenus haineux en ligne

M. GRAND

15

Sensibilisation aux violences en ligne en milieu scolaire 

Adopté

Article 6 ter (nouveau)
Formation des enseignants en matière de lutte
contre la diffusion des contenus haineux

M. FRASSA, rapporteur

50

Rédactionnel

Adopté

Article 7
Observatoire de la haine en ligne

M. FRASSA, rapporteur

51

Précision

Adopté

Article 9 (nouveau)
Entrée en vigueur

M. FRASSA, rapporteur

52

Modification de l'entrée en vigueur

Adopté

M. GRAND

7

Modification de l'entrée en vigueur

Rejeté

Article 10 (nouveau)
Application outre-mer

M. FRASSA, rapporteur

53

Rédactionnel

Adopté

LISTE DES PERSONNES ENTENDUES
ET CONTRIBUTIONS ÉCRITES

Mme Laetitia Avia, auteure de la proposition de loi

Ministère de la justice

Cabinet de la garde des Sceaux, ministre de la Justice

M. Frédéric Fourtoy, conseiller chargé de l'Europe et des relations internationales

Direction des affaires criminelles et des grâces (DACG)

M. Thibault Cayssials, chef de bureau de la législation pénale spécialisée

M. Pierre Beckers, rédacteur au bureau de la législation pénale spécialisée

Direction des affaires civiles et du Sceau (DACS)

Mme Clothilde Bellino, chef du bureau du droit des obligations

Ministère de l'économie et des finances, de l'action et des comptes publics

Cabinet du secrétaire d'État chargé du numérique

M. Antoine Darodes, directeur de cabinet

M. Nicolas Vignolles, chef de cabinet

Mme Carole Vachet, conseillère transformations numériques

Direction générale des entreprises (DGE)

Mme Chantal Rubin, chef de pôle structurel

Mme Mélanie Przrowski, conseillère parlementaire

Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC)

M. François-Xavier Masson, commissaire divisionnaire, chef de l'office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC)

Mme Aude Signourel, conseiller juridique de la sous-direction de la lutte contre la cybercriminalité (SDLC)

M. Laurent Monbrun, conseiller juridique du directeur général de la police nationale (DGPN)

Parquet du tribunal de grande instance de Paris

M. Rémy Heitz, procureur de la République

17e chambre du tribunal de grande instance de Paris

Mme Florence Lasserre-Jeannin, vice-présidente au tribunal de grande instance de Paris, présidente de la 17e chambre

Commission nationale de l'informatique et des libertés (CNIL)

Mme Marie-Laure Denis, présidente

Mme Guilda Rostama, juriste au service des affaires économiques

M. Alexandre Linden, personnalité qualifiée désignée pour opérer le contrôle du blocage administratif des sites provoquant à des actes de terrorisme ou en faisant l'apologie, ou à caractère pédopornographique.

Conseil supérieur de l'audiovisuel (CSA)

M. Roch-Olivier Maistre, président

M. Guillaume Blanchot, directeur général

M. Yannick Faure, directeur de cabinet

Commission nationale consultative des droits de l'homme (CNCDH)

M. Lucien Castex, membre de la CNCDH, co-rapporteur de l'avis de la CNCDH relatif à la proposition de loi visant à lutter contre les contenus haineux sur internet

M. Thomas Dumortier, conseiller juridique

Conseil national du numérique (CNNum)

Mme Marylou Le Roy, responsable juridique et des affaires institutionnelles

Mme Annie Blandin, membre du CNNum

Mission « Régulation des réseaux sociaux - expérimentation Facebook »

M. Benoît Loutrel, rapporteur

M. Frédéric Potier, préfet, délégué interministériel à la lutte contre le racisme, l'antisémitisme et la haine anti-LGBT

M. Serge Abiteboul, directeur de recherches, membre du collège de l'ARCEP

Conseil national des barreaux (CNB)

Me Sophie Ferry-Bouillon, avocate

Barreau de Paris

Me Basile Ader, avocat

Conférence des bâtonniers

Me Hélène Moutardier, avocate

Me Stéphane Compana, avocat

Facebook France

Mme Béatrice Oeuvrard, responsable affaires publiques, Facebook France

M. Anton' Maria Battesti, responsable affaires publiques, Facebook France

Mme Julie Ladousse, directrice juridique

M. Maxime Prades, directeur produit, Facebook Worldwide

Twitter France

Mme Audrey Herblin-Stoop, directrice des affaires publiques France et Russie

Mme Alice Garza, responsable des affaires publiques, Twitter France

Google France

M. Thibault Guiroy, responsable des relations institutionnelles

Mme Alice Keogh, responsable du support juridique en ligne

YouTube

Mme Clara Sommier, responsable des politiques publiques

Snap Inc.

M. Jean Gonié, directeur des affaires publiques

Qwant

M. Guillaume Champeau, directeur éthique et affaires juridiques

Mme Eléonor Lasou, conseillère affaires publiques (Cabinet Rivington)

Fédération française des télécoms (FFT)

M. Olivier Riffard, directeur des affaires publiques

Mme Alexandra Laffite, chargée de mission usages et contenus

M. Pierre Petillault, directeur adjoint des affaires publiques Orange

Mme Marie-Liane Lekpeli, chargée des affaires règlementaires Euro Information Télécom

Mme Claire Perset, directeur des relations institutionnelles ALTICE-SFR

Syntec numérique

Mme Philippine Lefèvre-Rottmann, déléguée aux relations institutionnelles

Mme Béatrice Oeuvrard, responsable affaires publiques, Facebook France

M. Clément Reix, chargé des affaires publiques et règlementaires de Dailymotion

Association des services internet communautaires (ASIC)

Mme Camille Vaziaga, Microsoft France

Tech in France

M. Loïc Rivière, délégué général

Mme Marjorie Volland, responsable affaires publiques

La Quadrature du Net

M. Martin Drago, juriste

M. Arthur Messaud, juriste

Association point de contact

M. Jean-Christophe Le Toquin, président

M. Quentin Aoustin, directeur des opérations

Mme Sarah Jane Mellor, chargée de mission affaires publiques

Génération numérique

M. Cyril di Palma, délégué général

e-Enfance

Mme Justine Atlan, directrice générale

M. Laurent Bayon, avocat-magistrat en disponibilité, administrateur de l'association e-Enfance

M. Samuel Comblez, responsable du numéro vert national pour la protection des mineurs sur internet

Respect Zone

M. Érice Lauvaux, responsable du cercle des juristes

Mme Anne-Charlotte Gros, membre de Respect Zone

Me Alexandre Archambault, avocat au barreau de Paris, spécialiste du droit du numérique

CONTRIBUTIONS ÉCRITES

Me Dan Shefet, avocat au barreau de Paris, fondateur de l'Association for Accountability and Internet Democracy

Change.org

Microsoft

French American Bar Association

Fédération du e-commerce et de la vente à distance (FEVAD)

Union des marques


* 1 Avis sur la lutte contre les discours de haine sur internet (Assemblée plénière - 12 février 2015).

* 2 Contre 4 500 pour terrorisme et 20 000 pour atteinte aux mineurs. La grande majorité des signalements (90 000) relevait de l'escroquerie et de l'extorsion.

* 3 Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur.

* 4 À savoir les personnes dont l'activité est d'offrir un accès à des services de communication au public en ligne.

* 5 À savoir les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services.

* 6 Karim Amellal, Laëtitia Avia, Gil Taïeb, Renforcer la lutte contre le racisme et l'antisémitisme sur Internet, 20 septembre 2018.

* 7 Mission « Régulation des réseaux sociaux - Expérimentation Facebook », Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne, mai 2019.

* 8 Le devoir de souveraineté numérique, rapport n° 7 (2019-2020) de M. Gérard LONGUET, fait au nom de la commission d'enquête, 1 octobre 2019.

* 9 Résolution n° 31 (2018-2019) du 30 novembre 2018 sur la responsabilisation partielle des hébergeurs de contenus numériques.

* 10 CJUE, 23 mars 2010, Google c. Louis Vuitton Malletier, C-236/08 à C-238/08

* 11 Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur.

* 12 À savoir les personnes dont l'activité est d'offrir un accès à des services de communication au public en ligne.

* 13 À savoir les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services.

* 14 « Service de communication au public en ligne reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics ».

* 15 Ajoutés à l'initiative de la rapporteure de la commission des lois de l'Assemblée nationale, suivant la recommandation du Conseil d'État dans son avis sur la proposition de loi, il s'agit juridiquement des « [services de communication au public en ligne reposant] sur le classement ou le référencement, au moyen d'algorithmes informatiques, de contenus proposés ou mis en ligne par des tiers ».

* 16 Article D.111-15 du code de la consommation.

* 17 Selon le Conseil constitutionnel, en effet, les 2 et 3 du I de l'article 6 de la LCEN « ne sauraient avoir pour effet d'engager la responsabilité d'un hébergeur qui n'a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n'a pas été ordonné par un juge » (décision n° 2004-496 DC du 10 juin 2004, cons. 9).

* 18 La responsabilité pénale en cas de non-retrait du contenu ne repose ainsi pas sur une infraction spécifique, et le fondement sur lequel elle pourrait être engagée est sujet à débat. Sans doute en partie du fait de cette difficulté, aucune poursuite n'a à ce jour été engagée pour ce motif selon les informations obtenues du ministère de la justice lors de son audition.

Comme le relève la doctrine : « Cette disposition n'a jamais eu vocation à édicter de sanction. Il ne s'agit donc pas d'une incrimination ; elle ne crée pas une infraction nouvelle. Au mieux, ce texte définit un mode particulier de participation à une infraction commise par d'autres. Compte tenu du fait qu'il n'y a aucune raison de déroger ici à la responsabilité qu'assure à titre principal le directeur de la publication, il faut considérer que ce texte institue une sorte de complicité d'un genre nouveau » (Emmanuel Dreyer, « Responsabilités civile et pénale des médias » LexisNexis, 3e éd. 2012; cité par Laure Marino « Responsabilités civile et pénale des fournisseurs d'accès et d'hébergement », JurisClasseur Communication, fasc. 670, août 2015 (mis à jour en décembre 2017)).

* 19 Par renvoi aux articles 131-38 et 131-39 du code pénal, soit cinq fois le montant de l'amende pour les personnes physiques.

* 20 La possibilité a été ajoutée au texte par un amendement de séance à l'Assemblée nationale (article 1er ter) mais, comme le relevait justement le Conseil constitutionnel au sujet de l'infraction de notification abusive réprimée dans le cadre général de la LCEN « Il est vrai que la loi prévoit un garde-fou contre les dénonciations qui auraient pour seul objet d'obtenir le retrait de l'information (4 du I de l'article 6). Mais un tel détournement de procédure est tout sauf évident et, étant sanctionné pénalement, il ne sera reconnu que restrictivement et tardivement. Ce garde-fou ne mettrait donc l'hébergeur que faiblement à l'abri des dénonciations intempestives ».

* 21 Déjà largement déployés pour lutter contre des infractions qui ont un caractère d'évidence ou peuvent bénéficier de recoupements avec des bases de données d'images (terrorisme, pédopornographie), l'utilisation d'algorithmes ou de techniques automatisées de filtrage pourrait s'étendre indument, sans garantir une intervention humaine pour qualifier certaines infractions.

* 22 Selon l'exposé sommaire de l'amendement 299 du Gouvernement adopté en Séance à l'Assemblée nationale : « Sa responsabilité pénale pourra être engagée, dans les conditions du droit commun de l'article 121-1 du code pénal (délégation de pouvoirs et moyens mis à sa disposition pour mettre en oeuvre les obligations de la présente loi), en tant qu'auteur ou complice de l'infraction visée à l'article 6-2 de la loi. »

* 23 L'article 121-3 du code pénal dispose : « Il n'y a point de crime ou de délit sans intention de le commettre.

« Toutefois, lorsque la loi le prévoit, il y a délit en cas de mise en danger délibérée de la personne d'autrui.

« Il y a également délit, lorsque la loi le prévoit, en cas de faute d'imprudence, de négligence ou de manquement à une obligation de prudence ou de sécurité prévue par la loi ou le règlement, s'il est établi que l'auteur des faits n'a pas accompli les diligences normales compte tenu, le cas échéant, de la nature de ses missions ou de ses fonctions, de ses compétences ainsi que du pouvoir et des moyens dont il disposait. »

* 24 La commission cite à ce titre l'obligation de nommer un représentant légal sur le territoire français (article 3); la nécessité de fournir un mécanisme de notification dans la langue de l'utilisateur (article 2); l'obligation d'adopter des mesures appropriées afin d'éviter la rediffusion de contenus illégaux (article 2, paragraphe 5 bis); l'obligation de se conformer aux lignes directrices et recommandations du Conseil supérieur de l'audiovisuel (article 4), ainsi qu'aux obligations de transparence et de rapport (vraisemblablement en français) déterminées par le Conseil supérieur de l'audiovisuel (article 3).

* 25 Ces observations ont été publiées dans la presse spécialisée (par les journaux NextINpact et Contexte), elles sont disponibles en ligne à l'adresse suivante :

https://www.nextinpact.com/news/108451-loi-contre-cyberhaine-telecharger-lettre-incendiaire-adressee-par-commission-europeenne.htm

* 26 Article 14 « Hébergement »

* 27 I de l'article 6

* 28 Le champ d'application matériel des infractions visées a été régulièrement étendu par le législateur et couvre désormais un vaste ensemble assez disparate :

- apologie des crimes de guerres et des crimes contre l'humanité, l'incitation à la haine raciale et la diffusion d'images pédopornographiques prévues initialement en 2004 ;

- incitation à la violence et les atteintes à la dignité humaine en 2007 et 2016 ;

- incitation aux violences faites aux femmes en 2010 ;

- incitation à la haine à l'égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap ainsi que la provocation à la commission d'actes de terrorisme et leur apologie en 2014 ;

- et incitation aux violences sexistes en 2018.

* 29 Enquête conduite par Renaissance numérique et Génération numérique en association avec la DILCRAH et le Comité interministériel à la prévention de la délinquance et de la radicalisation sur l'exposition des jeunes aux contenus choquants sur internet, mars 2018.

Les résultats de cette enquête sont disponibles à l'adresse suivante :

https://www.renaissancenumerique.org/ckeditor_assets/attachments/252/enquete_rn_gn_mars2018.pdf

* 30 Article 3-1 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

* 31 Assurer le respect de l'expression pluraliste des courants de pensée et d'opinion dans les programmes de radio et de télévision (article 13 de la loi n° 86-1067 du 30 septembre 1986, précitée).

* 32 Contrôler les émissions publicitaires afin de veiller « au respect de la dignité de toutes les personnes et à l'image des femmes (article 14 de la loi n° 86-1067 du 30 septembre 1986 précitée), de veiller à ce que les programmes audiovisuels « ne contiennent aucune incitation à la haine ou à la violence pour des raisons de race, de sexe, de moeurs, de religion ou de nationalité » (article 15).

* 33 Décision n° 2011-625 DC du 10 mars 2011, Loi d'orientation et de programmation pour la performance de la sécurité intérieure (LOPPSI), cons. 5 à 8.

* 34 La notification peut intervenir sans demande préalable de retrait si l'éditeur de service n'a pas fourni les informations permettant de l'identifier et de le contacter.

* 35 Le rapport de la commission des lois de l'Assemblée nationale cite en particulier le site « Démocratie participative », interdit en novembre 2018 mais qui fait l'objet, depuis lors, de duplications de sites analogues sous différents noms de domaine.

* 36 Conseil d'État, avis n° 397368 du 16 mai 2019, § 37.

* 37 Aux termes de article L. 321-9 du code de l'éducation, il est prévu une « éducation aux droits et aux devoirs liés à l'usage de l'Internet et des réseaux, dont la protection de la vie privée [...] de la liberté d'opinion et de la dignité de la personne humaine ». En outre, cette formation « contribue [...] à l'apprentissage de la citoyenneté numérique » et comporte une sensibilisation contre le cyberharcèlement.

* 38 Aux termes de l'article L. 721-2 du code de l'éducation, ils « forment les étudiants et les enseignants à la maîtrise des outils et ressources numériques, à leur usage pédagogique ainsi qu'à la connaissance et à la compréhension des enjeux liés à l'écosystème numérique ». En outre, ils préparent les futurs enseignants et personnels d'éducation « aux enjeux [...] de l'éducation aux médias et à l'information ». Ils organisent par ailleurs des « formations à la manipulation de l'information ».