CHAPITRE II
DEVOIR DE COOPÉRATION DES OPÉRATEURS
DE PLATEFORME DANS LA LUTTE CONTRE
LES CONTENUS HAINEUX EN LIGNE

Article 2
(art. 6-2 et 6-3 [nouveaux] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Obligations de moyens mises à la charge des plateformes en matière de traitement des notifications de contenus haineux en ligne

L'article 2 de la proposition de loi vise à organiser une régulation administrative des grandes plateformes en mettant à leur charge de nouvelles obligations de moyens en matière de traitement des notifications de contenus haineux en ligne.

Celles-ci doivent notamment prévoir un dispositif technique de notification directement accessible depuis les contenus, l'envoi d'un accusé de réception et d'informations sur les suites données, la mobilisation de moyens humains et technologiques adaptés à leur traitement rapide, et un mécanisme pour contester les décisions de retrait ou de maintien de contenus.

Votre rapporteur estime que l'imposition d'obligations de moyens sous la supervision d'un régulateur armé de sanctions dissuasives est effectivement la solution la plus pertinente pour contraindre les grandes plateformes à une lutte plus efficace contre les discours de haine véhiculés sur les réseaux.

Par une première série de modifications, la commission des lois a souhaité mieux définir le champ des opérateurs concernés par la nouvelle régulation des plateformes qui seront désormais assujettis à des obligations de moyens renforcés, sous la supervision du CSA (amendements COM-32 du rapporteur, COM-56 de notre collègue Yves Bouloux, rapporteur pour avis au nom de la commission des affaires économiques) :

D'une part, sont repris les principaux éléments de la proposition de loi transmise en incluant les réseaux sociaux à forts trafic (dépassant un seuil d'activité fixé par décret pris en Conseil d'État), mais en excluant les moteurs de recherche (en raison de leur rôle bien moins déterminant que les réseaux dans la propagation de la haine, et surtout de leurs caractéristiques techniques différentes - qui rend quasiment impossible de désindexer un seul propos haineux précis sans rendre inaccessible tout le reste d'une page ou d'un site pourtant licite).

D'autre part, est introduit un critère plus souple de « viralité » permettant au CSA d'attraire dans le champ de sa régulation un site ou service qui, bien qu'ayant une activité moindre, joue pourtant un rôle significatif dans la diffusion en ligne des propos haineux en raison :

- de l'importance de son activité, notamment la portée de son audience, le nombre de ses utilisateurs ou sa part de marché sur son secteur,

- et de la nature technique du service proposé, notamment l'implication des utilisateurs dans la production et la diffusion de contenu, ou la facilité de partage automatisé et massif de contenus.

Une deuxième série de modifications apportées au texte par la commission vise à tenir compte des observations de la commission européenne et à rendre ce dispositif plus respectueux du droit européen :

- en proportionnant les obligations mises à la charge des plateformes au risque d'atteinte à la dignité humaine (amendements COM-33 du rapporteur, COM-57 de notre collègue Yves Bouloux, rapporteur pour avis au nom de la commission des affaires économiques, et sous-amendement COM-55 rect. de notre collègue Thani Mohammed Soilihi) ;

- et en écartant toute obligation générale de surveillance des réseaux (amendements identiques COM-37 du rapporteur, COM-58 de notre collègue Yves Bouloux, rapporteur pour avis au nom de la commission des affaires économiques et COM-24 rect. de notre collègue Thani Mohammed Soilihi, qui suppriment l'obligation générale faite aux plateformes d'empêcher la réapparition de tout contenu illicite - « notice and stay down » contraire au droit européen).

Une troisième série de modifications ont été adoptées par la commission afin de clarifier les procédures de notifications (amendements COM-35 et COM-36 du rapporteur):

- en prévoyant une exigence générale de célérité dans les accusés de réception ("sans délai"/"promptement") ; cette souplesse, dont la commission européenne rappelle la nécessité dans ses observations, sera appréciée de façon globale par le régulateur, le CSA pouvant naturellement sanctionner des délais moyens trop longs;

- en supprimant l'information systématique de l'auteur du contenu litigieux au stade de la simple notification par un tiers ; une telle obligation est en effet contreproductive, risquant de soumettre les auteurs de contenus licites mais polémiques à une forme de spam voire à des "raids numériques" (l'information des auteurs de contenus doit intervenir s'ils sont effectivement retirés, et non dès le stade de la notification par un tiers avant tout examen par la plateforme) ;

- en clarifiant la procédure de contre-notification ou d'appel (qui suit le retrait par une plateforme d'un contenu illicite ou son refus), pour préciser que l'auteur d'un contenu retiré doit être informé de cette décision et des raisons qui l'ont motivée, ainsi que de la possibilité de la contester. Est toutefois également ménagée une importante exception d'ordre public à cette obligation d'information, pour préserver les enquêtes en cours.

Au bénéfice d'un amendement COM-34 de clarification rédactionnelle du rapporteur, votre commission a adopté l'article 2 ainsi modifié .

Article 3
(art. 6-3 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Autres obligations de moyens mises à la charge des plateformes en matière d'information et de coopération avec les autorités

L'article 3 de la proposition de loi complète les nouvelles obligations de moyens imposées aux plateformes en ligne par des exigences d'information publique des utilisateurs sur la modération (règles, recours, sanctions), de transparence et de coopération avec les autorités (signalements aux autorités publiques et désignation d'un représentant légal en France).

Cet article regroupe ainsi les autres obligations de moyens imposées aux grandes plateformes en ligne :

- information publique, claire et détaillée, sur les modalités de modération ;

- transparence des moyens humains et technologiques ainsi que de procédures consacrées à la lutte contre la haine en ligne ;

- sensibilisation spécifique des mineurs et de leurs parents lors de l'inscription à leur service ;

- prompte information des autorités publiques sur les contenus qui leurs sont notifiés ;

- désignation d'un représentant légal, interlocuteur référent sur le territoire français, dont les missions consisteront à mettre en oeuvre ces obligations et à répondre aux demandes de l'autorité judiciaire ;

- formulation simple et non discriminatoire des conditions générales d'utilisation de leurs services relatives aux contenus haineux.

Au bénéfice de quatre amendements de clarification rédactionnelle ( COM-38, COM-39, COM-40 et COM-41 du rapporteur), votre commission a adopté l'article 3 ainsi modifié .

Article 3 bis
(art. 6 de la loi n° 2004-575 pour la confiance dans l'économie numérique)
Renforcement de l'amende pour non-coopération
avec l'autorité judiciaire en matière de lutte
contre les contenus illicites

L'article 3 bis de la proposition de loi est issu de l'adoption par la Commission des lois de l'Assemblée nationale d'un amendement de la rapporteure. Il reprend le I de l'article 5 de la proposition de loi initiale, qui vise à tripler le montant de l'amende encourue en cas de méconnaissance, par un acteur numérique, de ses obligations de coopération avec l'autorité judiciaire en matière de lutte contre les contenus illicites.

Le 1 du VI de l'article 6 de la LCEN prévoit les sanctions applicables aux personnes physiques et morales qui :

- n'ont pas satisfait aux obligations définies aux quatrième et cinquième alinéas du 7 du I de l'article ;

- n'ont pas satisfait à celles prévues à l'article 6-1 de la loi ;

- n'ont pas conservé les éléments d'information visés au II de l'article ;

- ou n'ont pas déféré à la demande d'une autorité judiciaire d'obtenir communication desdits éléments.

En l'état du droit, les quatrième et cinquième alinéas du 7 du I de l'article 6 de la LCEN prévoient l'obligation pour les personnes visées par la LCEN de mettre en place un dispositif facilement accessible et visible. Ce dispositif doit permettre à toute personne de porter à leur connaissance certains contenus illicites liés à des infractions d'une particulière gravité (visées par la loi du 29 juillet 1881 sur la liberté de la presse et le code pénal). Elles ont également l'obligation, d'une part, d'informer promptement les autorités publiques compétentes de toutes activités illicites qui leur seraient signalées à ce titre, et, d'autre part, de rendre publics les moyens qu'elles consacrent à la lutte contre ces activités illicites.

Ces mêmes obligations sont prévues pour la protection des usagers contre les sites de jeux d'argent illégaux et la dénonciation de ces sites aux autorités.

La proposition de loi prévoit par ailleurs dans son article 1 er que ces sanctions s'appliqueront également en cas de non retrait en 24 heures de ces contenus illicites par les plateformes en ligne.

Cet article propose de porter le montant de l'amende prévue pour les personnes physiques à 250 000 euros, ce qui, en application de l'article 131-38 du code pénal, porterait l'amende à 1 250 000 euros pour les personnes morales.

Votre commission estime proportionnée cette augmentation des sanctions à l'égard des personnes visées par la LCEN. Elle considère toutefois que, par cohérence, cette augmentation doit s'appliquer non seulement aux opérateurs de plateformes (commerciales ou non) et aux fournisseurs d'accès internet mais également aux éditeurs de sites internet qui sont visés au 2 du VI de l'article 6.

Elle a, en conséquence, adopté l'amendement COM-42 de votre rapporteur, afin que l'amende prévue soit également applicable aux éditeurs de services en lignes.

Votre commission a adopté l'article 3 bis ainsi modifié .

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page