Allez au contenu, Allez à la navigation

Proposition de loi visant à lutter contre la haine sur internet

5 février 2020 : Lutte contre la haine sur internet ( rapport - nouvelle lecture )

EXAMEN DES ARTICLES

CHAPITRE IER
SIMPLIFICATION DES DISPOSITIFS DE NOTIFICATION DE CONTENUS HAINEUX EN LIGNE

Article 1er
(art. 6 et 6-2 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Obligation de suppression en une heure et blocage administratif des contenus à caractère terroriste ou pédopornographique ;
obligation pour les grandes plateformes de supprimer en 24 heures certains contenus haineux manifestement illicites

L'article 1er adopté par l'Assemblée nationale tend à créer une nouvelle obligation de suppression de certains contenus « haineux » manifestement illicites par les grandes plateformes, dans les 24 heures après leur notification par toute personne, dont la méconnaissance serait pénalement réprimée (250.000 euros d'amende).

Y a été ajoutée, à l'initiative du Gouvernement, une obligation pour tout hébergeur et tout éditeur de supprimer en une heure les contenus à caractère terroriste ou pédopornographique signalés par l'administration, sous peine de sanctions pénales (un an de prison et 250.000 euros d'amende, portés au quintuple pour les personnes morales).

La commission a supprimé, comme en première lecture, ces dispositifs pénaux juridiquement fragiles au profit d'obligations de moyens sous la régulation du CSA.

1. Sur le retrait en 24 heures des contenus haineux par les grandes plateformes

1.1 Le texte adopté par l'Assemblée nationale en nouvelle lecture : le rétablissement du délit de « non retrait » des contenus haineux dans une version encore remaniée

L'Assemblée nationale a rétabli en nouvelle lecture la création d'un nouveau délit sanctionnant l'absence de retrait en 24 heures de certains contenus haineux signalés aux plateformes (moteurs de recherche ou réseaux sociaux) dont l'activité dépasse des seuils déterminés par décret.

À cette occasion, les députés ont modifié le champ matériel de ce dispositif - pourtant déjà largement amendé par eux en première lecture, tant en commission qu'en séance. Ajustant à nouveau la liste des types de contenus illicites concernés par l'obligation de retrait, les députés ont conservé l'ajout du négationnisme proposé par le Sénat (art. 24 bis de la loi du 29 juillet 1881 sur la liberté de la presse) ; ils ont exclu les infractions de traite des êtres humains (art. 225-4-1 du code pénal) et de proxénétisme (art. 225-5 et 225-6 du même code), pourtant introduites par eux en première lecture ; de manière plus surprenante, ils ont exclu l'exposition des mineurs à des messages violents, incitant au terrorisme, ou à des jeux dangereux (art. 227-24 du même code), tout en conservant l'exposition des mineurs à des messages pornographiques.

Le champ matériel des contenus concernés par la proposition de loi :
des hésitations à chaque lecture, des choix contestables,
un résultat peu lisible

Fondement textuel

Description de l'infraction

Texte initial

AN
1re lect.

AN
Nlle lect.

Infractions de presse
(loi du 29 juillet 1881 sur la liberté de la presse)

Cinquième alinéa de l'article 24

Apologie de certains crimes (atteinte volontaire à la vie, atteinte volontaire à l'intégrité de la personne, agression sexuelle, vol aggravé, extorsion, destruction, dégradation ou détérioration volontaire dangereuse pour les personnes), des crimes de guerre, des crimes contre l'humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage ou des crimes et délits de collaboration avec l'ennemi, y compris si ces crimes n'ont pas donné lieu à la condamnation de leurs auteurs

OUI

OUI

OUI

Sixième alinéa de l'article 24

Cris ou chants séditieux

OUI

NON

NON

Septième alinéa de l'article 24

Provocation à la discrimination, à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou
de leur non-appartenance à une ethnie, une nation, une race ou une religion

NON

OUI

OUI

Huitième alinéa de l'article 24

Provocation à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l'égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du code pénal

NON

OUI

OUI

Article 24 bis

Contestation de l'existence d'un ou plusieurs crimes contre l'humanité

NON

NON

OUI

Troisième alinéa de l'article 33

Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée

OUI

OUI

OUI

Quatrième alinéa de l'article 33

Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap

OUI

OUI

OUI

Infractions relevant du droit pénal général
(code pénal)

Article 222-33

Harcèlement sexuel

NON

OUI

OUI

Article 225-4-1

Traite des êtres humains

NON

OUI

NON

Articles 225-5
et 225-6

Proxénétisme

NON

OUI

NON

Article 227-23

Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d'image pornographique d'un mineur ; consultation habituelle ou en contrepartie d'un paiement d'un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs

NON

OUI

OUI

Article 227-24

Fabrication, transport, diffusion ou commerce de message violent, incitant au terrorisme, à des jeux dangereux ou pornographique susceptible d'être vu ou perçu par un mineur

NON

OUI

OUI
message porno-
graphique

NON
autre message

Article 421-2-5

Provocation directe à des actes de terrorisme ou apologie publique de ces actes

NON

OUI

OUI

Les députés ont réintégré les moteurs de recherche parmi les plateformes soumises à l'obligation de retrait en 24 heures (et par ricochet à la régulation du CSA) - alors que le Sénat n'avait conservé que les réseaux sociaux. Selon la rapporteure, Laetitia Avia, ces deux catégories d'opérateurs devraient en effet être traitées de la même manière « à raison de leur interaction active avec les contenus, dont ils favorisent la diffusion accélérée ». Concernant les modalités de suppression d'un contenu litigieux, la rédaction retenue en nouvelle lecture se veut plus précise et n'exige plus des moteurs son « déréférencement » (modification de la base d'indexation), mais seulement son « [retrait] de la page de résultats des recherches » (modification de l'affichage en réponse à une requête).

Les députés ont également introduit plusieurs corrections au dispositif pénal lui-même :

- la peine de prison a été supprimée, au profit du seul prononcé d'une amende, dont le montant serait désormais fixé à 250 000 euros (peine énoncée de façon autonome au nouvel article 6-2, sans renvoi aux sanctions pénales prévues au VI de l'article 6 de la LCEN, excluant de ce fait le quintuplement du montant et les peines complémentaires qui y sont prévues pour les personnes morales) ; selon la rapporteure, « l'utilité [de l'emprisonnement] n'est pas avérée s'agissant de personnes morales », ce que n'avait pas manqué de relever la commission en première lecture au Sénat ;

- le critère d'intentionnalité du délit de « non-retrait » de contenu haineux a été précisé. La rédaction choisie, à l'inverse de ce que soutient2(*) la rapporteure de l'Assemblée nationale, élargit encore plus les cas d'engagement de la responsabilité pénale des plateformes, puisque l'infraction pourra désormais explicitement être constituée même en cas de simple négligence le caractère intentionnel [...] peut résulter de l'absence d'examen proportionné et nécessaire du contenu notifié »). Pour se conformer aux remarques sévères de la Commission européenne3(*) et respecter la directive e-commerce, le rapporteur estime que le législateur doit, au contraire, mieux encadrer les cas d'engagement de responsabilité des plateformes en prévoyant explicitement des clauses d'exonération (en cas d'afflux massif de notifications, de problèmes techniques ou humains de modération insurmontables - pannes, grèves -, de nécessité de contextualiser certains contenus, etc.)

Par le jeu d'un renvoi, a été rappelée la possibilité de recours a posteriori devant un juge (par la voie du référé prévu par la LCEN4(*) ou du référé conservatoire civil de droit commun5(*)).

Enfin, les contenus notifiés comme illicites devront être conservés par les plateformes pendant toute la durée de la prescription, et ce afin de faciliter les enquêtes ultérieures sur les infractions que constituent les contenus retirés.

1.2 La position de la commission des lois du Sénat : écarter un dispositif pénal insatisfaisant pour privilégier une obligation de moyens sanctionnée par le régulateur

Confirmant l'approche du Sénat en première lecture, la commission des lois a de nouveau écarté l'instauration d'un délit de « non-retrait » en 24 heures de tout contenu haineux notifié, pour lui préférer la création de nouvelles obligations de moyens, sous le contrôle du régulateur (amendement COM-2 du rapporteur).

Jugé inabouti voire dangereux par de nombreux acteurs tant de la société civile que de l'économie numérique, le dispositif pénal apparaît toujours trop déséquilibré aux dépens de la liberté d'expression (risque de « sur-censure » ou de « sur-blocage » par précaution de propos licites mais polémiques, mise à l'écart du juge judiciaire), source d'effets pervers (impossibilité de prioriser les retraits en fonction de la gravité des contenus illicites, renforcement de la modération purement algorithmique, incitation aux raids numériques), juridiquement fragile (problèmes d'imputabilité, d'intentionnalité, d'articulation avec le régime général de la LCEN) et probablement contraire au droit de l'Union européenne.

Il est en effet préférable de privilégier les solutions qui conservent toute leur place à la puissance publique - la régulation des plateformes sous l'égide d'une autorité administrative indépendante - plutôt que des innovations pénales juridiquement incertaines, déléguant toujours davantage aux acteurs privés et aux géants américains du numérique la responsabilité d'exercer sur les réseaux la police de la liberté d'expression.

Il ne s'agit évidemment pas de se résoudre à l'inaction, mais d'adapter l'action publique à la spécificité d'internet et des plateformes : tout en refusant de créer ce nouveau délai couperet pénalement sanctionné au moindre manquement (une obligation de résultat), la commission a réaffirmé que le délai de 24 heures pour le retrait d'un contenu manifestement haineux doit être un objectif à atteindre pour les grandes plateformes, consacrant ici une obligation juridique de moyens (amendement COM-5 du rapporteur).

Pour mémoire, le régulateur se voit d'ailleurs confier à cette fin de solides pouvoirs de contrôle (passant au besoin par la communication des algorithmes utilisés) et de sanction (l'amende administrative pouvant aller jusqu'à 4 % du chiffre d'affaires annuel) afin de s'assurer que les plateformes mettent en oeuvre suffisamment de ressources humaines et techniques pour pouvoir remplir cet objectif.

La commission des lois a également confirmé la position du Sénat en première lecture concernant l'obligation de conservation des contenus illicites retirés par les hébergeurs en vue de faciliter d'éventuelles poursuites ultérieures (amendement COM-7 du rapporteur), souhaitant encadrer plus strictement cette conservation (temporaire, et en vue d'une transmission à la justice) en renvoyant à un décret en Conseil d'État, pris après avis de la CNIL, la fixation de sa durée et de ses modalités (mesures de sécurité, notamment).

Exiger, comme l'imposent les députés, une conservation obligatoire des contenus illicites « pendant le délai de prescription de l'action publique », sans plus de précision, poserait de graves et nombreux problèmes :

- la durée de conservation serait variable en fonction de chacune des différentes infractions que constituent les contenus retirés ; or ces infractions ne sont pas de même nature - les unes relèvent du régime spécifique du droit de la presse instauré par la loi de 1881, les autres du droit pénal général ; elles ont aussi chacune des délais variables de prescription ;

- le calcul de cette durée est lui-même d'une appréciation complexe, qui incomberait au cas par cas aux hébergeurs, alors que ce délai dépend de la qualification juridique de l'infraction et d'éléments extérieurs (notamment les actes ou circonstances interruptifs de prescription, dont les intermédiaires techniques n'ont pas forcément connaissance) ;

- au total, la durée de conservation des contenus retirés risque d'être manifestement excessive, notamment au regard du droit européen de la protection des données des personnes concernées par les contenus litigieux (RGPD et directive « police-justice »).

À ce titre, le rapporteur s'inquiète vivement de la nature extrêmement sensible des fichiers que risquent de constituer ainsi les hébergeurs afin de conserver sur de longues périodes tous les contenus illicites signalés : c'est prendre le risque de voir s'accumuler de véritables banques de données privées de contenus odieux exposés aux risques de fuites ou de détournements.

La commission des lois a enfin souhaité, comme en première lecture, mieux définir le champ des opérateurs concernés par la nouvelle régulation des plateformes qui seront désormais assujettis à des obligations de moyens renforcés, sous la supervision du CSA :

- d'une part, en excluant les moteurs de recherche (amendement COM-3 du rapporteur) en raison de leur rôle bien moins déterminant que les réseaux dans la propagation de la haine6(*), et surtout de leurs caractéristiques techniques différentes7(*). Le rapporteur note à cet égard que la loi allemande « NetzDG », dont les députés se prévalent souvent comme modèle, exclut les moteurs de recherche de son périmètre ;

- d'autre part, en réintroduisant un critère plus souple de « viralité » (amendement COM-4 du rapporteur) permettant au CSA d'attraire dans le champ de sa régulation un site ou service qui, bien qu'ayant une activité moindre, joue pourtant un rôle significatif dans la diffusion en ligne des propos haineux en raison de l'importance de son activité (notamment la portée de son audience, le nombre de ses utilisateurs ou sa part de marché sur son secteur), et de la nature technique du service proposé (notamment l'implication des utilisateurs dans la production et la diffusion de contenu, ou la facilité de partage automatisé et massif de contenus).

2. Sur le retrait en une heure des contenus à caractère terroriste ou pédopornographique : attendre l'adoption du règlement européen et écarter le vote précipité d'un dispositif juridiquement fragile

L'Assemblée nationale a introduit en nouvelle lecture au sein de l'article 1er une nouvelle obligation pour tout hébergeur et tout éditeur de supprimer en une heure les contenus à caractère terroriste ou pédopornographique signalés par l'administration, sous peine de sanctions pénales (un an de prison et 250.000 euros d'amende, portés au quintuple pour les personnes morales).

Le champ étroit du blocage administratif : une exception au contrôle
du juge justifiée par l'extrême gravité et l'évidence des infractions combattues

La LCEN autorise l'administration à ordonner directement aux intermédiaires techniques le blocage de certains sites véhiculant des contenus de nature terroriste ou pédopornographique (article 6-1).

Cette exception au contrôle préalable par un juge des atteintes à la liberté d'expression est possible, exceptionnellement8(*), en raison du caractère particulièrement grave et d'évidence de l'illicéité alléguée.

L'administration responsable de l'émission et du suivi de ces notifications est l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC).

À ce titre, le blocage administratif est soumis à des conditions et garanties particulières :

- un principe de subsidiarité : l'autorité administrative doit d'abord demander aux éditeurs de services internet ou aux hébergeurs le retrait de ces contenus, en en informant simultanément les fournisseurs d'accès internet (FAI)9(*) ; c'est en l'absence de retrait de ces contenus dans un délai de 24 heures qu'elle peut notifier la liste des adresses des contenus incriminés aux FAI qui « doivent alors empêcher sans délai l'accès à ces adresses ». Le manquement à ces obligations est sanctionné pénalement par un an d'emprisonnement et 75 000 euros d'amende (montant quintuplé pour les personnes morales) ;

- un contrôle administratif indépendant : une personnalité qualifiée, désignée en son sein par la Commission nationale de l'informatique et des libertés « s'assure de la régularité des demandes de retrait et des conditions d'établissement, de mise à jour, de communication et d'utilisation de la liste [des adresses des contenus incriminés]» et peut, à tout moment, recommander à l'autorité administrative d'y mettre fin, voire saisir la juridiction administrative si l'autorité administrative ne suit pas cette recommandation.

Pour la période de mars 2018 à février 2019, la personnalité qualifiée a recensé 18 014 demandes de retrait de contenus (10 091 de sites de nature terroriste et 7 923 de sites à caractère pédopornographique) pour 13 421 contenus retirés (6 796 sites de nature terroriste et 6 625 sites à caractère pédopornographique), 879 demandes de blocage (82 sites de nature terroriste et 797 sites à caractère pédopornographique) et 6 581 demandes de déréférencement (2 294 sites de nature terroriste et 3 587 sites à caractère pédopornographique).

À l'initiative de son rapporteur (amendement COM-1), la commission des lois du Sénat a supprimé cette nouvelle obligation adoptée à l'initiative du Gouvernement, par un amendement de dernière minute, sans débat approfondi, et n'entretenant qu'un lien très indirect avec le texte restant en discussion.

Elle a estimé que la gravité du sujet méritait mieux que l'adoption précipitée d'un dispositif aussi fragile juridiquement, déjà rejeté à ce titre en première lecture par le Sénat.

En effet, d'une part, le projet de règlement européen10(*) dont s'inspirent maladroitement ces dispositions est toujours en cours de négociation. Il fait encore l'objet de vifs débats et n'inclut pas à ce stade les contenus pédopornographiques.

D'autre part, le dispositif proposé apparaît particulièrement déséquilibré, ne reprenant aucune des principales garanties envisagées par le projet de règlement européen :

- en cas de force majeure ou d'impossibilité technique insurmontable, le projet de règlement prévoit des cas d'exonération de responsabilité qui sont absents du texte adopté par l'Assemblée nationale ;

- en cas d'erreur de l'administration, rien n'est prévu pour préserver les contenus retirés afin de les rétablir à la demande de l'administration ou d'un juge.

En outre, faute du moindre début d'étude d'impact, le Parlement ne dispose à ce jour d'aucune évaluation du coût de cette mesure, qui s'appliquerait à tous les hébergeurs quels que soient leur taille ou leurs moyens. Or, elle impliquera pour beaucoup de lourds investissements (astreintes de personnel, adaptation des systèmes d'information) que l'État devra inévitablement compenser, en application de la jurisprudence du Conseil constitutionnel sur l'indemnisation des « surcoûts spécifiques » imposés aux intermédiaires techniques pour des motifs d'ordre public11(*).

Au surplus, l'absence de notification régulière à la Commission européenne des dispositions de l'article 1er relatives au retrait en une heure de contenus terroristes ou pédopornographiques risque de fragiliser ce dispositif voire d'en paralyser complètement l'application.

En effet, conformément à la directive de 2015 visant à prévenir les obstacles au commerce12(*), les États membres doivent informer la Commission de tout projet de règle technique relative aux services de la société de l'information ; cette notification doit intervenir à un stade où les modifications du projet sont encore possibles, les autorités européennes bénéficiant d'une période minimale de statu quo avant une adoption définitive pour faire part de leurs observations ou critiques13(*) ; selon la Cour de justice de l'Union européenne14(*), est inopposable aux particuliers et doit être annulé ou laissé inappliqué tout texte adopté en méconnaissance de ces obligations (absence de notification ou violation du délai de statu quo).

La France a ainsi notifié en 2014 le projet d'article 6-1 de la LCEN, relatif au blocage administratif en 24 heures des contenus terroristes et pédopornographiques, tout comme son décret d'application.

Si le Gouvernement a notifié la présente proposition de loi dans sa version issue des travaux de l'Assemblée nationale en première lecture, il n'a en revanche pas notifié les dispositions nouvelles relatives au retrait en une heure de certains contenus illicites que son amendement a introduites en séance en nouvelle lecture15(*) au I de l'article 1er. La méconnaissance de cette obligation procédurale risque donc de fragiliser sérieusement toutes poursuites susceptibles d'être engagées sur le fondement des dispositions dont la notification a été omise, ce qui est particulièrement regrettable concernant des agissements aussi odieux.

Enfin, à l'initiative du rapporteur, la commission a adopté des amendements de précision (COM-6) et de cohérence (COM-8 et COM-9) rétablissant certaines dispositions adoptées par le Sénat en première lecture.

La commission a adopté l'article 1er
de la proposition de loi ainsi modifié.

Article 1er ter A
(art. 6 de la loi n° 2004-575 pour la confiance dans l'économie numérique)
Simplification du formalisme des notifications prévues par la LCEN pour engager la responsabilité des hébergeurs à raison de contenus illicites

L'article 1er ter A tend à faciliter la procédure de notification des contenus illicites auprès des hébergeurs prévue par la loi pour la confiance dans l'économie numérique (LCEN), en réduisant les informations à fournir par les notifiants.

La LCEN prévoit en effet actuellement un formalisme rigoureux pour pouvoir engager la responsabilité des hébergeurs à raison des contenus qui leurs sont notifiés et qui ne seraient pas promptement retirés s'ils sont manifestement illicites.

Approuvant l'objectif de simplification recherché, le Sénat a modifié en première lecture le dispositif proposé pour prendre en compte les observations critiques de la Commission européenne et le rendre conforme à la directive e-commerce (nécessité d'indiquer la localisation précise du contenu illicite et les motifs juridiques de l'illicéité alléguée ; exceptions lorsque le dispositif technique de notification le permet ; dérogation à l'obligation de contacter préalablement l'auteur du contenu haineux). L'Assemblée nationale en a légèrement précisé le champ en nouvelle lecture.

La commission a adopté l'article 1er ter A
de la proposition de loi sans modification.

Article 1er ter B
(art. 6-2 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Notification de contenus haineux
par une association de protection de l'enfance saisie par un mineur

L'article 1er ter B ouvre aux associations de protection de l'enfance la possibilité de notifier un contenu haineux lorsqu'elles en sont saisies par un mineur.

Les mineurs bénéficient ainsi de l'appui moral et technique de professionnels qui ont une plus grande familiarité avec les dispositifs de notification, savent plus aisément qualifier juridiquement les propos litigieux, et peuvent leur proposer écoute et conseils pour y faire face.

À l'initiative de son rapporteur, la commission des lois a rétabli l'exigence que ce dispositif soit réservé aux associations reconnues d'utilité publique.

L'exigence pour les associations d'être reconnues d'utilité publique a été supprimée par l'Assemblée nationale en nouvelle lecture au motif qu'il convenait « de ne pas réduire trop drastiquement le nombre [des associations] qui pourront venir en aide aux mineurs ». Le rapporteur refuse cette approche purement quantitative et estime au contraire indispensable de s'assurer de la qualité de la prise en charge de mineurs victimes de contenus illicites sur les réseaux sociaux (amendement COM-10). Il est particulièrement regrettable que la rédaction choisie par les députés ouvre la voie à l'intervention d'acteurs aux compétences sociales et juridiques insuffisamment solides, voire peu scrupuleux, alors que sont en jeu des personnes particulièrement vulnérables et des informations parfois très sensibles (données personnelles de mineurs, photographies intimes, etc.)

Concernant l'information des représentants légaux du mineur ayant saisi l'association, le Sénat avait prévu en première lecture une exception dans le cas où cela serait contraire à l'intérêt de l'enfant.

En effet, lors de leurs auditions, les associations de protection de l'enfance sur internet se sont inquiétées auprès du rapporteur de ce que les contenus litigieux qui leur sont signalés pour en obtenir le retrait font parfois référence à la vie affective et aux pratiques ou orientations sexuelles - vraies ou supposées - des victimes mineures, qui ne souhaitent pas les voir dévoilées à leurs proches - ou pas de cette façon. L'absence d'exception à l'obligation d'information systématique des représentants légaux risquait donc de décourager lesdits mineurs de recourir à ces associations pour leur venir en aide.

Les députés ont rétabli en nouvelle lecture le caractère systématique de l'information des représentants légaux des mineurs, préférant ajouter la précision selon laquelle cette information se fait « selon des modalités adaptées à l'intérêt de l'enfant ».

Le rapporteur, qui aurait préféré conserver le dispositif plus précis adopté par le Sénat en première lecture, est prêt par souci de compromis à se rallier à cette rédaction : on pourrait estimer en effet, comme son homologue députée, que cette dernière « laisse aux associations une grande latitude dans le choix des mesures à prendre et la façon de les mettre en oeuvre pour effectuer cette information »16(*), et qu'elle devra donc être interprétée comme permettant aux associations de différer l'information aussi longtemps que l'intérêt supérieur de l'enfant l'exigera. À défaut d'obtenir en séance des assurances suffisantes du Gouvernement sur cette interprétation, le rapporteur proposera de revenir à la version du Sénat.

La commission a adopté l'article 1er ter B
de la proposition de loi ainsi modifié.


* 2 Selon elle, « cette disposition permet de tenir compte du cas, envisagé par la Commission européenne dans ses observations sur le texte, où la nature du contenu nécessiterait une évaluation de son contexte plus conséquente, qui ne peut pas raisonnablement être effectuée dans le délai de 24 heures, ou de l'hypothèse d'un contenu destiné à dénoncer un propos haineux ».

* 3 « Afin de garantir la protection des droits fondamentaux, il convient de veiller à ce que ledit délai fixé soit proportionné et raisonnable compte tenu, notamment, du contenu illicite concerné. Plus particulièrement, tout délai fixé au cours duquel les plateformes en ligne sont tenues d'agir suite à la notification de la présence d'un contenu illicite doit également permettre une certaine flexibilité dans certains cas justifiés, par exemple lorsque la nature du contenu nécessite une évaluation de son contexte plus conséquente qui ne pourrait être raisonnablement effectuée dans le délai fixé. »

* 4 Prévu au 8 du I de l'article 6 de la LCEN.

* 5 Prévu à l'article 835 du code de procédure civile.

* 6 Ils organisent la visibilité des contenus sur le web de façon algorithmique, constante et prévisible, et il n'y a normalement pas de traitement particulier en fonction de l'identité de l'auteur de la recherche ; la hiérarchisation des contenus affichés par les moteurs n'a pas un caractère social, l'utilisateur n'a pas de possibilité directe de poster du contenu, de partager ou d'y réagir pour en augmenter l'audience (like, share, etc.) ;

L'utilisateur d'un moteur de recherche n'y voit que les informations qu'il est venu chercher en fonction de sa requête, contrairement aux réseaux sociaux où une foule de contenus publiés par ses contacts lui est proposée (en fonction de ses abonnements, des groupes dont il est membre...). Et si les moteurs de recherche contribuent à la visibilité des sites internet, ce ne sont pas eux qui rendent directement ces sites ni leurs contenus publics ; un site se retrouve référencé dans le moteur de recherche non pas à la demande de son auteur mais automatiquement.

* 7 Les caractéristiques techniques des moteurs de recherche rendent quasiment impossible de désindexer - ou de ne pas afficher en réponse à une requête - un seul propos haineux précis (un commentaire ou une image sur la page d'un média, d'un forum, ou d'un site de débat participatif) sans rendre inaccessible - ou invisible - tout le reste, et donc tous les autres contenus pourtant licites.

* 8 Décision n° 2011-625 DC du 10 mars 2011, Loi d'orientation et de programmation pour la performance de la sécurité intérieure (LOPPSI), cons. 5 à 8.

* 9 La notification peut intervenir sans demande préalable de retrait si l'éditeur de service n'a pas fourni les informations permettant de l'identifier et de le contacter.

* 10 Proposition de règlement du parlement européen et du conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne.

* 11 L'avant-dernier alinéa de l'article 6-1 de la LCEN rappelle ce principe, consacré en premier lieu par la décision du Conseil constitutionnel n° 2000-441 DC du 28 décembre 2000, Loi de finances rectificative pour 2000, cons. 41.

* 12 Directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d'information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l'information

* 13 Pour une présentation exhaustive de la procédure, voire le site internet de la Commission européenne dédié :

https://ec.europa.eu/growth/tools-databases/tris/fr/

* 14 Affaires C-194/94, CIA Security International SA, et C-443/98,Unilever Italia SpA

* 15 L'introduction par amendement au sein d'un texte législatif et au cours de la navette de dispositions nouvelles relevant de la directive de 2015 et devant être notifiées donne régulièrement lieu à des notifications complémentaires adressées à la Commission européenne : Voir en ce sens les notifications initiales (avant le dépôt du texte) et complémentaires (après la première lecture) de nombreux articles de la loi dite « République numérique ».

* 16 Compte rendu de la réunion de la commission des lois du mardi 14 janvier 2020.