Allez au contenu, Allez à la navigation

Justice et affaires intérieures

Proposition de règlement du Parlement européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne - Une contribution de la Commission européenne à la réunion des dirigeants à Salzbourg les 19 et 20 septembre 2018
COM (2018) 640 final  du 12/09/2018

Contrôle de subsidiarité (article 88-6 de la Constitution)

Le texte COM 640 vise à établir des règles uniformes pour empêcher l'utilisation abusive de services d'hébergement en vue de la diffusion en ligne de contenus à caractère terroriste.

De tels contenus ont, dans certains cas, joué un rôle non négligeable dans la préparation ou la commission d'attentats terroristes. L'utilisation abusive d'Internet pose aussi la question de la responsabilité des plateformes Internet. Certes, des progrès ont été réalisés pour lutter contre la diffusion de contenus à caractère terroriste en ligne, en particulier dans le cadre du forum de l'Union européenne sur Internet. Mais la démarche utilisée reposait jusqu'à présent uniquement sur des accords volontaires aux effets limités.

C'est pourquoi la Commission européenne propose d'aller plus loin. Le règlement qu'elle présente instaure ainsi une injonction de suppression prenant la forme d'une décision administrative ou judiciaire émise par l'autorité nationale compétente. Le fournisseur de services d'hébergement visé serait alors tenu de supprimer les contenus ou d'en bloquer l'accès dans un délai d'une heure (golden hour). Les contenus illicites à caractère terroriste sont visés par la définition des infractions terroristes relevant de la directive (UE) 2017/541 (informations utilisées pour encourager et louer la commission d'infractions terroristes, pour encourager la participation à des infractions terroristes et pour fournir des instructions pour ces infractions et pour promouvoir la participation à des groupes terroristes).

Le non-respect du règlement pourrait faire l'objet de sanctions proportionnées édictées par les États membres. Des garanties visant à la fois à protéger la liberté d'expression et à se prémunir de toute suppression erronée (recours et réclamation) sont prévues.

Tant le terrorisme que l'utilisation d'Internet sont transfrontières, et toute mesure les concernant sera incomplète ou insuffisante si elle est exclusivement nationale. Par ailleurs, la sécurité, mais aussi l'intégrité du marché unique numérique constituent des objectifs à atteindre au niveau de l'ensemble de l'Union européenne. C'est pourquoi cette proposition de règlement ne paraît pas porter atteinte au principe de subsidiarité. Dans ces conditions, il a été décidé de ne pas intervenir plus avant au titre de l'article 88-6 de la Constitution.


Examen dans le cadre de l'article 88-4 de la Constitution

Texte déposé au Sénat le 21/09/2018
Examen : 21/02/2019 (commission des affaires européennes)

Justice et affaires intérieures

Retrait des contenus terroristes en ligne

Communication de MM. André Reichardt et Jacques Bigot

COM (2018) 640 final - E 13450

(Réunion du 21 février 2019)

M. Jean Bizet, président. - Mes chers collègues, notre ordre du jour débute par l'examen d'une proposition de règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. Je laisse la parole à notre collègue André Reichardt pour nous présenter ce dispositif.

M. André Reichardt. - Monsieur le Président, mes chers collègues, j'excuserai, tout d'abord, mon collègue Jacques Bigot, avec lequel nous avons préparé cette communication, mais qui n'a pu nous rejoindre ce matin. Le 12 septembre dernier, la Commission européenne a présenté une proposition de règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. Le président Juncker l'avait annoncée le même jour, dans son discours sur l'état de l'Union. La lutte contre l'utilisation abusive d'Internet à des fins terroristes représente un enjeu majeur. En effet, Internet constitue pour les terroristes un vecteur privilégié de diffusion d'informations opérationnelles, de recrutement, de radicalisation, de financement et d'incitation à passer à l'acte, avec une portée et des capacités de nuisance très grandes pour un coût limité - plusieurs attentats et tentatives d'attentats l'ont malheureusement démontré.

À titre liminaire, je souhaite présenter à grands traits la situation en France. Depuis dix ans, il existe une plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (PHAROS), rattachée à l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication de la police judiciaire. Elle est le point d'entrée unique national des pouvoirs publics pour le signalement des contenus illicites sur Internet : elle constitue ainsi l'observatoire des dérives du web et de son utilisation délictuelle.

Entre sa création, en 2009, et l'année dernière, le nombre de signalements annuels sur PHAROS est passé de 52 353 à 163 723, avec des pics liés aux attentats - plus de 188 000 signalements en 2015 - et à la propagande terroriste sur Internet. Toutefois, les contenus terroristes ne représentaient en 2018 que 2,8 % des signalements, loin derrière les escroqueries (55,1 %), la pédopornographie (12,6 %) et les contenus haineux ou discriminatoires (8,7 %). Je ne peux m'empêcher de faire le lien avec l'annonce du Président de la République d'une loi visant à faire retirer les contenus à caractère antisémite sur Internet.

PHAROS observe également l'évolution des pratiques de diffusion des contenus illicites. Dans les années 2010, les réseaux sociaux, en particulier Facebook et Twitter, sont devenus les principaux vecteurs de diffusion de tels contenus, à tel point que l'organisation État islamique a fait d'Internet l'élément central de sa stratégie de propagande et de recrutement : alors que Daech a subi un effondrement territorial, ses sympathisants pratiquent désormais un « cyberterrorisme ». La plateforme s'est également dotée de capacités de veille proactive, complément indispensable aux signalements, avec des outils automatisés permettant de détecter des adresses de diffusion. Depuis plus d'un an, elle a accès, à titre expérimental, à l'application d'Europol qui permet d'automatiser le signalement de contenus terroristes aux opérateurs d'Internet.

La suppression des contenus illicites, ou la limitation de leur accessibilité, est aujourd'hui inégale. Les principales plateformes de diffusion ont certes mis en place des dispositifs de modération. Mais ces dispositifs, désormais efficaces pour les contenus pédopornographiques, le sont beaucoup moins pour les discours de haine ou terroristes.

Depuis les attentats de 2015 néanmoins, l'article 6-1 de la loi pour la confiance dans l'économie numérique a renforcé les pouvoirs de l'Office central de lutte contre la criminalité : il peut enjoindre les hébergeurs de contenus illicites de les retirer, d'en demander le déréférencement aux moteurs de recherche, voire d'en obtenir le blocage par les fournisseurs d'accès à Internet français, selon une procédure toutefois relativement complexe. En matière de contenus terroristes, 12 100 mesures de retrait, 4 877 mesures de déréférencement et 51 mesures de blocage ont ainsi été prises en 2018.

Pour des raisons notamment budgétaires, le ministère de l'intérieur bloque les contenus par nom de domaine, ce qui est efficace contre les contenus pédopornographiques, qui sont concentrés sur un nombre réduit de sites, mais peu satisfaisant pour les contenus terroristes. Un blocage plus fin, au niveau des adresses URL, supposerait la mise en place, par les fournisseurs d'accès, d'infrastructures techniques nouvelles et très coûteuses. Dès lors, il n'est pas possible aujourd'hui de bloquer les contenus terroristes sans bloquer le site lui-même. L'internaute bloqué est automatiquement renvoyé vers une page d'information officielle du ministère de l'intérieur, indiquant les motifs de la mesure et les voies de recours. En 2018, 18 879 connexions ont été bloquées en matière de terrorisme, mais plus de 2,85 millions en matière de pédopornographie.

Au total, la France, grâce à sa plateforme PHAROS, est relativement en avance pour le signalement et le traitement des contenus illicites en ligne. Mais la situation reste très hétérogène en Europe.

J'en viens, à présent, au contexte de la proposition de règlement qui répond à plusieurs demandes du Conseil européen et s'inscrit dans une action européenne continue se déclinant en plusieurs étapes. D'une part, la mise en place, fin 2015, du Forum de l'Union européenne sur l'Internet : il s'agit d'un partenariat entre les grands acteurs de l'Internet, les États membres et la Commission, qui invite les entreprises du secteur à mettre en oeuvre, sur une base volontaire, des outils de détection automatique et à procéder, dans des délais rapides, au retrait et au déréférencement des contenus illicites sur la base de signalements, notamment de contenus incitant à la commission d'actes terroristes. De son côté, Europol s'est doté, en juillet 2015, d'une unité de référencement Internet (EU IRU). Celle-ci, après consultation des États membres concernés, recherche les contenus et sites Internet en lien avec le terrorisme afin d'en demander le retrait ou le déréférencement aux opérateurs. Ensuite, la Commission a présenté, le 28 septembre 2017, une communication relative à la lutte contre toutes les formes de contenu illicite en ligne, visant spécifiquement la responsabilité des plateformes en ligne. Enfin, une recommandation de la Commission sur les mesures destinées à lutter de manière efficace contre les contenus illicites en ligne a été adoptée, le 1er mars 2018, avec une approche fondée sur le volontariat et la coopération.

La proposition de règlement, que vient de présenter la Commission, vise à dépasser la démarche volontaire actuelle, qui donne des résultats insuffisants. D'autant plus que toutes les entreprises ne jouent pas le jeu, la messagerie Telegram par exemple. Le texte cherche aussi à éviter le risque de fragmentation du marché intérieur, alors que l'Allemagne a déjà voté une loi pour lutter contre les contenus de haine et terroristes, et garantir l'application uniforme du droit européen en assurant des conditions de concurrence équitables pour toutes les entreprises, y compris américaines.

La France, avec l'Allemagne, a fermement réclamé une telle initiative législative. Elle en fait une priorité forte. Notre pays s'est d'ailleurs exprimé en faveur d'une initiative du même type pour d'autres contenus illicites, les discours de haine en particulier, et notamment ceux sur l'antisémitisme qui malheureusement prospèrent sur Internet et ne peuvent que nous préoccuper.

Le texte proposé par la Commission impose le retrait d'un contenu terroriste dans l'heure, par tout fournisseur de services d'hébergement ayant un lien étroit avec l'Union européenne, à la demande d'un État membre. Cette règle, dite golden hour, est importante dans l'économie générale du dispositif, car il apparaît que 33 % des liens vers des contenus terroristes se propagent en l'espace d'une heure, et 75 % en quatre heures. Il est donc indispensable d'intervenir très rapidement. Le retrait sur une base volontaire demeure en parallèle ; il peut reposer sur des signalements qui pourront notamment être adressés par Europol. Le contenu pourra être conservé six mois.

Outre l'obligation générale de prévention par des mesures proactives, le texte prévoit également l'obligation pour les fournisseurs de services d'hébergement de désigner un point de contact disponible 24 heures sur 24 permettant de recevoir des injonctions de suppression et des signalements et d'en assurer un traitement rapide, ce point de contact n'étant pas nécessairement situé sur le territoire de l'Union européenne.

Ce texte prévoit également la désignation par les États membres d'un point de contact pour traiter les demandes de précisions et de retour d'information, en rapport avec les injonctions de suppression et les signalements émis par leurs soins via, en France, la plateforme PHAROS ; un dispositif de sanctions représentant jusqu'à 4 % du chiffre d'affaires annuel de la société - même si les plateformes les moins importantes peuvent être au premier chef concernées par ce dispositif -, ainsi que l'obligation de présenter un rapport de transparence annuel.

Ce dernier point n'est pas sans importance. En effet, plusieurs grandes entreprises américaines du web publient chaque année des rapports de transparence, qui consistent surtout à communiquer sur le volume de sollicitations qu'elles reçoivent de la part des pouvoirs publics. Mais ces rapports, laconiques sur les moyens alloués aux services de modération, sur les critères de réponse aux demandes officielles et sur les moyens techniques engagés, répondent assez peu aux attentes des autorités. La Commission a ainsi critiqué le manque d'homogénéité de ces rapports, qui rend difficile toute comparaison pertinente.

Durant les négociations au Conseil sur ce texte, deux groupes d'États membres se sont distinctement dessinés. Ils rassemblent, d'une part, les partisans d'une approche contraignante, notamment la France, l'Allemagne ou le Royaume-Uni, et, d'autre part, ceux qui considèrent que l'approche volontariste et coopérative produit des résultats méritant d'être encouragés et qu'il n'est pas nécessaire de créer des obligations juridiques ni des sanctions ; il s'agit essentiellement de pays d'Europe du Nord et baltes, ainsi que d'Europe de l'Est.

Les principaux éléments du texte se retrouvent néanmoins dans le compromis adopté par le Conseil Justice et affaires intérieures du 6 décembre 2018, ouvrant la voie aux trilogues.

Si cette proposition de règlement constitue une réelle avancée, dont les autorités françaises sont globalement satisfaites, elle présente néanmoins certaines limites. Et certaines de ses dispositions sont controversées.

En premier lieu, le texte n'a pas pris en compte la possibilité pour un État membre d'influer sur les opérateurs installés dans un autre État membre. En effet, un État peut discrétionnairement apprécier les mesures proactives que doivent prendre ses opérateurs, mais ne peut infliger de pénalités à un opérateur installé dans un autre État qui ignorerait ses injonctions de retrait. En outre, s'il adresse une injonction de retrait à un opérateur installé dans un autre État, il doit informer l'autorité compétente de l'État d'établissement qui peut lui adresser des observations, non contraignantes cependant.

Une ligne de partage est apparue entre les États membres s'exprimant en faveur d'une compétence nationale forte sur l'ensemble des opérateurs, et ceux souhaitant, à l'inverse, que l'État membre dans lequel est installé le fournisseur de services d'hébergement ait une compétence exclusive pour réguler ce dernier et le sanctionner. La Présidence a fait évoluer le texte dans le sens de ces derniers, sans pour autant aller jusqu'à dénier aux autorités compétentes la possibilité d'émettre des injonctions de retrait à l'encontre d'opérateurs installés dans d'autres États membres. Il conviendra donc de rester vigilant sur ce point lors du trilogue qui s'est engagé avec le Parlement européen.

Plus généralement, trois points d'attention sont à prendre en compte lors des négociations avec le Parlement européen. Premièrement, la définition des contenus à caractère terroriste comporte l'apologie du terrorisme, qui correspond à une infraction en droit français, mais certains États membres y sont hostiles pour des raisons tenant au respect de la liberté d'expression. Il sera ainsi important pour nous que cette incrimination d'apologie demeure dans le texte définitif. Deuxièmement, le régime des sanctions applicables en cas de manquement aux obligations incombant aux fournisseurs de services d'hébergement sera déterminé par les États membres. Cette absence d'harmonisation risque de favoriser les États moins-disants, même s'il est vrai que le principe de sanctionner les opérateurs n'était pas acquis au départ. Troisièmement, la tentation est grande au Parlement européen de vouloir distinguer entre grandes et petites plateformes Internet, en allégeant les contraintes des secondes qui n'auraient pas les moyens, techniques ou financiers, de mettre en oeuvre l'ensemble des dispositions du texte. Pourtant, cette perspective doit être écartée car elle entraînerait une migration des contenus terroristes des grandes plateformes, celles qui sont aussi les plus visibles et donc les plus surveillées, et qui sont déjà les plus vertueuses, vers les petites.

Les terroristes s'adaptent très vite aux méthodes de travail des services et des opérateurs ; il ne paraît pas nécessaire de leur faciliter la tâche. D'autant plus qu'un autre phénomène inquiétant pourrait apparaître : en effet, selon PHAROS, le dark web ne constitue pas, jusqu'à présent, un vecteur important de diffusion de contenus illicites car leurs auteurs recherchent précisément à maximiser leur audience. Or, la lutte contre ces contenus sur l'Internet grand public pourrait inciter les terroristes à occuper le dark web, avec les difficultés que cela implique pour faire procéder à des retraits.

Enfin, des voix se sont élevées pour critiquer certaines dispositions du texte, au motif que les mesures proactives de détection automatique accorderaient trop de place à des algorithmes prédéfinis ou que les garanties ne seraient pas suffisantes pour assurer la protection des données et des libertés fondamentales. La crainte des sanctions pourrait également conduire les plateformes à retirer des contenus légaux, voire à pratiquer l'autocensure. On notera qu'en France, ces différentes critiques sont notamment portées par le Conseil national du numérique.

Ces critiques paraissent toutefois excessives dès lors que les mesures proactives, qui visent à empêcher la réapparition de contenus déjà supprimés, seront prises au cas par cas et que les sanctions doivent être effectives, proportionnées et dissuasives.

Je voudrais conclure en insistant sur la brièveté des délais pour achever les négociations sur ce texte avant la fin de la législature. Les autorités françaises nous disent encore maintenir cet objectif, mais celui-ci paraît difficile à tenir dans le contexte que nous connaissons.

M. Jean Bizet, président. - Je vous remercie pour votre communication. Nous constatons, une nouvelle fois, des différences d'approche entre, d'une part, les pays les plus anciens de l'Union et, d'autre part, les pays baltes et d'Europe de l'Est, qui n'ont guère connu le terrorisme ces dernières années. En outre, je rappellerai que ce projet de règlement est d'application directe, six mois après son entrée en vigueur.

Mme Sylvie Robert. - Merci pour cette communication et l'analyse des différentes approches entre États sur cette question. Les sanctions seront-elles appliquées à l'encontre des plateformes ou des sociétés ? Néanmoins, qu'en est-il des individus à l'origine des contenus ? Enfin, comment seront exploitées les données qui doivent être conservées durant six mois ?

M. André Reichardt. - L'État membre devrait enjoindre à la plateforme de retirer les contenus à caractère terroriste. Si celle-ci ne le fait pas, elle sera sanctionnée. Pour donner lieu à des poursuites éventuelles, il importe de conserver les contenus.

Mme Fabienne Keller. - Je découvre, à l'occasion de cette communication, l'existence de la plateforme PHAROS, laquelle, sans doute, ne communique pas suffisamment. Comment réagir lorsqu'on constate sur les réseaux sociaux des contenus qu'il conviendrait de dénoncer, s'agissant notamment de propos haineux présentant un caractère antisémite ? Enfin, une coordination entre les différentes plateformes existe-t-elle au niveau européen ?

M. André Reichardt. - Il est possible de signaler via le site en ligne de la plateforme PHAROS des contenus estimés problématiques. Même s'il semble nécessaire de mieux la faire connaître auprès du grand public, le nombre de signalements de contenus faisant l'apologie du terrorisme ou pédopornographique témoigne de sa notoriété parmi les internautes. En revanche, les contenus à caractère haineux ou antisémites ne font pas, pour l'heure, l'objet d'un recensement systématique. Par ailleurs, les États membres ne disposent d'aucune plateforme comparable à PHAROS et ne coordonnent pas leurs moyens de surveillance dans ce domaine. La surveillance de ces plateformes donne ainsi lieu à des demandes d'interventions éventuelles sur la base du volontariat, et ce, dans les pays du Nord essentiellement. Cette disparité est l'une des raisons pour lesquelles la Commission, à la suite de la demande très forte du Parlement et du Conseil européens, a émis cette proposition de règlement.

M. Jean-Yves Leconte. - Cette distinction du traitement entre les contenus à caractère pédopornographique et ceux faisant l'apologie du terrorisme s'explique par la différence de nature des actes répréhensibles auxquels ces contenus renvoient. Si la pédopornographie fait l'objet d'une répression immédiate dans l'ensemble des législations, l'apologie du terrorisme, au-delà de son intention, représente un abus de la liberté d'expression diversement sanctionné selon les juridictions nationales.

M. Benoît Huré. - En réponse aux divergences d'appréhension, ne pourrions-nous pas arrêter, au niveau européen, une définition unique de l'apologie du terrorisme, qui serait ainsi la première étape vers l'organisation d'une vigilance uniforme ?

M. André Reichardt. - La commission a rédigé une explication de texte sur la définition d'un contenu à caractère terroriste en ligne, dont je vais vous donner lecture : « On entend par contenu à caractère terroriste en ligne tout matériel ou toute information qui encourage les infractions terroristes, en fait l'apologie ou incite à en commettre, fournit les instructions sur la façon de perpétrer ces crimes ou invite à participer aux activités d'un groupe terroriste. Il peut s'agir de texte, d'image, d'enregistrement audio ou de vidéo. La définition énoncée dans la nouvelle réglementation est parfaitement alignée sur celle des infractions terroristes figurant dans l'actuelle directive sur la lutte contre le terrorisme. Pour déterminer si un contenu en ligne présente un caractère terroriste, les autorités compétentes et les fournisseurs de services d'hébergement devraient tenir compte de facteurs tels que la nature et la formulation de déclarations, le contexte dans lequel celles-ci ont été faites, y compris si elles ont été diffusées à des fins éducatives, journalistiques ou de recherche, et si elles risquent d'avoir des conséquences néfastes. Par exemple, des opinions radicales, polémiques ou controversées exprimées dans le cadre d'un débat public sur des questions politiques sensibles ne devraient pas être considérées comme présentant des contenus à caractère terroriste. » Ce règlement s'adressant aux États membres auxquels incombent les injonctions de retrait durant la golden hour, leur action doit être précise. À la suite des éventuelles actions prises par la plateforme, l'État doit prononcer des sanctions en prenant en compte le contexte. C'est là manifestement un dispositif au cas par cas !

M. Jean Bizet, président. - Je vous propose de donner acte aux rapporteurs de la communication sur ce débat bien engagé au Parlement européen. Notre commission pourrait adresser au Président de sa commission des libertés civiles, de la justice et des affaires intérieures (LIBE) un courrier indiquant toute l'attention portée par la France, qui a été meurtrie par de nombreux attentats et connaît actuellement une montée de l'antisémitisme, sur cette question. Aucun État ne sera, à terme, épargné par le terrorisme ! La France est concernée au premier chef, l'Alsace ayant payé un lourd tribut au terrorisme. Un communiqué de presse sera également diffusé en ce sens.

M. André Reichardt. - C'est l'une des limites de ce texte qui ne traite que de l'apologie du terrorisme. Son périmètre, qui ne prend pas actuellement en compte les propos haineux et antisémites, devrait être élargi. À quoi sert un projet de loi national qui viserait à retirer, sur le Net, de tels propos haineux, si le problème n'est pas réglé au niveau européen ? Nous sommes dans le vif du sujet et c'est le rôle de notre commission de souligner que cette très belle proposition ne règle pas la dérive des propos haineux en ligne.