B. UNE RÉPONSE FRANÇAISE, EUROPÉENNE ET MONDIALE QUI TARDE À S'ORGANISER

1. En France, un arsenal législatif trop peu utilisé

La loi du 29 juillet 1881 sur la liberté de la presse comporte plusieurs dispositions qui pourraient trouver à s'appliquer dans le cas de la lutte contre les fausses informations. Les professionnels du droit rencontrés par votre rapporteure ont tous indiqué que le cadre législatif actuel leur paraissait suffisant, au prix d'adaptations limitées.

Les dispositions les plus souvent évoquées sont les suivantes.

• Le droit de réponse . Prévu à l'article 13 de la loi de 1881, il permet à une personne nommément mise en cause dans un article à pouvoir répondre. Ce droit a servi de modèle au droit de réponse pour les services de communication en ligne prévu à l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique. Il s'applique cependant de manière limitée, puisqu'en sont exclus les forums et autres sites permettant à la personne mise en cause de réagir directement .

• La diffamation , définie aux articles 30 à 32 de loi de 1881. Ce vecteur représente plus de trois-quarts des contentieux en matière de presse . La personne doit être mise en cause pour un fait précis, qui porte atteinte à son honneur ou à sa considération. Deux grandes catégories permettent au diffamateur d'échapper à la condamnation : « l'exception de vérité », très rarement utilisée, puisqu'elle suppose de la part du diffamateur d'apporter la preuve de la véracité de son propos, et la « bonne foi », qui fait l'objet d'une très ample jurisprudence. La diffamation suppose cependant l'identification de la personne à son origine, ce qui peut s'avérer problématique dans le cas d'une diffusion sur les réseaux sociaux .

• L'injure, qui constitue un cas particulier de la diffamation défini à l'article 29 de la loi de 1881, qui vise à réprimer des écarts de langage manifestement excessifs.

• Les fausses nouvelles, qui font l'objet de l'article 27. La caractérisation d'une fausse nouvelle au sens de la loi de 1881 suppose la réunion de trois éléments :

- la nouvelle doit faire référence à un fait circonstancié, précis, n'ayant pas fait l'objet d'une divulgation . Il en résulte que ne sont pas concernées les opinions ou les critiques, qui relèvent de la liberté d'opinion, ainsi que les faits déjà révélés ;

- la diffusion de la fausse nouvelle est susceptible de provoquer un trouble à la paix publique , ce qui exclut la simple protection des particuliers ;

- l'intention coupable de l'auteur de la fausse nouvelle. La Cour d'appel de Paris, par un arrêt en date du 7 janvier 1998, indique que la caractérisation de la mauvaise foi résulte « exclusivement, et abstraction faite de toute intention de nuire, par la connaissance de la fausseté de la nouvelle par celui qui la diffuse ». Il en résulte que le délit consiste à diffuser une information dont on sait qu'elle est fausse .

La fausse nouvelle ne peut cependant être invoquée que par le ministère public , et non par la personne visée. La difficulté de réunir ces éléments, en particulier l'intention coupable de l'auteur, explique pour bonne part le très faible recours à l'article 27 de la loi de 1881 devant les tribunaux.

Dans le cas précis des réseaux sociaux, la vraie difficulté réside dans le fait que la fausse nouvelle ne doit pas avoir déjà fait l'objet d'une divulgation , ce qui est très complexe dans un monde numérique où les rumeurs se propagent sans qu'il soit toujours possible de les dater, ou d'identifier l'auteur initial.

En plus de la loi de 1881, d'autres dispositions pourraient trouver à s'appliquer . L'article 226-8 du code pénal réprime ainsi « le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention ».

L'article L.97 du code électoral , pour sa part, prévoit des sanctions pour « ceux qui, à l'aide de fausses nouvelles, bruits calomnieux ou autres manoeuvres frauduleuses, auront surpris ou détourné des suffrages, déterminé un ou plusieurs électeurs à s'abstenir de voter ».

L'article 6-I-8 de la loi sur la confiance en l'économie numérique (LCEN) a enfin créé un référé qui permet à l'autorité judiciaire de prescrire « toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d'un service de communication au public en ligne ».

2. Une réponse européenne ni à la hauteur, ni à la mesure

Dans un rapport 14 ( * ) établi en 2013 au nom de la commission des affaires européennes, votre rapporteure soulignait que l'absence de réelle stratégie européenne face à l'émergence de grands acteurs de l'Internet : « la domination sur le web de quelques grands acteurs privés américains, qui deviennent des rivaux des États, pose la question de la place qui revient à l'Europe dans cette nouvelle géographie ». Si on ne peut que se réjouir des initiatives prises depuis, en particulier dans le domaine de la protection des données avec l'adoption du Règlement général pour la Protection des Données (RGPD), la réponse européenne est encore balbutiante et manque encore singulièrement d'une vraie stratégie et d'une vraie cohérence. L'Europe peine encore à affirmer pleinement sa souveraineté et agit souvent avec un excès de naïveté 15 ( * ) .

a) Le verrou européen des plateformes

Le statut juridique des plateformes constitue actuellement un verrou à un engagement de leurs responsabilités.

L'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN) a transposé en droit français les dispositions issues de la directive 2000/31 du 8 juin 2000, dite directive « e-commerce ».

Le principe posé tant par la directive que par l'article 6 est de créer un régime de responsabilité limitée pour deux catégories d'intermédiaires techniques . D'une part, les « personnes dont l'activité est d'offrir un accès à des services de communication au public en ligne », soit les fournisseurs d'accès , et « les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services ». Cette catégorie regroupe essentiellement les réseaux sociaux et les hébergeurs , les plateformes de vidéos etc. Ces personnes physiques ou morales ne sont supposées que fournir un support technique, sous forme de stockage, et n'engagent pas leur responsabilité de manière générale, car il ne leur appartient pas de contrôler des contenus qu'elles ne font que rendre disponibles auprès du public .

Il convient de noter que, a contrario , en cas de propos mis en ligne susceptibles de constituer une infraction par rapport aux dispositions du chapitre IV de la loi du 29 juillet 1881 sur la liberté de la presse, le régime de la responsabilité de droit commun s'applique, que ce soit pour les éditeurs , dont la responsabilité est reconnue par l'article 93-3 de la loi n° 82-652 du 29 juillet 1982 sur la communication audiovisuelle, ou pour les auteurs .

La responsabilité des intermédiaires techniques est différente et plus étendue pour les hébergeurs que pour les fournisseurs d'accès.

Les hébergeurs n'ont pas de responsabilité directe dans les contenus mis en ligne . En conséquence, ces personnes ne sont pas astreintes à un devoir de surveillance ou de filtrage des contenus rendus disponibles par le biais de leur plateforme . Il s'agit là d'un principe général, issu de la directive « e-commerce », dont l'objectif principal était de favoriser le développement du numérique en Europe sans imposer de contraintes trop lourdes aux intermédiaires.

Cependant, l'article 6 de la loi du 21 juin 2004 précitée introduit une possibilité de les mettre en cause, au plan civil (2. de l'article) ou pénal (3. de l'article). Cette mise en cause est définie de manière négative : elle ne peut être engagée si les personnes :

- n'ont pas « effectivement » connaissance du caractère illicite des contenus ou de « faits et circonstances faisant apparaître ce caractère » ;

- si, « dès le moment où elles en ont eu cette connaissance, elles ont agi promptement pour retirer ces données ou en rendre l'accès impossible ».

Ainsi, les hébergeurs ont une obligation d'agir, à la condition expresse qu'ils aient pu être informés, sans devoir pour autant exercer un contrôle systématique . L'engagement de leur responsabilité implique donc la possibilité de les informer des contenus délictueux.

Cette information doit respecter un certain degré de formalisme, défini au 5. De l'article 6, pour que la connaissance des faits litigieux soit « présumée acquise ». La notification doit, en particulier, permettre d'identifier le notifiant, et de justifier d'une demande de retrait préalable adressée à l'éditeur ou à l'auteur du propos jugé illicite. Dans un arrêt du 10 mai 2012, la Cour d'appel de Bordeaux a refusé de condamner un hébergeur auprès duquel la connaissance de contenus délictueux avait été portée, la notification ne permettant pas d'identifier de manière certaine l'auteur, ce qui entrainait la nullité de la procédure.

Dans sa décision n° 2004-496 DC du 10 juin 2004, le Conseil constitutionnel a, de plus, limité la portée de cette responsabilité, en indiquant que le contenu devait présenter un caractère manifestement illicite. Il a en effet précisé que « les 2 et 3 du I de l'article 6 de la loi déférée ont pour seule portée d'écarter la responsabilité civile et pénale des hébergeurs dans les deux hypothèses qu'ils envisagent ; que ces dispositions ne sauraient avoir pour effet d'engager la responsabilité d'un hébergeur qui n'a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n'a pas été ordonné par un juge ».

Face à une notification réalisée dans les formes, il appartient donc à l'hébergeur d'apprécier le caractère manifestement illicite de la publication, seule obligation qui lui est faite.

Une fois ce caractère reconnu, l'hébergeur a l'obligation de réaliser « promptement » le retrait, pour éviter de voir sa responsabilité engagée. La jurisprudence est relativement stricte en la matière. En 2014, la Cour d'appel de Paris a condamné Dailymotion à une amende de 1,2 million d'euros, certaines vidéos signalées étant encore en ligne 104 jours après la notification. De même, YouTube a été condamné pour un délai de cinq jours avant le retrait en 2011.

Pour autant, afin d'éviter la multiplication des signalements opérés sans justification, ou de manière malveillante, le 4. de l'article 6 prévoit que les personne qui procéderaient à des signalements de contenus présentés comme illicites, tout en sachant que cette information est inexacte, encourent une peine pouvant aller jusqu'à un an d'emprisonnement et 15 000 € d'amende.

Le cadre juridique appliqué aux plateformes, défini au niveau européen, rend donc difficile en l'état d'aller plus loin sur l'engagement de leur responsabilité.

b) L'expérience allemande

La prolifération des discours anti-immigrés, après l'arrivée massive de personnes en provenance de Syrie notamment, ainsi que le contre-exemple des élections américaines, ont incité le gouvernement allemand à prendre des initiatives pour lutter contre certains discours propagés sur Internet.

Le Bundestag a adopté, le 30 juin 2017, une loi « visant à améliorer l'application de la loi sur les réseaux sociaux » (Netzwerkdurchsetzungsgesetz », plus simplement loi « NetzDG »), qui a pour objet de lutter contre les propos haineux répandus sur Internet. La définition de ces propos fait référence à 24 articles du code criminel allemand, tels « la diffamation de l'État et de ses symboles », « la diffamation des organes constitutionnels et de la constitution », « la diffamation des religions » et « l'apologie de la violence ». Les « fake news » ne sont pas traités explicitement, mais relèvent bien de cette législation .

La loi est entrée en application le 1 er janvier 2018.

Elle ne concerne que les réseaux sociaux ayant plus de deux millions d'inscrits et vise donc particulièrement Facebook, Twitter et YouTube.

Elle repose sur un triple dispositif :

- les plateformes concernées doivent mettre en place un mécanisme de signalement facilement accessible pour les internautes ;

- les plateformes sont tenues de supprimer dans les 24 heures les contenus « visiblement illégaux » ; ce délai est porté à sept jours dans les « cas complexes » pour lesquels l'illégalité n'est pas évidente ;

- les réseaux sociaux qui ne rempliraient pas leurs obligations « régulièrement et de façon répétée », sont passibles d'une amende pouvant aller jusqu'à 50 millions d'euros .

L'auteur d'une publication retirée ou rendue inaccessible n'a d'autre moyen de recours que de saisir la justice. Enfin, sur autorisation de la justice, les victimes des publications peuvent demander communication de l'identité de l'auteur, afin, le cas échéant, de déposer plainte.

Surnommée « loi Facebook », ce texte a suscité dès l'origine de fortes réserves auprès :

- d'élus, y compris membres de la majorité. Les critiques le plus fortes sont venues du parti « Die Linke » et des Verts ;

- de l'organe d'expertise juridique officiel du parlement fédéral (Wissenschaftlichen Dienste des Deutschen Bundestages) : dans un rapport défavorable, il concluait que la NetzDG était anticonstitutionnelle et violait le droit européen ;

- de Reporters sans Frontières, qui a critiqué une loi « bâclée votée à la va-vite ». Son président, Christian Mihr a parlé de « loi de la honte » ;

- des Nations-Unies, qui ont également fait part de leurs inquiétudes. Le rapporteur spécial sur la promotion et la protection du droit à la liberté d'opinion et d'expression, David Kaye, a violemment critiqué la loi dans une prise de position de juin 2017.

L'entrée en vigueur très récente de la loi ne permet pas encore d'en tirer tous les enseignements. Les critiques les plus vives se sont cependant concentrées sur quatre points :

- un champ d'application très vaste et peu délimité , tout à la fois dans la définition des « contenus haineux », mais également dans le type de discours. La loi n'effectue aucune distinction entre les différentes formes d'expression, qu'elles proviennent de particuliers, de journalistes, qu'elles relèvent de la propagande, de l'analyse ou de l'humour ;

- une « privatisation de la censure » : la loi confère aux médias sociaux des compétences qui relèvent de la liberté d'expression, qui jouit en Allemagne de protections particulièrement élevées. Consécutivement à l'adoption de cette loi, Facebook a embauché 1 200 personnes pour modérer ses contenus en Allemagne, soit le sixième de ses effectifs mondiaux ;

- un fort risque de « censure préventive » compte tenu du montant très élevé des amendes encourues, qui pourrait conduire les plateformes à retirer toute publication signalée sans discernement ;

- enfin, le retrait des publications litigieuses aurait en réalité tendance auprès de certaines personnes à crédibiliser le discours , les auteurs pouvant se présenter en « martyr » et en victime d'une censure injuste.

Des premières applications hésitantes

Une première application a permis de montrer les limites du texte. Début janvier 2018, une responsable du parti d'extrême droite AfD, Beatrix von Storch, a publié un tweet très douteux. Il parlait des demandeurs d'asile musulmans comme « d'une horde de violeurs barbares ». Ce message, manifestement raciste, est signalé, Twitter le bloque et suspend temporairement le compte de son auteur.

Un magazine satirique allemand, Titanic (équivalent allemand du Gorafi), reprend les termes de ce tweet pour en faire un message ironique, à double sens. Titanic propose à Beatrix von Storch d'autres messages du même genre pour se moquer d'elle, une initiative qui provoque le blocage du compte Twitter de Titanic pour 48 heures.

Source : commission de la culture, de l'éducation et de la communication

c) Une réponse européenne encore hésitante et en construction

La Commission européenne s'est saisie de la question des fausses informations dès 2015. Son intérêt s'est accru à la suite, en particulier, des soupçons entourant le référendum britannique de sortie de l'Union Européenne et des « fuites » opportunes pendant la campagne présidentielle française.

La Commission a lancé deux procédures en parallèle : la constitution d'un groupe de travail de haut niveau et une consultation publique, ouverte aux citoyens européens, qui s'est tenue entre le 13 novembre 2017 et le 23 février 2018. Les conclusions de ces deux travaux ont été remises à la commissaire Mariya Gabriel le 12 mars 2018. Sur cette base, une communication a été présentée le 26 avril 2018 : « Tackling online disinformation : a European approach ».

La Commission définit la désinformation comme des « informations dont on peut vérifier qu'elles sont fausses ou trompeuses, qui sont créées, présentées et diffusées dans un but lucratif ou dans l'intention délibérée de tromper le public et qui sont susceptibles de causer un préjudice public ».

La communication du 26 avril montre que la Commission n'envisage pas, dans l'immédiat, de mesures d'ordre législatif , mais privilégie le dialogue avec les plateformes au niveau européen d'une part, la promotion de l'éducation aux médias et du « contrôle des faits » d'autre part.

Les principales mesures envisagées sont :

• la mise en place d'un code de bonne pratique contre la désinformation d'ici le mois de juillet 2018, élaboré en concertation avec les plateformes dans le cadre d'un forum. Le code devra en particulier garantir « la transparence du contenu sponsorisé, en particulier de la publicité à caractère politique, ainsi que de restreindre les options de ciblage pour ce même type de publicité et de réduire les recettes des pourvoyeurs de désinformation » ;

la création d'une plateforme en ligne européenne sécurisée concernant la désinformation , créée pour aider le réseau de vérificateurs de faits et les chercheurs universitaires concernés dans la collecte transfrontière et l'analyse de données, et offrir un accès aux données à l'échelle de l'Union ;

• le renforcement de l'éducation aux médias ;

• la promotion d'informations de qualité et diversifiées , en invitant les États membres à intensifier leur soutien en faveur d'un journalisme de qualité afin de garantir un environnement médiatique pluraliste, diversifié et pérenne.

D'ici décembre 2018, la Commission présentera un rapport sur les progrès accomplis. Ce n'est qu'à ce moment qu'elle examinera si de nouvelles mesures s'imposent .

La question d'une évolution du statut particulièrement favorable des hébergeurs pourrait donc être posée. Elle nécessiterait cependant une révision longue et complexe de la directive « e-commerce » du 8 juin 2000.

La France réfléchit de longue date à une évolution de la directive. Dès 2011, le Sénat 16 ( * ) envisageait ainsi la création d'une catégorie intermédiaire entre éditeur et hébergeur. Le Conseil supérieur de la propriété littéraire et artistique a remis un rapport 17 ( * ) en décembre 2014 allant dans un sens identique. À l'opposé, le rapport de Pierre Lescure 18 ( * ) de 2015 relève la complexité d'une évolution de la directive et privilégie le dialogue avec les plateformes.

3. Un contexte qui peut être amené à évoluer au niveau mondial

Pour autant, le contexte a radicalement changé. D'une part, les États-Unis semblent depuis la dernière élection présidentielle engagées dans une stratégie non coopérative, qui doit nous inciter à considérer avec circonspection les initiatives venues de l'autre côté de l'Atlantique , qu'elles soient juridiques, avec une extra-territorialité pratiquée au dépend des entreprises européennes, ou d'autorégulation. D'autre part, les pouvoirs publics américains ont eux-mêmes été victimes des mécanismes mis en place par leurs propres entreprises. L'affaire Cambridge Analityca, qui n'est pas encore pleinement éclaircie, laisse entre-apercevoir les nouvelles possibilités de manipulation permises par ces nouvelles technologies encore trop peu encadrées, y compris avec l'appui au moins indirect d'une puissance étrangère.

Si, comme le pense la Commission européenne, les grands acteurs de l'Internet prennent conscience que, au-delà de la problématique financière, la diffusion massive de fausses informations nuit à leur capital le plus précieux qui est leur image et la confiance de leurs utilisateurs , une forme d'autorégulation pourrait émerger. Dans le cas contraire, Votre rapporteure estime que la France pourrait s'engager de manière volontaire dans une révision de la directive, tant le statut des plateformes constitue actuellement le principal verrou à la diffusion de contenus contestables sur Internet. Le « troisième statut » pourrait distinguer les hébergeurs « passifs », soit le sens originel de la définition, qui se contentent de stocker pour le compte de leurs clients, des hébergeurs « actifs » qui pratiquent une hiérarchisation de l'information et tirent des revenus de l'exposition de contenus qu'ils n'ont pas eux-mêmes produits.


* 14 Rapport d'information n° 443 (2012-2013) fait au nom de la commission des affaires européennes « L'Union européenne, colonie du monde numérique ? » par Catherine Morin-Desailly.

* 15 Le rejet par le Parlement européen de la directive sur le droit d'auteur a encore une fois illustré la difficulté à s'opposer à des intérêts économiques particulièrement influents et actifs.

* 16 Rapport n° 296 (2001-2012) de la commission des lois du Sénat, fait par Laurent Béteille et Richard Yung, « Lutte contre la contrefaçon : premier bilan de la loi du 29 octobre 2007 ».

* 17 Rapport réalisé par le professeur Sirinelli sur l'éventuelle révision de la directive n° 2001/29/CE, décembre 2014.

* 18 Rapport de Pierre Lescure remis à la ministre de la culture le 13 mai 2015 « Acte II de l'exception culturelle à l'ère du numérique ».

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page