Allez au contenu, Allez à la navigation

Proposition de loi relative à la lutte contre les fausses informations

18 juillet 2018 : Lutte contre la manipulation de l'information ( rapport - première lecture )

Rapport n° 677 (2017-2018) de Mme Catherine MORIN-DESAILLY, fait au nom de la commission de la culture, de l'éducation et de la communication, déposé le 18 juillet 2018

Disponible au format PDF (1,6 Moctet)

Tableau comparatif au format PDF (155 Koctets)

Synthèse du rapport (363 Koctets)


N° 677

SÉNAT

SESSION EXTRAORDINAIRE DE 2017-2018

Enregistré à la Présidence du Sénat le 18 juillet 2018

RAPPORT

FAIT

au nom de la commission de la culture, de l'éducation et de la communication (1) sur la proposition de loi, ADOPTÉE PAR L'ASSEMBLÉE NATIONALE APRÈS ENGAGEMENT DE LA PROCÉDURE ACCÉLÉRÉE, relative à la lutte contre la manipulation de l'information,

Par Mme Catherine MORIN-DESAILLY,

Sénatrice

(1) Cette commission est composée de : Mme Catherine Morin-Desailly, présidente ; M. Jean-Claude Carle, Mme Catherine Dumas, MM. Jacques Grosperrin, Antoine Karam, Mme Françoise Laborde, MM. Jean-Pierre Leleux, Jacques-Bernard Magner, Mme Colette Mélot, M. Pierre Ouzoulias, Mme Sylvie Robert, vice-présidents ; MM. Alain Dufaut, Claude Kern, Mme Claudine Lepage, M. Michel Savin, secrétaires ; MM. Maurice Antiste, David Assouline, Mmes Annick Billon, Maryvonne Blondin, Céline Boulay-Espéronnier, M. Max Brisson, Mmes Marie-Thérèse Bruguière, Céline Brulin, M. Joseph Castelli, Mmes Laure Darcos, Nicole Duranton, M. André Gattolin, Mme Samia Ghali, MM. Didier Guillaume, Abdallah Hassani, Jean-Raymond Hugonet, Mmes Mireille Jouve, Claudine Kauffmann, MM. Guy-Dominique Kennel, Laurent Lafon, Michel Laugier, Mme Vivette Lopez, MM. Jean-Jacques Lozach, Claude Malhuret, Christian Manable, Mme Marie-Pierre Monier, MM. Philippe Nachbar, Olivier Paccaud, Stéphane Piednoir, Mme Sonia de la Provôté, MM. Bruno Retailleau, Jean-Yves Roux, Alain Schmitz, Mme Dominique Vérien.

Voir les numéros :

Assemblée nationale (15ème législ.) :

799, 978, 990 et T.A. 151

Sénat :

623, 667 et 678 (2017-2018)

SYNTHÈSE DES TRAVAUX DE LA COMMISSION

La commission de la culture, de l'éducation et de la communication estime que la proposition de loi ne peut pas être examinée par le Sénat, pour trois raisons :

· le référé prévu à l'article premier, délégué au fond à la commission des lois, suscite de vives incompréhensions et sera dans le meilleur des cas inefficace, dans le pire susceptible de constituer une atteinte potentielle à la liberté d'expression ;

· les dispositions relatives aux plateformes ne font que traduire l'inadaptation de la directive européenne de 2000 qui empêche toute régulation sérieuse des grands opérateurs d'Internet ;

· l'adoption de ce texte pourrait donner l'impression que la question des fausses informations a été résolue, ce qui ne sera bien évidemment pas le cas, comme nos concitoyens pourront le constater très rapidement.

Si le texte propose donc quelques avancées intéressantes et traite très justement de la question de la formation au numérique, la commission n'est pas convaincue par l'approche retenue qui aboutit à des solutions peu opératoires et fait peser des risques sur la liberté d'expression. Qui plus est, la commission déplore le recours, pour traduire un engagement du Président de la République, à une proposition de loi qui a privé la représentation nationale d'une étude d'impact, ainsi que de l'engagement de la procédure accélérée sur un texte traitant des libertés publiques les plus fondamentales.

La commission a donc adopté une motion tendant à opposer la question préalable à la proposition de loi. En conséquence, elle n'a pas adopté de texte. En application du premier alinéa de l'article 42 de la Constitution, la discussion portera donc en séance sur le texte de la proposition de loi adoptée par l'Assemblée nationale.

AVANT-PROPOS

Mesdames, Messieurs,

Quel que soit le nom que l'on leur donne, les «fausses informations », « fausses nouvelles » et autres « fake news » constituent aujourd'hui un défi majeur posé à nos démocraties.

Si le procédé n'est pas nouveau, il est aujourd'hui démultiplié par les réseaux sociaux. Plus encore que des stratégies classiques de campagne électorale, devenues de plus en plus dures et clivantes, l'ombre de manipulation depuis l'étranger plane sur toutes les dernières élections, en Europe comme aux États-Unis. Le résultat issu des urnes peut donc être délégitimé car suspecté d'avoir été perverti par des fausses informations délibérément conçues pour nuire.

Dans ce contexte, la volonté exprimée par le Président de la République, à l'occasion de voeux à la presse le 3 janvier 2018, de traiter cette question par un texte législatif pouvait se comprendre, tant le problème est maintenant universellement reconnu et identifié. Le choix de recourir à une proposition de loi déposée par le groupe La République en Marche de l'Assemblée nationale a cependant privé le débat d'une étude d'impact sérieuse, qui aurait probablement évité les incertitudes et incompréhensions qui sont apparues au grand jour à l'occasion de débats extrêmement tendus, en séance plénière, à l'Assemblée nationale.

Si l'on peut s'accorder sur le diagnostic et si certaines réponses apportées peuvent en elles-mêmes sembler utiles, la proposition de loi n'a pas su emporter l'adhésion, suscitant de très vives craintes tant des professionnels du droit que de la plupart des formations politiques. Or, quand nos valeurs les plus essentielles sont en jeu, il est capital de parvenir à une forme de consensus sur le sens et l'utilité de mesures qui visent à préserver l'intégrité du scrutin en apportant certains tempéraments à la liberté d'expression. En dépit de la bonne volonté que l'on ne peut nier de la ministre de la culture et du travail mené par les députés, tel n'est pas le cas aujourd'hui. Le texte que le Sénat a examiné n'est ni compris ni accepté, bien au-delà des clivages politiques.

Dans ce contexte, et malgré les quelques avancées positives introduites à l'Assemblée nationale, votre commission estime que les conditions d'une approche sereine et d'un traitement global du défi posé par les fausses informations ne sont pas réunies. Elle juge en conséquence que, en plus de ne pas apporter une réponse adaptée, le texte ne ferait que renforcer la défiance de nos concitoyens, et constituerait, en définitive, un remède pire que le mal.

EXPOSÉ GÉNÉRAL

I. UN PHÉNOMÈNE ANCIEN ET PROTÉIFORME

A. LES « FAUSSES INFORMATIONS » N'ONT RIEN DE NOUVEAU

Porter dans le débat public une calomnie, une parole diffamatoire, insultante, avec le désir de porter préjudice à ses ennemis ou d'en retirer un bénéfice est une pratique courante, qui ne se limite pas au champ politique mais s'étend également, par exemple, aux connaissances scientifiques.

Plusieurs exemples historiques permettent de montrer l'ancienneté du phénomène.

· Nuire à ses ennemis politiques : Philippe Le Bel

Catherine Kikuchi a étudié1(*) l'usage par Philippe le Bel, Roi de France entre 1285 et 1314, de fausses informations pour nuire à ses ennemis politiques.

Dans le cadre de la construction du Royaume contre le pouvoir spirituel de Rome, porté par le pape Boniface VIII, le Roi de France répand diverses rumeurs destinées à nuire à ses opposants. La première victime est Bernard Saisset, évêque fidèle au pape, emprisonné et jugé pour avoir tenu des propos séditieux, sans qu'aucune preuve ne soit apportée. Face à la vigueur indignée du pape, le Roi répandra également des rumeurs sur son hérésie et son usage de la sorcellerie, qui lui permettront de justifier son arrestation par une troupe française dans son Palais d'Anagni, le 8 septembre 1303.

Le Roi usera des mêmes stratégies pour lutter cette fois-ci contre une puissance à la fois financière et militaire, l'ordre des Templiers. Recourant très largement à la diffamation et à l'affabulation sur ses pratiques, l'Ordre sera jugé, condamné et dissout au terme d'un procès où les faits n'auront eu que peu voix au chapitre.

· Les « canards » et la Révolution française

L'historien américain Robert Darnton évoque2(*) la responsabilité des fausses nouvelles dans la Révolution française. Dès le XVIIe siècle, les « canards », brochures imprimées à la couverture volontairement tapageuse, nourrissent le débat public avec des propos destinés à miner les pouvoirs en place : Église, Royauté. Sur le modèle des « paragraph men » londoniens, les auteurs « recueillaient des "nouvelles" dans les lieux où s'échangeaient les ragots, comme certains bancs du jardin des Tuileries, ou sous l' "arbre de Cracovie" dans celui du Palais-Royal. Ensuite, parfois pour le seul plaisir de propager l'information, ils griffonnaient les derniers racontars sur des bouts de papier, qu'ils s'échangeaient dans les cafés ou laissaient traîner sur un banc dans l'espoir que quelqu'un les ramasse. »

Ils diffusent ainsi dans Paris des nouvelles la plupart du temps fausses ou jamais démontrées, qui attisent la colère contre le pouvoir royal. Particulièrement engagés contre la reine Marie-Antoinette, on leur prête une grande influence dans le déclenchement de la Révolution et l'exécution de la Reine en 1793.

Le plus intéressant avec cette littérature est de noter qu'elle allait, sur le fond, mais avec d'autres arguments, dans le même sens que les philosophes des Lumières, en préparant une remise en cause radicale des institutions.

· Un canular destiné à augmenter les ventes : le « Great Moon Hoax » de 1835

Entre le 21 et le 26 août 1835, le quotidien new-yorkais « New York Sun » publie une série de six articles sur un voyage dans la lune, faisant état d'une faune riche et de l'existence de créatures humanoïdes édifiants des temples. Si le caractère fantaisiste des articles est rapidement apparu, de nombreux lecteurs sont restés pendant longtemps persuadés de sa véracité, et les ventes du journal ont considérablement augmenté, y compris après ce « canular ».

· L'affaire Salengro

À l'été 1936, Roger Salengro, ministre de l'Intérieur du gouvernement de Léon Blum et ancien maire de Lille, mène le combat contre les ligues, avec plusieurs projets destinés à limiter leur influence. Il est alors attaqué très violemment par les journaux d'extrême-droite. Les accusations se focalisent sur deux points : le ministre refuserait de s'incliner sur la tombe du soldat inconnu (14 juillet 1936, l'Action française), le ministre aurait déserté pendant la première guerre mondiale (21 août 1936, Gringoire). Coursier à vélo pendant la guerre, Roger Salengro est caricaturé à longueur de pages en cycliste fuyant le front. La tombe de sa femme est profanée par un vieux pneu de vélo déposé par une main anonyme.

En dépit de la défense véhémente de Léon Blum et d'un vote de soutien de la chambre des députés, par 427 contre 63 avec les voix de la droite modérée, la campagne de presse se poursuit et Roger Salengro se suicide finalement le 17 novembre 1936.

· Préparer l'opinion publique : la guerre d'Irak

Devant le Congrès américain, le 14 octobre 1990, le témoignage d'une jeune infirmière sur les atrocités commises par les forces irakiennes dans son pays suscite une indignation mondiale. La jeune femme y révèle notamment que les soldats débranchent les couveuses abritant les nourrissons. Il s'est avéré par la suite que l'infirmière était en réalité la fille de l'Ambassadeur du Koweït aux États-Unis et que son intervention s'inscrivait dans une stratégie de communication destinée à infléchir les opinions publiques occidentales en faveur de l'intervention contre le régime de Saddam Hussein.

La première « fake news » de l'histoire ?

Le pape François, à l'occasion de la 52ème journée mondiale des communications sociales le 24 janvier 2018, a proposé une analyse du mécanisme des « fake news » : « la prévention et l'identification des mécanismes de la désinformation nécessitent également un discernement profond et attentif. Il faut démasquer en effet ce qui pourrait être défini comme "la logique du serpent", capable partout de se dissimuler et de mordre. C'est la stratégie utilisée par le "serpent rusé", dont parle le Livre de la Genèse, celui qui, au commencement de l'humanité, est devenu l'auteur de la première “fake news” (cf. Gn 3,1-15), qui a conduit aux conséquences tragiques du péché, mises en acte ensuite dans le premier fratricide (cf. Gn 4) [...].

Source : commission de la culture, de l'éducation et de la communication

B. UNE IRRUPTION À GRANDE ÉCHELLE À L'OCCASION DES DERNIÈRES CAMPAGNES ÉLECTORALES

En 2016, l'élection présidentielle américaine a marqué une progression exponentielle de l'usage de la fausse information. Le candidat finalement élu, Donald Trump, a commencé à en faire un usage fréquent dans ses tweets pour dénoncer les « Fake News Medias », vocable qui désigne de manière indifférenciée toute la presse jugée hostile à son discours. De manière paradoxale, les « fake news » sont donc utilisées par ceux-là même qui sont généralement le plus suspectés de les promouvoir, avec des variantes comme les « faits alternatifs », expression utilisée par la conseillère du président nouvellement élu, Kellyanne Conway, le 22 janvier 2017.

L'élection présidentielle française de 2017 s'est inscrite dans cette lignée, même si aucun candidat n'en a usé avec autant de vigueur.

Le journaliste américain Robert Love date l'apparition du terme de « fake news » de la fin du XIXe siècle aux États-Unis, dans un contexte où l'émergence du télégraphe transatlantique et transcontinental accélérait la diffusion d'informations de plus en plus abondantes, et de moins en moins vérifiables. Il en situe le fondement dans la lutte que se mènent à la fin du siècle deux grands éditeurs de presse, William Randolph Hearst, propriétaire du New York Journal, et Joseph Pulitzer, propriétaire du New York World. Afin d'attirer le plus de lecteurs possibles, les deux éditeurs ont littéralement inventé le « journalisme jaune », qui doit son nom à la couleur des pages alors utilisées. Ce type de presse est basé sur le sensationnalisme, les faits divers montés en épingle, l'exagération, de manière générale une pratique que l'on pourrait qualifier de non éthique pour un journaliste.

Le dictionnaire britannique Collins a désigné le terme « fake news » comme « mot de l'année 2017 ». Selon le dictionnaire, ce mot aurait commencé à être employé à grande échelle au début des années 2000 à la télévision américaine pour décrire « des informations fausses, souvent sensationnalistes, qui sont disséminées sous le couvert d'un travail journalistique ».

C. QUELLE TYPOLOGIE POUR LES « FAUSSES INFORMATIONS » ?

1. Une définition juridique très restrictive

Les dites « fake news », ou « fausses informations » ou, de manière plus littérale, « informations falsifiées », désignent cependant une réalité mouvante. Elles opèrent un dégradé qui va de l'information purement forgée dans un but polémique aux erreurs involontaires, de la présentation polémique de faits avérés traités sous un angle unique à la parodie, sur le modèle du site « Le Gorafi ».

Le droit français ne reconnait que les « nouvelles fausses », définies à l'article 27 de la loi du 29 juillet 1881 sur la liberté de la presse, qui dispose : « La publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, elle aura troublé la paix publique, ou aura été susceptible de la troubler, sera punie d'une amende de 45 000 euros ». Pour des raisons qui seront évoquées infra, cet article est cependant très peu utilisé devant les tribunaux.

2. Une typologie des « troubles informationnels »

Le think tank « Renaissance Numérique », dans une note publiée en mars 2018, propose une typologie des « fausses informations » réalisée par Claire Wardle, chercheuse à la Harvard Kennedy School, qui a étudié spécifiquement l'élection présidentielle française à la lumière de ce qu'elle nomme les « troubles informationnels ». Elle distingue ainsi trois types de troubles :

- la « désinformation », soit la reprise délibérée d'une information que l'on sait erronée, dans le but de nuire. Entre dans cette classe la contrefaçon du site belge « Le Soir » pour diffuser l'idée que l'un des candidats serait financé par l'Arabie Saoudite ;

- la « més-information », qui consiste à répandre une fausse information sans intention de nuire. Par exemple, à l'occasion des attentats sur les Champs-Élysées le 20 avril 2017, les réseaux sociaux avaient indiqué faussement qu'un second policier avait été tué ;

- la « mal-information », c'est-à-dire la reprise d'un élément réel, avec pour objectif explicite de nuire à une personne ou un groupe. Tel fut le cas avec les « Macron Leaks », qui ont propagé sur Internet à deux jours du second tour de l'élection présidentielle, des correspondances volées sur les serveurs du candidat. Si les documents dévoilés se sont révélés vrais dans leur immense majorité (avec cependant quelques ajouts contrefaits de l'auteur de la fuite, et, de manière plus surprenante, de l'équipe même du candidat qui semble avoir anticipé cette attaque), ils n'en constituaient pas moins une tentative explicite de déstabiliser la candidature.

3. Un processus psychologique complexe

Les psychologues Allport et Postman, abordant l'étude des bases psychologiques des rumeurs, ont défini dès 1947 trois processus complémentaires :

- un processus de réduction : le message initial est simplifié et réduit ;

- un processus d'accentuation : seule une partie du message est retenue, et des éléments peuvent y être insérés afin de renforcer sa cohérence interne ;

- enfin, un processus d'assimilation, dans lesquels les personnes s'approprient le message en fonction de leurs valeurs, croyances ou émotions.

Gérald Bronner, dans un entretien au site « The Conversation » du 27 février 2017, traduit la diversité des approches possibles : « Il existe, au moins métaphoriquement un marché cognitif, un espace fictif, où rentrent en concurrence des propositions intellectuelles qui viennent de milieux sociaux très différents, et, sur ce marché, il y a quatre catégories d'acteurs qui font circuler des informations fausses : ceux qui le font en sachant qu'elles le sont, simplement pour mettre du bordel dans le système ; ceux qui le font par militantisme idéologique afin de servir leur cause ; ceux qui le font pour servir des intérêts politiques, économiques ou même personnels ; enfin ceux qui le font en croyant qu'elles sont vraies, et c'est à leur propos que se pose le plus la question de la post-vérité. »

D. UN IMPACT INCERTAIN DES FAUSSES INFORMATIONS SUR LES SCRUTINS

Si les « fausses informations » occupent une telle place dans l'espace médiatique, mais également dans le débat politique, c'est principalement en raison de l'influence qu'on leur prête sur le processus démocratique. La circulation non contrôlée de ces éléments serait en effet de nature à infléchir le résultat des élections. Ce point serait d'autant moins acceptable que, souvent, les fausses informations sont suspectées d'être directement produites et activées dans une intention malveillante par des États étrangers. Cependant, il n'existe pas de consensus sur leur efficacité.

Deux économistes américains Hunt Allcott (université de New York) et Matthew Gentzkow (Stanford) ont constitué une base des principales « fake news » de la campagne américaine et ont montré qu'elles n'ont pu faire l'élection de Donald Trump3(*).

De même, une étude rendue publique en janvier 2018 par des chercheurs des universités de Princeton, Dartmouth et Exeter4(*) relativise l'impact des fausses informations durant la campagne électorale américaine de 2016. Si les auteurs constatent que près d'un Américain sur quatre a visité un site diffusant massivement des fausses informations, ils notent que les plus importants « consommateurs » de ce type d'information sont les supporters de Donald Trump, souvent déjà convaincus, et que six visites sur dix sont le fait de personnes aux opinions très conservatrices, soit moins de 10 % du panel.

À l'occasion du débat du second tour de l'élection présidentielle française de 2017, l'évocation d'une fausse information par l'un des candidats n'a pas eu plus d'impact, l'allusion à un compte aux Bahamas propagé quelques heures plus tôt n'ayant pas été suffisamment reprise pour attirer l'attention des téléspectateurs.

L'économiste Philippe Askenazy5(*) propose une théorie à cet apparent paradoxe : « Les sciences comportementales offrent une explication à ce faible impact. À travers les "fake news", le lecteur recherche avant tout un élément qui va confirmer ou amplifier ses croyances, mais pas les modifier : "je déteste Hillary Clinton, je vais donc me délecter de fausses informations sur elle, même les plus aberrantes" ».

Cet état de fait constitue un bouleversement inquiétant pour la vitalité du débat démocratique. Le constitutionnaliste américain Lawrence Lessig, ancien candidat à la primaire démocrate et spécialiste de l'Internet, a ainsi déclaré sur France Culture, le 22 décembre 2016, à l'occasion de sa venue au Sénat dans le cadre de l'Agora Numérique : « Laisser les gens vivre dans un monde où les seules idées et paroles qu'ils reçoivent sont celles qu'ils veulent, c'est détruire la base de l'engagement démocratique ».

La vitesse de propagation des fausses informations sur le réseau Twitter

Trois chercheurs du Massachussetts Institute of Technology (MIT) ont publié, dans l'édition du 8 mars 2018 de la revue Science, un article consacré à la propagation sur le réseau social Twitter des informations vraies et des informations fausses6(*).

À partir de l'étude de plusieurs millions de « tweets » sur la période 2006-2017, les trois chercheurs montrent que, dans toutes les catégories, les « fausses informations », terme préféré à celui de « fake news » dans l'article car directement vérifiable a posteriori, se propagent sur le réseau plus rapidement, plus profondément, et de manière plus étendue que les « vraies »» informations. Ils montrent ainsi que si les vraies informations sont rarement retweetés à plus de 1 000 utilisateurs, 1 % des informations fausses le sont entre 1 000 et 100 000 fois. Il faut six fois plus de temps à une information vraie pour atteindre 1 500 personnes qu'à une information fausse, et une information fausse a 70 % de chance de plus d'être reprise qu'une information vraie. Les informations en lien avec la politique sont celles pour lesquelles ce phénomène est le plus accentué.

Les auteurs ne fournissent pas d'explication à ces différences, mais évoquent l'analyse psychologique, notamment l'attrait de la nouveauté que constituent souvent les fausses informations. Ils soulignent cependant que les fausses informations sont plus largement diffusées, alors même que ceux qui les retweetent sont les moins insérés sur le réseau, avec un nombre en moyenne inférieur de suiveurs. Cela tend à relativiser l'influence des « bots », comptes gérés automatiquement par algorithme pour reprendre le maximum d'informations.

Source : commission de la culture, de l'éducation et de la communication

Ces études accréditent donc l'idée que les fake news ne touchent en réalité que les électeurs déjà convaincus, qui renforcent par ce biais leurs convictions, et diffusent ces nouvelles auprès de leur réseau. En conséquence, si les fausses informations ne contribueraient pas réellement à modifier le résultat d'une élection, elles auraient plutôt tendance à polariser encore plus le débat public autour de thématiques clivantes et instrumentalisées.

II. UN PHÉNOMÈNE DÉMULTIPLIÉ PAR INTERNET

A. L'IMPORTANCE PRISE PAR LES FAUSSES INFORMATIONS EST RENDUE POSSIBLE PAR LA CONJONCTION DE TROIS FACTEURS

Les réseaux sociaux sont devenus un vecteur essentiel de diffusion de l'information. Selon la Commission européenne, 57 % des utilisateurs dans l'Union européenne privilégient ce canal pour collecter de l'information.

Le phénomène des fausses informations est rendu possible par la convergence de trois phénomènes :

- d'abord, le modèle économique des plateformes rend possible, utilise et détourne les fausses informations, probablement involontairement, mais sans réelle capacité ou volonté de réponse et de distinction entre ce qui relève du vrai, du probable, du plausible ou du faux, de la bonne foi ou de la manipulation ;

- ensuite, l'hypothèse toujours évoquée d'une influence étrangère, qui chercherait à déstabiliser le processus électoral des démocraties ;

- enfin, un terreau fertile au développement d'une « société de défiance », à l'égard des institutions et de tout ce qui se considère comme une vérité établie et « officielle ».

1. Premier facteur : un modèle économique des plateformes qui encourage les fausses informations

Si la manipulation est souvent évoquée à propos des fausses informations sur Internet, elle est elle-même rendue possible par l'exploitation délibérée et économique du phénomène. Il serait ainsi « rentable » de fabriquer et de diffuser des fausses informations, bien plus que des travaux sérieux et argumentés réalisés dans les règles de l'art par des journalistes professionnels. Le journaliste et chercheur Evgeny Morozov synthétise ce constat : « À croire que cette économie gouvernée par la publicité en ligne a produit sa propre théorie de la vérité : la vérité, c'est ce qui attire le plus de paires d'yeux.» Le Conseil national du numérique s'est également inquiété dans son rapport de 2014 du fait que « beaucoup de ces plateformes, par leur rôle prescripteur, façonnent et déterminent les conditions d'accès aux informations, associant parfois utilité et opacité », sans permettre toujours de « déterminer facilement si ce qui est présenté relève de la publicité, d'une sélection algorithmique générique, d'une adaptation personnalisée ou d'une préférence pour l'offre de la plateforme hôte ».

« Code is law »

Dans un article célèbre et précurseur paru en 20007(*), Lawrence Lessig, Professeur à l'université Harvard, a introduit le concept, devenu très populaire, que l'on peut traduire par « le programme informatique est la loi ». Il souligne que, sur Internet, toutes les interactions entre les acteurs et toutes les informations diffusées ne dépendent plus de relations physiques ou légales, mais de programmes informatiques sophistiqués qui déterminent en totalité le champ de liberté des utilisateurs. Ainsi, loin de l'image d'un monde ouvert et accessible à tous, Internet est devenu un espace fermé où les règles, jamais clairement connues et mouvantes, s'imposent à tous.

Votre Rapporteure a pu auditionner à l'occasion du présent rapport le Professeur Lessig, qui a confirmé les craintes que lui inspirent les récents développements des plateformes et son impact sur les processus électoraux.

Source : commission de la culture, de l'éducation et de la communication

Le modèle économique actuel de l'Internet repose sur un triptyque : gratuité de l'accès, publicités ciblées et revente ou utilisation peu claire des données personnelles connectées. Ces caractéristiques rendent possible, et entretiennent la diffusion de fausses informations. Au-delà, l'ergonomie même des plateformes est conçue pour maximiser l'attention de l'internaute, à l'aide de « dark patterns8(*) », en usant de mécanismes psychologiques précisément pensés, comme a pu le montrer Nir Eyal dans son ouvrage « Comment créer un produit ou un service addictif ».

Sont ainsi apparues des « fermes à contenus », c'est-à-dire des sites conçus pour maximiser leur référencement par les moteurs de recherche et attirer avec un contenu de très faible qualité un public nombreux générateur de revenus. Une étude d'avril 2018 du Pew Research Center9(*) montre que deux-tiers des liens reçus sur Twitter sont le fait de robots, ou « bots », et non pas d'humains. L'étude n'a pas cependant montré de « biais politique » en faveur de tel ou tel parti, ou bien de tendance de ces robots à privilégier les sites à contenu politique.

Deux séries d'exemples permettent d'illustrer ce que l'on peut considérer comme une dérive.

· D'une part, la création ex nihilo de fausses informations dans un objectif purement mercantile.

Un article du New York Times10(*) évoque ainsi le cas d'un jeune diplômé américain de 23 ans qui aurait très délibérément créé et diffusé des fausses informations en faveur du candidat républicain. Sa motivation première n'était pas idéologique, mais financière : Cameron Harris estime avoir gagné 1 000 dollars par heure de travail, en raison du nombre de « clics » et des revenus publicitaires ainsi générés. La revue Wired a consacré une enquête11(*) à la ville de Veles, en Macédoine, qualifiée « d'usine à fausses nouvelles », où un grand nombre de sites anti Clinton ont été créés et alimentés par des étudiants, avec pour seul objet d'augmenter les revenus publicitaires.

Philippe Askenazy, dans l'article du Monde précité, souligne également que : « ce qu'ont apporté les réseaux sociaux, Internet en général, au thème classique de la mésinformation, c'est qu'inventer et faire circuler des "fake news" génère du trafic et, in fine, une rémunération au clic. En dehors de toute idéologie, elles rapportent d'autant plus que le marché des lecteurs est vaste. Or, l'électorat populiste est justement friand d'informations alternatives à celles des médias installés. Ainsi, il est bien plus rentable d'inventer et diffuser des "fake news" contre Hillary Clinton, contre l'Europe, contre les réfugiés ».

Tristan Harris, ancien employé de Google, a théorisé cette approche par le marché par le terme « économie de l'attention ». Il a montré que les algorithmes des réseaux sociaux et des moteurs de recherche étaient conçus pour capter en permanence l'attention des internautes, ce qui les incite à rester connectés le plus longtemps possibles et à suivre les liens proposés, qui doivent être les plus « accrocheurs » possible. In fine, la publicité en ligne, financée par des annonceurs qui n'ont pas la maitrise de leur exposition, permet de dégager des bénéfices très importants en peu de temps.

Des algorithmes aux fonctionnements différents mais au but identique

Fabrice Epelboin établit une distinction entre les algorithmes de Facebook et de Google. Le premier aurait intérêt à « optimiser le conflit », afin d'inciter les gens à passer plus de temps pour convaincre leurs relations de la fausseté de leurs positions, le second tendrait plus à enfermer ses utilisateurs dans une « bulle informationnelle ». La différence d'approche entre les deux algorithmes vise cependant toujours à maximiser la durée de présence sur le site.

Source : Libération, 8 juin 2018

Les journalistes eux-mêmes semblent démunis face à ce phénomène. Valérie Jeanne-Perrier, dans son ouvrage « Les journalistes face aux réseaux sociaux », note qu'aux blogs des journalistes, qui permettaient une expression structurée et pédagogique, ont succédé, depuis 2005, les nouveaux médias que sont les tweets et les posts. Or ces modes d'expression, s'ils présentent l'avantage de la simplicité, sont très largement dépendants des plateformes qui les hébergent. Les règles de présentation, de remontée des informations et l'exposition sont dépendantes d'algorithmes dont les règles sont fréquemment modifiées et, a minima, peu claires, voire opaques. On assisterait donc au triomphe d'une « forme brève » de communication, qui place les journalistes dans la même position que le citoyen.

· D'autre part, l'utilisation frauduleuse de données collectées par les plateformes.

L'affaire « Cambridge Analytica » a permis une prise de conscience non seulement de la masse de données collectées par les plateformes, en l'occurrence Facebook, mais a également démontré la capacité de ces réseaux, via les systèmes de publicité ciblée, à s'adresser directement aux électeurs les plus susceptibles de faire basculer une élection.

Le mécanisme mis en place est le suivant : par le biais d'une application de tests psychologiques, les internautes ont, sans le savoir, donné accès non seulement à leurs données personnelles, mais également à celles de leurs contacts. La société Cambridge Analytica s'est donc retrouvée en possession de plusieurs dizaines de millions de profils. Cette masse de données lui a permis de déterminer le « profil psychologique » d'électeurs, et de cibler avec une grande précision certaines publicités politiques essentiellement malveillantes à l'encontre de la candidate démocrate à l'élection présidentielle américaine de 2016. Cette capacité à connaitre très finement l'électorat a pu avoir une importance cruciale dans un système électoral américain où quelques centaines de voix peuvent modifier le résultat dans un État, et donc emporter la totalité des grands électeurs appelés à élire le Président.

Mark Zuckerberg, président-directeur général de Facebook, a été auditionné par le Sénat américain le 10 avril et devant la Chambre des représentants le 11 avril, puis le 22 mai par les présidents de groupes du Parlement européen. Il est encore trop tôt pour savoir si les excuses présentées et renouvelées en ces occasions entraineront une modification des pratiques du plus grand réseau social du monde.

Intrinsèquement donc, le modèle économique des plateformes et de l'Internet en général encourage donc la diffusion de fausses informations, au-delà même de toute volonté idéologique, et au-delà du champ politique, comme en témoigne la vigueur des débats autour de l'opportunité de la vaccination obligatoire.

2. Deuxième facteur : l'hypothèse de tentatives de déstabilisation venues de l'étranger

Dans un article devenu célèbre du 17 novembre 2016, le Washington Post a clairement attribué aux services russes la responsabilité de la dissémination massive de fausses informations destinées à affaiblir la candidature d'Hillary Clinton et à promouvoir celle de Donald Trump. Ces accusations, qui n'ont pas pour l'heure pas été démontrés, font actuellement l'objet d'enquêtes approfondies.

La possibilité d'une interférence de la Russie a cependant plané sur toutes les dernières élections américaines et européennes, par le biais d'une utilisation intensive des médias sociaux ou de la chaine « Russia Today », qui a lancé son antenne française le 18 décembre 2017.

La manipulation en période électorale traduit en effet une réelle stratégie d'influence, que l'on peut qualifier de « malveillante ». Le chercheur Nicolas Vanderbiest, auteur du blog « Reputatiolab » et cofondateur avec Alexandre Alaphilippe du « Disinfolab », a mené une étude poussée sur les mécanismes de propagation des fausses informations durant la campagne électorale française de 2017. À partir de l'analyse de la diffusion par Twitter de neuf rumeurs manifestement fausses, il montre la sophistication des méthodes employées par diverses communautés numériques, idéologiquement proches de la Russie, qui recoupent en partie les soutiens de certains candidats et répercutent massivement les rumeurs. Les nouvelles «manifestement fausses » sont cependant difficiles à isoler, les comptes relayant également tout ce qui, opinions, faits peu ou pas vérifiables, tend explicitement à nuire au candidat finalement élu. Auditionné par votre rapporteure, Nicolas Vanderbiest a par ailleurs indiqué que plusieurs comptes particulièrement actifs durant la campagne avait été créés dès 2014, et avaient depuis cessé toute activité, ce qui tend à consolider l'idée d'une vaste entreprise de manipulation, pensée très en amont.

Certains soupçonnent par ailleurs la Russie d'avoir également oeuvré activement à l'élection du candidat républicain via Cambridge Analytica.

Si aucune preuve n'a encore été apportée de l'influence réelle de ces manipulations sur le résultat des élections, force est de constater que le système rend possible si ce n'est la réalité, à tout le moins la possibilité d'une influence déstabilisatrice.

3. Troisième facteur : une méfiance à l'égard des institutions qui entretient et renforce la dynamique

Ces effets pervers suscités par le modèle dominant de rémunération sur Internet n'est cependant possible que dans le cadre d'une société fragmentée, où les institutions sont contestées et leur message dévalorisé, soit la « société de défiance » identifiée par Yann Algan et Pierre Cahuc en 2007 dans le cas français.

Marc Bloch, cité à juste titre par notre collègue député Pierre-Yves Bournazel à l'occasion de l'audition de la ministre de la culture devant la commission des affaires culturelles et de l'éducation de l'Assemblée nationale, écrivait ainsi :

« Une fausse nouvelle naît toujours de représentations collectives qui préexistent à sa naissance ; elle n'est fortuite qu'en apparence, ou, plus précisément, tout ce qu'il y a de fortuit en elle c'est l'incident initial, absolument quelconque, qui déclenche le travail des imaginations ; mais cette mise en branle n'a lieu que parce que les imaginations sont déjà préparées et fermentent sourdement12(*) ».

On peut considérer que l'émergence d'Internet, multipliée par les réseaux sociaux et les nouveaux environnements numériques, constitue une révolution au sens propre du terme, dont les effets n'ont encore été perçus que très imparfaitement. L'historienne Elizabeth Eisenstein13(*) a montré que l'arrivée de l'imprimerie avait profondément bouleversé le XVIe siècle et présidé aussi bien à l'invention de la presse, qu'au statut de l'auteur, sans même parler de la Réforme protestante. Luther lui-même s'étonne, dans une lettre au pape Léon X, que ses 95 thèses, initialement publiées pour son université, « se sont répandues presque dans le monde entier ».

La violence des dernières campagnes électorales, la fragmentation qui en résulte dans la société, sont peut-être les signes que le monde numérique entraine, à son tour, des évolutions d'une ampleur comparable à l'imprimerie.

B. UNE RÉPONSE FRANÇAISE, EUROPÉENNE ET MONDIALE QUI TARDE À S'ORGANISER

1. En France, un arsenal législatif trop peu utilisé

La loi du 29 juillet 1881 sur la liberté de la presse comporte plusieurs dispositions qui pourraient trouver à s'appliquer dans le cas de la lutte contre les fausses informations. Les professionnels du droit rencontrés par votre rapporteure ont tous indiqué que le cadre législatif actuel leur paraissait suffisant, au prix d'adaptations limitées.

Les dispositions les plus souvent évoquées sont les suivantes.

· Le droit de réponse. Prévu à l'article 13 de la loi de 1881, il permet à une personne nommément mise en cause dans un article à pouvoir répondre. Ce droit a servi de modèle au droit de réponse pour les services de communication en ligne prévu à l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique. Il s'applique cependant de manière limitée, puisqu'en sont exclus les forums et autres sites permettant à la personne mise en cause de réagir directement.

· La diffamation, définie aux articles 30 à 32 de loi de 1881. Ce vecteur représente plus de trois-quarts des contentieux en matière de presse. La personne doit être mise en cause pour un fait précis, qui porte atteinte à son honneur ou à sa considération. Deux grandes catégories permettent au diffamateur d'échapper à la condamnation : « l'exception de vérité », très rarement utilisée, puisqu'elle suppose de la part du diffamateur d'apporter la preuve de la véracité de son propos, et la « bonne foi », qui fait l'objet d'une très ample jurisprudence. La diffamation suppose cependant l'identification de la personne à son origine, ce qui peut s'avérer problématique dans le cas d'une diffusion sur les réseaux sociaux.

· L'injure, qui constitue un cas particulier de la diffamation défini à l'article 29 de la loi de 1881, qui vise à réprimer des écarts de langage manifestement excessifs.

· Les fausses nouvelles, qui font l'objet de l'article 27. La caractérisation d'une fausse nouvelle au sens de la loi de 1881 suppose la réunion de trois éléments :

- la nouvelle doit faire référence à un fait circonstancié, précis, n'ayant pas fait l'objet d'une divulgation. Il en résulte que ne sont pas concernées les opinions ou les critiques, qui relèvent de la liberté d'opinion, ainsi que les faits déjà révélés ;

- la diffusion de la fausse nouvelle est susceptible de provoquer un trouble à la paix publique, ce qui exclut la simple protection des particuliers ;

- l'intention coupable de l'auteur de la fausse nouvelle. La Cour d'appel de Paris, par un arrêt en date du 7 janvier 1998, indique que la caractérisation de la mauvaise foi résulte « exclusivement, et abstraction faite de toute intention de nuire, par la connaissance de la fausseté de la nouvelle par celui qui la diffuse ». Il en résulte que le délit consiste à diffuser une information dont on sait qu'elle est fausse.

La fausse nouvelle ne peut cependant être invoquée que par le ministère public, et non par la personne visée. La difficulté de réunir ces éléments, en particulier l'intention coupable de l'auteur, explique pour bonne part le très faible recours à l'article 27 de la loi de 1881 devant les tribunaux.

Dans le cas précis des réseaux sociaux, la vraie difficulté réside dans le fait que la fausse nouvelle ne doit pas avoir déjà fait l'objet d'une divulgation, ce qui est très complexe dans un monde numérique où les rumeurs se propagent sans qu'il soit toujours possible de les dater, ou d'identifier l'auteur initial.

En plus de la loi de 1881, d'autres dispositions pourraient trouver à s'appliquer. L'article 226-8 du code pénal réprime ainsi « le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention ».

L'article L.97 du code électoral, pour sa part, prévoit des sanctions pour « ceux qui, à l'aide de fausses nouvelles, bruits calomnieux ou autres manoeuvres frauduleuses, auront surpris ou détourné des suffrages, déterminé un ou plusieurs électeurs à s'abstenir de voter ».

L'article 6-I-8 de la loi sur la confiance en l'économie numérique (LCEN) a enfin créé un référé qui permet à l'autorité judiciaire de prescrire « toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d'un service de communication au public en ligne ».

2. Une réponse européenne ni à la hauteur, ni à la mesure

Dans un rapport14(*) établi en 2013 au nom de la commission des affaires européennes, votre rapporteure soulignait que l'absence de réelle stratégie européenne face à l'émergence de grands acteurs de l'Internet : « la domination sur le web de quelques grands acteurs privés américains, qui deviennent des rivaux des États, pose la question de la place qui revient à l'Europe dans cette nouvelle géographie ». Si on ne peut que se réjouir des initiatives prises depuis, en particulier dans le domaine de la protection des données avec l'adoption du Règlement général pour la Protection des Données (RGPD), la réponse européenne est encore balbutiante et manque encore singulièrement d'une vraie stratégie et d'une vraie cohérence. L'Europe peine encore à affirmer pleinement sa souveraineté et agit souvent avec un excès de naïveté15(*).

a) Le verrou européen des plateformes

Le statut juridique des plateformes constitue actuellement un verrou à un engagement de leurs responsabilités.

L'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN) a transposé en droit français les dispositions issues de la directive 2000/31 du 8 juin 2000, dite directive « e-commerce ».

Le principe posé tant par la directive que par l'article 6 est de créer un régime de responsabilité limitée pour deux catégories d'intermédiaires techniques. D'une part, les « personnes dont l'activité est d'offrir un accès à des services de communication au public en ligne », soit les fournisseurs d'accès, et « les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services ». Cette catégorie regroupe essentiellement les réseaux sociaux et les hébergeurs, les plateformes de vidéos etc. Ces personnes physiques ou morales ne sont supposées que fournir un support technique, sous forme de stockage, et n'engagent pas leur responsabilité de manière générale, car il ne leur appartient pas de contrôler des contenus qu'elles ne font que rendre disponibles auprès du public.

Il convient de noter que, a contrario, en cas de propos mis en ligne susceptibles de constituer une infraction par rapport aux dispositions du chapitre IV de la loi du 29 juillet 1881 sur la liberté de la presse, le régime de la responsabilité de droit commun s'applique, que ce soit pour les éditeurs, dont la responsabilité est reconnue par l'article 93-3 de la loi n° 82-652 du 29 juillet 1982 sur la communication audiovisuelle, ou pour les auteurs.

La responsabilité des intermédiaires techniques est différente et plus étendue pour les hébergeurs que pour les fournisseurs d'accès.

Les hébergeurs n'ont pas de responsabilité directe dans les contenus mis en ligne. En conséquence, ces personnes ne sont pas astreintes à un devoir de surveillance ou de filtrage des contenus rendus disponibles par le biais de leur plateforme. Il s'agit là d'un principe général, issu de la directive « e-commerce », dont l'objectif principal était de favoriser le développement du numérique en Europe sans imposer de contraintes trop lourdes aux intermédiaires.

Cependant, l'article 6 de la loi du 21 juin 2004 précitée introduit une possibilité de les mettre en cause, au plan civil (2. de l'article) ou pénal (3. de l'article). Cette mise en cause est définie de manière négative : elle ne peut être engagée si les personnes :

- n'ont pas « effectivement » connaissance du caractère illicite des contenus ou de « faits et circonstances faisant apparaître ce caractère » ;

- si, « dès le moment où elles en ont eu cette connaissance, elles ont agi promptement pour retirer ces données ou en rendre l'accès impossible ».

Ainsi, les hébergeurs ont une obligation d'agir, à la condition expresse qu'ils aient pu être informés, sans devoir pour autant exercer un contrôle systématique. L'engagement de leur responsabilité implique donc la possibilité de les informer des contenus délictueux.

Cette information doit respecter un certain degré de formalisme, défini au 5. De l'article 6, pour que la connaissance des faits litigieux soit « présumée acquise ». La notification doit, en particulier, permettre d'identifier le notifiant, et de justifier d'une demande de retrait préalable adressée à l'éditeur ou à l'auteur du propos jugé illicite. Dans un arrêt du 10 mai 2012, la Cour d'appel de Bordeaux a refusé de condamner un hébergeur auprès duquel la connaissance de contenus délictueux avait été portée, la notification ne permettant pas d'identifier de manière certaine l'auteur, ce qui entrainait la nullité de la procédure.

Dans sa décision n° 2004-496 DC du 10 juin 2004, le Conseil constitutionnel a, de plus, limité la portée de cette responsabilité, en indiquant que le contenu devait présenter un caractère manifestement illicite. Il a en effet précisé que « les 2 et 3 du I de l'article 6 de la loi déférée ont pour seule portée d'écarter la responsabilité civile et pénale des hébergeurs dans les deux hypothèses qu'ils envisagent ; que ces dispositions ne sauraient avoir pour effet d'engager la responsabilité d'un hébergeur qui n'a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n'a pas été ordonné par un juge ».

Face à une notification réalisée dans les formes, il appartient donc à l'hébergeur d'apprécier le caractère manifestement illicite de la publication, seule obligation qui lui est faite.

Une fois ce caractère reconnu, l'hébergeur a l'obligation de réaliser « promptement » le retrait, pour éviter de voir sa responsabilité engagée. La jurisprudence est relativement stricte en la matière. En 2014, la Cour d'appel de Paris a condamné Dailymotion à une amende de 1,2 million d'euros, certaines vidéos signalées étant encore en ligne 104 jours après la notification. De même, YouTube a été condamné pour un délai de cinq jours avant le retrait en 2011.

Pour autant, afin d'éviter la multiplication des signalements opérés sans justification, ou de manière malveillante, le 4. de l'article 6 prévoit que les personne qui procéderaient à des signalements de contenus présentés comme illicites, tout en sachant que cette information est inexacte, encourent une peine pouvant aller jusqu'à un an d'emprisonnement et 15 000 € d'amende.

Le cadre juridique appliqué aux plateformes, défini au niveau européen, rend donc difficile en l'état d'aller plus loin sur l'engagement de leur responsabilité.

b) L'expérience allemande

La prolifération des discours anti-immigrés, après l'arrivée massive de personnes en provenance de Syrie notamment, ainsi que le contre-exemple des élections américaines, ont incité le gouvernement allemand à prendre des initiatives pour lutter contre certains discours propagés sur Internet.

Le Bundestag a adopté, le 30 juin 2017, une loi « visant à améliorer l'application de la loi sur les réseaux sociaux » (Netzwerkdurchsetzungsgesetz », plus simplement loi « NetzDG »), qui a pour objet de lutter contre les propos haineux répandus sur Internet. La définition de ces propos fait référence à 24 articles du code criminel allemand, tels « la diffamation de l'État et de ses symboles », « la diffamation des organes constitutionnels et de la constitution », « la diffamation des religions » et « l'apologie de la violence ». Les « fake news » ne sont pas traités explicitement, mais relèvent bien de cette législation.

La loi est entrée en application le 1er janvier 2018.

Elle ne concerne que les réseaux sociaux ayant plus de deux millions d'inscrits et vise donc particulièrement Facebook, Twitter et YouTube.

Elle repose sur un triple dispositif :

- les plateformes concernées doivent mettre en place un mécanisme de signalement facilement accessible pour les internautes ;

- les plateformes sont tenues de supprimer dans les 24 heures les contenus « visiblement illégaux » ; ce délai est porté à sept jours dans les « cas complexes » pour lesquels l'illégalité n'est pas évidente ;

- les réseaux sociaux qui ne rempliraient pas leurs obligations « régulièrement et de façon répétée », sont passibles d'une amende pouvant aller jusqu'à 50 millions d'euros.

L'auteur d'une publication retirée ou rendue inaccessible n'a d'autre moyen de recours que de saisir la justice. Enfin, sur autorisation de la justice, les victimes des publications peuvent demander communication de l'identité de l'auteur, afin, le cas échéant, de déposer plainte.

Surnommée « loi Facebook », ce texte a suscité dès l'origine de fortes réserves auprès :

- d'élus, y compris membres de la majorité. Les critiques le plus fortes sont venues du parti « Die Linke » et des Verts ;

- de l'organe d'expertise juridique officiel du parlement fédéral (Wissenschaftlichen Dienste des Deutschen Bundestages) : dans un rapport défavorable, il concluait que la NetzDG était anticonstitutionnelle et violait le droit européen ;

- de Reporters sans Frontières, qui a critiqué une loi « bâclée votée à la va-vite ». Son président, Christian Mihr a parlé de « loi de la honte » ;

- des Nations-Unies, qui ont également fait part de leurs inquiétudes. Le rapporteur spécial sur la promotion et la protection du droit à la liberté d'opinion et d'expression, David Kaye, a violemment critiqué la loi dans une prise de position de juin 2017.

L'entrée en vigueur très récente de la loi ne permet pas encore d'en tirer tous les enseignements. Les critiques les plus vives se sont cependant concentrées sur quatre points :

- un champ d'application très vaste et peu délimité, tout à la fois dans la définition des « contenus haineux », mais également dans le type de discours. La loi n'effectue aucune distinction entre les différentes formes d'expression, qu'elles proviennent de particuliers, de journalistes, qu'elles relèvent de la propagande, de l'analyse ou de l'humour ;

- une « privatisation de la censure » : la loi confère aux médias sociaux des compétences qui relèvent de la liberté d'expression, qui jouit en Allemagne de protections particulièrement élevées. Consécutivement à l'adoption de cette loi, Facebook a embauché 1 200 personnes pour modérer ses contenus en Allemagne, soit le sixième de ses effectifs mondiaux ;

- un fort risque de « censure préventive » compte tenu du montant très élevé des amendes encourues, qui pourrait conduire les plateformes à retirer toute publication signalée sans discernement ;

- enfin, le retrait des publications litigieuses aurait en réalité tendance auprès de certaines personnes à crédibiliser le discours, les auteurs pouvant se présenter en « martyr » et en victime d'une censure injuste.

Des premières applications hésitantes

Une première application a permis de montrer les limites du texte. Début janvier 2018, une responsable du parti d'extrême droite AfD, Beatrix von Storch, a publié un tweet très douteux. Il parlait des demandeurs d'asile musulmans comme « d'une horde de violeurs barbares ». Ce message, manifestement raciste, est signalé, Twitter le bloque et suspend temporairement le compte de son auteur.

Un magazine satirique allemand, Titanic (équivalent allemand du Gorafi), reprend les termes de ce tweet pour en faire un message ironique, à double sens. Titanic propose à Beatrix von Storch d'autres messages du même genre pour se moquer d'elle, une initiative qui provoque le blocage du compte Twitter de Titanic pour 48 heures.

Source : commission de la culture, de l'éducation et de la communication

c) Une réponse européenne encore hésitante et en construction

La Commission européenne s'est saisie de la question des fausses informations dès 2015. Son intérêt s'est accru à la suite, en particulier, des soupçons entourant le référendum britannique de sortie de l'Union Européenne et des « fuites » opportunes pendant la campagne présidentielle française.

La Commission a lancé deux procédures en parallèle : la constitution d'un groupe de travail de haut niveau et une consultation publique, ouverte aux citoyens européens, qui s'est tenue entre le 13 novembre 2017 et le 23 février 2018. Les conclusions de ces deux travaux ont été remises à la commissaire Mariya Gabriel le 12 mars 2018. Sur cette base, une communication a été présentée le 26 avril 2018 : « Tackling online disinformation : a European approach ».

La Commission définit la désinformation comme des « informations dont on peut vérifier qu'elles sont fausses ou trompeuses, qui sont créées, présentées et diffusées dans un but lucratif ou dans l'intention délibérée de tromper le public et qui sont susceptibles de causer un préjudice public ».

La communication du 26 avril montre que la Commission n'envisage pas, dans l'immédiat, de mesures d'ordre législatif, mais privilégie le dialogue avec les plateformes au niveau européen d'une part, la promotion de l'éducation aux médias et du « contrôle des faits » d'autre part.

Les principales mesures envisagées sont :

· la mise en place d'un code de bonne pratique contre la désinformation d'ici le mois de juillet 2018, élaboré en concertation avec les plateformes dans le cadre d'un forum. Le code devra en particulier garantir « la transparence du contenu sponsorisé, en particulier de la publicité à caractère politique, ainsi que de restreindre les options de ciblage pour ce même type de publicité et de réduire les recettes des pourvoyeurs de désinformation » ;

· la création d'une plateforme en ligne européenne sécurisée concernant la désinformation, créée pour aider le réseau de vérificateurs de faits et les chercheurs universitaires concernés dans la collecte transfrontière et l'analyse de données, et offrir un accès aux données à l'échelle de l'Union ;

· le renforcement de l'éducation aux médias ;

· la promotion d'informations de qualité et diversifiées, en invitant les États membres à intensifier leur soutien en faveur d'un journalisme de qualité afin de garantir un environnement médiatique pluraliste, diversifié et pérenne.

D'ici décembre 2018, la Commission présentera un rapport sur les progrès accomplis. Ce n'est qu'à ce moment qu'elle examinera si de nouvelles mesures s'imposent.

La question d'une évolution du statut particulièrement favorable des hébergeurs pourrait donc être posée. Elle nécessiterait cependant une révision longue et complexe de la directive « e-commerce » du 8 juin 2000.

La France réfléchit de longue date à une évolution de la directive. Dès 2011, le Sénat16(*) envisageait ainsi la création d'une catégorie intermédiaire entre éditeur et hébergeur. Le Conseil supérieur de la propriété littéraire et artistique a remis un rapport17(*) en décembre 2014 allant dans un sens identique. À l'opposé, le rapport de Pierre Lescure18(*) de 2015 relève la complexité d'une évolution de la directive et privilégie le dialogue avec les plateformes.

3. Un contexte qui peut être amené à évoluer au niveau mondial

Pour autant, le contexte a radicalement changé. D'une part, les États-Unis semblent depuis la dernière élection présidentielle engagées dans une stratégie non coopérative, qui doit nous inciter à considérer avec circonspection les initiatives venues de l'autre côté de l'Atlantique, qu'elles soient juridiques, avec une extra-territorialité pratiquée au dépend des entreprises européennes, ou d'autorégulation. D'autre part, les pouvoirs publics américains ont eux-mêmes été victimes des mécanismes mis en place par leurs propres entreprises. L'affaire Cambridge Analityca, qui n'est pas encore pleinement éclaircie, laisse entre-apercevoir les nouvelles possibilités de manipulation permises par ces nouvelles technologies encore trop peu encadrées, y compris avec l'appui au moins indirect d'une puissance étrangère.

Si, comme le pense la Commission européenne, les grands acteurs de l'Internet prennent conscience que, au-delà de la problématique financière, la diffusion massive de fausses informations nuit à leur capital le plus précieux qui est leur image et la confiance de leurs utilisateurs, une forme d'autorégulation pourrait émerger. Dans le cas contraire, Votre rapporteure estime que la France pourrait s'engager de manière volontaire dans une révision de la directive, tant le statut des plateformes constitue actuellement le principal verrou à la diffusion de contenus contestables sur Internet. Le « troisième statut » pourrait distinguer les hébergeurs « passifs », soit le sens originel de la définition, qui se contentent de stocker pour le compte de leurs clients, des hébergeurs « actifs » qui pratiquent une hiérarchisation de l'information et tirent des revenus de l'exposition de contenus qu'ils n'ont pas eux-mêmes produits.

III. LES PRINCIPALES DISPOSITIONS DE LA PROPOSITION DE LOI

La proposition de loi relative à la lutte contre les fausses informations a été déposée le 21 mars 2018 par les membres du groupe La République en Marche de l'Assemblée nationale. Le gouvernement a engagé la procédure accélérée le 26 mars 2018.

Composée initialement de 10 articles et complétée par une proposition de loi organique éponyme, la proposition traduit les engagements pris par le Président de la République lors des voeux à la presse le 3 janvier 2018. Il avait en particulier déclaré à cette occasion : « toutes les paroles ne se valent pas et des plateformes, des fils Twitter, des sites entiers inventent des rumeurs et des fausses nouvelles qui prennent rang aux côtés des vraies. [...] C'est pourquoi j'ai décidé que nous allions faire évoluer notre dispositif juridique pour protéger la vie démocratique de ces fausses nouvelles. Un texte de loi sera prochainement déposé à ce sujet ».

La commission de la culture, de l'éducation et de la communication a délégué au fond l'examen du titre Ier (Dispositions modifiant le code électoral, articles 1 à 3) et du titre IV (dispositions relatives à l'outre-mer, article 10) à la commission des lois. Cette dernière a également été saisie de la proposition de loi organique relative à la lutte contre les fausses informations, qui complète le dispositif avec la prise en compte de l'élection présidentielle. Pour ces articles délégués au fond, votre commission s'en est remise, par principe, à l'appréciation de la commission des lois.

Votre commission de la culture a donc examiné les titres II (dispositions modifiant la loi du 30 septembre 1986 relative à la liberté de communication, articles 4 à 8) et le titre III (dispositions modifiant la loi du 21 juin 2004 pour la confiance dans l'économie numérique, article 9).

La proposition de loi ordinaire a été profondément remaniée jusque dans ses dispositions les plus essentielles lors de son examen en commission, puis en séance publique à l'Assemblée nationale. Sans remettre en cause, en quoi que ce soit, la qualité du travail accompli par les députés, ces évolutions traduisent non seulement la complexité du sujet, qui apporte certaines limitations à la liberté d'expression, mais également un manque de consensus, voire un malaise de nos collègues députés sur un texte que l'on peut sans risque taxer de « circonstance ».

Le texte transmis au Sénat est sensiblement différent de la proposition initiale. En premier lieu, l'intitulé de la proposition de loi est devenu « Proposition de loi relative à la lutte contre la manipulation de l'information ». En second lieu, sa structure a évolué. Le titre III ne traite plus de la loi du 21 juin 2004, mais du « devoir de coopération des opérateurs de plateforme en ligne en matière de lutte contre la diffusion de fausses informations » (actuel nom du titre II bis, article 8 bis, 9 bis A, 9 bis B, 9 bis). Un nouveau titre III bis portant des « dispositions relatives à l'éducation aux médias et à l'information » a été inséré, et comporte quatre articles : 9 ter, 9 quater, 9 quinquies, 9 septies19(*).

C'est donc à une refonte très importante qu'à procédé l'Assemblée nationale. À titre liminaire, votre rapporteure tient à relever que le choix de retenir comme vecteur législative une proposition de loi pour traduire une annonce du Président de la République a privé la représentation nationale d'une étude d'impact, qui aurait pu permettre d'améliorer sensiblement le débat et la rédaction.

1. Un renforcement des pouvoirs du CSA pour contraindre les médias sous influence étrangère (titre II)

La proposition de loi prévoit au titre II plusieurs modifications de la loi du 30 septembre 1986 relative à la liberté de communication ayant toutes pour objectif de permettre au CSA de contraindre davantage un média étranger ou sous influence étrangère qui chercherait à influencer le débat politique à travers la diffusion de fausses informations. Les modifications proposées visent ainsi soit à clarifier le droit applicable soit à le compléter afin de combler une lacune qui rendait l'action du régulateur très incertaine compte tenu des délais propres aux médias.

L'article 4 prévoit ainsi de sécuriser la possibilité pour le Conseil supérieur de l'audiovisuel de refuser de conclure une convention avec un service n'utilisant pas de fréquences hertziennes, en explicitant la jurisprudence du Conseil d'État relative aux refus de conventionnement.

L'article 5 insère un article 33-1-1 nouveau dans la loi du 30 septembre afin de permettre au CSA, en période électorale, de suspendre la diffusion d'un service de radio ou de télévision étranger avec lequel il a signé une convention dès lors que la diffusion dudit service porte atteinte aux intérêts fondamentaux de la Nation ou participe à une entreprise de déstabilisation notamment au travers de la diffusion de « fausses nouvelles » afin de porter atteinte à la sincérité du scrutin.

Si l'article 5 bis ne comprend qu'une correction rédactionnelle, l'article 6 modifie la loi du 30 septembre 1986 afin de permettre au CSA de résilier unilatéralement la convention conclue avec un service contrôlé par un État étranger ou sous son influence, si sa diffusion porte atteinte aux intérêts fondamentaux de la Nation ou participe à une entreprise de déstabilisation de ses institutions, notamment par la diffusion de fausses nouvelles.

L'article 7 prévoit, pour sa part, d'étendre les garanties juridiques qui s'imposent aux décisions du CSA au nouveau pouvoir de sanction qui lui est reconnu par l'article 42-7.

Enfin, l'article 8 a pour objet d'étendre le champ du référé prévu par l'article 42-10 de la loi du 30 septembre 1986 en matière de communication audiovisuelle aux distributeurs afin de tenir compte du cas d'une chaîne placée sous la dépendance d'un État étranger.

Ces dispositions concernant le CSA aurait sans doute mieux trouvé leur place dans le projet de loi de réforme de l'audiovisuel annoncé depuis plusieurs mois et plusieurs fois reporté depuis lors. Au lieu de cela, le CSA qui n'était pas demandeur de ces nouvelles compétences selon son président auditionné par votre commission va être amené à intervenir dans un champ d'action où cohabitent des aspects à la fois politiques et juridiques avec le risque de devoir faire face à des représailles de la part des pays visés par ses décisions à l'encontre des médias français.

Par ailleurs, les débats à l'Assemblée nationale ont montré l'existence de doutes sur la constitutionnalité de certaines dispositions au regard des principes fondamentaux du droit pénal. C'est le cas notamment d'une disposition de l'article 6 qui, même amendée par le Gouvernement, ne semble pas respecter le principe de personnalité des peines.

Ces incertitudes juridiques confortent l'idée qu'une telle précipitation pour examiner un texte de circonstance n'était pas souhaitable et qu'en cette matière une réflexion de fond associant tous les acteurs - telle qu'elle a été conduite au Sénat - aurait sans doute permis aux auteurs de la proposition de loi de prendre conscience des effets indésirables de leur initiative.

2. Un début d'encadrement de l'activité des plateformes (titre III, devenu titre II bis)

L'article 9 de la proposition de loi, dans sa version initiale, avait pour objectif d'élargir les obligations des intermédiaires techniques des services en ligne dans le cadre de la lutte contre la diffusion de fausses informations. Face à l'impossibilité d'imposer des obligations de contrôle systématique a priori aux plateformes, le choix avait été fait de dupliquer le dispositif déjà en vigueur pour les contenus « odieux » : appel à la haine, pédopornographie, etc., tel que défini par l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, en mettant en place un mécanisme de signalement des « fausses informations ».

Si les plateformes n'ont en la matière pas d'obligation générale de surveillance, elles doivent réagir « promptement » en retirant les contenus manifestement illégaux et les signaler à l'autorité publique. Pour autant, les fausses informations étant par leur nature même très complexes à caractériser de manière « manifeste », et n'étant pas en elle-même illégales, la seule contrainte pesant sur les plateformes aurait été, une fois ces contenus identifiés par les internautes et transmis à la plateforme, de le signaler à l'autorité publique, sans que l'on sache très bien quelles conséquences en seraient tirées.

Face aux doutes exprimées en particulier par le Conseil d'État, nos collègues députés ont procédé, tout d'abord en commission, puis en séance publique, à une réécriture complète du titre III, devenu titre II bis. Ils ont conservé de la version initiale, au nouvel article 8 bis, l'obligation pour les plateformes de mettre en place un mécanisme de signalement facilement accessible permettant aux utilisateurs de signaler les « fausses informations », mais sans plus les contraindre à transmettre ces signalements à une autorité publique. Ils ont par ailleurs confié au Conseil Supérieur de l'Audiovisuel un rôle de « méta régulation », en lui permettant d'émettre des recommandations pour les plateformes dans la lutte qu'elles mènent contre les fausses informations.

Les autres dispositions contenues aux articles 8 bis, 9, 9 bis A, 9 bis B visent à contraindre les plateformes à rendre publiques les mesures prises pour lutter contre les fausses informations et à plus de transparence en matière de traitement algorithmique.

Nos collègues députés ont cherché à cerner la problématique des fausses informations. Ils n'ont cependant pas été en mesure de s'écarter du cadre européen, ce qui les conduit à aborder les problèmes de biais : au lieu d'une vraie régulation, des « recommandations » du CSA sans aucune sanction, au lieu de la transparence des algorithmes, des données qui, pour être certainement utiles à des fins de recherche, ne modifieront en rien le modèle économique des plateformes. Les solutions apportées à l'Assemblée nationale illustrent a contrario le chemin qui reste à parcourir pour un Internet plus régulé et respectueux du débat démocratique.

La proposition de loi ne traite que de manière très détournée, à travers un article 9 bis dépourvu de portée normative, de la question de la place des journalistes et des médias d'information. Ce point est cependant central. Les auditions du 13 juin devant la commission ont souligné la nécessité de mener une réflexion approfondie sur la reconnaissance et la valorisation des contenus produits par des professionnels soumis à un code de déontologie et responsables de leurs écrits.

3. Les dispositions introduites à l'assemblée nationale relatives à l'éducation aux médias et à l'information (titre III bis)

Les députés ont inséré un nouveau titre dans la proposition de loi, consacrée à l'éducation aux médias, eu numérique, et de manière générale à une approche critique des informations obtenues sur Internet. Votre rapporteure, qui a consacré très récemment un rapport complet à l'éducation au numérique20(*) se félicite bien entendu de cette prise en compte encore partielle de la seule réponse valable à long terme - le développement d'un esprit critique et d'une bonne appréhension des facilités mais également des dangers de l'ère digitale. Pour autant, les ajouts proposés au code de l'éducation ne pourraient par définition produire leurs effets qu'à long terme, et ils resteront lettre morte si ils ne font pas l'objet de moyens budgétaires spécifiques et portés sur le long terme. Les annonces de la ministre d'un doublement des moyens du Centre de liaison de l'enseignement et des médias d'information (CLEMI) vont dans le bon sens, mais seront insuffisants tant qu'une réflexion beaucoup plus globale et stratégique sur l'impact du numérique pour les élèves et les formateurs n'aura pas été lancée. Des réformes profondes et structurelles sont en effet indispensables en la matière.

IV. LA POSITION DE VOTRE COMMISSION : UN TEXTE INADAPTÉE QUI NE TRAITE PAS EN PROFONDEUR LA QUESTION POSÉE

Les fausses informations posent à l'évidence un défi à nos démocraties. Si le procédé n'est pas nouveau, les possibilités offertes par Internet, elles-mêmes démultipliées par des réseaux sociaux esclaves peut-être involontaires en la matière de leur modèle économique, font peser un risque avéré sur les processus électoraux et de manière générale sur toute parole publique ou autorisée.

Le Président de la République a fait le choix, porté par une proposition issue de sa majorité, de répondre par des dispositions législatives qui, c'est le moins que l'on puisse dire, suscitent de très fortes réserves. Votre rapporteure salue les efforts de réécriture réalisés par les députés.

Pour autant, votre rapporteure peut témoigner de l'incompréhension très générale que recueillent les dispositions les plus emblématiques de la proposition. Trois points en particulier sont plus préoccupants.

A. UN TEXTE POTENTIELLEMENT DANGEREUX

1. Un article premier qui pose un cadre inquiétant
a) Des définitions floues et contestées

Votre rapporteure ne peut que s'associer pleinement à la position de la commission des lois du Sénat sur l'article premier, qui concentre à lui seul la plupart des craintes exprimées lors des auditions.

Cet article, qui ouvre le texte, pose la base des concepts juridiques utilisés dans l'ensemble du dispositif, en particulier celui de « fausse information ». La rédaction finalement retenue à l'Assemblée nationale est la suivante : « Toute allégation ou imputation d'un fait inexacte ou trompeuse constitue une fausse information ». L'intensité des débats en séance à l'Assemblée nationale a, si besoin en était, souligné le manque de clarté des conditions de mise en oeuvre du référé, jusque dans ses éléments les plus constitutifs. D'ailleurs, la rapporteure de la commission des lois de l'Assemblée a multiplié les efforts pour parvenir à une définition satisfaisante de ce que l'on doit entendre par des « fausses informations ». Une telle définition ne figurait pas dans la version initiale, ce qui était à l'évidence une erreur. Le résultat auquel l'Assemblée nationale est parvenu ne donne pas plus satisfaction aux députés qu'à la ministre. Or cette notion irrigue l'ensemble du texte, et en constitue la base : le concept de « fausse information » apparaît dans le titre II (articles 5, 7 et 8) et au titre II bis (articles 9 et 9 bis).

Sans revenir sur le caractère tautologique de la définition, adoptée après bien des difficultés et avec un soutien plus que mesuré de la ministre, il n'en reste pas moins que le cadre ainsi tracé ne permet en aucun cas de distinguer les différentes nuances de « fausse information » des simples erreurs, approximations, ou bien au contraire des informations tout à fait vraies mais dont on ne peut révéler les sources. Il ne paraît en réalité pas possible de ramasser en une définition un ensemble si large, complexe et mouvant.

La même remarque peut être faite sur le « contenu d'information se rattachant à un débat d'intérêt général » (article premier), également mentionné à l'article 8 bis. Les débats à l'Assemblée n'ont pas permis d'y voir plus clair sur ce qu'ils désignaient exactement.

b) Un juge contraint

Le juge devra se prononcer en 48 heures pour faire cesser la diffusion lorsque des « fausses informations, de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, de manière artificielle ou automatisée par le biais d'un service de communication au public en ligne ».

Le dispositif ne s'attaque pas, ce qui aurait été du reste impossible, à l'origine de la nouvelle, mais aux canaux qu'elle emprunte. Signe que la proposition manque sa cible, toutes les auditions ont montré l'incompréhension que suscite cette mesure auprès des journalistes comme des professionnels du droit. Tous sont sceptiques sur l'efficacité de la mesure, tous soulignent le pouvoir exorbitant qui serait alors donné au juge, sur des critères extrêmement flous.

Dans d'autres États à la démocratie moins assurée, le pouvoir conféré au juge de faire cesser sans débat contradictoire la diffusion d'une information durant la période électorale constituerait une sérieuse entorse à la liberté d'expression. En effet, comment déterminer a priori une autorité légitime en mesure de dire ce qu'est la vérité ? Les réels risques pour la liberté d'expression que contient ce texte ne doivent pas conduire d'autres pays de s'en inspirer, tant il est vrai que les initiatives prises en France, pays des droits de l'homme, sont observées avec attention à l'étranger.

Il est probable que le juge du référé adoptera une approche prudente dans l'usage du pouvoir de déréférencement. Des exemples récents ont en effet montré que des informations en apparence fausses pouvaient s'avérer vraies. On peut en conséquence supposer que le juge n'en usera que dans les cas les plus manifestes, tellement manifestes en réalité que son intervention sera parfaitement superfétatoire. Il faut beaucoup de naïveté pour penser que les auteurs d'une manipulation à grande échelle, si manipulation il y a, ne répandront que des propos si outranciers qu'ils pourront aisément et en 48 heures être examinés et rejetés par le juge, ou bien useront de manière visible d'une diffusion artificielle par le biais de faux comptes.

A contrario, dans le cas de rumeurs plus complexes, portant sur des éléments difficiles à vérifier, le juge pourra décider de ne pas ordonner le déréférencement. Ce jugement ne constituera pas en droit un brevet de vérité sur la fausse information, mais ne manquera pas d'être utilisé tel quel par ses promoteurs. Le risque est donc grand d'aboutir à une procédure détournée et instrumentalisée, qui déstabiliserait encore plus l'élection, en donnant une publicité inédite à ces informations.

2. Des nouveaux pouvoirs reconnus au CSA d'un usage délicat et aux effets incertains

Dans le nouveau monde numérique « hyperconnecté » l'information est devenue une arme et tous les pays essayent de renforcer leur influence notamment en développant leur audiovisuel extérieur. L'émergence des médias du Golfe comme Al Jazeera dans les années 2000 nous avait déjà permis de réaliser que d'autres visions politiques pouvaient exister en dehors du monde occidental, quand ce n'est pas en opposition à ce monde.

Dès lors, il est difficile de croire que des dispositions juridiques renforçant les pouvoirs d'un régulateur national suffiront à enrayer des stratégies géopolitiques qui comportent des aspects politiques, économiques et militaires.

Sur le principe, on ne peut que se féliciter que le CSA puisse également « contrôler » ces chaînes étrangères et sanctionner des dérapages. Pour autant, on comprend également que le risque de représailles est réel et qu'il devrait rendre difficile l'emploi des sanctions à l'encontre des médias qui constituent le bras armé de puissances importantes.

Si on avait un doute sur ce risque de rétorsion, il suffirait de se remémorer que la mise en demeure de Russia Today le 28 juin dernier par le CSA a été immédiatement suivie par une mise en cause de France 24 par l'autorité de contrôle des médias russes Roskomnadzor.

Ce simple exemple illustre bien dans quelle mesure la lutte contre les fausses informations ne peut être distinguée de la définition d'une relation globale que notre pays souhaite conduire avec certaines puissances qui manient à la fois l'outil des coopérations (accueil des investissements, organisation de compétitions sportives internationales, développement de partenariats...) et celui de l'intimidation (soutien à des mouvements terroristes, organisation de manoeuvres de déstabilisation sur Internet ou dans les médias...).

B. DES DISPOSITIFS PEU OPÉRATOIRES

La proposition tente de faire coïncider un temps de la justice, lui-même raccourci, de 48 heures, avec le temps de l'Internet. Or si ce délai est très bref pour le juge, il est très long pour une information qui circule sur les réseaux sociaux. Au bout de 48 heures, des millions de personnes auront potentiellement été exposées et, pour la plupart, l'auront oublié. Paradoxalement donc, la meilleure chose qui puisse se produire serait que ce référé ne soit pas utilisé du tout.

Il en est de même du traitement des plateformes. La réécriture complète à laquelle a procédé l'Assemblée nationale marque l'embarras de nos collègues députés, qui se heurtent à un cadre européen très favorable aux plateformes. Au total, si les dispositions adoptées constituent une avancée dans la bonne direction, il est tout aussi légitime d'estimer que ce pas ne sera d'aucune utilité particulière. Votre rapporteure entend déposer prochainement une proposition de résolution européenne pour inviter le gouvernement à ouvrir rapidement auprès des autorités communautaires un débat sur l'évolution du régime de responsabilité des plateformes, seule réponse adaptée au sujet des fausses informations.

En ce qui concerne enfin la formation aux médias, votre rapporteure avait fait adopter en 2011, au nom de la commission de la culture, un amendement sur le projet de loi portant diverses dispositions d'adaptation de la législation au droit de l'Union européenne en matière de santé, de travail et de communications électronique, dit « Paquet télécom », pour que l'enseignement d'éducation civique permette aux élèves d'acquérir « une attitude critique et réfléchie vis-à-vis de l'information disponible » sur Internet. On ne peut donc que déplorer, sept ans plus tard, que si peu de chemin ait été parcouru.

C. UNE PROPOSITION DE LOI QUI MANQUE SA CIBLE

Selon votre rapporteure, en plus d'une efficacité douteuse, la proposition de loi comporte deux risques majeurs et profonds, qui emportent les initiatives tout à fait positives prises notamment en matière d'éducation aux médias.

D'une part, l'adoption de la proposition de loi pourrait faire croire que le problème a été réglé, alors qu'il n'aurait été qu'effleuré. Nos concitoyens, après son adoption, verront toujours les fausses informations, qu'elle que soit la définition que l'on puisse en donner, polluer le débat public. Ils seront alors légitimes à demander des comptes aux élus qui auront prétendu, par ces dispositions, avoir répondu à leurs préoccupations. Tel est que le risque encouru en cas d'adoption de la proposition de loi : en plus de l'ombre portée sur les intentions supposées du gouvernement de réduire les libertés publiques, celle d'un mensonge. Il paraît plus prometteur de lancer dès aujourd'hui le chantier qui importe, à savoir la rénovation d'un cadre européen aujourd'hui daté et à bout de souffle.

D'autre part, les multiples craintes exprimées et relayées par la commission des lois sur l'article premier rappellent que, en matière de libertés publiques, un consensus minimal est nécessaire pour que les meilleures intentions ne suscitent pas de suspicions de nature à altérer la confiance envers les pouvoirs publics. Les conditions ne sont à l'évidence pas réunies ici.

Votre rapporteure ne peut donc que juger qu'une adoption de cette proposition « mal née » constituerait un signal extrêmement négatif, pour un résultat plus qu'incertain.

EXAMEN DES ARTICLES

TITRE Ier
DISPOSITIONS MODIFIANT LE CODE ÉLECTORAL
Article 1er

Obligations des plateformes en période électorale et ouverture d'un référé permettant au juge de faire cesser leur diffusion

Le présent article propose d'assujettir les plateformes à de nouvelles obligations de transparence durant la période électorale, et créé un nouveau référé qui permettra au juge, en 48 heures, de mettre fin à leur diffusion.

L'examen de cet article a été délégué au fond à la commission des lois par votre commission de la culture.

Article 2

Application aux élections sénatoriales

Le présent article étend aux élections sénatoriales les dispositions prévues à l'article premier.

L'examen de cet article a été délégué au fond à la commission des lois par votre commission de la culture.

Article 3

Application à l'élection en France des représentants au Parlement européen

Le présent article étend à l'élection des représentants au Parlement européen les dispositions prévues à l'article premier.

L'examen de cet article a été délégué au fond à la commission des lois par votre commission de la culture.

Article 3 bis

Réparation d'une erreur de renvoi

Le présent article est rédactionnel.

Son examen a été délégué au fond à la commission des lois par votre commission de la culture.

TITRE II
DISPOSITIONS MODIFIANT LA LOI DU 30 SEPTEMBRE 1986 RELATIVE À LA LIBERTÉ DE COMMUNICATION
Article 4

Refus de conventionnement par le Conseil supérieur de l'audiovisuel
des services de radio et de télévision diffusés par des réseaux
n'utilisant pas les fréquences hertziennes

Objet : Cet article modifie l'article 33-1 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication afin de définir les cas dans lesquels le Conseil supérieur de l'audiovisuel (CSA) peut être amené à refuser de conclure la convention prévue pour la diffusion de certains services de radio et de télévision avec pour effet d'empêcher cette diffusion.

I. Le droit en vigueur

L'article 33-1 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication définit les procédures applicables aux services de radio et de télévision qui souhaitent être diffusés sur des réseaux câblés, le satellite ou l'ADSL et la fibre. Cet article prévoit différentes procédures selon la nature du service concerné.

En application du I de l'article, les services de radio et de télévision diffusés sur des réseaux câblés, le satellite ou l'ADSL et la fibre doivent conclure avec le CSA une convention définissant leurs obligations particulières. Cette obligation ne s'applique, toutefois, pas aux services de radio et télévision reprenant de manière intégrale et simultanée une chaîne du service public, la chaîne parlementaire, Arte ou une chaîne de radio ou de télévision ayant reçu l'autorisation délivrée par le CSA d'être diffusée par la voie hertzienne terrestre (TNT) sauf si cette reprise a pour effet de faire passer la population de la zone desservie par un service de télévision locale à plus de dix millions d'habitants.

La convention porte sur les obligations générales de ces services, notamment en ce qui concerne l'emploi de la langue française, la retransmission des événements d'importance majeure, le respect des principes de pluralisme de l'expression des courants de pensée et d'opinion, de protection des mineurs, d'honnêteté et d'indépendance de l'information, de droits de la personne. La convention doit également répondre à des obligations particulières concernant la programmation, l'accès des personnes sourdes et malentendantes à leurs programmes, la publicité, le parrainage et le télé-achat ainsi que la production et la diffusion d'oeuvres audiovisuelles.

Le II de l'article 33-1 prévoit néanmoins que les services de radio et de télévision dont le budget annuel est inférieur à un seuil de 75 000 € pour la radio et de 150 000 € pour la télévision ne sont soumis qu'à une déclaration préalable, de même que les services de médias audiovisuels.

Le III de l'article 33-1 dispose enfin que les services relevant de la compétence de la France en application des articles 43-4 et 43-5 de la loi du 30 septembre 1986 ne sont soumis à aucune formalité préalable. Cette disposition adoptée dans le cadre de la loi n° 2006-64 du 23 janvier 2006 visait à pouvoir suspendre rapidement des services de télévision utilisant en particulier des satellites pour leur diffusion, l'absence de conventionnement plaçant ces diffuseurs dans une situation plus fragile que les autres médias.

II. Le texte de la proposition de loi

Si l'on en croit l'exposé des motifs de la proposition de loi, « l'article 4 vise en premier lieu à sécuriser la possibilité pour le Conseil supérieur de l'audiovisuel de refuser de conclure une convention avec un service n'utilisant pas de fréquences hertziennes, en explicitant la jurisprudence du Conseil d'État relative aux refus de conventionnement »21(*). En effet, la rédaction actuelle de l'article 33-1 ne rend pas obligatoire la conclusion d'une convention lorsqu'elle est demandée par un service de radio ou de télévision mais laisse une marge d'appréciation au CSA ainsi que l'a reconnu le Conseil d'État dans une décision du 11 février 2004 relative à la société Medya TV22(*) au motif que le CSA doit concilier l'exercice de la liberté de communication audiovisuelle avec les principes mentionnés à l'article 1er de la loi du 30 septembre 1986 (voir le 2ème alinéa de cet article ci-dessous).

L'article 1er de la loi du 30 septembre 1986

La communication au public par voie électronique est libre.

L'exercice de cette liberté ne peut être limité que dans la mesure requise, d'une part, par le respect de la dignité de la personne humaine, de la liberté et de la propriété d'autrui, du caractère pluraliste de l'expression des courants de pensée et d'opinion et, d'autre part, par la protection de l'enfance et de l'adolescence, par la sauvegarde de l'ordre public, par les besoins de la défense nationale, par les exigences de service public, par les contraintes techniques inhérentes aux moyens de communication, ainsi que par la nécessité, pour les services audiovisuels, de développer la production audiovisuelle.

Les services audiovisuels comprennent les services de communication audiovisuelle telle que définie à l'article 2 ainsi que l'ensemble des services mettant à disposition du public ou d'une catégorie de public des oeuvres audiovisuelles, cinématographiques ou sonores, quelles que soient les modalités techniques de cette mise à disposition.

Dans sa décision de 2004, le Conseil d'État n'avait pas hésité à recourir à la méthode du faisceau d'indices pour établir l'existence de liens étroits entre la chaîne Medya TV et le Parti des travailleurs du Kurdistan (PKK), organisation reconnue comme « terroriste » par l'Union européenne. La haute juridiction administrative a ainsi estimé que « les risques pour l'ordre public susceptibles d'être créés, tant en France que dans plusieurs pays européens, par la diffusion du programme de télévision proposé par la société Medya TV, étaient d'une gravité suffisante pour justifier le rejet de la demande de conventionnement présentée par la société »23(*). Il était alors considéré que les limites susceptibles d'être portées au principe de la liberté de communication devaient ressortir de motifs particuliers.

Selon le rapporteur de la proposition de loi de l'Assemblée nationale, cette distinction opérée entre deux types de motifs de refus de conventionnement - la sauvegarde de l'ordre public et les « autres dispositions » des articles 1er et 15 de la loi du 30 septembre 1986 - « manque de clarté »24(*). On ne peut que comprendre ce sentiment au regard de l'évolution des décisions du Conseil d'État. Si celui-ci a, en effet, reconnu en 2004, sur le fondement de l'article 1er de la loi du 30 septembre 1986, la possibilité pour le CSA de refuser un conventionnement avec une chaîne de télévision au motif de la sauvegarde de l'ordre public, la haute juridiction s'est fondée, dans une autre décision de 2012, sur un motif plus général de contradiction avec les lois en vigueur pour estimer que le CSA devait refuser le conventionnement du programme thématique Deovino « intégralement consacré au vin et à la viticulture et (visant) à en présenter les mérites et les attraits »25(*) et donc, à ce titre, contraire aux dispositions législatives26(*) interdisant la propagande en faveur des boissons alcooliques sur les services de télévision.

Afin de clarifier le droit applicable, le deuxième alinéa de l'article 4 prévoit la possibilité pour le CSA de refuser de conclure la convention précitée si cette interdiction est nécessaire pour sauvegarder l'ordre public ou si « eu égard à sa nature même », la programmation de cette chaîne méconnaît les autres dispositions des articles 1er et 15 de la loi du 30 septembre 1986.

Le troisième alinéa du présent article de juin autorise le CSA à refuser un conventionnement à une chaîne lorsqu'elle est liée à un État étranger dont les activités sont « de nature à porter atteinte aux intérêts fondamentaux de la Nation ou à participer à une entreprise de déstabilisation de ses institutions notamment par la diffusion de fausses nouvelles », notion qui, comme cela a été dit, figure déjà dans la loi du 29 juillet 1881 sur la liberté de la presse. L'objectif du texte est de « saisir la grande diversité de situations qui peuvent se présenter » et à cette fin de viser « non seulement les chaînes contrôlées au sens du code de commerce, mais également celles qui sont "sous l'influence" d'un État étranger, notion beaucoup plus large qui devrait être appréciée à l'aide d'un faisceau d'indices ». Ce second alinéa autorise également le régulateur à prendre en compte les agissements de l'ensemble des sociétés liées à la société éditrice de la chaîne et les contenus édités sur tous les services de communication au public par voie électronique (notamment les réseaux sociaux et les sites de presse en ligne) afin de lui permettre de saisir l'ensemble des stratégies susceptibles d'être mises en place par des États à des fins de déstabilisation.

III. Le texte adopté par l'Assemblée nationale

· Les modifications insérées à l'initiative de la commission des affaires culturelles et de l'éducation

Le rapporteur de la commission des affaires culturelles et de l'éducation, notre collègue Bruno Studer, a estimé qu'il pourrait être « difficile de déterminer avec précision le champ des personnes morales » auxquelles le troisième alinéa du présent article était applicable, les termes « sous l'influence d'un État étranger » ne faisant pas l'objet d'une définition, contrairement au cas des personnes contrôlées au sens de l'article L. 233-3 du code de commerce.

Il a néanmoins considéré que cette disposition présentait « l'indéniable utilité de viser les sociétés qui, bien que n'ayant aucun lien capitalistique direct ou indirect avec un État, se trouvent placées sous la pression du pouvoir étatique et de facto sous la dépendance de ce dernier ». Par ailleurs, le Conseil d'État, dans son avis du 19 avril 2018, a jugé qu'il existait un risque que le premier critère mentionné par le présent article soit contourné ou instrumentalisé par des personnes morales tierces et que l'introduction d'un second critère fondé sur l'influence d'un État étranger se justifiait d'autant plus que son emploi sera soumis au contrôle ordinaire du juge de l'excès de pouvoir.

Autre difficulté soulevée lors de l'examen en commission à l'Assemblée nationale, la notion d'atteinte aux intérêts fondamentaux de la Nation qui recouvre déjà, selon le Conseil d'État, la référence à une entreprise de déstabilisation des institutions. Au final, la rédaction du troisième alinéa du présent article apparaît également plus restrictive que celle du deuxième faisant référence à l'ordre public.

Enfin, le Conseil d'État a proposé de substituer la notion de « fausses informations » à celle de « fausses nouvelles » dans l'ensemble de la proposition de loi au motif que le champ d'application de la notion de « fausses informations » est plus large car elle supprime la condition tenant à l'absence de divulgation préalable de l'information litigieuse. Pour le rapporteur de l'Assemblée nationale, « la référence aux "fausses nouvelles" est donc particulièrement problématique, puisque l'exigence de leur caractère de nouveauté ferait obstacle à ce que la diffusion d'informations inexactes mais déjà diffusées une première fois fassent l'objet d'une intervention du CSA ».

En conséquence, la commission des affaires culturelles et de l'éducation de l'Assemblée nationale a adopté un amendement de réécriture du présent article poursuivant cinq objectifs :

- le renvoi aux articles premiers et 15 de la loi du 30 septembre 1986 est remplacé par la mention explicite des principes sur le fondement desquels le CSA peut refuser une demande de conventionnement. Ces principes sont la dignité de la personne humaine, la liberté et la propriété d'autrui, le caractère pluraliste de l'expression des courants de pensée et d'opinion, la protection de l'enfance et de l'adolescence, la sauvegarde de l'ordre public, les besoins de la défense nationale et les intérêts fondamentaux de la Nation y compris le fonctionnement régulier des institutions ;

- la reprise, ensuite, de la jurisprudence du Conseil d'État concernant le non-respect des lois en vigueur par la nature même du programme ;

- la mise en cohérence des services soumis à une obligation de conventionnement et du champ des personnes concernées par un possible refus du CSA ;

- le remplacement de la notion de « fausses nouvelles » par celle de « fausses informations » ;

- la modification du dernier alinéa afin de prévoir que le CSA peut prendre en compte des éléments plus larges, « extrinsèques » selon l'expression du rapporteur de l'Assemblée nationale, pour apprécier la demande d'un service sous la dépendance d'un État étranger et fonder sa décision.

· Le texte adopté en séance publique

L'Assemblée nationale a adopté cet article modifié par un amendement rédactionnel du rapporteur.

Le risque de représailles d'un État étranger
face à une sanction décidée le régulateur national

Le Conseil supérieur de l'audiovisuel a décidé27(*) le 28 juin 2018 de mettre en demeure la chaîne RT France pour des manquements à l'honnêteté, à la rigueur de l'information et à la diversité des points de vue dans le journal télévisé du 13 avril 2018 de 11 heures, essentiellement consacré à la situation en Syrie. La traduction de certains propos d'un reportage apparaissait en effet comme inexacte et de nature à fausser l'information.

Dès le lendemain de cette décision, on apprenait que la chaîne France 24 était accusée d'avoir violé la loi sur les médias en Russie. L'autorité de contrôle des médias russes Roskomnadzor expliquait en effet avoir « identifié une violation de l'article 19.1 de la loi sur les médias de la part de France 24 ». La loi en question limite la participation étrangère au capital des médias diffusant sur le sol russe. Dans son communiqué, le régulateur russe avertissait la chaîne française diffusée en anglais sur des bouquets satellitaires en Russie qu'elle risquait de voir ses activités « suspendues ».

Cette annonce du régulateur russe peut être considérée comme une mesure de rétorsion à la décision du CSA. Ce risque de représailles de la part d'un État étranger avait d'ailleurs été clairement identifié lors de la table ronde28(*) organisée par votre commission de la culture le 13 juin dernier avec les directeurs de l'information. À cette occasion, M. Marc Saikali, directeur de l'information de France 24 avait souligné que compte tenu du « principe de réciprocité », « la suspension de la diffusion d'une radio ou d'une télévision étrangère pourra donc conduire à l'expulsion de nos journalistes ».

Confirmant cette crainte lors de son audition par la commission de la culture, le président du CSA, M. Olivier Schrameck, expliquait qu' : « en ce qui concerne les mesures de rétorsion qui pourraient nous frapper si nous interdisons certains médias étrangers, je vous renvoie à divers précédents, dont les décisions du 21 février 2014 et du 21 février 2015 qui concernaient des médias d'origines turque et tamoule. Nous avons pris des mesures très restrictives à l'égard de ces chaînes étrangères. Le contexte est certes bien différent aujourd'hui, et c'est sans doute la raison pour laquelle le Parlement n'a pas encore abordé la question »29(*).

Votre rapporteure estime que le risque de représailles préjudiciables aux médias français et tout particulièrement à notre audiovisuel extérieur public constitue assurément une difficulté majeure quant à l'efficacité du dispositif juridique envisagé par le titre II de la proposition de loi.

Source : commission de la culture, de l'éducation et de la communication

Article 5

Suspension temporaire par le Conseil supérieur de l'audiovisuel
de la diffusion d'un service de radio et de télévision étranger conventionné pendant la période électorale

Objet : Cet article insère un article 33-1-1 nouveau dans la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication afin de permettre au CSA, en période électorale, de suspendre la diffusion d'un service de radio ou de télévision étranger avec lequel il a signé une convention dès lors que la diffusion dudit service porte atteinte aux intérêts fondamentaux de la Nation ou participe à une entreprise de déstabilisation notamment au travers de la diffusion de « fausses nouvelles » destinée à porter atteinte à la sincérité du scrutin.

I. Le droit en vigueur

Le CSA dispose déjà d'un arsenal de moyens juridiques pour contraindre un éditeur de programmes à respecter ses obligations. Toutefois ces dispositifs peuvent être d'un emploi difficile dans le cadre d'opérations électorales.

Le CSA, en vertu de l'article 42 de la loi du 30 septembre 1986, peut ainsi mettre en demeure des éditeurs, des distributeurs ou des opérateurs satellitaires pour les contraindre à respecter des obligations découlant des dispositions législatives et réglementaires30(*).

Le régulateur de l'audiovisuel peut également, après une mise en demeure, et pour des faits distincts, décider, dans le cadre de son pouvoir de sanction, « la suspension de l'édition, de la diffusion ou de la distribution du ou des services d'une catégorie de programme, d'une partie du programme, ou d'une ou plusieurs séquences publicitaires pour un mois au plus d'un programme » en vertu du deuxième alinéa de l'article 42-1 de la loi du 30 septembre 1986. En application du quatrième alinéa du même article, le CSA peut décider également « le retrait de l'autorisation ou la résiliation unilatérale de la convention ».

La suspension d'un programme par le CSA
en application de l'article 42-1 de la loi du 30 septembre 1986

« Si la personne faisant l'objet de la mise en demeure ne se conforme pas à celle-ci, le Conseil supérieur de l'audiovisuel peut prononcer à son encontre, compte tenu de la gravité du manquement, et à la condition que celui-ci repose sur des faits distincts ou couvre une période distincte de ceux ayant déjà fait l'objet d'une mise en demeure, une des sanctions suivantes :

1° La suspension de l'édition, de la diffusion ou de la distribution du ou des services d'une catégorie de programme, d'une partie du programme, ou d'une ou plusieurs séquences publicitaires pour un mois au plus ;

2° La réduction de la durée de l'autorisation ou de la convention dans la limite d'une année ;

3° Une sanction pécuniaire assortie éventuellement d'une suspension de l'édition ou de la distribution du ou des services ou d'une partie du programme ;

4° Le retrait de l'autorisation ou la résiliation unilatérale de la convention ».

Autre « arme » juridique à la disposition du CSA, conformément à l'article 42-3 de la loi du 30 septembre 1986, la possibilité de retirer une autorisation sans mise en demeure préalable « en cas de modification substantielle des données au vu desquelles l'autorisation avait été délivrée, notamment des changements intervenus dans la composition du capital social ou des organes de direction et dans les modalités de financement ».

Le CSA peut également, en application de l'article 42-10 de la loi précitée, saisir le président de la section du contentieux du Conseil d'État en cas de manquement aux obligations prévues par la loi afin d'ordonner de mettre fin à l'irrégularité constatée et d'en supprimer les effets.

L'article 42-10 de la loi du 30 septembre 1986

« En cas de manquement aux obligations résultant des dispositions de la présente loi et pour l'exécution des missions du Conseil supérieur de l'audiovisuel, son président peut demander en justice qu'il soit ordonné à la personne qui en est responsable de se conformer à ces dispositions, de mettre fin à l'irrégularité ou d'en supprimer les effets. Cette demande peut avoir pour objet de faire cesser la diffusion, par un opérateur satellitaire, d'un service de télévision relevant de la compétence de la France dont les programmes portent atteinte à l'un au moins des principes mentionnés aux articles 1er, 3-1 ou 15.

La demande est portée devant le président de la section du contentieux du Conseil d'État qui statue en référé et dont la décision est immédiatement exécutoire. Il peut prendre, même d'office, toute mesure conservatoire et prononcer une astreinte pour l'exécution de son ordonnance.

Toute personne qui y a intérêt peut intervenir à l'action introduite par le président du Conseil supérieur de l'audiovisuel ».

Dans le cadre de la loi n° 2004-669 du 9 juillet 2004 relative aux communications électroniques et aux services de communication audiovisuelle, le CSA peut également demander au juge de faire cesser la diffusion par un opérateur satellitaire d'un service de télévision relevant des compétences de la France dont les programmes portent atteinte aux principes mentionnés aux articles 1er, 3-1 et 15 de la loi du 30 septembre 1986. Le CSA a fait usage de ce pouvoir en 2004 à l'encontre de la chaîne Al Manar TV31(*).

Le CSA peut, enfin, en application de l'article 43-8 de la loi du 30 septembre 1986, suspendre provisoirement la retransmission de chaînes relevant de la compétence d'un État membre de l'Union européenne ou partie à l'accord sur l'Espace économique européen lorsque celles-ci ont diffusé plus de deux fois au cours des douze mois précédents « des émissions susceptibles de nuire de façon manifeste, sérieuse et grave à l'épanouissement physique, mental ou moral des mineurs ou comportant une incitation à la haine pour des raisons d'origine, de sexe, de religion ou de nationalité ». Cette disposition a pour objet de pallier l'absence d'application à ce type de service du référé prévu en matière de communication audiovisuelle.

L'article 43-8 de la loi du 30 septembre 1986

« Le Conseil supérieur de l'audiovisuel peut suspendre provisoirement la retransmission des services de télévision relevant de la compétence d'un autre État membre de la Communauté européenne ou partie à l'accord sur l'Espace économique européen si les conditions suivantes sont remplies :

1° Le service a diffusé plus de deux fois au cours des douze mois précédents des émissions susceptibles de nuire de façon manifeste, sérieuse et grave à l'épanouissement physique, mental ou moral des mineurs ou comportant une incitation à la haine pour des raisons d'origine, de sexe, de religion ou de nationalité ;

2° Après notification des griefs et des mesures envisagées au service et à la Commission européenne et consultation de l'État membre de transmission et de la Commission européenne, la violation alléguée persiste.

Le Conseil supérieur de l'audiovisuel peut suspendre provisoirement la retransmission des services de télévision relevant de la compétence d'un autre État partie à la Convention européenne, du 5 mai 1989, précitée dans les conditions prévues par ce traité.

Un décret en Conseil d'État précise les conditions d'application du présent article ».

II. Le texte de la proposition de loi

L'article 5 de la proposition de loi vise à permettre au CSA d'ordonner lui-même la suspension temporaire de la diffusion d'une chaîne conventionnée contrôlée par un État étranger ou sous l'influence de ce dernier en période électorale dès lors qu'il constate que :

- la diffusion de ce service porte atteinte aux intérêts fondamentaux de la Nation ou participe à une entreprise de déstabilisation de ses institutions notamment par la diffusion de fausses nouvelles ;

- et que cette diffusion a pour objet ou pour effet d'altérer la sincérité du scrutin à venir.

Le CSA peut alors, pour prévenir ou faire cesser ce trouble, ordonner la suspension de cette diffusion par tout procédé de communication électronique jusqu'à la fin des opérations de vote. L'application de suspension temporaire est encadrée dans le temps entre, d'une part, le décret de convocation des électeurs et, d'autre part, la fin des opérations de vote. En dehors de ce laps de temps, le CSA devra utiliser les moyens de droit précédemment évoqués afin de saisir le juge des référés ou de mettre en demeure les opérateurs satellitaires afin d'obtenir la suspension de la diffusion de la chaîne mise en cause.

Cette mesure est limitée aux scrutins nationaux pour l'élection présidentielle, les élections législatives et sénatoriales et européennes ainsi que les référendums.

Même si l'application de cette procédure est limitée dans le temps et circonscrite à certains scrutins, le Conseil d'État a demandé, dans son avis, que les décisions du CSA soient motivées et qu'une procédure contradictoire préalable soit instituée.

III. Le texte adopté par l'Assemblée nationale

· Les modifications insérées à l'initiative de la commission des affaires culturelles et de l'éducation

Afin de prendre en compte l'avis du Conseil d'État précité, la commission des affaires culturelles et de l'éducation a complété la rédaction du présent article par deux alinéas. Le premier prévoit que le CSA notifie les griefs aux personnes mises en cause qui peuvent présenter leurs observations dans les 48 heures. Le second alinéa prévoit que la décision du CSA est motivée et notifiée aux personnes mises en cause ainsi qu'aux distributeurs et aux opérateurs satellitaires qui assurent la diffusion du service en France et qui doivent assurer l'exécution de la mesure de suspension.

En outre la commission a adopté des modifications rédactionnelles et a modifié le premier alinéa de l'article 33-1-1 afin de prévoir que lorsqu'un service dépendant d'un État étranger diffuse, de façon délibérée, de fausses informations de nature à altérer la sincérité d'un scrutin, le CSA est compétent pour ordonner la suspension de la diffusion du service.

· Le texte adopté en séance publique

L'Assemblée nationale a adopté en séance publique le présent article dans sa version adoptée par la commission avec une modification rédactionnelle proposée par le rapporteur.

Article 5 bis (nouveau)

Correction rédactionnelle

Cet article additionnel adopté sur proposition du rapporteur de la commission des affaires culturelles et de l'éducation vise à corriger une erreur rédactionnelle dans l'article 42-1 de la loi du 30 septembre 1986 relatif au régime des sanctions. Il a été adopté en séance publique sans modification.

Article 6

Résiliation unilatérale de la convention conclue
avec un service contrôlé par un État étranger

Objet : Cet article rétablit l'article 42-6 dans la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication afin de permettre au CSA de résilier unilatéralement la convention conclue avec un service contrôlé par un État étranger ou sous son influence, si sa diffusion porte atteinte aux intérêts fondamentaux de la Nation ou participe à une entreprise de déstabilisation de ses institutions, notamment par la diffusion de fausses nouvelles.

I. Le droit en vigueur

Comme cela a déjà été évoqué à l'article 5, le CSA dispose d'une palette d'outils pour contraindre des chaînes qui ne respecteraient pas leurs obligations. Il peut notamment, après une mise en demeure, et pour des faits distincts de ceux à l'origine de celle-ci, décider, dans le cadre de son pouvoir de sanction, « la suspension de l'édition, de la diffusion ou de la distribution du ou des services d'une catégorie de programme, d'une partie du programme, ou d'une ou plusieurs séquences publicitaires pour un mois au plus d'un programme » conformément au deuxième alinéa de l'article 42-1 de la loi du 30 septembre 1986.

Selon le quatrième alinéa du même article, le CSA peut décider « le retrait de l'autorisation ou la résiliation unilatérale de la convention ». Cette décision de retrait peut faire l'objet d'un recours auprès du juge administratif qui sera amené à apprécier la proportionnalité de la sanction à la faute visée. À noter que l'usage de ce pouvoir est rare ; le seul cas mentionné remonte à 2004, avec le retrait de l'autorisation d'émettre de la chaîne Al Manar qui s'était rendue coupable de la diffusion de programmes à connotation antisémite.

II. Le texte de la proposition de loi

Le présent article rétablit l'article 42-6 de la loi du 30 septembre 1986 afin de permettre au CSA, après mise en demeure, de résilier unilatéralement - c'est-à-dire sans intervention du juge pour apprécier le quantum de la peine prononcée - la convention passée avec une personne morale contrôlée par un État étranger ou placée sous son influence si le service ayant fait l'objet de ladite convention porte atteinte aux intérêts fondamentaux de la Nation ou participe à une entreprise de déstabilisation de ses institutions, notamment par la diffusion de fausses nouvelles.

Pour apprécier cette atteinte, le Conseil peut notamment tenir compte des contenus que la société avec laquelle il a conclu la convention, ses filiales, la personne morale qui la contrôle ou les filiales de celles-ci éditent sur les autres services de communication au public par voie électronique. Comme l'observe le rapporteur de l'Assemblée nationale, cela signifie que « la sanction qu'il est envisagé de créer pourrait être prononcée à raison de contenus diffusés par une autre personne morale que la société conventionnée ».

Cette situation pose une question de droit au regard du principe de responsabilité pénale personnelle selon lequel, selon le Conseil constitutionnel « nul n'est responsable pénalement que de son propre fait ». Le Conseil d'État a été amené à considérer dans son avis que « le fait de sanctionner une personne morale en raison des seuls agissements commis par d'autres personnes morales, qui peuvent être sans lien direct avec elle, apparaît difficilement conciliable avec les principes constitutionnels de responsabilité personnelle et de personnalité des peines, garantis par les articles 8 et 9 de la Déclaration de 1789 ». Par ailleurs, le Conseil d'État considère que cette mention est « moins pertinente dans un cadre répressif, puisque le Conseil pourra s'appuyer sur les contenus problématiques des programmes déjà diffusés pour justifier la sanction prise ».

III. Le texte adopté par l'Assemblée nationale

· Les modifications insérées à l'initiative de la commission des affaires culturelles et de l'éducation

La commission des affaires culturelles et de l'éducation a adopté un amendement de suppression de la dernière phrase du présent article afin de tenir compte des observations du Conseil d'État concernant la constitutionnalité de cette disposition. Elle a également adopté des coordinations rédactionnelles et supprimé la référence à une entreprise de déstabilisation des institutions.

· Le texte adopté en séance publique

En séance publique, la référence au fonctionnement régulier de ses institutions a été rétablie à l'initiative de la ministre de la culture, au motif qu'il est « très utile que la loi le précise, pour faciliter l'application du texte par le CSA, et le cas échéant par le juge »32(*).

La ministre a également souhaité réintroduire « la possibilité de prendre en considération les contenus diffusés sur d'autres supports, mais en précisant que ces éléments ne peuvent seuls fonder la décision du CSA ».

Article 7

Application des conditions du prononcé des sanctions
prévues par l'article 42-7 de la loi du 30 septembre 1986
à la sanction prévue par le nouvel article 42-6

Objet : Cet article vise à appliquer au nouvel article 42-6, rétabli par l'article 6 de la proposition de loi, les garanties relatives au prononcé des sanctions par le CSA prévues par l'article 42-7 de la loi du 30 septembre 1986 relative à la liberté de communication.

I. Le droit en vigueur

L'article 42-7 de la loi du 30 septembre 1986 prévoit un certain nombre de garanties dans l'application des sanctions administratives. L'engagement des poursuites et l'instruction préalable au prononcé de la sanction sont confiés à un rapporteur indépendant nommé par le vice-président du Conseil d'État après avis du CSA. Ce rapporteur indépendant est doté d'un pouvoir d'auto-saisine et d'un large pouvoir d'audition et de consultation. Les personnes mises en cause ont accès au dossier constitué par le rapporteur indépendant et peuvent présenter leurs observations dans le délai d'un mois, elles ont aussi accès au rapport remis par le rapporteur au collège. La décision du CSA doit enfin être motivée aux personnes mises en cause et fait l'objet d'une publication au Journal officiel.

II. Le texte de la proposition de loi

Le présent article insère une référence à l'article 42-6 dans l'article 42-7 de la loi du 30 septembre 1986 afin que la nouvelle sanction bénéficie des garanties définies pour les autres sanctions décidées par le CSA.

III. Le texte adopté par l'Assemblée nationale

· Les modifications apportées à l'initiative de la commission des affaires culturelles et de l'éducation

La commission a adopté cet article modifié par un amendement rédactionnel.

· Le texte adopté en séance publique

L'Assemblée nationale a adopté cet article sans modification.

Article 8

Extension du champ du référé en matière de communication audiovisuelle

Objet : Cet article a pour objet d'étendre le champ du référé prévu par l'article 42-10 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication en matière de communication audiovisuelle aux distributeurs afin de tenir compte du cas d'une chaîne placée sous la dépendance d'un État étranger.

I. Le droit en vigueur

Un référé spécifique à la communication audiovisuelle a été introduit à l'article 42-10 de la loi du 30 septembre 1986 de sorte de permettre au régulateur, en cas de manquement aux obligations imposées par la loi, de saisir le président de la section du contentieux du Conseil d'État afin que la personne responsable du manquement considéré se conforme à ses obligations, que soit mis fin à l'irrégularité constatée ou que ses effets soient supprimés. Depuis 1986, le président de la section du contentieux du Conseil d'État dispose du pouvoir de prendre d'office toute mesure conservatoire.

Ce référé est aujourd'hui applicable :

- aux services de radio et de télévision soumis à autorisation et aux services soumis à la conclusion d'une convention ;

- aux sociétés nationales de programmes ;

- aux services de médias audiovisuels à la demande relevant des compétences de la France ;

- aux services de télévision extra-communautaires relevant des compétences de la France ;

- et aux opérateurs satellitaires dont l'activité a pour effet de faire relever des services de télévision de la compétence de la France.

A contrario, en l'état actuel du droit, le référé propre à la communication audiovisuelle n'est pas applicable aux services relevant d'un autre État membre de l'Union européenne, d'un État partie à l'accord sur l'Espace économique européen ou à la convention européenne du 5 mai 1989. Les distributeurs de services ne sont pas non plus concernés.

II. Le texte de la proposition de loi

Le deuxième alinéa du présent article modifie l'article 42-10 de la loi du 30 septembre 1986 afin d'étendre aux distributeurs de services la disposition jusque-là limitée aux seuls opérateurs satellitaires. Cette modification permettra au CSA de demander au président de la section du contentieux du Conseil d'État de faire cesser la diffusion d'un service par son distributeur. Selon le rapporteur de l'Assemblée nationale : « l'inclusion des distributeurs dans le champ de l'article 42-10 complète de façon opportune le dispositif ».

Les troisième et quatrième alinéas du présent article précisent que la demande du président du CSA peut avoir pour objet de faire cesser la diffusion ou la distribution, par un opérateur satellitaire ou un distributeur de services, d'un service relevant des compétences de la France et contrôlé par un État étranger s'il porte atteinte aux intérêts fondamentaux de la Nation ou participe à une entreprise de déstabilisation de ses institutions notamment par la diffusion de fausses nouvelles.

Le présent article prévoit, enfin, que le président de la section du contentieux du Conseil d'État peut tenir compte des contenus diffusés par les autres services de communication au public par voie électronique de la société visée, de ses filiales, de la personne qui la contrôle ainsi que des filiales de cette dernière.

III. Le texte adopté par l'Assemblée nationale

· Les modifications insérées à l'initiative de la commission des affaires culturelles et de l'éducation

La commission des affaires culturelles et de l'éducation a adopté un amendement présenté par son rapporteur afin de ne pas limiter l'application du dernier alinéa aux seules chaînes conventionnées conformément à une recommandation du Conseil d'État qui proposait de substituer les termes « la société éditant le service litigieux » aux termes « la société avec laquelle il a conclu la convention ». Cet amendement a également opéré plusieurs modifications rédactionnelles par coordination avec les modifications apportées aux autres articles de la proposition de loi.

· Le texte adopté en séance publique

En séance publique, les députés ont adopté un amendement du Gouvernement rétablissant la référence au fonctionnement régulier des institutions par coordination avec les modifications apportées à d'autres articles. Ils ont également adopté un amendement rédactionnel présenté par le rapporteur.

TITRE II BIS
DEVOIR DE COOPÉRATION
DES OPÉRATEURS DE PLATEFORME EN LIGNE EN MATIÈRE
DE LUTTE CONTRE LA DIFFUSION DE FAUSSES INFORMATIONS
(Division et intitulé nouveaux)
Article 8 bis (nouveau)

Nouvelles obligations pour les plateformes

Objet : cet article vise à créer de nouvelles obligations pour les plateformes en ligne dans le cadre de la lutte contre les fausses informations.

I. Le droit en vigueur

L'exposé général a développé le cadre juridique applicable à la responsabilité des plateformes, inscrit à l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, qui a transposé en droit français les dispositions issues de la directive 2000/31 du 8 juin 2000, dite directive « commerce électronique ». Le principe général est celui de l'irresponsabilité des hébergeurs et des intermédiaires techniques, qui n'ont pas une obligation générale de surveillance des contenus mis en ligne.

à Les obligations de signalement des hébergeurs issus de la LCEN

Dans le cas général, les hébergeurs n'ont pas d'autre obligation que de réagir promptement à un signalement qui leur serait adressé.

Le dispositif initial de l'article 9 prévoyait de dupliquer le mécanisme prévu pour certains types de contenus dits « odieux » au cas des fausses informations.

En effet, deux hypothèses sont inscrites au 7. de l'article 6, qui supposent une action plus directe de l'hébergeur, mais également du fournisseur d'accès.

Ces deux motifs sont directement rattachés à « l'intérêt général », explicitement mentionné, et concernent des domaines auxquels les pouvoirs publics accordent une attention particulière, en raison du risque que leur mise en ligne fait peser.

· Le premier domaine : les limites à la liberté d'expression

Le premier domaine, défini au troisième alinéa, concerne un large champ de propos délictueux passibles de sanction au titre de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse, et de plusieurs articles du code pénal : apologie de crimes contre l'humanité, appel à la haine, pornographie etc... .

Dans ces cas, qui constituent des infractions, le prestataire technique doit répondre de trois obligations, en plus du retrait, étant entendu que les contenus ont manifestement un caractère illicite :

- d'une part, il doit mettre en place un dispositif « facilement accessible et visible permettant à toute personne de porter à leur connaissance » les contenus jugés contraires à l'intérêt général. Les hébergeurs en particulier doivent donc concevoir les sites de manière à rendre possible un signalement rapide des internautes, et prévoir les dispositifs destinés à les traiter rapidement ;

- d'autre part, les prestataires doivent informer « promptement » les autorités publiques compétentes des signalements reçus par le biais des mécanismes à la disposition des internautes. Le signalement est traité par la plateforme PHAROS, qui dépend de l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) ;

- enfin, les prestataires doivent rendre publics les moyens qu'ils consacrent à la lutte contre les activités illicites qui sont l'objet des signalements.

· Le second domaine : les activités illégales de jeux d'argent

Des dispositions particulières sont prévues dans le cadre de la lutte contre les activités illégales de jeu d'argent. De nouvelles dispositions ont été introduites par la loi n° 2007-297 du 5 mars 2007 relative à la prévention de la délinquance. Elles supposent la mise en place d'un « dispositif facilement accessible et visible permettant de signaler à leurs abonnés les services de communication au public en ligne tenus pour répréhensibles par les autorités publiques compétentes en la matière ».

A l'obligation d'informer les autorités se substitue dans ce cas un devoir d'information du caractère illégal des jeux d'argent en ligne à destination des utilisateurs du service.

Les obligations des prestataires techniques, si elles ne sont pas honorées, sont sujettes à un régime de sanction défini par le 1. du VI de l'article 6 de la loi précitée. Il dispose que le fait de ne pas remplir les obligations définies comme relevant de l'intérêt général, soit celles précédemment définies à l'article 24 de la loi sur la liberté de la presse, dans le code pénal, et dans le cadre de la lutte contre les jeux d'argent, est passible d'un an d'emprisonnement et de 75 000 € d'amende.

Ainsi, pour reprendre l'expression du professeur Laure Marino, « en contrepartie de leur irresponsabilité relative, les fournisseurs d'accès et d'hébergement doivent collaborer techniquement à la lutte contre les contenus illicites : c'est la responsabilisation ».

II. Le texte de la proposition de loi

La commission de la culture de l'Assemblée nationale a réécrit en totalité l'article 9 de la proposition de loi.

1) La version initiale de l'article 9 de la proposition de loi

L'article 9 complétait le 7. de l'article 6 de la loi précitée du 21 juin 2004 en créant une nouvelle obligation de coopération, tant pour les fournisseurs d'accès que pour les hébergeurs, et selon des modalités similaires.

Ainsi, les hébergeurs et les fournisseurs d'accès auraient eu des obligations similaires de mettre en place un dispositif facilement accessible permettant le signalement et d'informer les autorités compétentes, mais dans un troisième domaine.

Le texte de la proposition de loi mentionnait « la diffusion de fausses informations mentionnées à l'article 27 de la loi du 29 juillet 1881 sur la liberté de la presse et à l'article L. 97 du code électoral ».

L'article 27 de la loi de 1881 sur la liberté de la presse sanctionne « la publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, elle aura troublé la paix publique, ou aura été susceptible de la troubler », et « les mêmes faits [...], lorsque la publication, la diffusion ou la reproduction faite de mauvaise foi sera de nature à ébranler la discipline ou le moral des armées ou à entraver l'effort de guerre de la Nation ».

L'article L. 97 du code électoral sanctionne « ceux qui, à l'aide de fausses nouvelles, bruits calomnieux ou autres manoeuvres frauduleuses, auront surpris ou détourné des suffrages, déterminé un ou plusieurs électeurs à s'abstenir de voter ».

Cependant, ces deux références ne traitent pas des fausses informations, mais des « nouvelles fausses » (loi de 1881) et des « fausses nouvelles » (code électoral). L'exposé général a explicité les trois caractéristiques que doit réunir une « nouvelle fausse » au sens de la loi de 1881.

Le Conseil d'État, dans son avis aux auteurs de la proposition de loi, a remarqué que le texte mentionnait les « fausses informations », et non pas les « fausses nouvelles », notion pour lui plus large qui « supprime la condition tenant à la divulgation préalable de l'information litigieuse ».

La proposition de loi ne créait donc pas une nouvelle catégorie de délit, ni n'instituait un nouveau mécanisme contraignant pour les fournisseurs d'accès et les hébergeurs, mais s'appuyait sur deux ensembles législatifs déjà existants : d'une part, sur le propos lui-même, les dispositions qui répriment la diffusion de fausses informations susceptibles de troubler la paix publique, et ce, quel que soit le moment retenu (loi de 1881) et les propos répandus en période électorale de nature à troubler la sincérité du scrutin (code électoral), d'autre part, sur la procédure prévue pour le signalement des contenus odieux.

Les sanctions en cas de manquement à ces obligations sont identiques à celles retenus dans les autres cas, soit un an d'emprisonnement et 75 000 € d'amende.

La commission des affaires culturelles et de l'éducation de l'Assemblée nationale a été sensible aux arguments avancés par le Conseil d'État, dans son avis du 19 avril 2018. Le Conseil avait en effet avancé deux séries de remarques.

La première, pour laquelle un parallèle peut être fait avec la loi allemande, s'intéresse au pouvoir d'appréciation qui serait accordé aux prestataires techniques qui, « pour ne pas être accusés de manquer à leurs obligations, pourraient retenir une acceptation large des fausses informations au détriment de la liberté d'expression ».

La seconde remarque tient à l'inefficacité de la mesure de signalement. En effet, comme il a été souligné, une information fausse n'a rien « d'illégal », et, par conséquent, rien ne pourrait contraindre l'hébergeur à la retirer, hormis le cas prévu par l'article premier de la présente proposition de loi.

Les personnes auditionnées avaient par ailleurs fait remarquer à votre rapporteure que le principe du signalement trouvait déjà difficilement à s'appliquer pour les propos « odieux », compte tenu de la masse de données - ce qui conduit les plateformes à retirer d'elles-mêmes et préalablement les contenus les plus manifestement illégaux, avant même de procéder au signalement. Le volume de « fausse information » potentiellement diffusé chaque jour, et susceptible d'être porté à la connaissance de l'autorité publique, serait de plusieurs dizaines, voire centaines de milliers par jour, ce qui aurait rendu impossible toute forme de traitement ou d'analyse.

2) Une version remaniée adoptée en commission des affaires culturelles et de l'éducation de l'Assemblée nationale

Dans ces conditions, la commission des affaires culturelles et de l'éducation de l'Assemblée nationale a adopté en commission une nouvelle version de l'article 9, fondée sur deux principes : d'une part, de nouvelles obligations pour les plateformes, qui reprenaient en partie le dispositif de signalement, d'autre part, un embryon de régulation confiée au Conseil supérieur de l'audiovisuel.

La principale difficulté posée par la problématique des fausses informations qui circule sur les réseaux sociaux tient à l'impossibilité en droit d'aller au-delà des dispositions de la directive de 2000. Le principe général de non responsabilité des hébergeurs constitue un verrou qu'il n'est pas possible de dépasser au niveau national. En ce sens, la version initiale de l'article 9 allait aussi loin que possible dans la responsabilisation des hébergeurs.

À juste titre, cette réponse n'est pas apparue comme pertinente à la commission des affaires culturelles et de l'éducation de l'Assemblée nationale, à la fois en raison de son caractère impraticable - comment gérer l'afflux de milliers de signalements quotidiens ? - et de son inutilité - que faire de ces signalements de propos qui ne sont pas en eux-mêmes répréhensibles ?

3) De nouvelles responsabilités pour les plateformes

Introduit à l'initiative de la ministre de la culture lors de l'examen en séance publique de la proposition de loi le 3 juillet 2018, le nouvel article 8 bis constitue lui-même un « démembrement » de l'article 9 « version commission ». Il permet d'isoler dans la loi les nouvelles obligations des plateformes en matière de lutte contre « les fausses informations susceptibles de troubler l'ordre public ou d'altérer la sincérité du scrutin ». Pour sa part, l'article 9 « version 3 » issue de la séance publique de l'Assemblée nationale se concentre sur le rôle nouveau du CSA.

L'article 8 bis impose, dans le cadre de la lutte contre les fausses informations, de mettre en place un dispositif « facilement accessible » permettant aux utilisateurs de signaler les fausses informations. Cette obligation se rapproche de celle qui leur est faite dans le cas des contenus « odieux », mais s'éloigne de la version initiale de la proposition car les opérateurs n'ont plus l'obligation de transmettre ces signalements à l'autorité compétente.

Les opérateurs de plateforme en ligne concernés seraient ceux mentionnés à l'article L. 163-1 du code électoral, lui-même introduit par l'article premier de la présente proposition de loi, qui renvoie pour leur définition à l'article L. 111-7 du code de la consommation.

Les opérateurs de plateforme en ligne

L'article L. 111-7 du code de la consommation qualifie « d'opérateurs de plateforme en ligne » toute personne qui propose un service de communication au public en ligne reposant sur :

1° Le classement ou le référencement, au moyen d'algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers ;

2° Ou la mise en relation de plusieurs parties en vue de la vente d'un bien, de la fourniture d'un service ou de l'échange ou du partage d'un contenu, d'un bien ou d'un service.

Cette catégorie, introduite à l'article 49 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, regroupe les services de communication en ligne qui fournissent aux internautes une porte d'accès aux autres sites, soit les moteurs de recherche, les agrégateurs ou comparateurs de prix, les places de marché ainsi que les réseaux sociaux. Elle est donc plus large que les seuls hébergeurs, en particulier avec l'inclusion des moteurs de recherche, dont Google.

Source : commission de la culture, de l'éducation et de la communication

L'article premier indique par ailleurs que les dispositions ne s'appliqueront qu'aux sites dépassant un certain seuil arrêté par décret.

Le présent article conserve donc de la version initiale l'obligation de mise en place d'un dispositif « facilement accessible et visible permettant à leurs utilisateurs de porter à leur connaissance de telles informations [les fausses informations], y compris issues de contenus financés par des tiers ».

Deux différences doivent cependant être relevées :

- d'une part, le champ des personnes concernées est plus vaste, puisqu'il englobe non plus les seuls hébergeurs de l'article 6 de la loi 21 juin 2004 pour la confiance dans l'économie numérique, mais l'ensemble des opérateurs de plateforme en ligne (voir supra) ;

- d'autre part, il est précisé que cette obligation s'étend également quand le contenu a été financé par un tiers.

Les opérateurs de plateforme en ligne, en plus du dispositif de signalement, mettent en place « d'autres mesures ». L'article fixe une liste non exhaustive des éléments qui devront faire l'objet de mesures. Sont ainsi mentionnés les mesures prises en matière de : « transparence de leur algorithme, de promotion des contenus issus d'entreprises et d'agences de presse et de services de communication audiovisuels, la lutte contre les comptes propageant massivement des fausses informations, d'information des utilisateurs sur l'identité de la personne physique ou la raison sociale, le siège social et l'objet social des personnes morales leur versant des rémunérations en contrepartie de la promotion de contenus d'informations se rattachant à un débat d'intérêt général, la nature, l'origine et les modalités de diffusion des contenus et sur l'éducation aux médias et à l'information ». Cinq ensembles se dégagent donc.

Le premier est la transparence des algorithmes. Si les plateformes ne sont pas tenues, en raison du secret des affaires, de révéler publiquement les codes, l'Assemblée nationale souhaite par ce biais obtenir des précisions a minima sur les modalités de référencement des informations.

Le second ensemble constitue une invitation pour les opérateurs à une forme de discrimination par la qualité, soit la mise en avant, par exemple dans les résultats de recherche, des contenus élaborés par des journalistes. Des initiatives ont déjà été prises en ce sens, de manière limitée, par les grandes plateformes comme Google.

Le troisième ensemble est celui de la lutte contre les comptes « propageant massivement des fausses informations ». La version adoptée en commission mentionnait la certification des comptes des utilisateurs, mais il a été jugé un risque pour la liberté d'expression, en plus d'une application incertaine.

La certification des comptes : une idée complexe à mettre en place

Cette certification vise à s'assurer de l'identité de la personne qui interagit sur les réseaux sociaux, afin, en particulier, de limiter les usurpations d'identité ou un anonymat vécu comme une autorisation de répandre des bruits infondés sans aucune conséquence. Ce dispositif n'est pas nouveau. Depuis 2009 sur Twitter, 2013 sur Facebook et 2014 sur Instagram, les personnalités ou marques ont la possibilité de demander un compte « certifié », ce qui permettrait d'améliorer le référencement. L'expérience ne s'est cependant pas avérée pleinement concluante, occasionnant même des abus33(*). Ainsi, une enquête publiée sur le site Mashable le 1er septembre 2017 fait état d'un trafic à la « pastille bleue » pour acquérir le petit macaron preuve de la certification d'un compte.

Source : commission de la culture, de l'éducation et de la communication

Le quatrième ensemble concerne la détermination des personnes physiques ou morales menant des actions de promotion de « contenus d'intérêt général », afin, on peut le penser, de faire cesser le relatif anonymat dans lequel peuvent se dérouler les campagnes de publicité sur Internet.

Le cinquième et dernier ensemble regroupe les actions d'éducation et de formation aux médias qui serait assurées par les plateformes.

Les opérateurs rendraient publiques chaque année les mesures qu'ils prennent pour se conformer à cette nouvelle obligation, et adresseraient au CSA une déclaration précisant les modalités de mise en oeuvre. On comprend donc qu'il s'agit de deux documents distincts : un rapport destiné au public, d'une part, une déclaration pour le CSA d'autre part.

Article 9
(Nouvel article à la loi n° 86-1067 du 30 septembre 1986)

Compétences du Conseil supérieur de l'audiovisuel
en matière de numérique

Objet : cet article vise à confier une nouvelle compétence au CSA en matière de numérique.

Comme cela a été dit dans le commentaire précédent, l'article 9 a été tout d'abord totalement réécrit en commission, puis démembré : l'article 8 bis fixe les nouvelles obligations des plateformes, l'article 9 la compétence du CSA.

1) Une nouvelle compétence du CSA

Le présent article propose d'introduire un article 17-2 au titre Ier relatif au Conseil supérieur de l'audiovisuel (CSA) de la loi n° 86-1067 du 30 septembre 1986.

La première conséquence est la suppression du titre III de la proposition de loi, qui modifiait la loi du 21 juin 2004 pour la confiance dans l'économie numérique. L'article 8 bis, 9 et les suivants, sont intégrés au nouveau titre II bis consacré au « Devoir de coopération des opérateurs de plateforme en ligne en matière de lutte contre la diffusion de fausses informations ».

Le nouvel article 17-2 complète les compétences du CSA : ce dernier « contribue à la lutte contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou de porter atteinte au principe de sincérité du scrutin ».

Auditionné par votre commission le 19 juin 2018, alors que l'examen du texte n'était pas achevé à l'Assemblée nationale, le président du CSA a indiqué qu'il entendait cette nouvelle compétence comme une forme de « méta régulation », destinée à créer un cadre commun entre les acteurs de l'Internet.

2) Une incitation à adopter des comportements vertueux en matière de lutte contre les fausses informations

Le CSA serait chargé de s'assurer du suivi des obligations nouvelles imposées aux plateformes par le nouvel article 8 bis.

Le CSA serait doté de deux outils, l'un ex ante, l'autre ex post.

Ex ante, le CSA adresserait des « recommandations visant à améliorer la lutte contre la diffusion de fausses informations ». La logique ici retenue est celle de la création d'un « cadre commun » de bonnes pratiques, qui serait construit au fur et à mesure.

Ex post, le CSA disposerait des deux documents remis par les plateformes et prévus à l'article 8 bis : un premier, rendu public, décrivant les mesures prises, et un second, à sa seule attention, précisant les mesures prises pour en assurer l'effectivité.

Le CSA établirait un bilan « périodique », dont il n'est pas précisé s'il aurait vocation à être rendu public, ou bien constituerait la base lui permettant d'élaborer ses « recommandations ». Ce bilan recouvre non seulement l'ensemble des dispositions de l'article, mais jugerait également leur effectivité.

Le dernier alinéa mentionne que le Conseil a la possibilité d'user des facultés offertes par l'article 19 de la loi du 30 septembre 1986, qui lui confère des pouvoirs d'investigation poussés auprès des administrations, et de divers prestataires de services audiovisuels. Ce dispositif peut être rapproché de celui de l'article L. 117-7-1 du code de la consommation qui confère à l'autorité publique, en l'espèce la DGCCRF, la capacité de mener des enquêtes afin de s'évaluer les pratiques de ces opérateurs.

Si le champ d'investigation est vaste, il paraît cependant destiné à un dialogue entre le CSA et les plateformes. En effet, le dernier alinéa de l'article 19 indique que « Les renseignements recueillis par le conseil en application des dispositions du présent article ne peuvent être utilisés à d'autres fins que l'accomplissement des missions qui lui sont confiées par la présente loi. Leur divulgation est interdite ». En conséquence, et dans la logique du présent article que l'on pourrait qualifier en reproduisant un vocable anglo-saxon de « Name and shame », que l'on pourrait traduire par « Nommer et couvrir de honte » qui consiste à mettre en valeur les comportements vertueux et à attirer l'attention sur ceux qui le seraient moins, le recours à des informations non divulgables, au-delà de l'information du collège, semble superfétatoire.

Cet article s'inscrit dans le cadre des pouvoirs généraux du CSA, ce qui rapproche le numérique de la sphère audiovisuelle. Cependant, en raison du statut propre aux hébergeurs, le Conseil ne peut appliquer le régime de sanction prévu par la loi du 30 septembre 1986 dans ses articles 42 et suivants. Si le CSA pourrait donc contribuer utilement à la définition de « bonnes pratiques », et si la publicité des rapports pourrait inciter les opérateurs à adopter des mesures vertueuses, il sera en l'état dépourvu de tout moyen de sanction.

Article 9 bis A (nouveau)

Désignation par les plateformes d'un interlocuteur unique

Objet : cet article vise à obliger les plateformes à désigner un interlocuteur pour l'application des dispositions relatives aux fausses nouvelles et aux contenus odieux.

Le présent article additionnel a été adopté à l'initiative de la rapporteure de la commission des lois de l'Assemblée nationale. Il impose aux opérateurs des plateformes en ligne dépassant un certain seuil de connexions sur le territoire français de désigner un représentant légal. Cet interlocuteur aurait une double mission :

- être le référent pour l'application des obligations des plateformes en matière de lutte contre la diffusion de fausses informations issues du titre II bis de la présente loi, soit les articles 8 bis, 9, 9 bis B et 9 bis ;

- être le référent pour la lutte contre les propos odieux, tels que définis au 7 du I de l'article 6 de la loi pour la confiance dans l'économie numérique et développées dans le commentaire de l'article 8 bis du présent rapport.

Au cours de la discussion, la ministre a exprimé des doutes sur la compatibilité de cet article avec les dispositions de la directive « commerce électronique » de 2000, ce qui, en incise, souligne bien la faible marge de manoeuvre dont disposent, à droit constant, les autorités nationales. Elle s'est cependant déclarée prête à soutenir l'amendement de la rapporteure si n'étaient plus mentionnées que la lutte contre les fausses informations, sans que l'on comprenne précisément au demeurant pourquoi le référent ne pourrait être également chargé d'une mission plus large. L'amendement a cependant été adopté en l'état.

Article 9 bis B (nouveau)

Obligation pour certaines plateformes de fournir des données agrégées
sur les contenus proposées aux internautes

Objet : cet article vise à obliger les plateformes à rendre publique la part des contenus soumis aux internautes qui ont été sélectionnés par algorithme, par opposition aux contenus « naturels ».

Le présent article additionnel a été adopté à l'initiative de Mme Paula Forteza (LRM) et de plusieurs députés, avec l'avis favorable de la commission et du Gouvernement, qui l'a légèrement sous-amendé.

Le sujet traité est au coeur du modèle économique des plateformes, que votre rapporteure a exposé en détail dans l'exposé général. Leurs utilisateurs sont en effet exposés à des contenus qui leur sont soumis sur la base d'une individualisation de leur profil, acquise par l'analyse des recherches successives menées. Ainsi, Facebook propose, dans le fil d'actualité, des contenus hiérarchisés en fonction des préférences révélés par les utilisateurs au cours de leurs précédentes navigations, destinés à « capter l'attention » et susciter des « clicks » qui accroissent les revenus publicitaires. L'utilisateur n'a pas nécessairement conscience que les contenus qui lui sont soumis ne doivent rien au hasard, et tout à des algorithmes très avancés.

Le « verrou » posé par la directive « e-commerce » de 2000 tout comme le secret des affaires rendent impossible la divulgation par les plateformes de leurs processus de hiérarchisation des contenus. Les auteurs de l'amendement s'inscrivent donc dans la logique de la présente proposition de loi, qui consiste à aller « aussi loin que possible » sans enfreindre ce cadre. Le présent article distingue donc au sein des opérateurs de plateforme en ligne « ceux qui recourent à des algorithmes de recommandation, classement ou référencement de contenus d'information se rattachant à un débat d'intérêt général ». Cette dernière notion des contenus est exactement celle présente à l'article premier de la proposition de loi, et souffre du même manque de précision.

Les opérateurs en question auraient l'obligation de publier des statistiques agrégées dans un format libre et ouvert permettant de mesurer, d'une part, les accès « directs », par exemple, le changement de statut d'un ami sur Facebook, et les accès « indirects », qui seraient proposés à l'internaute par le biais d'un algorithme.

L'idée des auteurs de l'article est de promouvoir la transparence et implicitement de faire prendre conscience aux internautes que les contenus auxquels ils ont accès en priorité sont déterminés de manière « artificielle ».

Votre rapporteure estime que les auteurs de cet article ont bien identifié le point central de la problématique des fausses informations. Cependant, la praticabilité de ces mesures paraît douteuse, de même que leur intérêt, au-delà de la mise à disposition auprès d'un certain public d'informations intéressantes.

Article 9 bis (nouveau)

Incitation à la conclusion d'accords de coopération
relatifs à la lutte contre la diffusion de fausses informations

Objet : cet article vise à promouvoir la signature d'accords interprofessionnels dans le domaine de la lutte contre la diffusion de fausses informations.

Introduit à l'initiative de Mme Fabienne Colboc (LRM) à l'occasion de l'examen de la proposition de loi en commission, le présent article vise à inciter les professionnels de la presse et les opérateurs de plateforme en ligne à conclure des accords de coopération dans la lutte contre la diffusion de fausses informations.

Cet accord se conclurait entre, d'un côté, les opérateurs, et de l'autre :

- les agences de presse, telles l'AFP ;

- les éditeurs de presse ;

- les éditeurs de communication audiovisuelle ;

- les annonceurs ;

- les organisations professionnelles de journalistes ;

- et « toute autre organisation susceptible de contribuer à la lutte contre la diffusion de fausses informations ».

Ces entités « peuvent conclure des accords de coopération relatifs à la lutte contre la diffusion de fausses informations ».

Cet article ne dispose d'aucune portée normative. Il consiste juste en une invite à « mettre tous les acteurs autour d'une table », pour reprendre l'expression du président de la commission, également rapporteur de la proposition de loi.

Votre rapporteure est bien entendu d'avis que la collaboration entre les plateformes et les professionnels de l'information constitue un élément décisif dans la lutte contre la diffusion de fausses informations. À ce titre, des accords conclus en certaines occasions ont montré toute leur utilité. À titre d'exemple, l'opération « CrossCheck », financée en partie par Google, a fourni un cadre à 100 journalistes de plus de 33 rédactions pour leur permettre en réseau dix semaines avant les élections présidentielles françaises. Les journalistes ont ainsi publié 67 articles destinés à contrecarrer les fausses informations répandues durant la période de campagne.

Si cette initiative est prometteuse, on peut relever qu'elle ne nécessitait pas d'intervention du législateur, s'agissant d'accords entre des entreprises privées.

TITRE III BIS
DISPOSITIONS RELATIVES À L'ÉDUCATION AUX MÉDIAS
ET À L'INFORMATION
(division et intitulé nouveaux)
Article 9 ter (nouveau)
(Article L. 312-15 du code de l'éducation)

Formation au numérique

Objet : cet article inscrit dans le code de l'éducation, au sein de l'article consacré à l'enseignement moral et civique, la nécessité d'un apprentissage des usages de l'Internet.

L'article L. 312-15 du code de l'éducation, introduit par l'article 41 de la loi du 8 juillet 2013 d'orientation et de programmation pour la refondation de l'école de la République, porte sur l'enseignement moral et civique.

Le présent article, introduit par l'Assemblée nationale à l'occasion de l'examen en commission des affaires culturelles et de l'éducation, vise à inscrire dans ce cadre « l'usage de l'Internet et des services de communication au public en ligne ». Il serait également prévu de sensibiliser les élèves à la vérification de la fiabilité d'une information.

Votre rapporteure est particulièrement sensible à la question de la formation au numérique, à laquelle elle vient précisément de consacrer un rapport34(*). Il est certain que, à long terme, le développement chez les élèves d'un esprit critique, qui passe par une meilleure appropriation des outils de l'Internet, une prise de conscience de ses risques, mais également des possibilités de manipulation, est nécessaire, et constitue la seule réponse adaptée.

Pour autant, cet article, et les dispositions qui suivent, si elles partent d'une analyse que l'on ne peut que partager, ne peuvent avoir de portée réelle, comme le souligne le rapport précité, que si les enseignants eux-mêmes sont en mesure de s'approprier ces enjeux. Des initiatives, qu'il convient de saluer, ont été jusqu'à présent menées de manière isolée. Ainsi, Mme Rose-Marie Farinella, enseignante à Taninges (Haute-Savoie), a reçu le 3ème Prix mondial d'éducation aux médias - prix de l'innovation UNESCO 2017. Cette enseignante a su développer une pédagogie novatrice pour amener les élèves à réfléchir par eux-mêmes au sens des informations recueillies sur la toile, et à l'utilisation des outils permettant de vérifier l'information.

L'idée de faire évoluer les enseignements n'est cependant pas nouvelle. Le « plan numérique » lancé en mai 2015 était centré sur les méthodes d'apprentissage innovantes et sur la formation de citoyens responsables et autonomes à l'heure du numérique. En dépit d'avancées incontestables, notamment en raison d'un fort investissement en matériels des collectivités locales, le bilan est en demi-teinte, principalement en raison d'un manque de formation au numérique des enseignants, qui fait l'objet de l'article 9 quinquies de la proposition de loi.

Consciente de l'importance de ces enjeux, votre rapporteure a défendu un amendement à l'article 10 du projet de loi pour la liberté de choisir son avenir professionnel, adopté par le Sénat le 11 juillet 2018, qui vise à développer à l'école les actions de formation et de sensibilisation aux métiers du numérique.

Article 9 quater (nouveau)
(Article L. 332-5 du code de l'éducation)

Formation à l'analyse critique au collège

Objet : cet article complète le programme des enseignements au collège par une formation à « l'analyse critique de l'information disponible ».

Le présent article s'inscrit dans la volonté de la commission des affaires culturelles et de l'éducation de l'Assemblée nationale de promouvoir la formation des élèves à l'information sur Internet.

Après avoir introduit, avec l'article précédent, une mission générale pour l'ensemble des élèves, nos collègues députés complètent la formation des collégiens par « une formation à l'analyse critique de l'information disponible ».

Là encore, si on ne peut que soutenir une démarche qui vise à mieux former les élèves aux dangers de l'Internet, la question des moyens et de la formation des enseignants reste posée.

Article 9 quinquies (nouveau)
(Article L. 721-2 du code de l'éducation)

Formation des enseignants

Objet : en cohérence avec les deux précédents articles, cet article vise à inscrire une préparation eux enjeux des médias et de l'information dans le programme de formation des enseignants.

Le présent article complète la formation des enseignants par une préparation aux enjeux « de l'éducation aux médias et à l'information ».

Votre rapporteure ne peut bien entendu que saluer des dispositions qu'elle a appelé de ses voeux dans son rapport précité consacré à la formation au numérique. Parmi les recommandations de ce rapport figurent le fait de « Faire de l'acquisition de la culture et des outils numériques un des objectifs à part entière des apprentissages fondamentaux » (recommandation n° 7) et de « Revoir la maquette de formation en ÉSPÉ afin que la littératie numérique devienne un axe structurant de la formation » (recommandation n° 12).

La formation des enseignants aux enjeux du numérique et à l'usage de l'information sur Internet constitue bien la seule réponse de long terme en mesure capable de répondre aux défis posée par les fausses informations et, de manière générale, la profusion de contenus douteux sur Internet.

Cette évolution appelle un renforcement des moyens consacrés à l'éducation aux médias et à l'information, aujourd'hui insignifiants : le Centre de liaison de l'enseignement et des médias d'information (CLEMI) ne compte ainsi qu'une demi-douzaine d'ETP.

Article 9 septies (nouveau)
(Article 28 de la loi n° 86-1067 du 30 septembre 1986
relative à la liberté de communication)

Contribution à l'éducation aux médias et à l'information
des chaînes hertziennes privées

À l'initiative de son rapporteur, la commission des affaires culturelles et de l'éducation a adopté un article additionnel modifiant l'article 28 de la loi du 30 septembre 1986 afin d'inscrire dans les conventions que le Conseil supérieur de l'audiovisuel passe avec les chaînes hertziennes privées les mesures de nature à contribuer à l'éducation aux médias et à l'information. Cet article a été adopté sans modification par l'Assemblée nationale.

*

* *

À l'issue de ses travaux, votre commission a décidé de déposer une motion tendant à opposer au projet de loi la question préalable. En application de l'article 44, alinéa 3, du Règlement, votre commission souhaite que cette motion soit examinée, à l'issue de la discussion générale, avant la discussion des articles.

En conséquence, elle n'a pas adopté de texte.

En application du premier alinéa de l'article 42 de la Constitution, la discussion portera donc en séance sur le texte de la proposition de loi adoptée par l'Assemblée nationale.

EXAMEN EN COMMISSION

MERCREDI 18 JUILLET 2018

___________

M. Jean-Claude Carle, président. - Nous débutons cette réunion par l'examen de la proposition de loi relative à la lutte contre la manipulation de l'information, adoptée par l'Assemblée nationale le 3 juillet dernier. Notre commission a désigné sa présidente, Catherine Morin-Desailly, rapporteure de ce texte. Avant de lui passer la parole, je salue la présence de notre collègue Christophe-André Frassa, rapporteur des titres Ier et IV au nom de la commission des lois, ainsi que de la proposition de loi organique qui étend les dispositions de la proposition de loi à l'élection présidentielle.

La proposition de loi relative à la lutte contre les fausses informations a été déposée le 21 mars 2018 par les membres du groupe La République en Marche de l'Assemblée nationale. Le Gouvernement a engagé la procédure accélérée le 26 mars. Composée initialement de dix articles, la proposition traduit les engagements pris par le Président de la République lors des voeux à la presse du 3 janvier.

Notre commission de la culture, de l'éducation et de la communication a délégué au fond l'examen du titre Ier et du titre IV à la commission des lois, qui a également été saisie de la proposition de loi organique relative à la lutte contre les fausses informations, qui complète le dispositif avec la prise en compte de l'élection présidentielle.

Mme Catherine Morin-Desailly, rapporteure. - Je suis très heureuse d'accueillir Christophe-André Frassa avec lequel j'ai d'emblée tenu à travailler. Nous avons mené ensemble un certain nombre d'auditions afin d'accorder nos points de vue, main dans la main - vous avez pu l'observer lors des tables rondes que j'ai souhaitées très ouvertes afin de vous sensibiliser tout autant que les rapporteurs.

La proposition de loi que nous examinons ce matin suscite de très sérieuses réserves de l'ensemble des acteurs concernés et de la quasi-totalité des groupes politiques, comme en témoignent les quatre motions que nous allons examiner ce matin.

Pour ouvrir le débat, je voudrais insister sur quelques points.

Il existe déjà un arsenal législatif : code pénal, code électoral, loi de 1881, loi de confiance dans l'économie numérique (LCEN). C'est de là qu'il faut partir.

Les fausses informations ne datent pas d'aujourd'hui - je vous renvoie à mon rapport, assez exhaustif. Il est vrai que nous avons été marqués par la violence des dernières campagnes électorales, des deux côtés de l'Atlantique, et par les soupçons de manipulation qui leur ont été associées. Mais les fausses nouvelles, fausses informations, ou fake news, ont toujours existé dans le débat public. Elles ne sont pas propres au champ politique, comme a pu en témoigner, par exemple, la controverse sur les dangers de la vaccination. On pourrait citer Philippe Le Bel, du côté des instigateurs, ou Roger Salengro, du côté des victimes. Mais c'est à la faveur des campagnes électorales récentes qu'elles ont acquis une dimension nouvelle en raison du développement et du mode de fonctionnement des réseaux sociaux, voire de leur modèle économique. Le terme même de fake news est utilisé par le président américain pour dénoncer les fake news medias, soit en réalité les opinions qui mettent les siennes en doute. On pourrait résumer cela ainsi : les fake news, c'est ce que disent ceux qui ne pensent pas comme moi. Plus sérieusement, l'ensemble des pays européens réfléchissent à ce phénomène. L'Allemagne a voté une loi très restrictive. Récemment, le ministre belge Alexander De Croo a organisé une réunion de travail et conclu qu'il ne fallait pas légiférer mais plutôt susciter l'autorégulation. Tout cela va dans le sens des conclusions de la Commission européenne qui, d'ici le mois de décembre 2018, établira un bilan.

Les fausses informations recouvrent un très vaste panel, d'où la difficulté à en définir les contours - le Conseil d'État l'a souligné dans son avis du 19 avril. Elles vont d'informations fantaisistes et malveillantes, tels que les cadavres dans le jardin d'Hillary Clinton ou « Ali Juppé », à des faits imaginaires mais plus difficilement vérifiables, comme l'existence d'un compte à l'étranger. Les fausses informations peuvent être malveillantes ou résulter d'erreurs. Elles peuvent être diffusées sciemment pour nuire ou s'amuser. En un mot, elles sont multiples. C'est pourquoi nos collègues de l'Assemblée nationale ont peiné à les définir. Ils ont conclu que leur définition n'était pas satisfaisante et la ministre de la culture a renvoyé au Sénat le soin de l'établir. On m'a explicitement dit que le Gouvernement ne souhaitait pas de définition précise, ce qui pose un problème pour toute poursuite judiciaire.

Si aucune étude n'a pu démontrer l'influence des fausses informations sur le résultat des élections, elles contribuent cependant a minima à détériorer la qualité du débat démocratique. Il est très difficile de faire la part des choses sur leur réelle influence. On manque de recul. Il est toutefois permis de penser que l'alliance de fausses informations particulièrement malveillantes et des possibilités de ciblage, après la fuite des données de Facebook, par la très connue société Cambridge Analytica a pu influencer le résultat de l'élection américaine, compte tenu du mode de scrutin particulier. Ce qui est certain, c'est que l'exposition massive aux fausses informations contribue à polluer un débat qui doit rester digne et à distraire les électeurs des vrais enjeux. Les fausses informations, répandues sciemment ou non, constituent un danger pour nos démocraties. Vous noterez que le problème ne se pose dans aucun régime autoritaire.

Les fausses informations posent la question de la régulation et du statut des plateformes en ligne.

Le cadre européen issu de la directive « e-commerce » de juin 2000, transposée en droit français par la loi de confiance dans l'économie numérique de 2004, définit un régime de responsabilité extrêmement limité pour les plateformes. Si un tel modèle avait du sens à l'époque, près de vingt ans plus tard, le Web 2.0 et maintenant 3.0 est très éloigné de la vision angélique d'un espace de démocratie en ligne ouvert à tous. Le fonctionnement même des plateformes et le modèle économique de l'Internet contreviennent au principe de neutralité. Notre accès aux informations est en grande partie déterminé par des algorithmes sophistiqués et opaques dont le but est de capter l'attention de l'internaute, monnayée sous forme de publicité sous une illusion de gratuité, et qui posent un problème quant à la juste exposition des nouvelles des journaux professionnels. Ce modèle-là accentue le phénomène des fausses informations et la manipulation.

Nous pourrions obtenir des avancées en rouvrant le débat sur la directive de 2000 et le statut des plateformes. Je réfléchis à une proposition de résolution européenne sur ce sujet. Les remous provoqués par le rejet de la directive sur les droits d'auteur la semaine dernière renvoient toujours à la même question et nous incitent à la plus grande des vigilances.

M. Christophe-André Frassa, rapporteur pour avis de la commission des lois. - La commission des lois a examiné hier la proposition de loi organique relative à la lutte contre la manipulation de l'information et donné son avis sur la proposition de loi ordinaire, pour laquelle elle avait reçu une délégation au fond de votre commission concernant le titre Ier, relatif aux dispositions modifiant le code électoral, et le titre IV, relatif à l'application outre-mer.

La principale mesure du titre Ier de la proposition de loi ordinaire consiste en la création d'un référé ad hoc, inspiré du référé créé par la loi du 21 juin 2004 pour la confiance dans l'économie numérique, afin de faire cesser, en période électorale, la diffusion « des fausses informations de nature à altérer la sincérité du scrutin à venir » lorsque celles-ci sont diffusées sur Internet « de manière délibérée, de manière artificielle ou automatisée et massive ».

Le nouvel article L. 163-1 A donnerait de la fausse information la définition suivante : « toute allégation ou imputation d'un fait inexacte ou trompeuse ».

Saisi à la demande du ministère public, du candidat, de tout parti ou groupement politique ou de toute personne ayant intérêt à agir, le juge des référés devrait se prononcer dans un délai de 48 heures à compter de la saisine. Toutes mesures utiles, « proportionnées et nécessaires » pour faire cesser la diffusion pourraient être ordonnées. Il pourrait ainsi s'agir d'ordonner aux hébergeurs de contenus et aux fournisseurs d'accès à Internet une mesure de déréférencement, de retrait, voire de blocage du contenu.

L'article 1er crée également, sous peine de sanctions pénales, plusieurs nouvelles obligations de transparence pour les opérateurs de plateforme en ligne concernant la promotion de « contenus d'information se rattachant à un débat d'intérêt général ».

La répression des rumeurs ou des fausses nouvelles n'est pas une question nouvelle en droit. La France dispose déjà d'un cadre législatif ancien en la matière. La publication de fausses nouvelles ayant eu pour effet de fausser un scrutin électoral est d'ores et déjà réprimée par l'article L. 97 du code électoral. En outre, les dispositions actuelles de la loi du 29 juillet 1881 sur la liberté de presse, pivot de la lutte contre les abus de la liberté d'expression depuis plus de 130 ans, permettent déjà réprimer des propos sciemment erronés, diffamatoires, injurieux ou provocants. Ainsi, l'article 27 de la loi de 1881 réprime « la publication, la diffusion ou la reproduction » de « nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, elle aura troublé la paix publique, ou aura été susceptible de la troubler ».

L'action en diffamation peut également être particulièrement efficace pour lutter contre les fausses informations portant atteinte à l'honneur et à la considération d'une personne. Il convient de souligner qu'en matière de diffamation, il existe une présomption de mauvaise foi. C'est au prévenu de prouver soit sa bonne foi, soit la véracité des allégations. Le champ d'application de ce délit est particulièrement vaste : ainsi, l'allégation selon laquelle une personnalité politique détiendrait un compte illégal offshore est susceptible d'être qualifiée de diffamatoire.

Si l'action en diffamation est la plus efficace, l'action en référé sur le fondement de l'article 9 du code civil est toujours possible en cas de fausses informations, d'informations falsifiées ou même biaisées portant sur la vie privée d'une personne physique.

Enfin, plusieurs dispositions pénales répriment les fausses informations qui causent un trouble particulièrement grave à un particulier ou à la société. Par exemple, la publication d'un photomontage ou d'un montage sonore réalisé sans le consentement de l'intéressé et ne précisant pas qu'il s'agit d'un montage, est réprimée par l'article 226-8 du code pénal d'un an d'emprisonnement et de 15 000 euros d'amende.

Au regard de l'abondance des dispositions existantes, pourquoi légiférer ? Les dispositions actuelles ne permettent-elles pas déjà de lutter contre les fausses informations ? Je rappelle que lorsque des faits d'injure ou de diffamation envers un candidat à une fonction élective sont commis en période électorale, la juridiction peut être appelée à statuer dans un délai de 24 heures. La loi de 1881 offre déjà des possibilités d'action rapide pour lutter contre les allégations diffamatoires.

De même, l'article 6 de la loi de 2004 dispose que l'autorité judiciaire peut prescrire en référé ou sur requête aux fournisseurs d'accès et aux hébergeurs de services de communication au public en ligne « toutes mesures propres à prévenir un dommage imminent ou à faire cesser un dommage occasionné par le contenu d'un service de communication au public en ligne ».

Il est vrai qu'il existe des difficultés dans l'application de la loi de 1881 aux contenus diffusés sur Internet : les formalités particulièrement lourdes imposées à peine de nullité sont inadaptées aux propos diffusés sur Internet. Sans doute convient-il de les revoir. Néanmoins, l'Assemblée nationale et le Gouvernement n'ont pas fait ce choix. Ils se sont inscrits dans le mouvement dénoncé par le rapport de nos collègues François Pillet et Thani Mohamed Soilihi consistant à intégrer des dispositions relatives à l'encadrement des abus de la liberté d'expression dans d'autres textes que la loi de 1881, au risque de remettre en cause l'équilibre actuel.

Parce que la commission des lois a considéré le dispositif inabouti, inefficace et dangereux, elle a choisi de présenter une motion visant à opposer la question préalable au texte organique. Il est regrettable que le Gouvernement n'ait pas procédé au préalable à l'évaluation des dispositifs existants de lutte contre les abus de la liberté d'expression.

Le seul vide juridique qui se dessine au regard des multiples dispositions législatives actuelles concerne une action en référé contre les fausses informations qui ne troublent pas ou ne sont pas susceptibles de troubler la paix publique, qui ne sont attentatoires ni à l'honneur, ni à la considération, ni à la vie privée des personnes et dont l'effet sur un scrutin n'est qu'incertain. Faut-il, dans une société démocratique, autoriser de telles mesures ?

Surtout, la définition retenue de la fausse information apparaît encore perfectible. Dans quelle mesure la proposition de loi protège-t-elle la satire ou la parodie, qui peuvent être par nature trompeuses sans pour autant démontrer une quelconque intention de nuire ? Les seules modalités de diffusion, « artificielle ou automatisée et massive » ne peuvent suffire à établir une intention malveillante alors même que, par exemple, des contenus humoristiques et viraux peuvent, chaque jour, être reproduits, partagés et diffusés de manière « artificielle » et « massive » via les réseaux sociaux. Cette définition hasardeuse pose incontestablement la question de la légitimité du juge des référés à définir, en 48 heures, la nature authentique, inexacte ou trompeuse d'une information. Traditionnellement, j'insiste, le juge des référés est le juge de l'évidence, de l'illégalité manifeste.

Les propositions de loi rompent sans aucune raison juridique impérieuse avec la tradition juridique française de liberté d'expression accrue pendant les périodes électorales.

Au-delà des incertitudes de certains termes qui révèlent la précipitation dans laquelle ces textes ont été élaborés, ils ne pourront s'appliquer que très difficilement aux phénomènes qu'ils entendent contrer. Même une procédure de référé n'aura qu'une efficacité incertaine face à des contenus dont la vitesse de propagation est fulgurante. Surtout, contrairement à un procès en diffamation, il n'y aura pas de renversement de la charge de la preuve. Ainsi, la personne agissant en référé et invoquant l'existence d'une fausse information devra apporter la preuve du caractère faux de l'information en question. Or il est très difficile d'apporter la preuve contraire de certaines affirmations ou allégations, même infamantes : comment établir des faits négatifs ? Comment prouver, par exemple, que l'on n'a pas commis de fraude fiscale ou que l'on ne dispose pas d'un compte offshore ? J'émets donc de sérieux doutes quant à l'utilité réelle d'un tel dispositif.

Paradoxalement, alors que les dispositions de l'article 1er de la proposition de loi ne seront que très difficilement applicables, elles pourraient présenter, en pratique, de nombreux risques d'atteintes disproportionnées à la liberté d'expression. Le risque d'instrumentalisation à des fins dilatoires ne doit pas être sous-estimé. Ces propositions de loi pourraient permettre à n'importe quel parti d'empêcher, à tort ou à raison, la publication d'informations dérangeantes en période électorale alors même qu'il est légitime pour le citoyen d'être informé, même et surtout en période électorale. La rapidité avec laquelle le juge des référés devra statuer risque d'engendrer des décisions contestables, au risque de jurisprudences contraires entre le juge judiciaire et le juge de l'élection.

Pour toutes ces raisons, la commission des lois a considéré que ces propositions posaient un problème de principe. Elle a jugé nécessaire de s'abstenir de légiférer plutôt que de risquer de nuire à la diffusion de contenus légitimes.

Sur ma proposition et celle du groupe socialiste et républicain, la commission des lois a décidé de présenter une motion tendant à opposer la question préalable à la proposition de loi organique et de soutenir la motion de la commission de la culture sur la proposition de loi ordinaire. En conséquence, elle a donné un avis défavorable à tous les amendements portant sur les articles délégués au fond à la commission des lois.

Pour conclure, je citerai Beaumarchais, dans Le mariage de Figaro : « Il n'y a que les petits hommes qui redoutent les petits écrits ».

M. Bruno Retailleau. - Merci aux deux rapporteurs pour la pertinence de leurs rapports. Bien entendu, le groupe Les Républicains s'associe totalement aux deux motions. Nous avons nous-mêmes déposé une motion. La question est grave. Cette proposition de loi peut porter atteinte à la liberté fondamentale qu'est la liberté d'expression.

Alors que le Président de la République avait annoncé sa volonté urbi et orbi de voir aboutir un projet de loi, c'est une proposition de loi qui nous est soumise. Cela permet de passer outre l'étude d'impact et l'avis du Conseil d'État. Si la nécessité de légiférer est impérieuse, nous aurions aimé connaître son avis.

L'impréparation est totale - le parcours très heurté de l'examen du texte à l'Assemblée nationale en témoigne. Je rappelle que c'est le premier de la session dont l'examen a fait l'objet d'un report à l'Assemblée. Il est extrêmement difficile de définir sérieusement et précisément une fausse information. Tous ceux qui ont travaillé sur la loi pour la confiance dans l'économie numérique savent de quoi il retourne. Les auteurs de la proposition de loi semblent peu familiers des difficultés de l'écosystème Internet ; sinon, ils auraient vu très vite qu'ils ne pouvaient pas atteindre leur but par la voie qu'ils empruntent.

Cette proposition de loi est inutile. L'article L. 97 du code électoral vise déjà les fausses nouvelles et les manoeuvres. Il aurait bien mieux valu s'inscrire dans le cadre de la grande loi de 1881 qui consacre la liberté d'expression en l'adaptant à l'écosystème des réseaux sociaux.

Très franchement, le juge des référés, qui est le juge de l'évidence, ne peut juger que des éléments manifestement illégaux. En l'espèce, il sera impossible, en 48 heures, d'établir une vérité manifeste. Cette proposition de loi met l'institution judiciaire dans une impasse absolument dangereuse.

En outre, je m'interroge sur le respect du principe de proportionnalité au regard de l'atteinte à une liberté publique fondamentale. Cela pose une question de constitutionnalité.

Cette proposition de loi, éminemment dangereuse, fait courir le risque d'une police de la pensée exercée par l'autorité politique et d'une privatisation de nos libertés publiques. Nombre de plateformes s'enorgueillissent de fermer des comptes. Je n'ai aucune sympathie pour ces derniers. Mais fournir aux GAFA - Google, Apple, Facebook, Amazon - l'autorité d'interdire telle ou telle page participe d'un processus dangereux de privatisation de la censure. La police de la pensée peut s'exercer par la voie de l'autorité publique mais aussi par ces puissances quasi-étatiques - je rappelle que le Danemark a récemment commis une erreur importante en nommant un ambassadeur chargé des relations avec les GAFA.

Nous nous opposons avec une très grande fermeté aux deux propositions de loi, ordinaire et organique. Je suis très heureux, à l'heure des interrogations sur la place du Sénat, qu'il joue pleinement son rôle de gardien des libertés publiques.

M. David Assouline. - La motivation de la proposition de loi répond à un vrai sujet d'actualité très préoccupant pour notre démocratie : la diffusion de fausses informations, la capacité gigantesque de certains acteurs à répandre des rumeurs qui nourrissent le complotisme. Avec l'intelligence artificielle, on pourra fabriquer un discours du Président de la République en utilisant sa voix exacte, ses intonations, sur un contenu inventé. La capacité de diffusion des robots submergera toute tentative de riposte, parce qu'elle sera plus puissante. L'enjeu est devant nous, il est énorme, et on nous répond par une petite loi, inutile et dangereuse car elle désarme nos concitoyens qu'il faut plutôt éduquer au décryptage des images, au recul. Il faut aussi travailler à la déontologie de ceux qui sont chargés de diffuser l'information et prévoir d'inventer à chaque fois des outils pour endiguer le phénomène. La réponse n'est pas toujours législative.

À la veille d'une grande loi sur l'audiovisuel, comment peut-on passer « par la bande » avec cette proposition de loi qui confond tout ? Elle désoriente et n'apporte pas de réponse.

Quand le Président de la République a annoncé cette loi, il a répondu à une demande globale. Mais il faut être sérieux lorsqu'on légifère. Les députés, au cours de l'examen du texte, se sont mis à douter fortement. Ils ont dû définir l'expression fake news, qui fait le buzz mais n'est pas française. Une fausse information, donc, qu'est-ce ? Qui la définit ? Les députés ont saisi le Conseil d'État, qui a émis des doutes et dénoncé des imprécisions. L'Assemblée nationale a changé sa définition, mais cette dernière n'est franchement pas meilleure. Elle porte une grande part de subjectivité alors que le juge doit s'appuyer sur des éléments objectifs.

On évite de modifier la loi de 1881, qui est un talisman. Pourtant, c'est bien de son contenu que l'on parle ici. La loi de 1881 évoque les fausses informations et les punit. Pourquoi donc créer un autre arsenal ?

Le juge des référés aura 48 heures pour vérifier que l'information mise en cause remplit cinq conditions, afin de pouvoir en prononcer le retrait. Dans la pratique, quel juge sérieux le pourra ? Quels moyens aura-t-il ensuite pour vérifier que l'information a bien été retirée ? Qu'adviendra-t-il quand il ne pourra pas prononcer le retrait ? Quand 99 % des fausses informations n'auront pas été soumises au juge et ne seront pas sanctionnées ? Comment seront-elles considérées ? Comme des vraies informations ! On glisse le doigt dans l'engrenage, en estampillant de fausses informations comme des vraies.

Il serait très peu professionnel, ou très peu responsable, de persévérer uniquement pour satisfaire une parole présidentielle trop rapidement prononcée - nous devrons néanmoins répondre à ce problème réel dans les années à venir.

J'ajoute que l'on donne une nouvelle compétence au Conseil supérieur de l'audiovisuel (CSA). Depuis qu'Internet existe, nous débattons de la régulation des contenus audiovisuels par le CSA. Ils le sont à la télévision mais pas sur Internet. YouTube propose pourtant les pires horreurs aux enfants. Le problème, c'est que l'on régule ce que les enfants ne regardent pas - la télévision - et non ce qu'ils regardent. Et là, on donne la compétence au CSA de réguler les contenus écrits sur Internet. La presse écrite va sauter au plafond. C'est n'importe quoi.

Je constate qu'il y a beaucoup de boîtes de Pandore dans ce texte. Ses bons éléments pourront être repris dans la future loi sur l'audiovisuel. N'entrons donc pas dans une logique d'amélioration de cette proposition de loi et votons la motion posant la question préalable que le groupe socialiste a déposé très tôt.

Bien sûr, l'Assemblée nationale a le dernier mot. Mais cette loi touche à la liberté de la presse et à la liberté d'expression ; elle serait adoptée uniquement par les voix du parti majoritaire à l'Assemblée nationale, alors que toutes les autres sensibilités politiques la dénoncent. Il n'est pas possible que le pluralisme politique soit nié sur un sujet aussi fondamental et que la majorité passe en force. J'espère que l'Assemblée nationale ne continuera pas à tout prix sur cette voie et mettra de côté ces textes fâcheux.

M. Michel Laugier. - Cette proposition de loi arrive de façon inopinée, et je félicite les rapporteurs pour leur très important travail d'auditions. Je partage totalement les avis des précédents orateurs. Un arsenal juridique existe déjà. Que va apporter cette loi ?

La saisine du juge des référés est complexe. A-t-elle une chance d'aboutir ?

Les plateformes constituent le véritable problème, qu'il faut traiter différemment et à part. Aucun de mes interlocuteurs de la presse n'est favorable à cette proposition de loi.

Nous sommes tous du même avis. Le groupe de l'Union centriste a déposé une motion allant dans le même sens que celle des deux rapporteurs.

M. Pierre Ouzoulias. - Le groupe communiste, républicain, citoyen et écologiste votera également la motion. Sans vouloir être pédant, je reviendrai sur la définition proposée : « Toute allégation ou imputation d'un fait inexacte ou trompeuse constitue une fausse information ». Nous ne sommes pas loin de la tautologie, cela ne définit pas une fausse information. Étymologiquement, l'allegatio est la preuve devant être apportée devant le juge. Cette définition est donc inadaptée à l'objet.

M. Michel Laugier. - Bravo !

M. Pierre Ouzoulias. - Je m'amuse de l'article 8 bis qui demande la plus grande transparence sur les algorithmes, alors que le Sénat l'avait réclamée - en vain - à l'unanimité lors de la mise en place de Parcoursup.

Nous sommes confrontés à un problème de fond : la démocratie se fonde sur la séparation des pouvoirs. Pour cela, le pouvoir législatif doit être reconnu en tant que tel et le champ de la loi bien défini. Or ici, le champ de la loi n'est pas défini, et l'Assemblée nationale investit un terrain qui n'est pas le sien. Cela porte une atteinte grave à la Constitution.

M. André Gattolin. - Bien qu'ayant rédigé il y a six ans un doctorat de 600 pages sur les canulars médiatiques, je n'ai pas été consulté sur ce texte... Cette excellente proposition de loi mériterait d'excellentes améliorations et approfondissements. Je ne voterai pas la motion.

Vous posez justement plusieurs questions : plutôt que de légiférer, ne faudrait-il pas davantage éduquer aux médias ? J'ai dirigé l'association Graine de citoyen durant trente ans. Dans trente ans, le rapport des jeunes à l'information n'aura pas changé aussi facilement... Le travail journalistique doit être amélioré. Les fausses nouvelles ne sont pas récentes. Elles ont été utilisées en masse durant la Première Guerre mondiale - le président Wilson en a d'ailleurs un peu abusé... C'est pourquoi s'est créé, en 1918, le Syndicat national des journalistes. Même si la loi de 1881 s'appliquait pour attaquer les fausses nouvelles, la situation catastrophique a mené au vote de la loi Brachard en 1935, qui a donné un vrai cadre aux journalistes.

La situation actuelle est dramatique, avec la dégradation des normes et des processus : même les journalistes professionnels ne procèdent plus à la double vérification de l'information. Nous sommes dans une nouvelle dimension : ce n'est plus la régulation dans un État de droit ou d'un État-nation avec leurs règles. Nous sommes désormais dans un espace ouvert où les GAFA, des « quasi États » - expression utilisée par M. Retailleau mais que j'ai prononcée il y a quatre ans devant le Sénat italien - ont leur police, leur territoire, leur système de répression. Cela menace le fonctionnement interne de notre démocratie. En face de ces quasi-États, des rogue states (États voyous) prolongent la cyberguerre pour déstabiliser les autres États. On parle beaucoup des États-Unis ou du Brexit, mais désormais plus aucune élection européenne ne connaît de tentative massive de déstabilisation par des acteurs extérieurs - voyez récemment en République tchèque ou en Slovénie...

La publication d'une information suppose l'existence d'un directeur de la publication. Plus d'une quarantaine de fois, j'ai été convoqué par la 17e chambre correctionnelle, la chambre la plus voltairienne de France, où les décisions ne sont jamais prises à la légère. J'ai vu certaines attaques paraissant diffamatoires n'être pas considérées comme telles - accuser quelqu'un d'homosexualité n'est pas un délit...

Nous devrons trouver un système de régulation des GAFA. L'Union européenne, qui ne souhaite pas légiférer sous prétexte que des négociations tendues sont en cours, est irresponsable. La Commission européenne envisage éventuellement une directive en raison de l'absence d'autorégulation de ces acteurs, qui utilisent la population pour faire pression sur les États. C'est fou, elle prévoit un ambassadeur auprès des GAFA, reconnaissance implicite d'une situation ne relevant pas de l'État de droit. C'est aussi idiot que la régulation actuelle des noms de domaine d'Internet.

La diffusion massive de fausses informations, notamment par la Russie, est un problème. L'Europe doit réguler et doit mettre les réseaux sociaux face à leurs responsabilités, même si c'est long et difficile à appliquer. Une directive serait un minimum au regard de la logique de transformation actuelle.

Ce texte présente quelques rares défauts. L'élargissement aux élections législatives et sénatoriales démultiplierait les possibilités de recours - tandis que l'élection présidentielle se déroule dans une circonscription unique. Les juges des référés ne seront peut-être pas en mesure de répondre aux demandes. Et que dire d'une éventuelle extension aux scrutins locaux, qui serait impossible à appliquer ?

Comment préserver l'esprit d'une démocratie de droit, avec des règles de fonctionnement, une presse de qualité ? Reporters sans frontières a proposé aux journalistes la Journalism Trust Initiative (initiative pour la fiabilité de l'information), référentiel sur le modèle des normes ISO. Les attentats et l'intrusion sur le site de TV5 monde ont montré que les groupes djihadistes entraient au coeur de la machine pour transformer l'information. L'État de droit et la liberté d'information peuvent faire l'objet d'attaques. Nous devons trouver un moyen pour les défendre. Mme Morin-Desailly a déposé une proposition de résolution européenne. Réfléchissons au statut de ces grands groupes et réseaux. Quelles sont leurs limites au regard de la liberté d'expression démocratique ? Comment distinguer les fausses informations dans ce magma de définitions nationales et internationales ? Elles peuvent être sources de conflits... Notre démocratie doit se protéger.

M. Claude Malhuret. - L'opinion publique ne rejoint pas celle de notre commission. Le problème se pose dans des termes plus complexes qu'une simple alternative oui-non, conserver le texte ou bien opposer la question préalable. Les fake news sont-elles un non-sujet, peu important, dont nous ne devons pas nous préoccuper ? Depuis deux ans, elles font la Une des journaux et des réseaux sociaux, et déstabilisent notre démocratie. Le sujet est fondamental, selon la majorité d'entre nous.

Les lois actuelles ne nous ont pas permis de résoudre ce problème. Si c'était le cas, il n'y aurait pas eu de scandale Cambridge Analytica, ni d'interférences dans les élections présidentielles américaine et française. Ce problème ne fait que croître. Que faire, le laisser se développer, et saper chaque jour un peu plus nos démocraties ? Les lois actuelles ne nous permettent pas de le combattre, pour une raison simple : la loi de 1881 a été adoptée alors que la presse était uniquement écrite sur papier, sans audiovisuel, sans réseaux sociaux ni plateformes numériques. Nous ne voulons pas modifier la liberté de la presse mais l'adapter à ces nouvelles réalités, pour éviter d'être totalement impuissants. Selon David Assouline, c'est une mauvaise loi mais il faut tout de même légiférer...

M. David Assouline. - ...et surtout affronter le problème dans sa globalité !

M. Claude Malhuret. - L'arsenal législatif actuel ne nous permet pas de répondre à ces menaces. Nous sommes face à une guerre non conventionnelle. Certes, il y a d'autres moyens que la loi et les services de renseignement auront leur mot à dire. Nous sommes en situation de faiblesse et disposons de deux solutions : amender la proposition de loi ou bien adopter une motion opposant la question préalable, ce que propose votre majorité. Il était possible d'amender la proposition de loi. Notre commission a réalisé un très important travail d'auditions, de colloques, de tables-rondes menées par notre présidente. Vous estimiez initialement qu'avec un travail considérable nous pouvions trouver une solution.

J'avais personnellement des réticences sur cette loi, quant au respect de la liberté de la presse et à ses limites. Je me suis aperçu, après analyse, et avec une certaine surprise, qu'en définitive elle n'était pas si mauvaise.

Vous estimez que des référés en 48 heures sont impossibles, mais il est statué ainsi en cas de diffamation durant la période électorale ! Et si des décisions sont prononcées par un tribunal spécial équivalent à la 17e chambre, quel est le problème ? En outre, tout comme elle a défini la diffamation, la jurisprudence définira demain ce qu'est une fausse information.

Pensez-vous réellement que Russia Today (RT) et Sputnik sont des organes indépendants sur lesquels le CSA n'aurait rien à dire ? Ce ne sont pas des chaînes de radio ou de télévision classiques, mais des organes de désinformation du FSB (service fédéral de sécurité russe) qui s'attaquent à notre démocratie. Je ne vois pas quel serait le problème de rendre le CSA compétent. Cela vaudrait la peine d'être étudié.

La régulation des plateformes est le volet le plus important ; je regrette que M. Frassa ne l'ait pas évoqué. Je suis en désaccord complet avec M. Retailleau, qui estime que nous confions aux GAFA la privatisation de nos libertés. Ils ont retiré des milliers de sites djihadistes de leurs plateformes, comme le fait la presse : lorsqu'une de nos tribunes n'est pas acceptée par un journal, nous ne crions pas à la censure ! Le rédacteur en chef garde la maîtrise de ce qu'il publie. Les GAFA ont fait preuve de coopération et de transparence et doivent mettre sur leur site toutes les informations pour signaler des contenus injurieux ou appelant au djihad. Cette loi prévoit cette coopération avec les plateformes. La responsabilité des plateformes date du scandale Cambridge Analytica il y a quelques mois : la France et l'Union européenne ont voulu légiférer, en conséquence les GAFA se précipitent pour coopérer et proposent des solutions.

Traditionnellement, nous passons notre temps à affirmer les bienfaits du bicamérisme et des amendements du Sénat qui sont souvent conservés dans le texte final. Avec cette motion, la loi sera votée telle quelle à l'Assemblée nationale, sans l'adoption d'amendements qui auraient pu être retenus par une commission mixte paritaire (CMP) consensuelle.

Si nous optons pour la deuxième solution, ne nous contentons pas de dire « circulez, il n'y a rien à voir », proposons autre chose. Nous ne pouvons pas rester dans cette situation, compte tenu des menaces graves qui pèsent sur notre démocratie.

M. Jean-Pierre Leleux. - Difficile de ne pas être redondant, tant le débat est riche.... La vérité et son contraire, le mensonge, sont consubstantiels à notre société. La réalité est certes fluctuante, mais certaine. Le Gouvernement est mal placé pour exiger des autres le respect de la vérité qu'il ne s'impose pas à lui-même : dès qu'il y a une interdiction de diffuser, la censure n'est pas loin. Attention à ce qu'il ne subsiste pas que la vérité du régime... La démocratie suppose la confrontation de points de vue contradictoires. La vérité des uns est la fausseté des autres et il n'appartient pas à un juge d'en décider.

Traitons ce sujet important avec hauteur, et plus tard. Autrefois, les mensonges se propageaient à la vitesse d'un cheval ; désormais, c'est à la vitesse de la lumière, et dans des proportions bien supérieures. Nous abordons ce sujet par la petite lucarne. Le Sénat ne voudra pas délibérer, à raison, sur ce sujet. L'Assemblée nationale entérinera cette proposition de loi telle qu'elle est et prendra ses responsabilités devant l'opinion publique. Il en découlera une foule de contentieux...

Mme Catherine Morin-Desailly, rapporteure. - Merci de ce débat extrêmement intéressant qui traduit une position unanime. Les fausses informations gangrènent la démocratie et il perdure un doute sur les derniers scrutins. Nous avons creusé ce sujet avec rigueur lors de nombreuses auditions.

Le vrai problème n'est pas les fake news, mais le terreau sur lequel elles prospèrent grâce aux réseaux sociaux. Internet est devenu un nouveau terrain d'affrontement politique et social, avec l'affaire Snowden, Cambridge Analytica, Facebook et Palantir. C'en est fini du rêve de l'Internet ouvert, libre, neutre et démocratique ; comme le rappelait la présidente de la Commission nationale de l'informatique et des libertés (CNIL), il faut le réguler.

En l'état, nous devons répondre au dispositif législatif qui nous est proposé. Le titre Ier nous interroge sur son caractère opérationnel et potentiellement dangereux, malgré quelques avancées notamment sur la formation, qui ont été introduites par l'Assemblée nationale - mais en cours d'examen seulement. Aurait-on pu améliorer ce texte ? Nous avons toujours cherché à le faire. Nous aurions pu tenter de supprimer le titre Ier, mais avec un très faible espoir que cela soit acté lors de la CMP, puisque la plupart d'entre elles échouent...

M. Bruno Retailleau. - ... Toutes les CMP échouent !

Mme Catherine Morin-Desailly, rapporteure. - Or c'est la mesure la plus emblématique du texte. Rien ne serait pire qu'un tel bricolage.

Le titre II et le renforcement des pouvoirs du CSA auraient pu trouver leur place dans le projet de loi de réforme audiovisuelle repoussé à 2019. Il y a des incertitudes. L'article 6 est potentiellement anticonstitutionnel, car contraire à la personnalisation des peines.

Les directeurs de l'information nous rappelaient également l'aspect géopolitique - et la veille, leurs services juridiques étaient encore plus sévères : « Toute mesure contraignante prise à l'encontre d'un média au service d'une puissance étrangère ne manquera pas de provoquer des représailles à l'encontre des médias français présents dans ce pays ». Effectivement, la mise en demeure de Russia Today le 28 juin a validé cette loi d'airain : dès le lendemain, France 24 était menacé par le régulateur russe...

Nous nous félicitons des mesures intégrées in extremis dans le titre III bis sur l'éducation aux médias - je vous ai présenté il y a quelques semaines les conclusions de mon rapport sur la formation à l'heure numérique. La France et l'Union européenne doivent réfléchir à l'accompagnement des médias professionnels dans leur transition vers le numérique pour assurer leur pérennité et permettre l'exposition d'informations vérifiées. Une stratégie cohérente s'impose. Nous ne lutterons pas contre les fausses informations sans déontologie ni éclairage des lecteurs. Tous ces sujets sont intimement liés et renvoient à la liberté de la presse et du numérique.

Je défendrai en votre nom la motion opposant la question préalable, qui enverra un signal très clair au Gouvernement - le Sénat reste le gardien le plus inflexible des grandes libertés publiques - ainsi qu'à l'opinion publique et aux professionnels qui tous, sans exception, nous ont fait part de leur incompréhension, de leurs doutes et de leurs craintes. Nous avons réalisé ce travail de pédagogie que l'Assemblée nationale n'a pas su faire.

En application de l'article 44, alinéa 3 du Règlement du Sénat, une seule motion peut être déposée sur ce texte. Déposée par la commission, elle pourra être examinée après la discussion générale, ce qui vous permettra - comme les rapporteurs - de vous exprimer.

Choisir une proposition de loi nous prive d'une étude d'impact et d'un travail préalable du Conseil d'État - même si son avis en date du 19 avril dit tout. Il n'est pas sérieux de légiférer de telle manière sur ces questions aussi sensibles. Nous disposons d'un arsenal législatif insuffisamment utilisé. Le rapporteur pour avis pourra également vous exposer toutes ses réserves en séance publique.

Bruno Retailleau a raison : le système actuel peut nous conduire à une censure préventive des plateformes. Selon le Conseil d'État, nous sommes pris en tenaille entre une censure préventive et l'abandon de toute réaction qui aboutira à l'autodestruction. Le duopole Google et Facebook gère les informations par l'intelligence artificielle et un algorithme qui privent nos médias d'une exposition juste et équitable. Cela instaure une forme de censure, l'information se revendiquant alors comme « organisée », selon le président de Google.

Le modèle Internet repose alors sur le principe « je donne mes données - ou l'entreprise les capte, dans un capitalisme de la surveillance - en échange d'une information pseudo-gratuite ». Ce sujet, très sensible, a été théorisé par Tristan Harris, ancien ingénieur de Google. Pourquoi ne pas réviser la directive sur le e-commerce ? Réfléchissons au statut pour responsabiliser ces plateformes, dont l'intermédiation est obligatoire. Il y a des abus de position dominante et de concurrence déloyale. Toute notre économie est menacée par une ubérisation rampante. Nous sommes favorables au progrès mais celui-ci doit servir notre modèle de société.

Ce sujet doit être suivi à l'échelle européenne, au-delà de la seule autorégulation des plateformes. Nous pourrions réfléchir à un statut intermédiaire entre hébergeurs et éditeurs. Je suis favorable à l'adoption d'une proposition de résolution européenne pour faire avancer l'Union européenne, qui est bien naïve. Lors de notre colloque sur l'avenir de l'audiovisuel pubic, Jean-Paul Philippot, administrateur général de la Radio-télévision belge francophone (RTBF) a mentionné une confidence du président du Parlement européen : Google aurait des contacts avec tous les avocats de Bruxelles... Après l'affaire Snowden, un article du Guardian dévoilait que le plus grand nombre d'opérations de cybersurveillance de la NSA (National Security Agency, agence de sécurité américaine) était réalisé auprès des fonctionnaires de la commission européenne chargés de la concurrence. C'est à ce niveau-là que nous devons réfléchir. Il est dangereux de faire croire qu'une solution peut être trouvée alors que les prochaines élections prouveront le contraire. C'est pour cela que je vous propose le rejet du texte par l'adoption d'une motion opposant la question préalable.

M. Christophe-André Frassa, rapporteur pour avis. - La philosophie même du référé tel qu'il nous est proposé pose problème - et non le délai de 48 heures. Une fois la loi entrée en vigueur, le juge ne pourra pas tout faire. Comment définir des faits influençant un scrutin à venir ? Dans tout contentieux électoral français, le juge électoral se prononce a posteriori pour établir ces faits. Affirmer que Christophe-André Frassa détient un compte à Monaco, est-ce de nature à influencer le vote ? Bien malin le juge qui peut décider ex ante une potentielle influence... Tous les magistrats que nous avons auditionnés peineraient à se « dépatouiller » d'un tel objet juridique.

Ce référé pourrait être demandé par toute personne « ayant qualité à agir ». N'importe quelle association d'hurluberlus se créera ad hoc, créera le buzz et sera génératrice de fake news. On sait qui sont le ministère public, le candidat et le parti politique, mais pas ces personnes-là... C'est la porte ouverte à n'importe quoi ; ce référé est boiteux dès le départ. Ces deux points sont source d'incertitude et de danger.

La loi gère déjà les plateformes. La loi allemande a comme conséquence une autocensure absolue. Dès qu'il y a le moindre soupçon sur une publication qui ne serait pas politiquement correcte, elle disparaît. Veut-on aller jusque-là ? Ce n'est pas la société dans laquelle je veux vivre. Je ne veux pas vivre dans ce « Canada des Bisounours », et préfère dire comme Portalis : « Il ne faut point de lois inutiles ; elles affaibliraient les lois nécessaires ».

EXAMEN DE LA MOTION TENDANT À OPPOSER LA QUESTION PRÉALABLE

M. Jean-Claude Carle, président. - Conformément au troisième alinéa de l'article 44 du Règlement du Sénat, la motion COM-2 tendant à opposer la question préalable, qui sera présentée au nom de notre commission, pourra être examinée après la discussion générale, à la différence d'une motion présentée par un groupe politique.

La commission décide de soumettre au Sénat la motion COM-2 tendant à opposer la question préalable à la proposition de loi. Les autres motions et amendements deviennent sans objet. La proposition de loi n'est pas adoptée.

QUESTION PRÉALABLE

Motion présentée par Mme Morin-Desailly
au nom de la commission de la culture

TENDANT À OPPOSER LA QUESTION PRÉALABLE

En application de l'article 44, alinéa 3, du Règlement, le Sénat décide qu'il n'y a pas lieu de poursuivre la délibération sur la proposition de loi, adoptée par l'Assemblée nationale, relative à la lutte contre la manipulation de l'information (n° 623, 2017-2018).

Objet

La proposition de loi relative à la lutte contre la manipulation de l'information fait l'objet d'une incompréhension générale, comme en a témoigné la présentation de trois motions tendant à opposer la question préalable déposées par les groupes Les Républicains, Socialiste et républicain et Union centriste et, adoptées à la quasi-unanimité à l'occasion de la réunion de la commission de la culture du 18 juillet. Les dispositions les plus significatives de ce texte ont en effet immédiatement suscité des inquiétudes très fortes de la part des professionnels du droit, des journalistes, mais également de la plupart des formations politiques.

La présente motion tendant à opposer la question préalable traduit les interrogations et les craintes exprimées sur ce texte. Le Sénat a parfaitement conscience de l'importance prise par la question des fausses informations à la faveur des derniers scrutins, tous marqués par un déferlement sans précédent de rumeurs malveillantes colportées et amplifiées sur les réseaux sociaux. Les fausses informations gangrènent nos démocraties et fragilisent nos sociétés en entretenant et développant une défiance généralisée.

Pour autant, le dispositif législatif contenu dans la proposition de loi n'apporte à cette question que des solutions peu opératoires ou potentiellement attentatoires aux libertés publiques.

Sur la forme, tout d'abord, le choix d'utiliser une proposition de loi comme véhicule législatif a privé le texte d'une étude d'impact et d'un travail en amont du Conseil d'État. Seule une réflexion préalable approfondie aurait évité les réécritures opérées lors de l'examen en commission, puis en séance publique à l'Assemblée nationale.

Sur le fond, les travaux convergents des commissions de la culture et des lois ont relevé plusieurs risques majeurs.

Tout d'abord, il existe déjà un arsenal législatif complet, tant dans la loi de 1881 sur la liberté de la presse que dans le code pénal, le code électoral et la loi pour la confiance en l'économie numérique de 2004. Le nouveau référé prévu à l'article premier de la proposition de loi constitue, de ce fait, un dispositif non seulement inutile, mais également vague, imprécis et, en définitive, potentiellement dangereux. Les députés ont tenté de le conforter en donnant une définition de la « fausse information », étrangement absente du texte initial, sans parvenir à un résultat satisfaisant. Son impact sera probablement très limité, sauf si certains souhaitent l'instrumentaliser pour donner de la publicité à une rumeur, au pire attentatoire aux libertés publiques tant les incertitudes sur ses conditions d'utilisation sont nombreuses.

Ensuite, l'extension des pouvoirs du Conseil supérieur de l'audiovisuel (CSA) à la régulation du numérique apparaît très précipitée et menée sans aucune concertation, en particulier avec les autres autorités concernées comme la Commission nationale informatique et liberté (CNIL), alors même que le Gouvernement a annoncé une grande loi sur l'audiovisuel qui devra définir un nouveau cadre pour la régulation.

Enfin, la proposition de loi se heurte au verrou de la directive européenne « e-commerce » de juin 2000, qui a défini, il y a presque vingt ans, un régime de responsabilité européen très allégé pour les plateformes. Ce dernier n'apparaît aujourd'hui plus adapté face à la place prise par les grands acteurs de l'internet dans l'accès à l'information. Le modèle économique des « GAFA » rend aujourd'hui non seulement possible, mais également rentable l'amplification massive des fausses informations, tant l'accès de nos concitoyens à l'information est devenu dépendant de leurs algorithmes. L'affaire Cambridge Analytica a révélé par ailleurs l'existence d'un système sophistiqué basé sur l'exploitation des données et des opinions.

Dans ce contexte, l'Europe doit sortir de l'angélisme qui est trop souvent le sien et réfléchir sérieusement à l'évolution de sa législation. Les réponses prises isolément par les pays paraissent en effet vouées à l'échec : la loi allemande, adoptée en début d'année, aboutit à une censure privée et préventive néfaste à la liberté d'expression, alors que la Belgique a finalement renoncé à légiférer en ce domaine.

Face au risque potentiel pour les libertés publiques issu d'un dispositif non abouti, que ne compense pas une efficacité assurée dans la lutte contre les manipulations de l'information, face à l'absence de consensus minimal nécessaire quand la liberté d'expression et la sincérité du scrutin sont en jeu, il est préférable de réfléchir de manière approfondie à des solutions plus ambitieuses au niveau européen. Le sujet du numérique doit enfin être traité de manière globale et non plus parcellaire à travers des législations de circonstances qui ne font que fragmenter un débat d'où doit, au contraire, émerger une réelle cohérence européenne.

Pour toutes ces raisons, la commission de la culture, de l'éducation et de la communication considère qu'une lecture détaillée de ce texte ne permettra ni de lever les sérieuses réserves soulevées, ni de tracer des perspectives ambitieuses. Dans ce contexte, la commission propose donc au Sénat d'adopter la présente motion.

NB : En application de l'article 44, alinéa 3, du Règlement, cette motion est soumise au Sénat avant la discussion des articles.

LISTE DES PERSONNES AUDITIONNÉES

Table ronde avec la commission des lois le 28 mars 2018

Mme Divina Frau-Meigs, professeur à l'Université Paris III Sorbonne-Nouvelle en sciences de l'information et membre du comité d'expert sur les « fake news » mis en place par la Commission européenne en novembre 2017 ;

- M. Bernard Benhamou, ancien délégué aux usages de l'Internet, secrétaire général de l'Institut de la souveraineté numérique ;

M. Samuel Laurent, journaliste au Monde, responsable du site Les Décodeurs ;

M. Christophe Bigot, avocat au cabinet Bauer Bigot & associés, spécialisé en droit de la presse ;

M. Hervé Brusini, directeur délégué au numérique, à la stratégie et à la diversité au sein de la direction de l'information de France Télévisions ;

M. Benoît Tabaka, directeur des relations institutionnelles et des politiques publiques de Google France.

Tables rondes en commission le 13 juin 2018

Première table ronde :

- M. Donat Vidal-Revel, directeur délégué à l'Information, Europe 1 ;

- M. Pascal Doucet-Bon, directeur délégué à l'information de France télévisions, et Mme Juliette Rosset-Caillet, directrice des relations extérieures ;

- M. Vincent Giret, directeur de Franceinfo, et M. Olivier Zegna-Rata, directeur des relations extérieures et internationales de Radio France ;

- M. Thomas Bauder, directeur délégué à l'information de CNEWS, et Mme Amélie Meynard, responsable affaires publiques de Canal + ;

- M. Stéphane Gendarme, directeur de l'information de M6 ;

- M. Marc Saikali, directeur de l'information de France 24.

Deuxième table ronde :

MM. Francis Morel, président du Syndicat de la presse quotidienne nationale (SPQN), Denis Bouchez, directeur, et Samir Ouachtati, responsable des affaires juridiques et sociales ;

- Jean-Michel Baylet, président de l'Union de la Presse en Région (UPREG), Mme Maud Grillard, directrice et Mme Haude d'Harcourt, responsable des relations institutionnelles ;

- M. Christophe Deloire, secrétaire général de Reporters sans frontières (RSF).

Audition en commission le 19 juin 2018

- M. Olivier Schrameck, président du Conseil supérieur de l'sudiovisuel (CSA)

Table ronde35(*) du 12 juin 2018

- M. Francis Donnat, secrétaire général de France Télévisions, Mme Juliette Rosset-Caillet, directrice des relations extérieures, et Mme Gwendoline Flamant, directrice du pôle édition / contenus à la direction juridique ;

- M. Xavier Domino, secrétaire général de Radio France, M. Olivier Zegna-Rata, directeur des relations institutionnelles et internationales, et M. François-Stéphane Hamon, responsable des relations parlementaires et européennes ;

- Mme Karine Blouët, secrétaire générale du Groupe M6 ;

- M. Anthony Level, directeur des affaires réglementaires numériques de TF1, et Peggy le Gouvello, directrice des relations extérieures ;

- Mme Pascaline Gineste, directrice des affaires réglementaires du groupe Canal +, et M. Christophe Witchitz, directeur des affaires publiques.

*

* *

Autres auditions organisées par la rapporteure

- Mme Audrey Herblin-Stoop, directrice des affaires publiques France et Russie de Twitter

- M. Anton Maria Battesti, directeur des relations publiques de Facebook France

- Mme Karen Autret, directrice, et M. Loïc Lebrun, membre du bureau du Syndicat de la presse indépendante d'information en ligne (SPIIL)

- M. Benoit Tabaka, directeur des relations institutionnelles et des politiques publiques de Google France

- Mme Dominique Pradalié, secrétaire générale du Syndicat national des journalistes (SNJ)

- M. Bruno Pattino, directeur éditorial d'Arte France

MM. Nicolas Vanderbiest et Alexandre Alaphilippe du « Disinfolab » et de « ReputatioLab » (par skype)

- Mme Nathalie Goulet, sénateur de l'Orne

- M. Martin Ajdari, directeur général des médias et des industries culturelles (DGMIC) et M. Jean-Baptiste Gourdin, sous-directeur

- M. Lawrence Lessig, professeur à l'université Harvard (par skype)

ANNEXES

Fausses informations « fake news » - Diffusion d'un message et audition

MARDI 3 AVRIL 2018

___________

M. Philippe Bas, président. - Avec Catherine Morin-Desailly, je suis heureux de réunir nos deux commissions pour une table ronde sur les fausses nouvelles sur Internet. Nous accueillons Mme Divina Frau-Meigs, professeure à l'Université Paris III Sorbonne-Nouvelle en sciences de l'information et membre du comité d'experts installé par la Commission européenne, M. Bernard Benhamou, ancien délégué aux usages d'Internet au ministère de l'enseignement supérieur et de la recherche et secrétaire général de l'Institut sur la souveraineté numérique, Me Christophe Bigot, avocat au cabinet Bauer Bigot et associés, spécialisé en droit de la presse, M. Hervé Brusini, directeur délégué au numérique, à la stratégie et à la diversité au sein de la direction de l'information de France Télévisions, ainsi que Mme Juliette Rosset-Caillet, sa collaboratrice. MM. Benoît Tabaka, directeur des relations institutionnelles et des politiques publiques de Google France, et Thibault Guiroy, chargé des relations institutionnelles, ont été retardés et nous rejoindront.

Le Président de la République a fait état, au mois de janvier dernier, de son souhait que soient prises des dispositions législatives pour mieux combattre la diffusion de fausses nouvelles, pendant les campagnes électorales, par les nouveaux médias. Ce souhait, incarné dans une proposition de loi organique et dans une proposition de loi ordinaire déposées à l'Assemblée nationale, fait écho au rapport de notre collègue Philippe Bonnecarrère « Décider en 2017 : le temps d'une démocratie « coopérative » ».

Mais avons-nous réellement besoin, compte tenu de l'arsenal juridique existant, de nouvelles dispositions ? Quels moyens juridiques est-il possible de mobiliser pour rendre effective l'interdiction des fausses informations ? Faut-il envisager des moyens dérogatoires au droit commun, à l'instar du référé spécifique prévu par la proposition de loi de l'Assemblée nationale ? Comment, enfin, articuler une nouvelle initiative du législateur français avec les efforts d'autorégulation des journalistes et des plateformes comme avec les travaux de l'Union européenne sur cette question ? Nous avons à concilier des exigences contradictoires : assurer que la sincérité d'un scrutin ne soit pas altérée par la diffusion de fausses informations, en respectant les prescriptions de la déclaration des droits de l'homme et du citoyen, qui font de la liberté d'expression, non pas un absolu, mais un droit ne pouvant être limité que dans des conditions très restrictives. Les modifications successives apportées à la loi du 29 juillet 1881 sur la liberté de la presse comme à la loi du 21 juin 2004 pour la confiance dans l'économie numérique montrent d'ailleurs avec quelles précautions le législateur a toujours abordé les sujets relevant de la liberté d'expression et, partant, du droit pénal.

Mme Catherine Morin-Desailly, présidente. - Je me réjouis également que nos deux commissions se soient associées, par souci d'efficacité, en amont de l'examen des propositions de loi organique et ordinaire de l'Assemblée nationale relatives à la lutte contre les fausses informations. Si ces textes sont d'initiative parlementaire, ils se trouvent en réalité largement d'inspiration gouvernementale et seront défendus par la ministre de la culture.

J'estime regrettables l'utilisation du terme « fake » pour qualifier le phénomène et, surtout, l'erreur de l'avoir traduit par « faux », qui ne permet pas d'insister sur l'aspect relatif à la manipulation de l'opinion, à la désinformation et à la perversion de l'information au travers des réseaux sociaux. Nous devrons, pour ne pas nous tromper de combat ni d'analyse, nous montrer attentifs à cette dimension. Prenons garde à ne pas réformer aveuglément le droit de la presse, compte tenu des risques encourus en matière de liberté d'expression, exigence démocratique s'il en est ! Le think tank Renaissance numérique a d'ailleurs mis en exergue les nuances entre fausse nouvelle, désinformation, mauvaise information et sous-information.

Notre vigilance à viser au plus juste le phénomène que nous souhaitons combattre est d'autant plus essentielle que la manipulation de l'opinion par l'entremise des réseaux sociaux a pris une dimension nouvelle depuis les révélations afférentes à la campagne présidentielle américaine. Souvenez-vous qu'en décembre 2016, lors de l'Agora numérique organisée au Sénat dans le cadre du partenariat pour un Gouvernement ouvert, Lawrence Lessig, professeur à Harvard, candidat malheureux à la primaire démocrate et auteur de la désormais célèbre formule Code is law, nous avait annoncé, plusieurs mois avant que n'éclate le scandale, la manipulation des élections américaines à travers les réseaux sociaux. Notre débat est également empreint de celui que nous venons d'achever s'agissant de la transposition, en droit français, du règlement général de l'Union européenne sur la protection des données personnelles (RGPD) et de la récente révélation du détournement de millions de données d'internautes de Facebook par Cambridge Analytica, avec la complicité de Palantir, dont le co-fondateur n'est autre que le conseiller numérique du président Trump. Il convient de mesurer si le texte qui nous est proposé permettra effectivement de répondre à ces enjeux de démocratie. Il en va de l'honneur du Sénat, qui n'a jamais cessé de défendre les libertés fondamentales.

Nous entamons nos échanges par la diffusion d'un message enregistré de Mme Mariya Gabriel, commissaire européenne à l'économie et à la société numériques.

Mme Mariya Gabriel, commissaire européenne à l'économie et à la société numériques. - Je vous remercie de me donner l'occasion d'intervenir en introduction de votre table ronde. La Commission européenne défend un Internet indépendant et ouvert, fermement ancré dans la protection des droits fondamentaux et des valeurs démocratiques. La liberté et le pluralisme des médias constituent des piliers de notre démocratie moderne, qui souffre d'une désinformation faussant le débat social et politique.

À l'instar des cyberattaques, la désinformation ne connaît pas de frontière. En conséquence, la Commission européenne a choisi d'élaborer une stratégie européenne pour la combattre, afin d'éviter toute fragmentation inutile. Nous avons reçu 3 000 réponses dans le cadre de notre consultation publique et une enquête Eurobaromètre a recueilli l'opinion de plus de 26 000 citoyens européens. Les premiers résultats interpellent : 97 % des sondés affirment avoir été la cible de fausses informations, principalement sur des sujets relevant de la politique, de l'immigration, des minorités et de l'insécurité, et, pour 70 % des sondés, les fausses informations nuisent à la démocratie. Dans son rapport publié le 12 mars dernier, le groupe d'experts, constitué en novembre 2017 pour formuler des recommandations sur la désinformation en ligne, prône une approche multidimensionnelle fondée sur l'autoréglementation. L'implication de chacun est, en effet, nécessaire : il ne peut exister de solution durable sans l'engagement de l'ensemble des parties concernées. Si le rapport insiste sur le rôle des plateformes, les médias traditionnels doivent également s'adapter aux exigences du numérique, afin de contrer la dissémination des fausses informations par la promotion d'une information de qualité. Les annonceurs publicitaires et les partis politiques doivent également participer à ce combat. Ainsi, nous pouvons ensemble espérer diluer le phénomène et, progressivement, l'éteindre. Enfin, je souhaite insister sur la nécessité de soutenir l'éducation numérique : nos concitoyens doivent disposer des outils et des connaissances leur permettant de discerner les fausses nouvelles et, ainsi, limiter leur propagation. Je présenterai, le 25 avril, un plan européen de mesures concrètes de lutte contre la désinformation en ligne.

Mme Catherine Morin-Desailly, présidente. - Quel propos liminaire intéressant et de circonstance pour entamer nos travaux ! Madame Divina Frau-Meigs, vous êtes membre du comité d'experts mis en place par la Commission européenne : partagez-vous l'analyse de la commissaire européenne ?

Mme Divina Frau-Meigs, professeure à l'Université Paris III Sorbonne-Nouvelle en sciences de l'information et membre du comité d'experts sur les « fake news » mis en place par la Commission européenne. - Comme Mme Gabriel, je crois qu'il n'existe pas de ligne Maginot de la mal-information : elle est transfrontière et, en ce sens et même si peuvent apparaître des enjeux de souveraineté nationale et d'intégrité des élections, la réponse doit être, à tout le moins, européenne. La Commission européenne a proposé, avec le groupe d'experts, une définition du phénomène, ce qui me semble constituer un préalable essentiel. La décision a été prise dans le rapport de ne pas utiliser les termes « fake news », car nombre de ces informations sont en réalité justes mais transformées dans leur contenu par des automates, et de leur préférer celui de « désinformation » pour insister sur l'aspect manipulateur. Je préfère pour ma part celui de « mal-information », qui rappelle la notion de malveillance très éloignée du canular de presse du XIXe siècle. La Commission a également mis en exergue deux cas différents, qui ne peuvent pas être traités à l'identique par une éventuelle réglementation : la mal-information à visée commerciale ou publicitaire et la mal-information politique portant atteinte, notamment, à l'intégrité des élections comme cela a pu récemment être constaté aux États-Unis. Il convient, en outre, de ne pas négliger le rôle des communautés d'usage, trop insuffisamment pris en compte dans la réglementation. Comment ramener les crédules dans le berceau d'un débat démocratique contradictoire dans lequel leurs idées ne sont pas rejetées et au sein d'un discours intelligible et intelligent ? Ils représentent, en réalité, les premières victimes de la mal-information.

Notre rapport prend de multiples précautions : les chercheurs n'ont pu prouver aucun effet avéré de la mal-information et nous ne disposons pas de suffisamment de recherches critiques pour affirmer qu'elle change une élection. Au contraire, les deux dernières recherches menées en Angleterre et en France font apparaître un résultat inverse : il y aurait une résilience des électeurs, qui ne seraient pas si crédules. En revanche, il est certain qu'il existe une volonté avérée de nuire et un effet diffus sur la population, celui du doute distillé par les marchands de soupçons sur Facebook comme sur d'autres médias sociaux, qui représentent les lieux de circulation, de diffusion et propagation privilégiés de ces contenus. L'absence de résultats scientifiques évidents a conduit l'Union européenne à avancer précautionneusement en matière de régulation en privilégiant l'autorégulation, qui nécessite une grande transparence dans les affaires publiques et commerciales. Elle demande également de la profession de journaliste, qui souffre du déséquilibre de la répartition de la valeur économique au profit des plateformes, une prise de conscience, notamment s'agissant de son comportement sur les réseaux sociaux. Il existe un hiatus entre l'information 1.0 véhiculée par les médias et la mal-information 2.0 favorisée par la viralité des réseaux sociaux et des communautés d'usage. La profession commence à se remettre en question et, ce faisant, à regagner la confiance populaire, d'après les sondages les plus récents. Nous préconisons en outre le renforcement de l'éducation aux médias, j'y reviendrai. Notre rapport propose, pour conclure, l'instauration d'un code de bonne conduite auquel les Google, Amazon, Facebook, Apple, Microsoft (Gafam) ont accepté de participer. Son élaboration sera réalisée conjointement et sa mise en oeuvre évaluée après un an ; en d'autres termes, la Commission engage un processus de la carotte, qui pourrait être suivi d'un processus du bâton s'il s'avérait que la première étape se solde par un échec.

Sans se désolidariser du rapport commis par le groupe d'experts, ma position personnelle s'en éloigne quelque peu. J'estime qu'il aurait été utile que nous aboutissions à une enquête sectorielle sur les plateformes, afin d'évaluer la réalité de la concurrence et des positions dominantes et d'étudier les comportements publicitaires, qui représentent un soutien essentiel, bien que souvent involontaire, aux marchands de soupçons. Le système publicitaire et d'agrégation de contenus, avec l'algorithmique correspondant, ne se positionne pas par rapport à l'authenticité ou à l'objectivité de l'information, mais en fonction de l'engagement et de l'émotion qu'elle suscite. Nous aurions ainsi pu mesurer combien ce comportement a coûté à l'information de qualité et, le cas échéant, corriger cette perte en créant un fonds d'aide aux nouveaux médias, y compris par la fiscalité. Je propose, pour ma part, d'installer une dorsale complète du service public du numérique : des moteurs de recherche qui ne tracent pas, des réseaux sociaux qui ne diffusent pas de publicité et des médias de qualité marqués d'un label facilement identifiable, sur le modèle de celui de Reporters sans frontières (RSF). Disposer d'un lieu dédié à l'information de qualité permettrait également de pouvoir retracer le cours d'une campagne électorale, comme s'y attellent actuellement les Américains. L'Europe a les moyens de mettre en place une politique favorable à l'intérêt général du numérique, reste à se doter de la volonté politique...

La situation actuelle, qui pose un insoluble problème de temporalité, n'est pas soutenable : il faut de douze à quatorze heures pour éteindre une rumeur sur Twitter en la démentant, dès lors, sans mesures sérieuses en amont, le mal peut être fait une veille d'élection. Avant même la réglementation ou l'autorégulation des acteurs, le succès de la lutte contre la mal-information réside dans l'éducation aux médias, qui ne dispose que de faibles moyens. La Commission européenne a proposé à cet effet d'inscrire l'éducation aux médias, qui forge les valeurs et les comportements, dans les compétences du Programme international pour le suivi des acquis des élèves (PISA), car c'est en étant évaluée qu'elle gagnera en importance. Elle ne doit pas être confondue avec l'éducation numérique, qui traite des outils et savoir-faire opérationnels, du code et de l'algorithme, dont elle est complémentaire.

La loi qui sera adoptée par la France sera observée avec attention à l'étranger avec la possibilité qu'elle soit à l'origine d'en effet domino, comme la réglementation allemande inspire la Russie et l'Indonésie. Prenons garde à ce que des lois liberticides votées dans d'autres pays ne se revendiquent pas du modèle français. Ayons conscience de notre responsabilité, comme pays des droits de l'homme. Nous devons sanctuariser les contenus et réfléchir à instaurer un statut des médias sociaux, par nature hybrides, les dotant d'obligations en matière de transparence et de droit de réponse. Je conclurai en insistant sur la nécessité de renforcer l'information aux médias et, surtout, de garantir son indépendance. Elle doit cesser d'être financée par les Gafam et intégrer les missions de l'école en étant prise en charge par les enseignants. Je mets d'ailleurs au défi les Gafam d'assurer cet enseignement à douze millions de jeunes Français de moins de seize ans ! Peut-être faut-il créer, si nécessaire, un fonds à cet effet, abondé par le fruit d'une fiscalité imposée aux Gafam.

Mme Catherine Morin-Desailly, présidente. - Nous donnons immédiatement la parole au représentant de Google France, puisque sa société vient d'être évoquée à plusieurs reprises s'agissant du code de bonne conduite et de la défiance croissante de la population à l'égard des Gafam. Quel est, monsieur Tabaka, votre opinion sur ces sujets et, surtout, sur les textes déposés à l'Assemblée nationale ?

M. Benoît Tabaka, directeur des relations institutionnelles et des politiques publiques de Google France. - Je vais m'inscrire en faux avec certains propos précédemment tenus sur les Gafam. Nous sommes certes des sociétés de la « tech », mais nous exerçons des activités bien différentes : moteurs de recherche, réseaux sociaux, plateformes d'hébergement, etc. Les Gafam ont bien sûr un rôle à jouer dans la lutte contre la désinformation, mais elles n'interviennent pas toutes au même stade de la diffusion des contenus incriminés, Depuis longtemps, Google prend le sujet au sérieux. Le coeur de métier de l'entreprise est d'organiser l'accès à l'information via son moteur de recherche et, en conséquence, d'éviter qu'il ne soit biaisé par certains, qui réussiraient à faire apparaître les contenus de leur choix en tête des résultats de recherche. Je préfère, pour ma part, le terme de « désinformation » à celui de « mal-information », qui semble supposer qu'une information a été inconvenablement formulée sans volonté de nuire. Le phénomène peut prendre des formes extrêmement variées, puisque les acteurs malveillants utilisent différents procédés pour répandre de fausses informations sur Internet. Dès lors, il ne peut y avoir de réponse unique et uniforme.

Google utilise déjà plusieurs outils pour lutter contre la désinformation en ligne. D'abord, son algorithme fait en sorte que les contenus de qualité se placent en tête dans les résultats du moteur de recherche, afin d'offrir à l'utilisateur l'information la plus fiable possible. À cet effet, ont été développés des éléments techniques permettant d'éviter que des robots ne réussissent à favoriser leurs propres résultats. Nous avons notamment annoncé, il y a quinze jours, que notre traitement algorithmique de référencement allait évoluer pour ne plus systématiquement favoriser les contenus en fonction de leur actualité. Lorsqu'un événement d'importance survient, des comptes malveillants tentent de diffuser des informations erronées en profitant du grand nombre de recherches afférentes réalisées en ligne. Nous travaillons avec RSF pour définir au mieux la fiabilité d'une information. Nous luttons, en outre, contre la désinformation via notre activité de régie publicitaire pour compte de tiers. À titre d'illustration, nous avons supprimé, en 2017, 1,7 milliard de publicités, toutes causes confondues, qui permettaient de monétiser de fausses nouvelles. Pour les mêmes raisons, 100 000 éditeurs de sites ont vu leur compte publicitaire supprimé. En d'autres termes, Google applique la stratégie dite follow the money, habituellement destinée à la lutte contre la contrefaçon, au combat contre la désinformation. Enfin, l'entreprise, depuis plusieurs années, aide la presse à s'adapter au numérique en mettant en place, en France puis en Europe, un fonds de soutien aux projets innovants. Nous avons ainsi soutenu Les Décodeurs du Monde à hauteur de plusieurs centaines de milliers d'euros. Il y a quinze jours, a été annoncée la création d'un fonds mondial doté de 300 millions de dollars sur trois ans.

Mme Catherine Morin-Desailly, présidente. - Pourriez-vous nous faire part plus concrètement de votre opinion sur les dispositions des textes déposés sur le bureau de l'Assemblée nationale ?

M. Benoît Tabaka. - Pour ce qui concerne plus spécifiquement la proposition de loi, je reconnais que nous sommes encore en cours d'analyse, le texte n'ayant été publié que récemment sur le site de l'Assemblée nationale. S'agissant de la publicité en ligne, et notamment de l'usage de moyens publicitaires pour promouvoir une fausse nouvelle, Google a d'ores et déjà développé des outils permettant d'identifier des comptes malveillants destinés à diffuser cette information en ligne. Ils existent, même s'ils peuvent évidemment être améliorés. La proposition de loi fait apparaître le concept de « contenu d'information ». Est-ce un contenu renvoyant vers un site d'information ou un contenu de nature informative ? Par exemple, un article portant sur une disposition de la loi relative à l'immigration serait-il considéré comme un contenu d'information et, dès lors, soumis automatiquement, pour ce qui concernerait la publicité qui le viserait ou y renverrait, au régime juridique prévu par la proposition de loi ? Ce point mérite d'être éclairci lors des débats parlementaires. Nous avons, de notre côté, des échanges avec le ministère de la culture.

Me Christophe Bigot, avocat. - Je m'en tiendrai à une analyse juridique et commencerai par rappeler l'existant, qui est déjà assez significatif mais n'est pas utilisé. En France, deux textes sanctionnent les fausses nouvelles. La loi de 1881 sur la liberté de la presse punit la fausse nouvelle qui trouble la paix publique et le code électoral celle qui a pour effet de porter atteinte à la sincérité des scrutins. Or les décisions judiciaires s'appuyant sur ces deux textes se comptent sur les doigts d'une main.

On voit tout de suite qu'entre ces deux textes, il existe un vide : la fausse nouvelle qui ne porte pas un trouble à la paix publique et qui est de nature à porter atteinte à la sincérité du scrutin, mais sans qu'on ait la démonstration d'un effet réel.

N'oublions pas, par ailleurs, l'action en diffamation : la diffamation est une allégation fausse de nature à porter atteinte à l'honneur et à la considération d'une personne. Ainsi, pendant la campagne présidentielle, l'allégation selon laquelle Emmanuel Macron aurait eu un compte offshore au Panama. La loi permet déjà au juge de statuer dans les 24 heures en période électorale. Inutile, donc, d'adopter un texte supplémentaire pour faire intervenir un juge des référés.

En somme, cette proposition de loi est largement inutile : à mon avis, c'est purement et simplement une posture politique.

Le modèle français en matière de liberté d'expression ne consiste aucunement à sanctionner la mal-information, au contraire ! La loi de 1881 pose le principe de liberté et il s'agit pas d'aller chercher qui s'exprime de manière bienveillante et qui s'exprime de manière malveillante. L'idée est de déterminer des incriminations précises, en dehors desquelles on est libre de dire ce qu'on veut, même lorsqu'on est malveillant. D'ailleurs, la communication politique elle-même est souvent malveillante en période électorale !

Nous ne voulons surtout pas changer de modèle et commencer à décréter ce qu'est la bonne ou la mauvaise information : ce serait ouvrir une boîte de Pandore.

Bref, votez une loi inutile si cela vous amuse...

M. Philippe Bas, président. - Nous avons d'autres occasions de nous amuser...

Me Christophe Bigot. - C'est une loi inutile, et qui peut être dangereuse si on commence à assimiler fausse information et information controversée ou mal présentée, ce qui aurait des conséquences en matière de liberté d'expression en période électorale.

Si l'on peut aisément identifier et signaler des comptes ou des contenus pédopornographiques, je ne vois pas comment une plateforme pourrait identifier une fausse information. Pour le cas du compte offshore prêté à Emmanuel Macron, un militant de la République en Marche peut le signaler à Google mais Google n'a pas les moyens de déterminer si c'est une fausse information ou non.

Cela dit, cette proposition de loi comporte des pistes prometteuses. D'abord, il peut être intéressant de cibler la diffusion massive et artificielle car celle-ci est un indice presque certain qu'on a affaire à une fausse information ou, en tout cas, à une information diffusée avec malveillance à une échelle industrielle. Cette notion de diffusion massive et artificielle est intéressante aussi car elle évite de mettre sous pression les vrais médias, les médias d'information.

Il est aussi opportun de renforcer la distinction entre l'information et la publicité ou la communication. Certes, nous avons déjà des textes qui prescrivent que toute information sponsorisée doit être signalée comme telle. On pourrait aussi ajouter une distinction entre ceux qui s'expriment de manière anonyme et ceux qui le font à visage découvert.

M. Hervé Brusini, directeur délégué au numérique, à la stratégie et à la diversité au sein de la direction de l'information de France Télévisions. - Je suis au coeur de la tempête, comme tous les journalistes qui ont subi cette dévastation de la confiance. Le phénomène n'est pas nouveau : en 1897 on a interrogé les Français sur la responsabilité des journalistes. Qu'avaient-ils fait de leur pouvoir ? Les plus belles signatures - Zola, Jaurès et d'autres - ont répondu à ce qui était déjà un débat national sur le déficit de confiance. La revue Le temps des médias donne un texte datant de 1700 sur la fabrication des fausses informations dans la fameuse Gazette de M. Renaudot, qui était pourtant un brave homme...

Dans la constitution d'un corpus nécessaire à l'éducation à l'information, les journalistes ont un rôle très important. L'éducation aux médias, actuellement, est en pièces détachées : son corpus est loin d'être rassemblé, pertinent et efficace et il serait bien difficile de trouver en librairie le grand livre qui nous permettrait de faire correctement ce travail.

La démocratie passe par l'éducation et, donc, par l'éducation aux médias. Comme le service public est un des responsables - j'allais dire un des coupables - en la matière, il nous incombe aussi de constituer le corpus de l'éducation aux médias, notamment avec l'éducation à l'image. Il y a quelques mois, a circulé une image des pyramides couvertes de neige. Le monde entier - y compris des habitants du Caire - a repris cette image sans aller voir ce qu'était la météo au Caire ce jour-là. En l'espèce, il n'y avait pas de malveillance.

Je trouve significatif qu'on soit obligé de faire une clarification du concept qui nous rassemble. De quoi parlons-nous ? De fausses nouvelles, de « fake news », de désinformation, de mal-information ? La précision du concept est essentielle.

Nous devons aux Français, qui ont la gentillesse de payer leur redevance, un vrai travail de journaliste, et nous devons rendre des comptes. La régulation est donc bienvenue. Nous avons été tellement secoués par un certain nombre de scandales, comme la fausse mort de Martin Bouygues, que la moindre des choses est de mettre en place des procédures garantissant une information de qualité, c'est-à-dire vérifiée. Déjà, nous nous astreignons à ne sortir une information qu'après une vérification puissante. Cela dit, on peut toujours nous critiquer. L'information n'est pas scientifique, c'est une activité humaine. Et pour cette raison, les contraintes doivent être d'autant plus fortes.

Pour le service public, cela signifie d'abord la promotion de l'éducation aux médias. Le service public ne peut pas déroger à sa responsabilité d'aller au contact des écoles ; il doit produire des modules de formation, y compris parfois en jouant avec le feu, c'est-à-dire en permettant aux élèves de fabriquer de la fausse information pour qu'ils comprennent comment tout à coup l'un de leurs camarades peut devenir un personnage épouvantable, chassé par tout le monde. Et, à l'antenne, nous devons absolument faire apparaître la transparence de nos procédures. Cette pédagogie de l'information au moment même de sa diffusion aide à lutter contre la fausse information.

Bref, les journalistes de France Télévisions s'interrogent beaucoup sur ces propositions de loi. Pourquoi ne pas garder l'arsenal existant ? En 1881, ce fut une bouffée d'oxygène extraordinaire pour l'information, et cette loi eut même un retentissement mondial. Il a été dit que les propositions de loi dont nous parlons peuvent avoir le même impact, mais comme textes liberticides.

Nous sommes prêts à réfléchir aux mesures permettant au public, notamment les jeunes, de distinguer les vraies informations des fausses. J'étais ce matin à Radio France devant près de 400 jeunes filles venues des quartiers. La plupart savaient ce que sont les Illuminati. C'est une alerte incroyable !

M. Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique. - La transparence des algorithmes est un sujet essentiel. Toutes les plateformes en utilisent, qu'il s'agisse de Facebook avec ses fils de News, de YouTube, de Google et ces algorithmes sont parfaitement opaques. Je vous invite tous à vous référer à l'excellent ouvrage The Black Box Society, de Frank Pasquale. L'auteur plaide pour une transparence qualifiée. Bien sûr, le code source d'une application est totalement illisible pour le grand public, mais il faut que des experts soient à même d'analyser ces codes quand il y va de notre vie : bientôt se poseront des problèmes sur les algorithmes des voitures sans pilote, qui devront faire l'objet d'un véritable débat démocratique pour savoir quels seront leurs comportements en situation d'accident.

De même, le choix des informations qui intervient sur des plateformes comme Google News ou comme le fil de News de Facebook, et peut-être surtout sur YouTube, est extraordinairement important. Pour l'instant nous n'y avons pas accès, ces algorithmes demeurant des secrets industriels. Mais, lorsqu'il est question d'enjeux aussi sensibles que le devenir de nos démocraties et le fonctionnement de nos sociétés, ce manque de transparence n'est pas soutenable.

Il commence à y avoir des études sur l'impact émotionnel, voir idéologique, de ces algorithmes. L'université de Cornell à New York et l'Université de Californie ont mesuré l'impact émotionnel d'une modification du fil de News de Facebook sur 700 000 personnes : qui dit manipulation émotionnelle dit sans doute, avec l'usage de l'intelligence artificielle, manipulation idéologique. De même qu'il y a quelques années il y a eu un avant et un après Snowden, je crois qu'il y aura un avant et un après Cambridge Analytica. Nous pensions que la bonne volonté des acteurs suffirait pour réguler le système, mais cette idée se heurte à la dure réalité de la manipulation, des intérêts économiques et des conflits géopolitiques.

Nous avons vu l'intervention stratégique d'un État étranger dans le fonctionnement démocratique de l'élection américaine, ainsi que, probablement, dans le vote sur le Brexit et sans doute aussi dans d'autres élections, y compris notre élection présidentielle. L'autorégulation a clairement montré ses limites et même, sur ces points, a échoué. À preuve, l'un des partisans et pionniers historiques d'Internet, Tim Berners-Lee, en a appelé récemment à la loi. Un éditorial du New York Times expliquait d'ailleurs récemment que le problème n'est pas Facebook, mais le fait que nos lois soient beaucoup trop molles en matière de protection de la vie privée. Un autre édito dans le même journal expliquait que l'Europe était en train de montrer le chemin, ajoutant que le nouveau monde doit aussi apprendre de l'ancien !

Le RGPD aura un impact bien au-delà des frontières de l'Union européenne : le consommateur américain sera touché par ses dispositions sur la protection des données. De fait, ce qui s'est passé avec Facebook de Cambridge Analytica était entièrement légal : les utilisateurs avaient donné leur accord - évidemment non éclairé au sens où nous l'entendrions en Europe. Ensuite, cette compagnie a ouvert les vannes de telle sorte que quelques centaines de milliers de personnes permettent de capter 50 millions de profils et d'en faire une moisson pour aller influencer une élection. L'élection américaine s'est jouée à 90 000 voix dans quelques États-clés. Or il est quasiment certain qu'une telle machine de guerre, en collusion possible avec des intérêts étrangers, a pu influencer 90 000 électeurs.

Nous devons donc nous interroger sur les algorithmes qui font fonctionner les plateformes. Si vous regardez une vidéo relative au massacre de Parkland, vous constatez que la vidéo suivante est celle du patron de la NRA, le lobby des armes. De même, si vous regardez des vidéos sur les attentats, YouTube vous présente ensuite des vidéos de plus en plus atroces. Je ne dis pas cela pour stigmatiser cette plateforme : la raison est tout simplement que l'algorithme détecte que les utilisateurs restent plus longtemps sur ces vidéos et que le modèle économique de ces plateformes est de montrer de la publicité.

Marc Zuckerberg, interviewé il y a deux jours, est revenu longuement sur ces questions et a indiqué qu'au mieux il faudrait plusieurs années pour rectifier le tir. Nous devons nous interroger sur les limites que nous souhaitons imposer à ces plateformes en tant qu'État démocratique et en tant qu'Union européenne. Penser qu'elles se réguleront elles-mêmes est une illusion. D'autant que la prochaine menace est celle de la manipulation de masse par des robots, qui pourront cibler certaines personnes en fonction des informations fournies par les plateformes. Et l'étape suivante est encore plus inquiétante : bientôt, l'usage de l'intelligence artificielle servira à dissimuler l'intervention des robots - au point qu'il faudra avoir recours aussi à l'intelligence artificielle pour les déceler.

Bref, ces questions qui ont fait irruption très rapidement, en une décennie environ, sont devenues si importantes pour l'avenir de nos sociétés que nous ne pouvons plus nous permettre le luxe de la naïveté.

Lawrence Lessig est légitimement inquiet. Il explique que, si notre société pouvait être jusqu'à présent captée par des groupes d'intérêts, elle peut désormais l'être par des puissances technologiques, y compris étrangères. À cet égard, la portée des propositions de loi est trop étroite puisqu'elles se focalisent sur la période préélectorale, en oubliant l'ensemble des phénomènes qui peuvent modifier le climat dans lequel les élections se déroulent. Le Brexit sera un terrain d'étude extraordinairement important dans ce domaine.

Un autre universitaire américain, philosophe et constitutionnaliste, M. Katzenstein, a écrit un ouvrage sur ces questions, et il considère qu'une démocratie digne de ce nom met en contact ses citoyens non seulement avec des opinions différentes, mais aussi avec des opinions qui les dérangent. En effet, l'élection américaine a montré qu'à force de n'être mis en contact par la régulation algorithmique qu'avec des opinions proches des siennes, chacun se radicalise. Si nous ne mettons pas chacun en contact avec des opinions abrasives, nous aurons perdu beaucoup de ce que nous considérons comme l'essentiel du débat démocratique. Il faudra donc une régulation par la loi. Cela aura un impact sur nos voisins et, d'ailleurs, l'opinion publique anglo-saxonne est en train de se rendre compte que ce qui a toujours été perçu comme le juridisme européen était en fait précurseur, puisque nous avons toujours été soucieux de protéger les données personnelles, qui sont bien la donnée de base pour le micro-targeting qu'on dénonce aujourd'hui.

M. Claude Malhuret. - Je pense aussi qu'il ne faut toucher à la liberté d'expression, comme disait Nietzsche, qu'avec des pattes de colombe. Pour autant, la démonstration que vous avez faite, maître Bigot, ne m'a pas convaincu. Vous dites que nous avons un arsenal législatif suffisant. Mais les sanctions prévues et appliquées sont ridicules. Pensez-vous qu'elles soient dissuasives pour M. Poutine lorsqu'il fait diffuser les emails de Mme Clinton ou qu'il répand le bruit qu'Emmanuel Macron a un compte offshore ? Il nous faut donc de nouveaux outils. En effet, monsieur Benhamou, ces propositions de loi, en se bornant à la période préélectorale, ne vont pas assez loin. Et les sanctions qu'elles prévoient sont également insuffisantes.

Mme Morin-Desailly avait raison d'appeler à la précision du concept. Il en existe plusieurs catégories et le mot « fake news » est devenu un mot-valise. Si nous ne distinguons pas plus finement, nous ne trouverons pas les bons outils de lutte contre ce fléau : tout texte aura une portée trop générale et sera légitimement combattu au nom de la liberté d'expression.

Je vois pour ma part au moins trois catégories. Il y a d'abord les milliards, ou les millions, d'abonnés, « d'idiots de base », qui trouvent amusant de propager des rumeurs. À cet égard, la réponse adéquate est l'éducation et les Gafam doivent prendre des engagements fermes en ce domaine. Mais nous n'allons pas poursuivre des particuliers par millions...

Deuxième cas : lorsque des organisations, commerciales, ou même terroristes, font de la désinformation. L'autorégulation, en effet, a échoué et le législateur a une responsabilité sur ce point.

Troisième catégorie : la désinformation faite par un État. C'est autre chose, puisque nous parlons alors d'une guerre numérique, ou à tout le moins d'hostilités. On voit bien, par exemple, comment la Russie cherche de cette manière à casser l'Europe ou a tenté de peser sur l'élection américaine. Pour lutter contre cela, ce n'est pas d'une loi dont nous avons besoin mais de courage politique. Or, quelques mois après qu'Emmanuel Macron a expliqué devant M. Poutine que Russia Today n'était pas un site d'information mais un site de propagande - exactement comme, à la fin de l'ère Brejnev, le Direktorat D du KGB - le Conseil supérieur de l'audiovisuel (CSA) accepte sans aucune difficulté l'enregistrement de cette chaîne, sur le même pied que France Télévisions !

Mme Sylvie Robert. - Ce débat est aussi passionnant que vertigineux. La première question, en effet, est : de quoi parle-t-on ? Je ne sais s'il faut procéder à une classification, mais nous devons, en tout cas, être vigilants sur la défense de la liberté d'expression. Derrière les fausses nouvelles, il y a toujours des finalités, des objectifs. C'est peut-être par là qu'il faudrait préciser le périmètre de ce texte. En effet, l'éducation et la formation aux médias sont fondamentales, dans ce contexte. Pour rétablir la confiance, la garantie que l'information est vérifiée est indispensable. Existe-t-il un moyen de vérifier en temps réel si l'information est garantie ? Comment lever le doute ?

M. Bernard Benhamou. - Il est possible de tracer un graphe quasiment en temps réel sur la diffusion d'une nouvelle. On y voit aisément si des pôles semblent artificiels, ce qui permet de détecter les robots. Mais cela deviendra de plus en plus compliqué avec le temps car l'intelligence artificielle apprendra comment faire en sorte de ne pas éveiller les soupçons. Il est impératif que nous développions la recherche sur ces sujets, notamment en multipliant le nombre de doctorants qui s'y consacrent.

Mme Divina Frau-Meigs. - À cet égard, nous sommes amputés. Nous avons beaucoup de mal à avoir accès aux données. Certaines plateformes sont réticentes, d'autres plus ouvertes : c'est le cas de Twitter qui, du coup, est la plus critiquée parce que les chercheurs peuvent montrer son mode de fonctionnement. Des recherches au Royaume-Uni ont révélé qu'il faut deux heures pour montrer qu'une rumeur est une vraie information, mais quatorze heures pour prouver qu'elle est fausse. Quatorze heures, une veille d'élection, cela peut être fatal. Je souhaite que les chercheurs aient un plus large accès aux données des plateformes, y compris sur de longues périodes, sans pour autant menacer leurs secrets.

M. Hervé Brusini. - Une étude récente a montré qu'il y a sept fois plus de chances qu'une personne répercute une fausse information qu'une vraie. L'éducation est donc une nécessité impérative. Nos adolescents, les jeunes, peuvent faire preuve de crédulité - comme ceux que j'ai rencontrés ce matin à France Télévisions et qui connaissaient tous les Illuminati. Ce ne sont pas des idiots, ce sont simplement des jeunes : nous lisions Le Club des Cinq, eux se délectent d'autres histoires de complot. Le problème est que, pour eux, c'est devenu une grille de lecture de la vie et une négation de la valeur de la vérité. Sur notre chaîne, nos journalistes savent chasser la fausse information, au besoin avec des outils retraçant le parcours d'une vidéo, mais aussi, tout simplement, avec de l'esprit critique.

M. Olivier Paccaud. - Je comprends que les Gafam s'engagent à faire preuve d'une vigilance accrue pour mieux museler la diffusion de certaines fausses informations. Tant mieux ! Mais le risque zéro n'existe pas et n'existera jamais. De fait, la mauvaise information est aussi vieille que la propagande politique, et on peut remonter sur ce point à César et à sa Guerre des Gaules !

Cela dit, la « fake news » est, en elle-même, une information. Bien sûr, il faut lutter contre la diffusion des fausses nouvelles et renforcer l'éducation aux médias - à cet égard, je m'inquiète de voir que la part des sciences économiques et sociales risque d'être réduite dans le futur baccalauréat, alors qu'elles sont, avec la philosophie et la littérature, l'un des meilleurs moyens pour lutter contre l'emprise des « fake news ».

Le travail de journaliste, c'est de vérifier l'information. Au sein des écoles de journalisme, existe-t-il des modules consacrés à ce sujet ? Les récentes affaires ont-elles modifié la manière de travailler des journalistes ?

M. Pierre-Yves Collombat. - Ce débat me laisse perplexe, non pas qu'il ne soit pas important - la question est fondamentale - mais parce qu'il y a peu, on nous expliquait que l'avenir de la démocratie, c'était Internet et les réseaux sociaux, qui allaient sauver cette pauvre démocratie représentative qui était en train de mourir. Et voilà qu'on découvre que ce bistrot à dimension mondiale pose aussi un certain nombre de problèmes !

Et lorsqu'on est confronté à des résultats électoraux qui dérangent, qu'on ne souhaitait pas et qu'on n'attendait pas, on imagine tout de suite un complot - et, bien entendu, les Russes en sont responsables.

Mais la réalité est qu'un certain nombre de politologues américains avaient prévu l'élection de M. Trump. Ils savaient que l'élection se jouerait dans la Rust Belt, qui votait massivement pour les démocrates et qui a basculé. Notons d'ailleurs qu'Hillary Clinton n'y a même pas tenu un seul meeting... De même, les régions qui ont voté pour le Brexit étaient des régions à l'abandon.

Ce qui me frappe le plus dans la fabrication de l'opinion, pour reprendre la formule de Chomsky, ce ne sont pas les « fake news », c'est la sélection de l'information. Il y a des choses dont on ne parle jamais. Résultat : comme nos concitoyens entendent toujours la même chose, quand ils entendent quelque chose de complètement stupide, ils trouvent cela formidable et porteur d'information.

Quant aux algorithmes, si vous cherchez « dette publique » sur Internet, les résultats abondent. Si vous cherchez « dette privée », rien ! Bien sûr, l'éducation est un rempart utile, mais nous n'avons pas besoin d'une éducation aux médias, ou au numérique : ce qu'il faut, c'est une fabrication de l'esprit critique. Et cela ne se fait certainement pas en acquérant des compétences, comme une mode américaine le veut depuis une vingtaine d'années - au contraire. Cela permet de mettre les choses en perspective. Mais, comme disait le Général, c'est un vaste programme...

M. Laurent Lafon. - Ce qui est nouveau, ce n'est pas la désinformation, mais la diffusion des informations, vraies ou fausses, à l'échelle planétaire. Comment faire appliquer une loi nationale à l'échelle des réseaux sociaux ? L'auteur des « fake news » n'est pas toujours localisable : faut-il alors sanctionner le diffuseur, plus facilement identifiable ?

Mme Sonia de la Provôté. - La question de l'anonymat est majeure. En Estonie, chaque citoyen peut participer à la fabrique de la loi, sous réserve que son identité soit connue, ce qui, d'après les personnes chargées de piloter ces dispositifs, éradique les contributions malveillantes. L'anonymat sur Internet, nous le constatons tous, ouvre la voie à toutes sortes de dérives.

M. Benoît Tabaka. - Je vous rejoins sur l'importance de l'éducation au numérique. L'initiative publique est en la matière très importante, pour aider les personnes à décoder les informations. On ne pourra certes pas éradiquer les « fake news », qui circulent depuis la nuit des temps, mais on peut améliorer l'éducation.

Je suis en désaccord avec M. Benhamou, pour qui si on peut identifier un schéma de communication de l'information, on ne peut vérifier l'information elle-même. Lors de la dernière campagne présidentielle, le collectif CrossCheck et plusieurs rédactions ont publié près de 70 articles qui montrent le contraire. Témoin de l'attaque du Bataclan, j'ai par exemple été le premier à twitter que des coups de feu y étaient tirés et que des personnes en sortaient en sang. Comment traiter cette information d'un point de vue journalistique ? Grégoire Lemarchand, de l'Agence France-Presse (AFP), a très bien montré tout le profit tiré par les journalistes des réseaux sociaux pour couvrir le sujet en temps réel - avec un léger décalage, naturellement.

Il existe déjà une forme de régulation. Pour l'heure, elle ne prend la forme que d'une autorégulation car les concepts sont flous. Une étude d'impact permettrait de mieux circonscrire le phénomène qu'il est question pour le législateur d'encadrer.

Me Christophe Bigot. - On peut toujours ajouter des zéros au montant des amendes... L'Allemagne l'a fait, avec pour résultat que les plateformes qui reçoivent des signalements retirent aussitôt les contenus sans vérifier quoi que ce soit. En outre, il est très facile de se rendre anonyme sur le Net : qui le juge des référés sanctionnera-t-il ? Une loi qui se limiterait à ces aspects n'aurait donc qu'une portée limitée.

M. Bernard Benhamou. - Il est vrai que les internautes ne se comportent pas de la même façon selon qu'ils sont identifiables ou anonymes. L'exemple estonien est fascinant, mais il n'est pas reproductible dans un pays de 66 millions d'habitants. De plus, les outils d'anonymisation sont utilisés aussi bien dans nos démocraties qu'en Chine, par les dissidents rétifs à ce que les autorités contrôlent les déplacements de leurs 1,3 milliard d'habitants... Ce sont les mêmes techniques cryptographiques qui couvrent parfois des actes délictueux ou terroristes sous nos latitudes et qui protègent la liberté sous d'autres. Il n`existe donc pas de one size fits all, de taille unique, en matière de régulation. Lutter contre les délits de manipulation de l'opinion par achat massif de petites mains actives sur les réseaux sociaux dans des pays à bas coût de main d'oeuvre est aussi un combat géopolitique, qu'il faut mener à l'échelle européenne. Dans la gouvernance d'Internet, les parties prenantes sont en principe placées sur un pied d'égalité, mais en cas de crise de confiance systémique - c'est désormais le cas puisque l'on soupçonne à présent des officines de Cambridge Analytica d'avoir aussi influencé des scrutins colombien, argentin ou mexicain -, nous devons cesser de nous payer de mots et formuler des exigences de transparence plus strictes.

Mme Divina Frau-Meigs. - Je crois à l'importance de la définition, mais surtout à la démonstration des mécanismes et des leviers de la mal-information, qui permettent de remonter aux acteurs qui en sont responsables. Le premier est la monétisation de la publicité par d'autres acteurs que les entreprises elles-mêmes - c'est ce qui a motivé la création de ces fermes de serveurs moldaves ou macédoniennes travaillant à soutenir Donald Trump -, monétisation dans laquelle les plateformes sont impliquées. Deuxième mécanisme : la viralité, pas seulement celle du clic, mais ces logiques de trolling et d'astroturfing, qui expliquent l'implication de Facebook dans ces affaires : la plateforme compte en effet deux milliards d'individus réels que l'on peut cibler en faisant fi des frontières...

La solution ? Se doter de médias sociaux européens. Comment se fait-il que nous n'ayons pas laissé nos réseaux sociaux atteindre une taille critique ? C'est un scandale ! Les Russes ont leurs propres réseaux sociaux, de même que les Chinois, qui les vendent à présent en Amérique latine et en Afrique. Développer cette dorsale et les conduire à une taille critique à l'échelle de l'Europe suppose des incitations, des aides, des financements. Nous avons bien essayé avec les moteurs de recherche... Qwant ne représente que 4 % du marché, faute d'éducation au numérique. Or plus on le soutient, plus il s'améliore. Il faut aussi que les acteurs en position dominante sur ce marché lui laissent de la place. Une enquête sectorielle serait utile pour prendre les bonnes décisions. Cela suppose d'encourager la recherche.

L'éducation aux médias, quand elle est faite par les journalistes ou les Gafam, n'est que du branding. Google ne fait pas de l'éducation aux médias, mais de l'éducation au numérique : nuance. France Inter, elle, fait de l'éducation aux médias, mais son émission est programmée le dimanche à 6 h 30 du matin. La cible est-elle touchée ? J'en doute. Google affirme former 5 millions de personnes au numérique, mais un représentant de l'entreprise m'a dit travailler à former des gens à créer leur business en ligne ! Il existe ailleurs des centres de recherche sur les menaces hybrides, qui travaillent à comprendre cette cyber-guerre froide dans laquelle les réseaux sociaux sont impliqués contre leur gré. Je crois aux réseaux de chercheurs pour trouver des solutions : nous gagnerions à nous doter d'un tel outil.

Je rejoins M. Benhamou sur la question de l'anonymat. Les pays qui ne supportent pas la dissidence appliqueraient notre régime de restriction de l'anonymat et nous porterions la responsabilité morale des mauvais traitements infligés aux journalistes et aux lanceurs d'alerte.

M. Hervé Brusini. - Parler d'éducation aux médias, lorsque l'on est membre du service public, n'est pas du branding. L'émission de France Inter peut être réécoutée en ligne : la délinéarisation permet de toucher aussi les jeunes générations.

Oui, le numérique a chamboulé le journalisme, en le forçant à descendre de son piédestal pour répondre aux questions des gens. Le numérique suppose une conversation, et la régulation vient précisément du dialogue. Vous avez dit une bêtise ? Nous avons, journalistes, le devoir de répondre. La conversation est constitutive du journalisme numérique contemporain.

Je finirai sur une note positive : la fausse information nous a agressés, et nous allons enfin à la confrontation. Nous ne sommes plus subjugués par le déferlement du numérique qui remettrait en cause la télévision ou la presse écrite, nous livrons une bataille décisive pour la citoyenneté européenne - et peut-être au-delà ! Elle le sera à bon escient grâce aux chercheurs et à une dorsale européenne.

M. Philippe Bas, président. - Nous vous remercions pour l'éclairage que vous avez apporté à nos travaux en votre qualité de journaliste, juriste, universitaire, responsable de réseaux sociaux et spécialiste des stratégies numériques. Nous nous apprêtons à recevoir deux propositions de loi de l'Assemblée nationale ; nous jouerons ensuite notre rôle de chambre de réflexion. Ces matières, complexes, dépassent les enjeux des campagnes présidentielles. Nous avons déjà pu les aborder lors de l'examen du projet de loi pour une République numérique, mais les perspectives que vous ouvrez sont d'une toute autre ampleur : elles ont une dimension technique, pénale, touchent à des questions de responsabilité... Bien que les faits qui les génèrent aient toujours existé, les enjeux de régulation sont nouveaux, car les nouveaux médias offrent à la rumeur une rapidité de diffusion - deux heures pour la propager, quatorze pour la corriger, disiez-vous - qu'elle n'avait pas dans le bocage normand !

Mme Catherine Morin-Desailly, présidente. - Nous vous remercions d'avoir accepté de participer à cette table ronde qui ouvre nos travaux. Vous avez singulièrement enrichi notre réflexion. Internet est un nouvel espace politique et, en tant que tel, il doit être investi par le législateur.

Table ronde avec les responsables de l'information de France Télévisions, M6, CNews, France 24, Europe 1 et Franceinfo

MERCREDI 13 JUIN 2018

___________

Mme Catherine Morin-Desailly, présidente. - Le projet de loi initialement intitulé de « lutte contre les fausses informations » aurait dû être adopté par l'Assemblée nationale jeudi dernier, mais les députés ont arrêté son examen à l'article 1er à l'issue d'un débat passionné qui a mis en lumière de nombreuses inquiétudes sur certaines dispositions de ce texte. Comme vous le savez, le droit existant et notamment la loi du 29 juillet 1881 sur la liberté de la presse prévoient déjà un corpus juridique étoffé pour garantir la véracité de l'information et un débat public de qualité. La proposition de loi qui a été renommée et qui vise dans son nouvel intitulé à lutter contre la manipulation de l'information a pour ambition de répondre à de nouvelles pratiques, qui se développent sur les réseaux sociaux avec l'aide de robots, pour porter atteinte à la sincérité de certains scrutins. L'objectif est louable mais les dispositions juridiques peuvent interpeller.

J'ai déjà pu échanger avec les directions de certains médias qui sont unanimes à considérer que ce texte pose plus de problèmes qu'il ne permet d'en résoudre. J'ai souhaité ce matin que nous allions plus loin en commission en donnant la parole aux professionnels de l'information. Je souhaite donc la bienvenue en notre nom à tous à MM. Donat Vidal-Revel, directeur délégué à l'information d'Europe 1, Pascal Doucet-Bon, directeur délégué à l'information de France Télévisions, Vincent Giret, directeur de Franceinfo, Thomas Bauder, directeur délégué à l'information de CNews, Stéphane Gendarme, directeur de l'information de M6 et Marc Saikali, directeur de l'information de France 24.

Je vous propose que chacun des intervenants prenne la parole pour cinq minutes afin de nous faire part de son sentiment sur les questions posées par le développement des fausses informations, sur la façon dont les journalistes traitent ces questions, sur les méthodologies et la déontologie qui permettent de séparer le bon grain de l'ivraie.

M. Pascal Doucet-Bon, directeur délégué à l'information de France Télévisions. - À France Télévisions, nous attachons une importance particulière à la définition retenue pour la fake news. En effet, la fake news n'est pas une fausse information, elle fait référence à une information contrefaite et une manipulation organisée de l'information.

M. Donat Vidal-Revel, directeur délégué à l'information d'Europe 1. - À Europe 1, nous sommes conscients de la complexité du sujet et nous ne sommes pas opposés à une loi. La diffusion de fausses informations peut constituer une véritable arme contre la démocratie. Pour autant, la question de sa régulation n'est pas aisée. Nous sommes déjà soumis à des règles contraignantes à travers notre comité d'éthique, la loi Bloche sur l'indépendance des médias et les missions du Conseil supérieur de l'audiovisuel (CSA). Notre travail consiste à animer l'équipe de rédaction et, toute la journée, nous vérifions des informations. Par conséquent, d'un côté, il y a des plateformes qui ne font l'objet d'aucune régulation - par exemple elles n'ont pas de comité d'éthique - et de l'autre il y a des journalistes qui vérifient et sélectionnent les informations. On pourrait s'inspirer de la logique du pollueur-payeur et l'appliquer aux plateformes qui diffusent des arguments faux sans les vérifier à travers la mise en place d'un fonds qui financerait le travail de vérification et de recoupement des sources mené par les journalistes. Par ailleurs, plutôt que de se focaliser sur la nécessité de faire disparaître des informations sciemment fausses, on pourrait promouvoir les produits sûrs. C'est la démarche entreprise par Reporters sans frontières avec la mise en place d'un label validant la qualité des producteurs d'informations vérifiées et validées.

M. Stéphane Gendarme, directeur de l'information de M6. - L'examen de la proposition de loi sur les fausses informations soulève trois interrogations. La première porte sur la définition des fake news, qu'il convient de revoir. La deuxième concerne les conséquences du référé. La troisième est en lien avec la période de réserve à la veille et le jour du scrutin à laquelle sont soumis les médias audiovisuels et qui limiterait leur intervention en cas de diffusion d'une fausse information. Il faudrait donc assouplir ce régime.

Mme Catherine Morin-Desailly, présidente. - À ce stade de la discussion, je vous interroge collectivement sur la possibilité de trouver une définition des fake news à la fois suffisamment précise pour ne pas remettre en cause la liberté d'expression et néanmoins suffisamment large pour être efficace.

M. Marc Saikali, directeur de l'information de France 24. - Je ne pourrai pas répondre à votre question à brûle-pourpoint, il faut me laisser cinq minutes de réflexion ! Je ferai quatre remarques à propos de la proposition de loi. D'abord, quid de l'application du principe de réciprocité ? Dans un certain nombre de pays dans lesquels nous sommes implantés, les dirigeants nous expliquent qu'ils ont été élus démocratiquement et que s'ils disposent d'un mandat illimité, c'est pour le bien de leur pays. La suspension de la diffusion d'une radio ou d'une télévision étrangère pourra donc conduire à l'expulsion de nos journalistes. Par ailleurs, nous nous interrogeons sur le laps de temps - 48 heures - laissé au juge des référés pour prescrire les mesures visant à faire cesser la diffusion de la fausse information. Il paraît court, mais il est en réalité infini à l'échelle de temps des réseaux sociaux. Le fait de lutter contre les fake news uniquement en période électorale peut également inciter certaines puissances étrangères à lancer une campagne dénonçant la volonté de l'État français de museler la liberté d'expression au moment des élections. J'ajoute que la lutte contre les fake news passe par l'éducation aux médias, à l'instar de ce que nous faisons en collaboration avec France 2 avec la mise en place du programme Info ou intox qui décrypte les formes que peut prendre la manipulation à travers les images.

M. Thomas Bauder, directeur délégué à l'information de CNews. - Le journalisme reste la meilleure arme contre les fake news, dont l'action est encadrée par un comité d'éthique, une charte, le CSA et la société de journalistes. Quelle est la différence entre l'information et les fake news ? L'information est vérifiée et elle fait l'objet de délibérations constantes au sein de la rédaction : faut-il diffuser cette information ? Combien de temps accorder à telle information ? Ce sont des sujets abordés constamment par les journalistes. Enfin, l'information est réversible : à chaque étape de sa production, elle peut être retirée pour être retravaillée ou supprimée définitivement. Au contraire, les fake news ne sont pas réversibles. Je suis prudent en ce qui concerne la labellisation. Les journalistes ne sont pas des jambons ! Toutefois, il me semble qu'il faut distinguer les sites d'actualité des sites d'information qui impliquent un travail journaliste de vérification. À l'instar du protocole HTTPS développé pour les connexions sécurisées, il pourrait être mis en place un protocole HTTPI qui distinguerait les sites d'information des autres sites diffusant de l'actualité.

M. Vincent Giret, directeur de Franceinfo. - Le phénomène des fake news concerne les journalistes, mais également la société tout entière car son amplification à travers les réseaux sociaux est capable de troubler le processus électoral et de remettre en cause la démocratie. Au-delà de la déclaration de principe sur le journalisme comme arme pour lutter contre les fake news, nous journalistes avons une réelle responsabilité dans l'exercice de notre métier. Ainsi, notre rédaction avait sciemment refusé de reprendre « l'information » qui circula sur le candidat Emmanuel Macron le dernier jour de la campagne présidentielle. Parmi les éléments intéressants de la proposition de loi, je retiens la mise en place d'une traçabilité avec l'introduction d'une obligation de transparence concernant les contenus « sponsorisés » par l'intermédiaire des réseaux et des moteurs de recherche. En revanche, je partage les réserves de mes collègues sur les aspects juridiques, et notamment sur l'instauration d'une procédure de référé. Enfin, je suis favorable à la prise en compte du critère de manipulation pour définir la fake news car cela permet de protéger la liberté d'expression. En revanche, cette définition rendra très difficile la qualification de l'information comme fake news et je doute de l'utilité de la loi pour contrer les phénomènes observés récemment.

Mme Catherine Morin-Desailly, présidente. - Avant de donner la parole à chacun des groupes politiques, je voulais vous poser plusieurs questions. Pouvez-vous tout d'abord approfondir la définition d'une fausse information ? Concernant la labellisation les médias qui en bénéficieraient, ne risquent-ils pas de devenir des cibles en incarnant une « information officielle » ? Que se passera-t-il lorsque le juge des référés refusera le retrait d'une information ? Celle-ci pourrait-elle s'en retrouver légitimée ? Pourrez-vous préciser votre position concernant l'article 9 qui étend la compétence du CSA au numérique et l'article 9 bis qui prévoit des accords de coopération pour lutter contre les fausses informations ?

M. Marc Saikali. - La labellisation constituerait un risque si elle devait concerner les structures et non les contenus puisque une institution bénéficiant d'un label pourrait diffuser des fausses nouvelles sans être inquiétée. La nouvelle compétence reconnue au CSA est une bonne chose puisqu'on peut dire aujourd'hui n'importe quoi sur Internet. La période de réserve lors des scrutins ne permet pas aux journalistes de dénoncer les fausses informations. Lors de l'élection présidentielle lorsque le candidat Emmanuel Macron avait été mis en cause, France 24 avait néanmoins relayé la parole de la commission électorale.

M. Pascal Doucet-Bon. - La notion de manipulation qui est introduite dans le texte constitue un progrès mais elle reste vague, le terme de contrefaçon apparaît adapté puisqu'il suppose que le produit livré n'est pas réel et qu'une organisation est à l'oeuvre ce qui démontre l'intentionnalité. Nous sommes circonspects quant à l'idée de label appliqué aux structures mais ouvert à la labellisation des informations. La création d'un label a priori pourrait toutefois susciter de la méfiance.

Je peux citer le cas d'une journaliste qui anime « What The Fake », à qui j'ai proposé d'intervenir dans le journal télévisé ; celle-ci a refusé au nom du fait que sa démarche pourrait revenir à s'inscrire dans le « grand complot des médias établis ». Le délai de 48 heures reconnu au juge des référés est court et il existe un risque de blanc-seing si le juge devait ne pas ordonner le retrait de l'information contestée. Plus la définition sera précise moins il y aura de contentieux.

Le CSA juge, quant à lui, a posteriori et non a priori, ce qui, en matière d'Internet, pourrait rendre son intervention vaine et illusoire. Pour lutter contre les fausses informations nous avons établi à France Télévisions une chaîne de vérifications. Celle-ci a permis dans le cadre de l'affaire de l'attentat de Trèbes de démontrer en dix minutes que la rumeur selon laquelle le meurtrier aurait été naturalisé français après avoir fait l'objet d'une fiche S constituait une fausse information. Un média avait repris cette fausse information avant de la démentir. Les délais du juge ne sont pas les mêmes.

M. Vincent Giret, directeur de Franceinfo. - Je viens de lire un ouvrage d'Olivier Galland et Anne Muxel sur la jeunesse radicale qui montre comment tout ce qui a tendance à institutionnaliser les médias se retourne contre eux auprès de certaines populations qui sont dans la méfiance. Dans ce cadre, le label constitue une fausse bonne idée qui assimile le média au « système ». Aux États-Unis, des études ont montré que les médias qui comptabilisaient les fausses nouvelles diffusées par Donald Trump n'ont pas tiré bénéfice de cette activité.

Les médias doivent travailler leur éthique et assumer leur responsabilité, ils peuvent mutualiser leurs moyens. L'élargissement des compétences du CSA au numérique constitue une évolution naturelle. Il faut reconstituer des « digues de confiance » et la loi ne pourra pas suffire à elle seule.

M. Donat Vidal-Revel. - La démarche de labellisation apparaît contre-productive. Il me semble préférable d'envisager une démarche qui viserait à surpondérer le référencement des médias professionnels qui produisent des informations. On ne peut traiter en effet de la même manière des sources inconnues et des institutions professionnelles. Cette contrainte algorithmique pourrait tenir compte, par exemple, de l'existence d'une société de journalistes et d'un comité de déontologie.

Le délai de 48 heures laissé au juge des référés pour trancher apparaît beaucoup trop long et pourrait être à l'origine d'effets pervers terribles.

M. Stéphane Gendarme. - Nous ne sommes pas non plus favorables à la labellisation pour les raisons qui ont été mentionnées par ailleurs. Le recours au juge des référés constitue également une fausse bonne idée. Dans l'hypothèse où le juge ne se déclarerait pas compétent, l'information gagnerait en effet en crédibilité.

La période « de réserve » pose problème puisqu'elle empêche d'intervenir pour dénoncer une fausse information comme ce fut le cas lors de la dernière élection présidentielle. L'intervention du CSA dans le champ numérique peut constituer une bonne chose mais ce sera compliqué. Les rédactions sont toujours partagées entre ne pas donner une information qui va circuler par ailleurs sur Internet et prendre le temps de vérifier les sources.

M. Claude Malhuret. - la question de la définition d'une fausse nouvelle est une fausse question. Il est impossible de trouver une réponse car la notion recouvre plusieurs réalités. Il y a tout d'abord la désinformation étatique. À l'image de Russia Today, les informations sont vraies mais traitées de telle sorte qu'elles visent à affaiblir les pays occidentaux. Les mails de Hillary Clinton constituent une autre réalité puisque la plupart étaient véridiques mais avaient fait l'objet d'un piratage de données. Les sites terroristes posent des problèmes spécifiques qui sont différents des deux précédentes catégories, alors que l'affaire de Trèbes et les manipulations de sites comme le Réseau Voltaire appartiennent à une autre catégorie. Enfin, il y a des millions d'adolescents narcissiques qui veulent provoquer en diffusant de fausses informations sur leurs pages de réseaux sociaux. On peut être reconnaissant au Gouvernement d'avoir mis le sujet à l'agenda mais cette loi n'est pas aboutie.

Concernant le label tout le monde est réticent. Ayant créé le site Doctissimo il y a 20 ans qui était confronté à des sites diffusant de fausses informations d'ordre médical, j'ai l'expérience de la création d'un label de qualité tombé en désuétude. L'expérience montre que ceux qui veulent accéder à de fausses informations sont insensibles aux labels.

Concernant les plateformes numériques, il y a un débat entre les autorités et les hébergeurs. Je pense que ces derniers devraient être considérés comme des éditeurs car ils ont les moyens de trier les informations. Seriez-vous d'accord pour inscrire ce principe dans la loi ?

M. Pierre Ouzoulias. - La diffamation, telle que définie en droit pénal, peut tout à fait s'appliquer à la fausse information. Par ailleurs, il faut valoriser les corps intermédiaires, à l'image des journalistes. Pourquoi les plateformes ne sont-elles pas soumises aux mêmes contraintes pénales que les éditeurs ? Il y a une impunité absolue à la diffusion de fausses informations sur les réseaux sociaux. Cela a été le cas dans l'affaire du SAMU alsacien où trois personnes participant à l'accueil téléphonique ont été mises en cause sur les réseaux sociaux, jusqu'à recevoir des menaces, tout comme leurs familles. Aucune poursuite pénale n'a été menée contre les auteurs de ces menaces. Il faut établir une responsabilité.

Mme Sonia de la Provôté. - La contamination de l'information résulte à la fois d'une partialité de l'émetteur et du choix du moment opportun de la diffusion afin d'assurer la multiplication des reprises. Comment, dans ces conditions, permettre une écoute éclairée ? Il n'y a pas de fatalité mais une obligation de développer l'esprit critique.

M. David Assouline. - La législation actuelle offre déjà beaucoup de possibilités. Pierre Ouzoulias nous a rappelé la définition juridique de la diffamation. De même, l'article 27 de la loi de 1881 sur la liberté de la presse sanctionne la publication, la diffusion ou la reproduction de « nouvelles fausses ». On aurait pu envisager de modifier la loi de 1881, les « fausses informations » d'aujourd'hui étant les « nouvelles fausses » de l'époque. Mais le risque de déstabilisation d'un édifice législatif qui a fait ses preuves depuis plus d'un siècle est tel qu'on a préféré le contourner... La proposition de loi relative aux fausses informations est un texte qui ne sert rien et qui peut même être dangereux. Je ne vois pas comment il va permettre de lutter contre les fausses informations. De plus, il ne permettra pas de lutter contre certains dysfonctionnements ou dérives du système médiatique. Que ferait-elle par exemple d'une information telle que celle relative à ce fait divers particulièrement affreux qui avait eu lieu la veille du premier tour de l'élection présidentielle de 2002 et qui avait fait l'objet d'un véritable matraquage médiatique au point, peut-être, de modifier le résultat du scrutin ? De même, du cas d'une information importante pour le grand public qui ne serait pas relayée par un organe de presse parce qu'elle met en cause un de ses actionnaires ?

Le texte, dans sa rédaction actuelle, prévoit que le juge disposera de 48 heures pour faire cesser la diffusion d'une fausse information. Cinq critères doivent être réunis pour cela, ce qui, à mon sens, va conduire le juge à se prononcer très rarement parce que celui-ci adoptera la prudence. J'y vois un danger : que toutes les informations qui passeront entre les mailles du filet du juge soient crédibilisées du fait qu'elles n'ont pas été attaquées !

J'identifie un autre danger. Nos démocraties sont fragiles : quelle utilisation un pouvoir autoritaire qui ne garantirait plus l'indépendance de la justice ferait-il de cette loi ?

Je suis d'accord avec les mesures concernant la régulation des contenus disponibles sur Internet par le CSA ou l'éducation aux médias mais celles-ci peuvent être intégrées à la future loi audiovisuelle. Au final, j'estime que cette proposition de loi n'est pas amendable et doit être rejetée.

M. Jean-Pierre Leleux. - Le mensonge fait partie de l'humanité et cela ne changera pas. Les réseaux sociaux offrent simplement aujourd'hui un nouveau périmètre aux fausses nouvelles, mais nous, élus, savons que cela existe depuis des siècles dans le cadre des campagnes électorales. Faut-il une nouvelle loi en la matière ou adapter la législation actuelle ? Doit-on confier au juge l'expression de la vérité ? L'éducation aux médias est-elle un moyen suffisant ? Au final, je voudrais savoir quelles sont les mesures de la proposition de loi qui, selon vous, mériteraient d'être adoptées ?

Mme Françoise Laborde. - Est-ce une bonne idée de confier le rôle de gardien de l'ordre public au CSA ? J'entrevois également des difficultés pratiques. Je pourrais vous parler d'expérience de la plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (PHAROS) mise en place par le ministère de l'intérieur et qui permet de signaler en ligne les contenus et comportements illicites de l'Internet : il est très difficile de faire fermer certains sites qui incitent à la haine ou à la violence !

Je suis très perplexe sur ce texte. Le référé est-il utile compte tenu de l'arsenal juridique existant ? Comment déterminer l'intentionnalité dans ces affaires ?

Vous nous avez dit que vous étiez amenés régulièrement à jouer un rôle dans la détection de fausses nouvelles. Je dois vous avouer que votre travail manque de visibilité car, pour être une adepte des réseaux sociaux, je n'ai pas vu d'alertes sur ces sujets de votre part.

M. Antoine Karam. - Les réseaux sociaux et les citoyens équipés d'un téléphone portable ont pris le dessus sur les médias traditionnels et cela comporte des risques. Ainsi, dans mon territoire, la Guyane, un policier municipal a été froidement abattu ce week-end par deux jeunes. Très rapidement, la photo d'un jeune homme identifié comme « présumé coupable » a circulé sur les réseaux sociaux conduisant au harcèlement de sa famille. L'information a été relayée par Guyane 1ère. Mais 24 heures plus tard, le procureur de la République a remis en liberté ce jeune homme : il n'était pas impliqué !

Mme Laure Darcos. - Je doute de l'utilité de cette loi. Je considère qu'il y a en revanche une vraie problématique autour de la question des algorithmes de référencement : on constate que la toile est inondée de vidéos complotistes ou autres, très virales parmi les jeunes, et qui de ce fait bénéficient d'un meilleur référencement dans les moteurs de recherche que les informations en provenance des médias reconnus. Allez-vous renforcer votre présence sur les réseaux sociaux pour gagner la bataille du référencement ?

Mme Sylvie Robert. - Nous avons tous de grandes réserves sur le bien-fondé et l'utilité de cette loi. Je suis en désaccord avec M. Malhuret quand il dit que ce n'est pas une question de sémantique. La définition qui sera retenue déterminera les finalités et la proportionnalité des dispositifs de régulation qui seront ensuite mis en place. Je suis convaincue qu'il va falloir travailler en amont et mettre le paquet sur l'éducation. Enfin, je ne vous ai pas entendu parler de l'Union européenne et de sa décision de ne pas légiférer en la matière. Il y a une dimension européenne et internationale dans le phénomène des fake news qui doit aussi nous interroger sur l'utilité d'une loi limitée au territoire français.

M. Laurent Lafon. - Cette loi peut-elle avoir des conséquences sur votre travail, notamment vous limiter dans des enquêtes d'investigation de peur d'être attaqués pour fausse nouvelle ? Quel serait le traitement donné à une affaire équivalente à l'affaire Cahuzac, partie d'un simple témoignage, dans le contexte d'une campagne électorale ?

Avez-vous par ailleurs une politique de vérification vis-à-vis des vidéos truquées appelées « Deep fake » qui commencent à apparaître et qui font tenir de façon vraisemblable des propos totalement faux à des personnes filmées ?

M. Vincent Giret. - Les progrès de l'intelligence artificielle et leur détournement aux fins de manipulation, notamment dans le domaine de l'image, représentent un défi colossal. Ils révèlent à la fois un besoin d'équipement des rédactions et de mise en place d'une régulation. Au sein de Franceinfo, il existe une agence de vérification des informations. Depuis la semaine dernière, une personne s'y occupe des images et repère celles qui sont utilisées à l'appui de fausses informations. Ces images tamponnées « Fake » sont désormais signalées sur une plateforme baptisée « Vrai ou fake » alimentée par les médias publics d'information.

La question du référencement est à la fois éditoriale et marketing. Nous devons effectivement être capables de trouver les bons formats pour acquérir le plus d'audience possible et contrer les fausses informations. Pour cela, il faut développer nos connaissances des logiques « web » et de la viralité.

Il a été question, un moment, de prévoir des sanctions financières à l'encontre des plateformes et des réseaux sociaux en cas de diffusion de fausses informations. On peut se dire qu'il s'agit de bon sens mais cela pourrait conduire à les instituer en censeur de l'information et des contenus présents sur leur réseau. Ce n'est pas souhaitable. Il convient davantage, sans passer par la loi, de miser sur la transparence et d'avoir un dialogue serré avec ces opérateurs sur le référencement. C'est un défi qui, à mon sens, doit être relevé à l'échelle européenne.

M. Pascal Doucet-Bon. - Il faut faire attention à la mission qui sera confiée au CSA concernant la lutte contre les fausses informations car la tâche est plus large. Reconnaître au CSA une responsabilité sur l'information mériterait un débat approfondi.

M. Thomas Bauder. - Il existe deux débats qui n'ont rien à voir : un premier sur la diffusion des fausses informations et un second sur le travail des journalistes. Ces derniers sont formés pour lutter contre la propagation des fausses informations. Le problème vient que l'information en tant qu'institution est aujourd'hui débordée par le numérique.

Le rôle du CSA mérite un débat car cette loi s'appliquera à nous alors que nous sommes les derniers à diffuser des fausses informations. Nous avons mis en place un processus de validation au sein de la rédaction en utilisant une messagerie instantanée qui permet une discussion permanente pour confronter les sources et valider les informations. Ce n'est pas parce que on ne met pas une information en Une qu'on n'en parle pas. Il y a des choix éditoriaux. Tous les journalistes traitent toutes les informations mêmes celles concernant leurs actionnaires. La loi ne doit pas pénaliser les bons professionnels.

M. Marc Saikali. - La définition de la diffamation ne constitue pas une bonne réponse, car une information peut être vraie alors même qu'un média peut faire l'objet d'un procès en diffamation.

Nous avons mis en oeuvre des partenariats et créé un guide de vérification des images.

M. Donat Vidal-Revel. - On est subjugué par les plateformes qui ne sont pas régulées. C'est un bouleversement énorme car les citoyens ont pris le dessus dans l'accès à l'information. Aujourd'hui tout le monde est initié, notamment lors des élections où les résultats deviennent accessibles avant la clôture des grands scrutins. Nous sommes questionnés sur notre place en tant que média car nous sommes contournés. Est-ce qu'il faut légiférer ? Je ne sais pas mais il faut qualifier les plateformes comme des éditeurs car elles sont les nouveaux intermédiaires. Les médias sont soumis à des lois, pas les plateformes qui constituent une sorte de far west.

M. Stéphane Gendarme. - Telle qu'elle est écrite, la loi manquera sa cible. Mais je ne suis pas inquiet car le travail des journalistes permet de produire l'information. Nous avons par ailleurs créé, le samedi, une rubrique de décryptage qui permet d'analyser les fausses informations.

M. Thomas Bauder. - On ne peut comparer les moyens des chaînes d'information à ceux de France Télévisions. Les chaînes d'information ont un modèle économique low cost qui ne leur permet pas de « survalider » les informations ni de créer des cellules anti fausses informations. Nous nous appuyons sur des tiers de confiance, comme l'Agence France-Presse (AFP) qui produit 5 000 dépêches par jour.

Mme Catherine Morin-Desailly, présidente. - La question n'est effectivement pas celles des journalistes mais de savoir qui manipule qui et qui a intérêt à déstabiliser. Cette proposition de loi a de fortes chances de manquer sa cible.

Proposition de loi relative à la lutte contre les fausses informations - Table ronde avec les représentants du Syndicat de la presse quotidienne nationale (SPQN), du Syndicat de la presse quotidienne régionale (SPQR) et de Reporters sans frontières (RSF)

Mme Catherine Morin-Desailly, présidente. - Après avoir entendu les rédactions de l'audiovisuel, nous accueillons maintenant les représentants de trois grandes organisations de presse : MM. Francis Morel, président du Syndicat de la presse quotidienne nationale (SPQN), accompagné de Denis Bouchez, directeur, et Samir Ouachtati, responsable des affaires juridiques et sociales, M. Jean-Michel Baylet, président de l'Union de la Presse en région (UPREG), Mmes Maud Grillard, directrice, et Haude d'Harcourt, responsable des relations institutionnelles, ainsi que M. Christophe Deloire, secrétaire général de Reporters sans frontières (RSF).

M. Francis Morel, président du Syndicat de la presse quotidienne nationale (SPQN). - La lutte contre les fausses informations constitue incontestablement un sujet important, ce qu'ont bien montré certaines élections récentes à l'étranger. Le texte proposé n'est cependant pas pleinement abouti. Tout d'abord, on a bien du mal à définir ces fausses nouvelles. Il est en effet difficile de déterminer si une information est inexacte ou trompeuse et le juge, qui ne disposera que de 48 heures, ne sera pas en mesure de le faire. De plus, apprécier la mauvaise foi est un exercice complexe, voire impossible. Un seul critère me semble, à ce stade, pertinent, celui de la diffusion « artificielle ou automatisée et massive ». Pour autant, il me paraît important de souligner que les sites de presse, dont le fonctionnement est déjà très encadré, ne sauraient être concernés par cette mesure, ce qu'il conviendrait de préciser.

Initialement, la loi devait être intitulée « confiance dans l'information ». Il est en effet absolument nécessaire que l'origine d'une information puisse être retracée et précisément identifiée par les plateformes, d'où notre proposition de modification de l'article 9, qui vise à contraindre les plateformes à négocier avec les éditeurs pour labelliser leurs productions.

M. Jean-Michel Baylet, président de l'Union de la presse en région (UPREG). - J'exprime mon accord total et celui de l'Union de la presse en région avec les propos tenus par Francis Morel.

M. Christophe Deloire, secrétaire général de Reporters sans frontières (RSF). - Il me semble que cette loi traite de deux sujets distincts : le premier est celui des informations fallacieuses, malveillantes et déformées, qui visent à déstabiliser les processus électoraux ; le second est le bouleversement de l'espace public avec la mondialisation de l'information qui met en concurrence, sur un pied d'égalité, des contenus de natures très différentes. Sur le premier aspect, la loi de 1881 n'est peut-être pas totalement satisfaisante, et par conséquent le principe d'une nouvelle loi peut être légitime. Elle me paraît cependant largement inopérante, voire contre-productive. Je vais en donner quelques exemples. D'une part, les nouvelles capacités du CSA à sanctionner des chaînes étrangères pourraient entraîner une véritable « guerre de l'information » préjudiciable aux correspondants à l'étranger. Il serait plus efficace que le CSA s'assure du respect des obligations déontologiques et de l'indépendance des rédactions, quel que soit le propriétaire. D'autre part, le juge sera contraint de n'ordonner le déréférencement que pour les informations manifestement erronées, ce qui sera donc très peu fréquent et aura a contrario un caractère contre-productif en permettant à certains médias de se prévaloir d'une décision de justice pour accréditer leurs informations.

RSF a lancé la réflexion autour de la constitution d'un référentiel européen qui donnerait des avantages concrets aux sites ainsi reconnus en termes de référencement ou de ressources publicitaires. Je ne suis pas favorable à une labellisation par le CSA, par les plateformes ou même par les États : ce mouvement doit relever de l'autorégulation de la profession.

Mme Sonia de la Provôté. - Le texte pose un certain nombre de questions. Je citerai en particulier : quels sont les contenus qui peuvent être censurés, qui a le pouvoir de les censurer et quels sont les moyens mis à la disposition du contrôle, quand on les compare à ceux des grands acteurs d'Internet ? Je regrette que la dimension éducative soit encore trop ignorée. Ne pensez-vous pas que la seule loi pertinente traiterait plutôt de la question de la responsabilité des plateformes ?

Mme Françoise Laborde. - Nous voyons bien que la question posée est celle de la diffusion de l'information sur Internet. Le CSA ne me semble pas en mesure de traiter le sujet de manière efficace, vous seuls me paraissez en mesure de le faire.

Mme Laure Darcos. - Je note une évolution des pratiques de la presse sur Internet : pendant longtemps, les rédactions papier et numérique étaient séparées et les « vrais » journalistes ne rédigeaient que pour l'édition papier. Heureusement tel n'est plus le cas aujourd'hui. Ne faudrait-il pas continuer à travailler dans ce sens en renforçant la déontologie et en assurant la traçabilité de l'auteur ou de la publication ?

M. David Assouline. - Les médias audiovisuels et la presse écrite font déjà l'objet de régulation, à la différence de l'Internet. Aujourd'hui les médias étrangers peuvent influencer notre débat public, ce qui a suscité la réaction du président de la République. Cependant, ce phénomène de la désinformation pendant les campagnes électorales n'est pas nouveau même si sa forme a pu évoluer. À titre d'exemple, les images projetées à la veille du premier tour de l'élection présidentielle de 2002 ont fortement influencé le résultat. Je ne pense pas que ce sujet puisse être traité par une « petite loi » ; il doit faire l'objet d'une approche beaucoup plus globale. J'estime d'ailleurs que tout ne doit pas nécessairement emprunter la voie législative mais que la profession a une réelle responsabilité en la matière. Il faut donc trouver une autorégulation efficace dans le cadre législatif qui est le nôtre. J'approuve pleinement l'idée selon laquelle un juge qui n'aura que 48 heures pour trancher adoptera une attitude extrêmement prudente.

M. Claude Malhuret. - Ce débat tourne autour de la place et de la responsabilité des hébergeurs. Je suis sceptique sur ce sujet. En effet, il ne faut pas transformer les plateformes en censeurs de la liberté d'expression. Leur confier cette responsabilité revient à leur donner un trop grand pouvoir et je m'interroge sur les moyens d'éviter cette nouvelle forme de censure.

Mme Céline Brulin. - Christophe Deloire a utilisé les termes « inopérant» voire « contre-productif » pour ce projet de loi. Cet avis est très largement partagé. Il y a un vrai sujet autour des plateformes numériques et de la régulation des contenus qu'elles diffusent. Un chantier est à engager sur le développement de l'esprit critique et de l'éducation ; les médias y ont un rôle à jouer. Vous, la presse écrite, représentez un modèle particulier qui assume et protège une forme de pluralisme extrêmement avancé. Ce modèle n'est pas reproductible à l'identique, mais en quoi celui-ci peut-il être transposé dans d'autres médias pour développer un débat d'idées de qualité qui nous prémunirait des fake news ?

M. Jean-Michel Baylet. - Ce texte n'est pas parfait, mais il ouvre un débat et anticipe un cadre dans un secteur d'informations où il n'y en a pas. La presse écrite, de par son sérieux, sa diversité et son indépendance, donne un bel exemple de qualité d'information, déjà labellisée par la Commission paritaire des publications et agences de presse (CPPAP), et encadrée par des lois très strictes. Il ne faudrait pas qu'on complexifie le fonctionnement de l'information de la presse écrite qui, depuis 1881, a une organisation qui fonctionne. Ce qui pose problème, c'est l'apparition sur les réseaux sociaux, hors de tout cadre législatif, de fausses informations fournies par des sites, dont certains sont spécialisés en la matière, financés parfois par des États. Je vous rappelle que depuis la loi « Bloche », nous avons des chartes rédactionnelles qui sont parfaitement respectées. Par ailleurs, il nous faut organiser une coopération réelle entre les plateformes et les médias professionnels sur la valorisation des contenus et l'éducation aux médias. Il est aussi nécessaire de consacrer, hors CSA, une obligation légale qui impose aux opérateurs de plateformes de lutter contre les fausses informations et de contribuer à la lisibilité et à la compréhension pour les internautes, quant à l'information de métier.

Enfin, si une proposition de loi doit être examinée, elle ne doit pas porter uniquement sur les périodes électorales. Les fausses nouvelles peuvent influer fortement sur une élection présidentielle - nous l'avons vu aux États-Unis, mais aussi en 2002 en France avec des images qui ont tourné en boucle puis ont ensuite été démenties. Mais les fausses nouvelles concernent également l'ensemble des citoyens dans leur vie privée, l'ensemble des entreprises dans leur vie professionnelle - nous le voyons lorsque de fausses informations ont des conséquences directes sur les opérations en bourse. Il ne peut donc être question d'une loi ne se rapportant qu'au politique.

M. François Morel. - Pour répondre à Laure Darcos, nous avons la même responsabilité sur les titres de la presse écrite et sur la presse Internet : ce sont les mêmes journalistes qui écrivent dans l'une et l'autre. Auparavant, les journalistes eux-mêmes ne le souhaitaient pas. Je vous précise que 90 % des articles publiés sur les sites sont rédigés par nos journalistes. Néanmoins, je retiens l'idée de signature, pour une meilleure identification. Étant directeur de publication, je suis responsable aussi bien pour le site que pour les titres de presse, de la qualité de l'information. Par contre, je suis réservé sur l'autorégulation. Elle existe au travers de chartes éditoriales, de sociétés de journalistes, et vis-à-vis de nos lecteurs. Je suis également réservé quant à une association qui contrôlerait la régulation de l'ensemble de la déontologie professionnelle. Nous l'appliquons tous en permanence. Enfin, si les plateformes doivent labelliser, pourront-elles censurer ? Pour ma part, je pense qu'elles doivent uniquement présenter le nom de l'auteur. Elles ne doivent pas décider du contenu mais informer que le contenu provient de tel ou tel journal. Je suis également très sceptique sur les initiatives de mise au point d'un système qui serait créé sur les plateformes pour juger de la qualité.

Mme Catherine Morin-Desailly, présidente. - Il est vrai que sur la question de la labellisation de l'information, les participants de la table ronde précédente étaient unanimement d'accord, précisant que ce pourrait être contre-productif, dans une atmosphère de défiance généralisée.

M. Christophe Deloire. - Sur la question de la labellisation, Reporters sans frontières n'est pas du même avis. Notre idée est de créer un référentiel, qui travaillerait avec le comité européen de normalisation, l'ISO européen, sur les critères de l'indépendance éditoriale, la transparence des médias, le respect des méthodes journalistiques en matière de vérification et de correction et des règles déontologiques. Un secteur économique de la certification existant déjà, celui-ci pourrait établir une « liste blanche », ainsi utilisée par tous ceux qui ont une influence, même extérieure, sur les médias, non pas pour faire peser un poids supplémentaire sur des médias - qui en ont déjà assez -, mais pour distinguer précisément entre ceux relevant du journalisme, ou de la publicité, du journalisme dévoyé ou de la propagande politique. Il faudrait ensuite apporter à ceux qui présentent ces garanties, des avantages concrets, qui ne seraient pas un label public, mais qui amèneraient les plateformes et les moteurs de recherche à mieux les référencer. Nous avons réussi, dans cette logique, à inclure Google, Facebook ainsi que la fédération mondiale des annonceurs.

Par ailleurs, il nous faudrait éviter de faire l'erreur qui consiste à nous enfermer dans la même bulle, puisque nous lisons et écoutons à peu près tous les mêmes médias. Pourtant le champ d'information n'est pas le champ des médias. Il est incomparablement plus large. Le grand sujet, ce sont les plateformes. Celles qui existaient auparavant avaient un cadre juridique cohérent qui permettait de distinguer la publicité des contenus journalistiques. Aujourd'hui, il n'existe plus. Que faut-il donc demander aux plateformes ? À notre sens, l'idée d'un troisième statut est largement préférable, à savoir ni hébergeur, ni éditeur. Elles ne doivent pas devenir des rédacteurs en chef. En revanche des garanties méritent d'être appliquées aux plateformes, en matière de neutralité politique ou de transparence. Il y a également un travail à faire sur ce qui relève de l'exception à la liberté de l'expression, par exemple la pédopornographie ou le djihadisme, à savoir comment les plateformes peuvent effacer les données sans qu'elles ne prennent la place du juge.

Le sujet principal de la présente loi est la désinformation et l'atteinte aux processus électoraux. Il est différent du sujet général des conditions du débat dans l'espace public aujourd'hui et de l'équilibre juridique. Il faut veiller impérativement, dans le cadre de la procédure de référé, à ce que la charge de la preuve revienne bien au juge.

Enfin, si l'éducation aux médias peut être utile, elle ne résoudra pas les problèmes de l'espace public.

M. François Morel. - Je souhaite juste préciser que je m'oppose au projet présenté par Christophe Deloire, qui propose de contrôler la déontologie de l'ensemble des professionnels. Beaucoup d'informations ne proviennent pas des journaux. Mais les seules qui pourraient être vérifiées seraient celles provenant des journaux déjà contrôlés. L'ensemble des informations venant d'autres sources, pourtant les plus nuisibles, ne pourraient l'être. En outre, il me paraît extrêmement important qu'il y ait obligation pour les plateformes de négocier avec la presse écrite le contenu diffusé. Il faut l'inscrire dans la loi, afin que le rapport de force soit établi.

Mme Catherine Morin-Desailly, présidente. - Je crains que la problématique des plateformes soit beaucoup plus large que cela.

Mme Maryvonne Blondin. - Je suis très heureuse de ces débats. Ils démontrent que nous sommes dans un pays démocratique. Étant membre du Conseil de l'Europe, je ne peux m'empêcher de faire le rapprochement avec les missions d'observation d'élections auxquelles je participe. Nombre d'entre elles démontrent une concentration des médias tenus par les oligarques sous tutelle de candidats qui centralisent l'ensemble de l'information. Dans ce cadre, nous sommes dans l'obligation d'auditionner les médias et avons souvent la chance d'être accompagné de représentants de RSF. Leur présence est exceptionnelle quand on sait que les journalistes sont parfois emprisonnés, voire assassinés. Il nous faut saluer la difficulté avec laquelle ils interviennent dans ces États et il est heureux que dans notre pays nous puissions débatte de cela.

Mme Catherine Morin-Desailly, présidente. - Le Conseil de l'Europe joue un rôle important en la matière et nous en saluons le travail. Je remercie les intervenants d'avoir accepté notre invitation. Ce sujet nous passionne et je précise que la loi qui nous est présentée en tant que telle nous pose un certain nombre de questions. Nous continuerons nos travaux pour légiférer utilement.

Audition de M. Olivier Schrameck,
président du Conseil supérieur de l'audiovisuel

MARDI 19 JUIN 2018

___________

Mme Catherine Morin-Desailly, présidente. - Permettez-moi tout d'abord de souhaiter la bienvenue au président du Conseil supérieur de l'audiovisuel (CSA) en notre nom à tous et de lui dire notre plaisir à le revoir après plusieurs semaines d'absence qui donnent à cette rencontre une saveur toute particulière.

Nous organiserons prochainement l'audition sur le bilan annuel du CSA mais, aujourd'hui, nous allons parler d'un texte législatif qui devrait être examiné en juillet par le Sénat. La semaine dernière, déjà, nous avons réuni deux tables rondes : l'une avec les directeurs des rédactions des médias audiovisuels et l'autre avec les directeurs de l'information de la presse écrite.

Nous serons heureux de connaître votre avis sur l'ensemble de la proposition de loi mais, bien entendu, ce sont les articles relatifs au CSA sur lesquels nous attendons de votre part une analyse précise.

Quels sont, selon vous, les médias « sous influence étrangère » évoqués dans le titre II, dont vous avez eu à connaître depuis que vous présidez le Conseil ? Lors de la dernière campagne présidentielle, avez-vous constaté que des médias diffusant en France avaient essayé d'influencer l'opinion publique avec des fausses informations et avez-vous examiné les possibilités juridiques de faire cesser ces agissements ? En outre, nous avons un grand débat entre nous sur la définition des « fausses informations ».

La semaine dernière, le représentant de France 24 nous a indiqué que si les autorités françaises interdisaient la diffusion d'un média étranger originaire d'un État autoritaire, celui-ci adopterait immédiatement des mesures similaires en représailles. Comment pourrez-vous prendre en compte ce risque qui relève autant des relations internationales que de la régulation audiovisuelle ?

Sur l'article 9, pensez-vous être bien préparé pour mener une forme de régulation du secteur du numérique, qui est nouveau pour le CSA ? Que pensez-vous plus généralement de l'économie générale de cet article ? Le CSA se retrouverait en position de formuler des « recommandations » qui, en raison du verrou posé par le statut des plateformes au niveau européen, ne seraient suivies d'aucune sanction possible, mais se situerait plutôt dans une pratique du name and shame. Je vous sais très investi au niveau européen sur ces questions et vous êtes à l'origine du groupe de travail qui a travaillé sur le sujet.

M. Olivier Schrameck, président du CSA. - Je suis heureux de me retrouver devant la commission de la culture, de l'éducation et de la communication, qui est une interlocutrice de première importance pour le suivi des travaux de l'institution que je préside.

Avant de répondre à vos questions, je voudrais vous dire que je me trouve dans une situation un peu particulière. J'ai été absent quelques mois du CSA et cela ne fait qu'un peu plus de deux semaines que je suis revenu. Dans la corbeille du retour, j'ai trouvé ce texte : je n'ai contribué ni à sa rédaction, ni à son suivi, ni aux travaux de réflexion menés par les députés, puisqu'il s'agit d'une proposition de loi de l'Assemblée nationale, mais dont l'exécutif ne s'est pas désintéressé. Or, j'ai l'habitude de me présenter devant vous pour présenter des travaux dont j'assume la responsabilité.

Deuxième particularité : le collège du CSA n'a jamais débattu de ce texte. Je l'ai d'ailleurs dit à votre présidente il y a quelques jours : je ne peux donc en rien me faire le porte-parole d'une opinion du collège que je préside ; je ne vous livrerai que le fruit d'une réflexion personnelle car je n'ai pas non plus eu d'entretiens en tête à tête avec mes collègues.

J'en viens à vos questions.

En ce qui concerne les médias qui pourraient être concernés, j'ai noté les déclarations du chef de l'État, qui datent de quelques mois, et j'ai dit publiquement que nous serions particulièrement attentifs, notamment pour certains organes relevant de la sphère Internet comme le site Sputnik et la chaîne Russia Today (RT), laquelle s'est implantée en Grande-Bretagne assez tôt et plus tardivement en France. Nous observons attentivement cette chaîne ainsi que de son environnement numérique.

Je ne puis aller plus loin sur le sujet car il s'agit d'une proposition de loi en cours d'examen et qui sera soumise dans quelques semaines au collège du CSA. Comme je vous l'ai dit, je n'ai pas le droit de m'exprimer avant lui. En revanche, je vous confirme que le dossier est nourri semaine après semaine par les observations de la direction des programmes. Par ailleurs, il n'a pas encore été examiné par le groupe de travail « Droits et libertés » qui l'instruit avant de le soumettre au collège.

L'article 9, qui traite du numérique, est important et novateur et il répond aux souhaits du CSA. Nous appelions de nos voeux une régulation assouplie et complétée car l'environnement technologique et économique du monde audiovisuel a profondément changé depuis la dernière directive européenne de 2000, qui est d'ailleurs inspirée d'un texte de 1997.

La nouvelle directive vient d'être adoptée en trilogue et elle fera l'objet d'une finalisation littérale en novembre. Cette directive prévoit diverses novations : entreront dans la sphère de la régulation les acteurs numériques, les sites sociaux, les plateformes de vidéos et les plateformes en ligne, c'est-à-dire le streaming. Le champ de la régulation va donc considérablement s'élargir. L'article 9 répond à cette nouvelle conception de la régulation avec des missions d'observation, d'évaluation et de recommandation. Pour l'instant, cette proposition de loi ne prévoit pas de sanctions qui, généralement, sont régies par l'article 42 du fait de la logique du CSA, « gendarme de l'audiovisuel », même si je n'aime pas ce terme. Nous sommes donc dans une logique de co-régulation, qui va bien au-delà de la « police privée de la réglementation » mise en oeuvre par chacun de nos partenaires comme Twitter ou Facebook mais qui diffère d'un site à l'autre. Le CSA leur propose un cadre général auquel ils adhèrent en échange de certaines concessions. On parle alors d'acteurs vertueux. Ces négociations permettent d'obtenir des garanties financières et d'exposition, même si notre pays n'est pas le siège mais la cible de ces entreprises. En échange, les pouvoirs publics accordent divers avantages pour enraciner au mieux dans notre terreau culturel ces firmes étrangères, souvent nord-américaines, qui passent de plus en plus souvent commande à des producteurs français.

Il y a incontestablement des similitudes entre la future directive et l'article 9, puisqu'il y est question de recommandations, de bilans annuels, de rapports. Le législateur devra dire comment seront sanctionnées les éventuelles insuffisances.

J'ai entendu parler de « méta-régulation » ou de régulation au second degré. Un cadre d'ensemble serait fixé puis adapté par convention à chaque protagoniste. Mais il est encore trop tôt pour que j'en dise plus sur le sujet.

En ce qui concerne les mesures de rétorsion qui pourraient nous frapper si nous interdisons certains médias étrangers, je vous renvoie à divers précédents, dont les décisions du 21 février 2014 et du 21 février 2015 qui concernaient des médias d'origines turque et tamoule. Nous avons pris des mesures très restrictives à l'égard de ces chaînes étrangères. Le contexte est certes bien différent aujourd'hui, et c'est sans doute la raison pour laquelle le Parlement n'a pas encore abordé la question.

Mme Catherine Morin-Desailly, présidente. - Je me tourne vers M. Frassa, rapporteur de la commission des lois.

M. Christophe-André Frassa, rapporteur pour avis de la commission des lois. - Les articles 4, 5, 6 et 8 reviennent sur une question qui reste en débat : aurez-vous recours à l'article L. 233-3 du code de commerce pour définir les médias placés sous influence étrangère ? Cette question n'est pas secondaire puisqu'il s'agit soit d'ordonner la suspension de la diffusion, soit de prononcer la sanction de résiliation unilatérale de la convention. La commission des lois a en effet quelques difficultés à définir la notion « d'influence d'un État ».

Ne faudrait-il pas modifier la composition du CSA puisque la proposition de loi va lui confier de nouvelles missions ?

M. Olivier Schrameck. - La question de l'influence extérieure pesant sur une société ayant ou non son siège en France n'est pas nouvelle. Ainsi en fut-il avec Bertelsmann et RTL, avec Altice SFR, avec Numéro 23... Le CSA et le Conseil d'État ont donné leur interprétation de l'article L. 233-3 du code du commerce. Par rapport à divers critères arithmétiques, comme ceux inscrits dans la loi du 30 septembre 1986, la définition du code de commerce correspond mieux à la réalité de la prise de pouvoir et de décision au sein d'une société. Il est difficile de mesurer l'influence de tel ou tel acteur dans la vie d'une société mais plutôt que d'appliquer des critères rigides, une analyse fine permettra d'apprécier la situation.

Votre deuxième question traite du champ de compétence du CSA : nous sommes à la fois contraints par le droit européen et les réalités économiques alors que nous sommes immergés dans un bain - que certains qualifient d'océan - numérique.

S'il m'appartenait de réfléchir à la composition du collège, j'ai indiqué qu'il serait utile de faire appel à des spécialistes de l'informatique. La réduction du nombre de ses membres a coïncidé avec l'entrée de spécialistes de l'économie et du numérique.

Certes, plusieurs autorités de régulation sont conduites à traiter ensemble de problèmes larges : par exemple, la Cnil pour les données, la Hadopi pour le piratage et l'Autorité de régulation de la concurrence pour l'articulation entre régulation horizontale et sectorielle. Il convient donc de réfléchir à une formalisation de leur coopération. J'ai pris à cet égard l'initiative d'une première réunion de préfiguration, à l'automne dernier, et une seconde se tiendra le 9 juillet au siège de l'Autorité de régulation de la concurrence. À la convergence observée dans l'univers médiatique doit répondre celle des autorités de régulation.

M. Claude Malhuret. - Sur les chaînes RT et Sputnik, vous avez répondu sans répondre, au prétexte qu'elles sont sous observation...

M. Olivier Schrameck. - Ce n'est pas un prétexte, c'est une obligation !

M. Claude Malhuret. - Je le comprends. Mais vous avez autorisé RT, dont le président Macron a dit qu'elle était un instrument de propagande aux mains d'un service de renseignement hostile. Le CSA n'autorise pas un média audiovisuel sans un examen préalable, je suppose. Pouvez-vous nous présenter l'instruction que vous avez menée sur cette chaîne et qui vous a conduit à l'autoriser ?

M. Olivier Schrameck. - Il ne s'agit par d'une procédure d'autorisation, mais d'un conventionnement. La demande a été formulée en 2014, après une première installation au Royaume-Uni en 2010, qui n'avait été suivie d'aucun incident. Et, entre 2015 et 2018, l'Ofcom n'a fait que trois mises en demeure, sans prononcer aucune sanction. Dans le contexte général, cette demande nous parut comporter des risques, et nous avons mené pendant presqu'un an une discussion avec la chaîne, dont nous avons obtenu des garanties qui ne figurent pas dans les autres conventions : honnêteté et rigueur de l'information, indépendance économique et constitution d'un comité d'éthique - c'était avant que la loi de 2016 ne la rende automatique. La convention a été signée le 12 septembre 2015, mais RT n'a ouvert qu'en décembre 2017, aussi notre période d'observation se limite-t-elle à un semestre. Nous constatons que d'autres installations sont prévues, en Europe centrale et de l'Est.

M. Jean-Pierre Leleux. - Nous sommes nombreux à nous interroger sur la difficulté qu'il y aura à appliquer ce texte, et à chercher des arguments, le cas échéant, pour l'accompagner. Est-il nécessaire ? Utile ? Opportun ? Ne fera-t-il pas peser un poids néfaste sur la liberté d'expression ? Le CSA et le juge porteront une lourde responsabilité, puisqu'ils décideront où est la vérité et comment la distinguer du mensonge. Dans un univers où le subjectif règne, il leur sera bien difficile de trancher. Nous craignons un contrôle nouveau sur la liberté d'expression. Qu'en pensez-vous ? Comment préconisez-vous de définir la fausse nouvelle ? Peut-on le faire plus objectivement ?

Mme Catherine Morin-Desailly, présidente. - Plus précisément, en tout cas...

M. Olivier Schrameck. - Une solution satisfaisante à ce problème est recherchée depuis longtemps par la jurisprudence de la loi de 1881 sur la liberté de la presse, telle que modifiée par la directive de 2000. Il y a eu un premier débat sur la distinction entre fausses nouvelles et fausses informations. Parmi les critères, il y a une part d'intentionnalité et une part d'approche quantitative. Lors de la table ronde du 13 juin, M. Morel avait insisté sur les critères de systématicité, d'automaticité et de quantité, qui n'épuisent pas le sujet, mais semblent pertinents, car il existe des procédés informatiques pour lancer des nouvelles dans les réseaux. Les critères de notre tradition juridique, depuis le XIXe siècle, peuvent donc être adaptés aux modifications de notre environnement technologique. Je ne nie pas la difficulté de l'exercice, d'autant que l'application de la loi reviendra au CSA, sous le contrôle du juge. La méthode sera celle du faisceau d'indices, pour discerner l'intentionnalité, la finalité, l'existence d'une campagne. C'est celle qu'utilisent déjà Twitter et Facebook.

À cet égard, j'insiste sur la nécessité de donner au CSA les moyens de régulation économique nécessaires pour mesurer ces phénomènes. Actuellement, les rapports administratifs ne nous sont pas communiqués automatiquement, nous ne conduisons pas d'investigations sur place et sur pièces, et nous pâtissons parfois du retard de certains rapports publics. Ainsi, dans l'affaire Numéro 23, nous avons considéré, sur la base de faits reconnus par les dirigeants eux-mêmes, qu'il y avait eu fraude à la loi et manoeuvre pour acquérir une fréquence hertzienne avant de la revendre très rapidement avec une très forte plus-value. Mais le Conseil d'État a estimé que nous n'avions pas apporté suffisamment de preuves pour emporter sa conviction. C'est qu'il y a loin du CSA à un juge d'instruction !

Mme Sylvie Robert. - Disposez-vous d'outils suffisants pour contrôler les chaînes et contrer les fausses nouvelles ? Qu'en est-il de la coopération entre autorités de régulation sur Internet ? Pourquoi ne pas donner au CSA la possibilité d'intervenir sur les contenus et de collaborer avec l'Autorité de régulation des communications électroniques et des postes (Arcep) sur les réseaux et les algorithmes ?

M. Olivier Schrameck. - Depuis l'adoption de la loi de 1986, le législateur nous a confié 83 compétences supplémentaires. Durant la dernière législature, pas moins de quatorze lois ont augmenté nos attributions et nos compétences. Pendant cette période, le nombre d'emplois au CSA a diminué, ce qui a notamment rendu impossible la territorialisation de notre activité, qui me paraît pourtant primordiale. Notre directeur général mène chaque année la négociation budgétaire, mais nous subissons - comme d'autres - réfactions, gels et surgels. La transformation en autorité administrative indépendante (AAI), que nous souhaitions, a accru nos responsabilités. Si nous devons redéployer sans cesse nos moyens - ce que nous avons fait il y a dix-huit mois par une réforme importante de notre organigramme - et que le périmètre de notre régulation s'étend... J'avais proposé, en 2014, que nous reprenions les compétences et les services de la Hadopi. Nous travaillons désormais davantage, et mieux, avec elle - comme avec d'autres autorités de régulation.

Je n'ai pas cité l'Arcep, car on se focalise depuis cinq ans sur nos rapports avec elle. L'Arcep s'occupe des infrastructures - réseaux et débit - et le CSA, de l'« infostructure », c'est-à-dire des programmes et des contenus, ainsi que de la promotion de l'économie de notre création. Il y a des domaines communs, comme la question de la neutralité d'Internet.

Mme Sylvie Robert. - Voilà.

M. Olivier Schrameck. - Sur ce point, nous n'avons aucune opposition. D'ailleurs, nos deux administrations travaillent quotidiennement ensemble. J'ai proposé à mon homologue une coopération à trois étages : entre présidents, entre deux membres de chaque collège et entre les directions concernées. Je craindrais en effet une trop grande focalisation sur un seul type de coopération, quand une demi-douzaine de régulateurs doivent conjuguer leurs travaux. Fusionner deux organismes qui n'ont pas la même taille, pas les mêmes traditions ni les mêmes textes fondateurs requerrait beaucoup d'efforts, qui seraient plus utilement consacrés à des problèmes plus importants. De plus, l'exemple de nos voisins européens montre qu'après de telles fusions, l'essentiel des moyens est dévolu à l'équivalent de l'Arcep, car nous distribuons des fréquences gratuites, quand l'Arcep vend des licences à des prix très élevés - 2,9 milliards d'euros lors du dernier appel d'offres - ce qui focalise davantage l'intérêt de l'État.

Mme Catherine Morin-Desailly, présidente. - Certes, l'Arcep s'intéresse à un domaine assez large...

Mme Sylvie Robert. - Je ne parlais pas de fusion.

M. Olivier Schrameck. - Une commission mixte serait une piste...

Mme Sylvie Robert. - Par exemple !

M. Olivier Schrameck. - La réduction du collège du CSA de neuf à sept membres s'est faite dans l'idée d'avoir le même nombre de membres que l'Arcep.

Mme Catherine Morin-Desailly, présidente. - Vous avez été à l'initiative de l'Erga (European Regulators Group for Audiovisual Media Services), qui organise la coopération entre autorités de régulation européennes. Que pensez-vous de la loi votée en Allemagne sur les fausses nouvelles ? Où en est la réflexion européenne sur ce sujet ?

M. Olivier Schrameck. - Nos rapports bilatéraux et multilatéraux au sein de l'Erga sont un véritable atout.

Mme Catherine Morin-Desailly, présidente. - Que pensez-vous de la loi allemande ? Sur quels sujets échangez-vous avec vos homologues européens ?

M. Olivier Schrameck. - La loi allemande a été votée fin 2017, et est entrée en vigueur le 1er janvier 2018. Pour l'instant, nous n'avons aucun retour d'expérience de nos homologues allemands, que nous rencontrons une fois par an, au point que nous nous demandons si la loi a déjà été appliquée.

Mme Catherine Morin-Desailly, présidente. - Vous avez répondu à la question sur les fausses nouvelles par une synthèse des débats en cours. Quel est votre point de vue personnel ?

M. Olivier Schrameck. - Ce n'est pas une notion purement objective et l'on doit la dégager à l'aune des critères que sont la fréquence, le nombre, la finalité ou l'origine. Il existe toutefois des situations intermédiaires, où le doute est permis. Mais on a observé qu'à propos des dernières échéances importantes, qui ont affecté notre monde, les dirigeants ont tous dit qu'il y avait eu, à titre onéreux ou non, des transferts d'information ayant pu influer, même marginalement, sur le résultat.

M. Jean-Pierre Leleux. - Cela existe depuis des siècles !

M. Olivier Schrameck. - Pas avec les mêmes moyens.

M. Jean-Pierre Leleux. - La proposition de loi ne s'intéresse pas au niveau local. Pourtant, nous savons tous que lors des élections locales les tracts, libelles et fausses accusations sont monnaie courante. Et le juge classe toujours les dossiers sans suite.

M. Olivier Schrameck. - En effet, le juge pénal, qui est surchargé, n'est saisi que de façon erratique, et n'intervient que peu au regard de l'ampleur du problème. C'est pourquoi il nous faut créer un nouveau type de contrôle, plus rapide et plus interactif. J'ai observé qu'une grande partie du débat, à l'Assemblée nationale, a porté sur la question des délais. De fait, 48 heures, c'est très peu au regard de la procédure contradictoire, et très long pour les technologies actuelles !


* 1 The Conversation, 2 juillet 2017, https://theconversation.com/vu-du-moyen-age-philippe-le-bel-un-amateur-de-fake-news-79541.

* 2 Robert Darnton, Edition et Sédition, l'univers de la littérature clandestine au XVIIIe siècle.

* 3 Social Media and Fake News in the 2016 Election », Journal of Economic Perspectives n° 31/2, 2017.

* 4 « Selective exposure to misinformation : Evidences of the consumption of fake news during the 2016 US presidential campaign » Andrew Guess, Brendan Nyhan et Jason Reifler, 9 janver 2018.

* 5 « Les fake news sont d'abord un marché », Le Monde économie, 30 janvier 2018.

* 6 « The Spread of True and False News Online », Soroush Vosoughi, Deb Roy, Sinan Aral.

* 7 « Code is law, on liberty in cyberspace », Lawrence Lessig, Harvard Magazine, janvier 2000.

* 8 L'expression est de Harry Brignull, et peut être traduite par « sombre conception ».

* 9 « Bots in the Twittersphere », 9 avril 2018, Stefan Wojcik, Solomon Messing, Aaron Smith, Lee Rainie etPaul Hitlin.

* 10 From Headline to Photograph, a Fake News Masterpiece, New York Times, 8 janvier 2017.

* 11 « Inside the macedonian fake news complex », Wired, 15 février 2017.

* 12 Marc Bloch, 1921, « Réflexions d'un historien sur les fausses nouvelles de la guerre ».

* 13 « La Révolution de l'imprimerie dans l'Europe des premiers temps modernes ».

* 14 Rapport d'information n° 443 (2012-2013) fait au nom de la commission des affaires européennes « L'Union européenne, colonie du monde numérique ? » par Catherine Morin-Desailly.

* 15 Le rejet par le Parlement européen de la directive sur le droit d'auteur a encore une fois illustré la difficulté à s'opposer à des intérêts économiques particulièrement influents et actifs.

* 16 Rapport n° 296 (2001-2012) de la commission des lois du Sénat, fait par Laurent Béteille et Richard Yung, « Lutte contre la contrefaçon : premier bilan de la loi du 29 octobre 2007 ».

* 17 Rapport réalisé par le professeur Sirinelli sur l'éventuelle révision de la directive n° 2001/29/CE, décembre 2014.

* 18 Rapport de Pierre Lescure remis à la ministre de la culture le 13 mai 2015 « Acte II de l'exception culturelle à l'ère du numérique ».

* 19 Inséré en commission, l'article 9 sexies a été supprimé en séance.

* 20 Rapport d'information n° 607 (2017-2018) « Prendre en main notre destin numérique : l'urgence de la formation » de Mme  Catherine Morin-Desailly, fait au nom de la commission de la culture, de l'éducation et de la communication, déposé le 27 juin 2018.

* 21 Proposition de loi n° 799 relative à la lutte contre les fausses informations, Assemblée nationale, mars 2018, page 6.

* 22 Le Conseil d'État a estimé dans cette décision que « les services de télévision qui souhaitent être diffusés par satellite ou distribués sur les réseaux câblés doivent conclure avec le Conseil supérieur de l'audiovisuel une convention » et que « ces dispositions donnent au Conseil compétence pour refuser de conclure une telle convention ».

* 23 Décision du Conseil d'État du 11 février 2004, Société Medya TV, n° 249175.

* 24 Rapport n° 990 de l'Assemblée nationale, mai 2018, page 81.

* 25 Décision du Conseil d'État du 11 juillet 2012, Société Média Place Partners, n° 351253.

* 26 Notamment l'article L. 3323-2 du code de la santé publique.

* 27 Voir le communiqué de presse du CSA : http://www.csa.fr/Espace-Presse/Communiques-de-presse/Manquements-a-l-honnetete-a-la-rigueur-de-l-information-et-a-la-diversite-des-points-de-vue-mise-en-demeure-de-RT-France

* 28 Voir le compte rendu de cette table ronde : http://www.senat.fr/compte-rendu-commissions/20180611/cult.html

* 29 Voir le compte-rendu de l'audition du président du CSA : http://www.senat.fr/compte-rendu-commissions/20180618/cult.html

* 30 Le CSA a fait usage de ce pouvoir en 2005 à l'encontre de la chaîne iranienne Sahar 1.

* 31 Décision du Conseil d'État du 13 décembre 2004, CSA c/ Eutelsat, n° 274757.

* 32 Débats Assemblée nationale - Première séance du mardi 3 juillet 2018.

* 33 « Inside the black market where people pay thousands of dollars for Instagram verification »

https://mashable.com/2017/09/01/instagram-verification-paid-black-market-facebook/?europe=true#Fjmu_3s61qqx

* 34 Rapport d'information n° 607 (2017-2018) « Prendre en main notre destin numérique : l'urgence de la formation » de Mme  Catherine Morin-Desailly, fait au nom de la commission de la culture, de l'éducation et de la communication, déposé le 27 juin 2018.

* 35 Cette table ronde n'était pas publique et n'a pas fait l'objet de compte rendu.