Allez au contenu, Allez à la navigation

Proposition de loi relative à la lutte contre les fausses informations

18 juillet 2018 : Lutte contre la manipulation de l'information ( rapport - première lecture )

ANNEXES

Fausses informations « fake news » - Diffusion d'un message et audition

MARDI 3 AVRIL 2018

___________

M. Philippe Bas, président. - Avec Catherine Morin-Desailly, je suis heureux de réunir nos deux commissions pour une table ronde sur les fausses nouvelles sur Internet. Nous accueillons Mme Divina Frau-Meigs, professeure à l'Université Paris III Sorbonne-Nouvelle en sciences de l'information et membre du comité d'experts installé par la Commission européenne, M. Bernard Benhamou, ancien délégué aux usages d'Internet au ministère de l'enseignement supérieur et de la recherche et secrétaire général de l'Institut sur la souveraineté numérique, Me Christophe Bigot, avocat au cabinet Bauer Bigot et associés, spécialisé en droit de la presse, M. Hervé Brusini, directeur délégué au numérique, à la stratégie et à la diversité au sein de la direction de l'information de France Télévisions, ainsi que Mme Juliette Rosset-Caillet, sa collaboratrice. MM. Benoît Tabaka, directeur des relations institutionnelles et des politiques publiques de Google France, et Thibault Guiroy, chargé des relations institutionnelles, ont été retardés et nous rejoindront.

Le Président de la République a fait état, au mois de janvier dernier, de son souhait que soient prises des dispositions législatives pour mieux combattre la diffusion de fausses nouvelles, pendant les campagnes électorales, par les nouveaux médias. Ce souhait, incarné dans une proposition de loi organique et dans une proposition de loi ordinaire déposées à l'Assemblée nationale, fait écho au rapport de notre collègue Philippe Bonnecarrère « Décider en 2017 : le temps d'une démocratie « coopérative » ».

Mais avons-nous réellement besoin, compte tenu de l'arsenal juridique existant, de nouvelles dispositions ? Quels moyens juridiques est-il possible de mobiliser pour rendre effective l'interdiction des fausses informations ? Faut-il envisager des moyens dérogatoires au droit commun, à l'instar du référé spécifique prévu par la proposition de loi de l'Assemblée nationale ? Comment, enfin, articuler une nouvelle initiative du législateur français avec les efforts d'autorégulation des journalistes et des plateformes comme avec les travaux de l'Union européenne sur cette question ? Nous avons à concilier des exigences contradictoires : assurer que la sincérité d'un scrutin ne soit pas altérée par la diffusion de fausses informations, en respectant les prescriptions de la déclaration des droits de l'homme et du citoyen, qui font de la liberté d'expression, non pas un absolu, mais un droit ne pouvant être limité que dans des conditions très restrictives. Les modifications successives apportées à la loi du 29 juillet 1881 sur la liberté de la presse comme à la loi du 21 juin 2004 pour la confiance dans l'économie numérique montrent d'ailleurs avec quelles précautions le législateur a toujours abordé les sujets relevant de la liberté d'expression et, partant, du droit pénal.

Mme Catherine Morin-Desailly, présidente. - Je me réjouis également que nos deux commissions se soient associées, par souci d'efficacité, en amont de l'examen des propositions de loi organique et ordinaire de l'Assemblée nationale relatives à la lutte contre les fausses informations. Si ces textes sont d'initiative parlementaire, ils se trouvent en réalité largement d'inspiration gouvernementale et seront défendus par la ministre de la culture.

J'estime regrettables l'utilisation du terme « fake » pour qualifier le phénomène et, surtout, l'erreur de l'avoir traduit par « faux », qui ne permet pas d'insister sur l'aspect relatif à la manipulation de l'opinion, à la désinformation et à la perversion de l'information au travers des réseaux sociaux. Nous devrons, pour ne pas nous tromper de combat ni d'analyse, nous montrer attentifs à cette dimension. Prenons garde à ne pas réformer aveuglément le droit de la presse, compte tenu des risques encourus en matière de liberté d'expression, exigence démocratique s'il en est ! Le think tank Renaissance numérique a d'ailleurs mis en exergue les nuances entre fausse nouvelle, désinformation, mauvaise information et sous-information.

Notre vigilance à viser au plus juste le phénomène que nous souhaitons combattre est d'autant plus essentielle que la manipulation de l'opinion par l'entremise des réseaux sociaux a pris une dimension nouvelle depuis les révélations afférentes à la campagne présidentielle américaine. Souvenez-vous qu'en décembre 2016, lors de l'Agora numérique organisée au Sénat dans le cadre du partenariat pour un Gouvernement ouvert, Lawrence Lessig, professeur à Harvard, candidat malheureux à la primaire démocrate et auteur de la désormais célèbre formule Code is law, nous avait annoncé, plusieurs mois avant que n'éclate le scandale, la manipulation des élections américaines à travers les réseaux sociaux. Notre débat est également empreint de celui que nous venons d'achever s'agissant de la transposition, en droit français, du règlement général de l'Union européenne sur la protection des données personnelles (RGPD) et de la récente révélation du détournement de millions de données d'internautes de Facebook par Cambridge Analytica, avec la complicité de Palantir, dont le co-fondateur n'est autre que le conseiller numérique du président Trump. Il convient de mesurer si le texte qui nous est proposé permettra effectivement de répondre à ces enjeux de démocratie. Il en va de l'honneur du Sénat, qui n'a jamais cessé de défendre les libertés fondamentales.

Nous entamons nos échanges par la diffusion d'un message enregistré de Mme Mariya Gabriel, commissaire européenne à l'économie et à la société numériques.

Mme Mariya Gabriel, commissaire européenne à l'économie et à la société numériques. - Je vous remercie de me donner l'occasion d'intervenir en introduction de votre table ronde. La Commission européenne défend un Internet indépendant et ouvert, fermement ancré dans la protection des droits fondamentaux et des valeurs démocratiques. La liberté et le pluralisme des médias constituent des piliers de notre démocratie moderne, qui souffre d'une désinformation faussant le débat social et politique.

À l'instar des cyberattaques, la désinformation ne connaît pas de frontière. En conséquence, la Commission européenne a choisi d'élaborer une stratégie européenne pour la combattre, afin d'éviter toute fragmentation inutile. Nous avons reçu 3 000 réponses dans le cadre de notre consultation publique et une enquête Eurobaromètre a recueilli l'opinion de plus de 26 000 citoyens européens. Les premiers résultats interpellent : 97 % des sondés affirment avoir été la cible de fausses informations, principalement sur des sujets relevant de la politique, de l'immigration, des minorités et de l'insécurité, et, pour 70 % des sondés, les fausses informations nuisent à la démocratie. Dans son rapport publié le 12 mars dernier, le groupe d'experts, constitué en novembre 2017 pour formuler des recommandations sur la désinformation en ligne, prône une approche multidimensionnelle fondée sur l'autoréglementation. L'implication de chacun est, en effet, nécessaire : il ne peut exister de solution durable sans l'engagement de l'ensemble des parties concernées. Si le rapport insiste sur le rôle des plateformes, les médias traditionnels doivent également s'adapter aux exigences du numérique, afin de contrer la dissémination des fausses informations par la promotion d'une information de qualité. Les annonceurs publicitaires et les partis politiques doivent également participer à ce combat. Ainsi, nous pouvons ensemble espérer diluer le phénomène et, progressivement, l'éteindre. Enfin, je souhaite insister sur la nécessité de soutenir l'éducation numérique : nos concitoyens doivent disposer des outils et des connaissances leur permettant de discerner les fausses nouvelles et, ainsi, limiter leur propagation. Je présenterai, le 25 avril, un plan européen de mesures concrètes de lutte contre la désinformation en ligne.

Mme Catherine Morin-Desailly, présidente. - Quel propos liminaire intéressant et de circonstance pour entamer nos travaux ! Madame Divina Frau-Meigs, vous êtes membre du comité d'experts mis en place par la Commission européenne : partagez-vous l'analyse de la commissaire européenne ?

Mme Divina Frau-Meigs, professeure à l'Université Paris III Sorbonne-Nouvelle en sciences de l'information et membre du comité d'experts sur les « fake news » mis en place par la Commission européenne. - Comme Mme Gabriel, je crois qu'il n'existe pas de ligne Maginot de la mal-information : elle est transfrontière et, en ce sens et même si peuvent apparaître des enjeux de souveraineté nationale et d'intégrité des élections, la réponse doit être, à tout le moins, européenne. La Commission européenne a proposé, avec le groupe d'experts, une définition du phénomène, ce qui me semble constituer un préalable essentiel. La décision a été prise dans le rapport de ne pas utiliser les termes « fake news », car nombre de ces informations sont en réalité justes mais transformées dans leur contenu par des automates, et de leur préférer celui de « désinformation » pour insister sur l'aspect manipulateur. Je préfère pour ma part celui de « mal-information », qui rappelle la notion de malveillance très éloignée du canular de presse du XIXe siècle. La Commission a également mis en exergue deux cas différents, qui ne peuvent pas être traités à l'identique par une éventuelle réglementation : la mal-information à visée commerciale ou publicitaire et la mal-information politique portant atteinte, notamment, à l'intégrité des élections comme cela a pu récemment être constaté aux États-Unis. Il convient, en outre, de ne pas négliger le rôle des communautés d'usage, trop insuffisamment pris en compte dans la réglementation. Comment ramener les crédules dans le berceau d'un débat démocratique contradictoire dans lequel leurs idées ne sont pas rejetées et au sein d'un discours intelligible et intelligent ? Ils représentent, en réalité, les premières victimes de la mal-information.

Notre rapport prend de multiples précautions : les chercheurs n'ont pu prouver aucun effet avéré de la mal-information et nous ne disposons pas de suffisamment de recherches critiques pour affirmer qu'elle change une élection. Au contraire, les deux dernières recherches menées en Angleterre et en France font apparaître un résultat inverse : il y aurait une résilience des électeurs, qui ne seraient pas si crédules. En revanche, il est certain qu'il existe une volonté avérée de nuire et un effet diffus sur la population, celui du doute distillé par les marchands de soupçons sur Facebook comme sur d'autres médias sociaux, qui représentent les lieux de circulation, de diffusion et propagation privilégiés de ces contenus. L'absence de résultats scientifiques évidents a conduit l'Union européenne à avancer précautionneusement en matière de régulation en privilégiant l'autorégulation, qui nécessite une grande transparence dans les affaires publiques et commerciales. Elle demande également de la profession de journaliste, qui souffre du déséquilibre de la répartition de la valeur économique au profit des plateformes, une prise de conscience, notamment s'agissant de son comportement sur les réseaux sociaux. Il existe un hiatus entre l'information 1.0 véhiculée par les médias et la mal-information 2.0 favorisée par la viralité des réseaux sociaux et des communautés d'usage. La profession commence à se remettre en question et, ce faisant, à regagner la confiance populaire, d'après les sondages les plus récents. Nous préconisons en outre le renforcement de l'éducation aux médias, j'y reviendrai. Notre rapport propose, pour conclure, l'instauration d'un code de bonne conduite auquel les Google, Amazon, Facebook, Apple, Microsoft (Gafam) ont accepté de participer. Son élaboration sera réalisée conjointement et sa mise en oeuvre évaluée après un an ; en d'autres termes, la Commission engage un processus de la carotte, qui pourrait être suivi d'un processus du bâton s'il s'avérait que la première étape se solde par un échec.

Sans se désolidariser du rapport commis par le groupe d'experts, ma position personnelle s'en éloigne quelque peu. J'estime qu'il aurait été utile que nous aboutissions à une enquête sectorielle sur les plateformes, afin d'évaluer la réalité de la concurrence et des positions dominantes et d'étudier les comportements publicitaires, qui représentent un soutien essentiel, bien que souvent involontaire, aux marchands de soupçons. Le système publicitaire et d'agrégation de contenus, avec l'algorithmique correspondant, ne se positionne pas par rapport à l'authenticité ou à l'objectivité de l'information, mais en fonction de l'engagement et de l'émotion qu'elle suscite. Nous aurions ainsi pu mesurer combien ce comportement a coûté à l'information de qualité et, le cas échéant, corriger cette perte en créant un fonds d'aide aux nouveaux médias, y compris par la fiscalité. Je propose, pour ma part, d'installer une dorsale complète du service public du numérique : des moteurs de recherche qui ne tracent pas, des réseaux sociaux qui ne diffusent pas de publicité et des médias de qualité marqués d'un label facilement identifiable, sur le modèle de celui de Reporters sans frontières (RSF). Disposer d'un lieu dédié à l'information de qualité permettrait également de pouvoir retracer le cours d'une campagne électorale, comme s'y attellent actuellement les Américains. L'Europe a les moyens de mettre en place une politique favorable à l'intérêt général du numérique, reste à se doter de la volonté politique...

La situation actuelle, qui pose un insoluble problème de temporalité, n'est pas soutenable : il faut de douze à quatorze heures pour éteindre une rumeur sur Twitter en la démentant, dès lors, sans mesures sérieuses en amont, le mal peut être fait une veille d'élection. Avant même la réglementation ou l'autorégulation des acteurs, le succès de la lutte contre la mal-information réside dans l'éducation aux médias, qui ne dispose que de faibles moyens. La Commission européenne a proposé à cet effet d'inscrire l'éducation aux médias, qui forge les valeurs et les comportements, dans les compétences du Programme international pour le suivi des acquis des élèves (PISA), car c'est en étant évaluée qu'elle gagnera en importance. Elle ne doit pas être confondue avec l'éducation numérique, qui traite des outils et savoir-faire opérationnels, du code et de l'algorithme, dont elle est complémentaire.

La loi qui sera adoptée par la France sera observée avec attention à l'étranger avec la possibilité qu'elle soit à l'origine d'en effet domino, comme la réglementation allemande inspire la Russie et l'Indonésie. Prenons garde à ce que des lois liberticides votées dans d'autres pays ne se revendiquent pas du modèle français. Ayons conscience de notre responsabilité, comme pays des droits de l'homme. Nous devons sanctuariser les contenus et réfléchir à instaurer un statut des médias sociaux, par nature hybrides, les dotant d'obligations en matière de transparence et de droit de réponse. Je conclurai en insistant sur la nécessité de renforcer l'information aux médias et, surtout, de garantir son indépendance. Elle doit cesser d'être financée par les Gafam et intégrer les missions de l'école en étant prise en charge par les enseignants. Je mets d'ailleurs au défi les Gafam d'assurer cet enseignement à douze millions de jeunes Français de moins de seize ans ! Peut-être faut-il créer, si nécessaire, un fonds à cet effet, abondé par le fruit d'une fiscalité imposée aux Gafam.

Mme Catherine Morin-Desailly, présidente. - Nous donnons immédiatement la parole au représentant de Google France, puisque sa société vient d'être évoquée à plusieurs reprises s'agissant du code de bonne conduite et de la défiance croissante de la population à l'égard des Gafam. Quel est, monsieur Tabaka, votre opinion sur ces sujets et, surtout, sur les textes déposés à l'Assemblée nationale ?

M. Benoît Tabaka, directeur des relations institutionnelles et des politiques publiques de Google France. - Je vais m'inscrire en faux avec certains propos précédemment tenus sur les Gafam. Nous sommes certes des sociétés de la « tech », mais nous exerçons des activités bien différentes : moteurs de recherche, réseaux sociaux, plateformes d'hébergement, etc. Les Gafam ont bien sûr un rôle à jouer dans la lutte contre la désinformation, mais elles n'interviennent pas toutes au même stade de la diffusion des contenus incriminés, Depuis longtemps, Google prend le sujet au sérieux. Le coeur de métier de l'entreprise est d'organiser l'accès à l'information via son moteur de recherche et, en conséquence, d'éviter qu'il ne soit biaisé par certains, qui réussiraient à faire apparaître les contenus de leur choix en tête des résultats de recherche. Je préfère, pour ma part, le terme de « désinformation » à celui de « mal-information », qui semble supposer qu'une information a été inconvenablement formulée sans volonté de nuire. Le phénomène peut prendre des formes extrêmement variées, puisque les acteurs malveillants utilisent différents procédés pour répandre de fausses informations sur Internet. Dès lors, il ne peut y avoir de réponse unique et uniforme.

Google utilise déjà plusieurs outils pour lutter contre la désinformation en ligne. D'abord, son algorithme fait en sorte que les contenus de qualité se placent en tête dans les résultats du moteur de recherche, afin d'offrir à l'utilisateur l'information la plus fiable possible. À cet effet, ont été développés des éléments techniques permettant d'éviter que des robots ne réussissent à favoriser leurs propres résultats. Nous avons notamment annoncé, il y a quinze jours, que notre traitement algorithmique de référencement allait évoluer pour ne plus systématiquement favoriser les contenus en fonction de leur actualité. Lorsqu'un événement d'importance survient, des comptes malveillants tentent de diffuser des informations erronées en profitant du grand nombre de recherches afférentes réalisées en ligne. Nous travaillons avec RSF pour définir au mieux la fiabilité d'une information. Nous luttons, en outre, contre la désinformation via notre activité de régie publicitaire pour compte de tiers. À titre d'illustration, nous avons supprimé, en 2017, 1,7 milliard de publicités, toutes causes confondues, qui permettaient de monétiser de fausses nouvelles. Pour les mêmes raisons, 100 000 éditeurs de sites ont vu leur compte publicitaire supprimé. En d'autres termes, Google applique la stratégie dite follow the money, habituellement destinée à la lutte contre la contrefaçon, au combat contre la désinformation. Enfin, l'entreprise, depuis plusieurs années, aide la presse à s'adapter au numérique en mettant en place, en France puis en Europe, un fonds de soutien aux projets innovants. Nous avons ainsi soutenu Les Décodeurs du Monde à hauteur de plusieurs centaines de milliers d'euros. Il y a quinze jours, a été annoncée la création d'un fonds mondial doté de 300 millions de dollars sur trois ans.

Mme Catherine Morin-Desailly, présidente. - Pourriez-vous nous faire part plus concrètement de votre opinion sur les dispositions des textes déposés sur le bureau de l'Assemblée nationale ?

M. Benoît Tabaka. - Pour ce qui concerne plus spécifiquement la proposition de loi, je reconnais que nous sommes encore en cours d'analyse, le texte n'ayant été publié que récemment sur le site de l'Assemblée nationale. S'agissant de la publicité en ligne, et notamment de l'usage de moyens publicitaires pour promouvoir une fausse nouvelle, Google a d'ores et déjà développé des outils permettant d'identifier des comptes malveillants destinés à diffuser cette information en ligne. Ils existent, même s'ils peuvent évidemment être améliorés. La proposition de loi fait apparaître le concept de « contenu d'information ». Est-ce un contenu renvoyant vers un site d'information ou un contenu de nature informative ? Par exemple, un article portant sur une disposition de la loi relative à l'immigration serait-il considéré comme un contenu d'information et, dès lors, soumis automatiquement, pour ce qui concernerait la publicité qui le viserait ou y renverrait, au régime juridique prévu par la proposition de loi ? Ce point mérite d'être éclairci lors des débats parlementaires. Nous avons, de notre côté, des échanges avec le ministère de la culture.

Me Christophe Bigot, avocat. - Je m'en tiendrai à une analyse juridique et commencerai par rappeler l'existant, qui est déjà assez significatif mais n'est pas utilisé. En France, deux textes sanctionnent les fausses nouvelles. La loi de 1881 sur la liberté de la presse punit la fausse nouvelle qui trouble la paix publique et le code électoral celle qui a pour effet de porter atteinte à la sincérité des scrutins. Or les décisions judiciaires s'appuyant sur ces deux textes se comptent sur les doigts d'une main.

On voit tout de suite qu'entre ces deux textes, il existe un vide : la fausse nouvelle qui ne porte pas un trouble à la paix publique et qui est de nature à porter atteinte à la sincérité du scrutin, mais sans qu'on ait la démonstration d'un effet réel.

N'oublions pas, par ailleurs, l'action en diffamation : la diffamation est une allégation fausse de nature à porter atteinte à l'honneur et à la considération d'une personne. Ainsi, pendant la campagne présidentielle, l'allégation selon laquelle Emmanuel Macron aurait eu un compte offshore au Panama. La loi permet déjà au juge de statuer dans les 24 heures en période électorale. Inutile, donc, d'adopter un texte supplémentaire pour faire intervenir un juge des référés.

En somme, cette proposition de loi est largement inutile : à mon avis, c'est purement et simplement une posture politique.

Le modèle français en matière de liberté d'expression ne consiste aucunement à sanctionner la mal-information, au contraire ! La loi de 1881 pose le principe de liberté et il s'agit pas d'aller chercher qui s'exprime de manière bienveillante et qui s'exprime de manière malveillante. L'idée est de déterminer des incriminations précises, en dehors desquelles on est libre de dire ce qu'on veut, même lorsqu'on est malveillant. D'ailleurs, la communication politique elle-même est souvent malveillante en période électorale !

Nous ne voulons surtout pas changer de modèle et commencer à décréter ce qu'est la bonne ou la mauvaise information : ce serait ouvrir une boîte de Pandore.

Bref, votez une loi inutile si cela vous amuse...

M. Philippe Bas, président. - Nous avons d'autres occasions de nous amuser...

Me Christophe Bigot. - C'est une loi inutile, et qui peut être dangereuse si on commence à assimiler fausse information et information controversée ou mal présentée, ce qui aurait des conséquences en matière de liberté d'expression en période électorale.

Si l'on peut aisément identifier et signaler des comptes ou des contenus pédopornographiques, je ne vois pas comment une plateforme pourrait identifier une fausse information. Pour le cas du compte offshore prêté à Emmanuel Macron, un militant de la République en Marche peut le signaler à Google mais Google n'a pas les moyens de déterminer si c'est une fausse information ou non.

Cela dit, cette proposition de loi comporte des pistes prometteuses. D'abord, il peut être intéressant de cibler la diffusion massive et artificielle car celle-ci est un indice presque certain qu'on a affaire à une fausse information ou, en tout cas, à une information diffusée avec malveillance à une échelle industrielle. Cette notion de diffusion massive et artificielle est intéressante aussi car elle évite de mettre sous pression les vrais médias, les médias d'information.

Il est aussi opportun de renforcer la distinction entre l'information et la publicité ou la communication. Certes, nous avons déjà des textes qui prescrivent que toute information sponsorisée doit être signalée comme telle. On pourrait aussi ajouter une distinction entre ceux qui s'expriment de manière anonyme et ceux qui le font à visage découvert.

M. Hervé Brusini, directeur délégué au numérique, à la stratégie et à la diversité au sein de la direction de l'information de France Télévisions. - Je suis au coeur de la tempête, comme tous les journalistes qui ont subi cette dévastation de la confiance. Le phénomène n'est pas nouveau : en 1897 on a interrogé les Français sur la responsabilité des journalistes. Qu'avaient-ils fait de leur pouvoir ? Les plus belles signatures - Zola, Jaurès et d'autres - ont répondu à ce qui était déjà un débat national sur le déficit de confiance. La revue Le temps des médias donne un texte datant de 1700 sur la fabrication des fausses informations dans la fameuse Gazette de M. Renaudot, qui était pourtant un brave homme...

Dans la constitution d'un corpus nécessaire à l'éducation à l'information, les journalistes ont un rôle très important. L'éducation aux médias, actuellement, est en pièces détachées : son corpus est loin d'être rassemblé, pertinent et efficace et il serait bien difficile de trouver en librairie le grand livre qui nous permettrait de faire correctement ce travail.

La démocratie passe par l'éducation et, donc, par l'éducation aux médias. Comme le service public est un des responsables - j'allais dire un des coupables - en la matière, il nous incombe aussi de constituer le corpus de l'éducation aux médias, notamment avec l'éducation à l'image. Il y a quelques mois, a circulé une image des pyramides couvertes de neige. Le monde entier - y compris des habitants du Caire - a repris cette image sans aller voir ce qu'était la météo au Caire ce jour-là. En l'espèce, il n'y avait pas de malveillance.

Je trouve significatif qu'on soit obligé de faire une clarification du concept qui nous rassemble. De quoi parlons-nous ? De fausses nouvelles, de « fake news », de désinformation, de mal-information ? La précision du concept est essentielle.

Nous devons aux Français, qui ont la gentillesse de payer leur redevance, un vrai travail de journaliste, et nous devons rendre des comptes. La régulation est donc bienvenue. Nous avons été tellement secoués par un certain nombre de scandales, comme la fausse mort de Martin Bouygues, que la moindre des choses est de mettre en place des procédures garantissant une information de qualité, c'est-à-dire vérifiée. Déjà, nous nous astreignons à ne sortir une information qu'après une vérification puissante. Cela dit, on peut toujours nous critiquer. L'information n'est pas scientifique, c'est une activité humaine. Et pour cette raison, les contraintes doivent être d'autant plus fortes.

Pour le service public, cela signifie d'abord la promotion de l'éducation aux médias. Le service public ne peut pas déroger à sa responsabilité d'aller au contact des écoles ; il doit produire des modules de formation, y compris parfois en jouant avec le feu, c'est-à-dire en permettant aux élèves de fabriquer de la fausse information pour qu'ils comprennent comment tout à coup l'un de leurs camarades peut devenir un personnage épouvantable, chassé par tout le monde. Et, à l'antenne, nous devons absolument faire apparaître la transparence de nos procédures. Cette pédagogie de l'information au moment même de sa diffusion aide à lutter contre la fausse information.

Bref, les journalistes de France Télévisions s'interrogent beaucoup sur ces propositions de loi. Pourquoi ne pas garder l'arsenal existant ? En 1881, ce fut une bouffée d'oxygène extraordinaire pour l'information, et cette loi eut même un retentissement mondial. Il a été dit que les propositions de loi dont nous parlons peuvent avoir le même impact, mais comme textes liberticides.

Nous sommes prêts à réfléchir aux mesures permettant au public, notamment les jeunes, de distinguer les vraies informations des fausses. J'étais ce matin à Radio France devant près de 400 jeunes filles venues des quartiers. La plupart savaient ce que sont les Illuminati. C'est une alerte incroyable !

M. Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique. - La transparence des algorithmes est un sujet essentiel. Toutes les plateformes en utilisent, qu'il s'agisse de Facebook avec ses fils de News, de YouTube, de Google et ces algorithmes sont parfaitement opaques. Je vous invite tous à vous référer à l'excellent ouvrage The Black Box Society, de Frank Pasquale. L'auteur plaide pour une transparence qualifiée. Bien sûr, le code source d'une application est totalement illisible pour le grand public, mais il faut que des experts soient à même d'analyser ces codes quand il y va de notre vie : bientôt se poseront des problèmes sur les algorithmes des voitures sans pilote, qui devront faire l'objet d'un véritable débat démocratique pour savoir quels seront leurs comportements en situation d'accident.

De même, le choix des informations qui intervient sur des plateformes comme Google News ou comme le fil de News de Facebook, et peut-être surtout sur YouTube, est extraordinairement important. Pour l'instant nous n'y avons pas accès, ces algorithmes demeurant des secrets industriels. Mais, lorsqu'il est question d'enjeux aussi sensibles que le devenir de nos démocraties et le fonctionnement de nos sociétés, ce manque de transparence n'est pas soutenable.

Il commence à y avoir des études sur l'impact émotionnel, voir idéologique, de ces algorithmes. L'université de Cornell à New York et l'Université de Californie ont mesuré l'impact émotionnel d'une modification du fil de News de Facebook sur 700 000 personnes : qui dit manipulation émotionnelle dit sans doute, avec l'usage de l'intelligence artificielle, manipulation idéologique. De même qu'il y a quelques années il y a eu un avant et un après Snowden, je crois qu'il y aura un avant et un après Cambridge Analytica. Nous pensions que la bonne volonté des acteurs suffirait pour réguler le système, mais cette idée se heurte à la dure réalité de la manipulation, des intérêts économiques et des conflits géopolitiques.

Nous avons vu l'intervention stratégique d'un État étranger dans le fonctionnement démocratique de l'élection américaine, ainsi que, probablement, dans le vote sur le Brexit et sans doute aussi dans d'autres élections, y compris notre élection présidentielle. L'autorégulation a clairement montré ses limites et même, sur ces points, a échoué. À preuve, l'un des partisans et pionniers historiques d'Internet, Tim Berners-Lee, en a appelé récemment à la loi. Un éditorial du New York Times expliquait d'ailleurs récemment que le problème n'est pas Facebook, mais le fait que nos lois soient beaucoup trop molles en matière de protection de la vie privée. Un autre édito dans le même journal expliquait que l'Europe était en train de montrer le chemin, ajoutant que le nouveau monde doit aussi apprendre de l'ancien !

Le RGPD aura un impact bien au-delà des frontières de l'Union européenne : le consommateur américain sera touché par ses dispositions sur la protection des données. De fait, ce qui s'est passé avec Facebook de Cambridge Analytica était entièrement légal : les utilisateurs avaient donné leur accord - évidemment non éclairé au sens où nous l'entendrions en Europe. Ensuite, cette compagnie a ouvert les vannes de telle sorte que quelques centaines de milliers de personnes permettent de capter 50 millions de profils et d'en faire une moisson pour aller influencer une élection. L'élection américaine s'est jouée à 90 000 voix dans quelques États-clés. Or il est quasiment certain qu'une telle machine de guerre, en collusion possible avec des intérêts étrangers, a pu influencer 90 000 électeurs.

Nous devons donc nous interroger sur les algorithmes qui font fonctionner les plateformes. Si vous regardez une vidéo relative au massacre de Parkland, vous constatez que la vidéo suivante est celle du patron de la NRA, le lobby des armes. De même, si vous regardez des vidéos sur les attentats, YouTube vous présente ensuite des vidéos de plus en plus atroces. Je ne dis pas cela pour stigmatiser cette plateforme : la raison est tout simplement que l'algorithme détecte que les utilisateurs restent plus longtemps sur ces vidéos et que le modèle économique de ces plateformes est de montrer de la publicité.

Marc Zuckerberg, interviewé il y a deux jours, est revenu longuement sur ces questions et a indiqué qu'au mieux il faudrait plusieurs années pour rectifier le tir. Nous devons nous interroger sur les limites que nous souhaitons imposer à ces plateformes en tant qu'État démocratique et en tant qu'Union européenne. Penser qu'elles se réguleront elles-mêmes est une illusion. D'autant que la prochaine menace est celle de la manipulation de masse par des robots, qui pourront cibler certaines personnes en fonction des informations fournies par les plateformes. Et l'étape suivante est encore plus inquiétante : bientôt, l'usage de l'intelligence artificielle servira à dissimuler l'intervention des robots - au point qu'il faudra avoir recours aussi à l'intelligence artificielle pour les déceler.

Bref, ces questions qui ont fait irruption très rapidement, en une décennie environ, sont devenues si importantes pour l'avenir de nos sociétés que nous ne pouvons plus nous permettre le luxe de la naïveté.

Lawrence Lessig est légitimement inquiet. Il explique que, si notre société pouvait être jusqu'à présent captée par des groupes d'intérêts, elle peut désormais l'être par des puissances technologiques, y compris étrangères. À cet égard, la portée des propositions de loi est trop étroite puisqu'elles se focalisent sur la période préélectorale, en oubliant l'ensemble des phénomènes qui peuvent modifier le climat dans lequel les élections se déroulent. Le Brexit sera un terrain d'étude extraordinairement important dans ce domaine.

Un autre universitaire américain, philosophe et constitutionnaliste, M. Katzenstein, a écrit un ouvrage sur ces questions, et il considère qu'une démocratie digne de ce nom met en contact ses citoyens non seulement avec des opinions différentes, mais aussi avec des opinions qui les dérangent. En effet, l'élection américaine a montré qu'à force de n'être mis en contact par la régulation algorithmique qu'avec des opinions proches des siennes, chacun se radicalise. Si nous ne mettons pas chacun en contact avec des opinions abrasives, nous aurons perdu beaucoup de ce que nous considérons comme l'essentiel du débat démocratique. Il faudra donc une régulation par la loi. Cela aura un impact sur nos voisins et, d'ailleurs, l'opinion publique anglo-saxonne est en train de se rendre compte que ce qui a toujours été perçu comme le juridisme européen était en fait précurseur, puisque nous avons toujours été soucieux de protéger les données personnelles, qui sont bien la donnée de base pour le micro-targeting qu'on dénonce aujourd'hui.

M. Claude Malhuret. - Je pense aussi qu'il ne faut toucher à la liberté d'expression, comme disait Nietzsche, qu'avec des pattes de colombe. Pour autant, la démonstration que vous avez faite, maître Bigot, ne m'a pas convaincu. Vous dites que nous avons un arsenal législatif suffisant. Mais les sanctions prévues et appliquées sont ridicules. Pensez-vous qu'elles soient dissuasives pour M. Poutine lorsqu'il fait diffuser les emails de Mme Clinton ou qu'il répand le bruit qu'Emmanuel Macron a un compte offshore ? Il nous faut donc de nouveaux outils. En effet, monsieur Benhamou, ces propositions de loi, en se bornant à la période préélectorale, ne vont pas assez loin. Et les sanctions qu'elles prévoient sont également insuffisantes.

Mme Morin-Desailly avait raison d'appeler à la précision du concept. Il en existe plusieurs catégories et le mot « fake news » est devenu un mot-valise. Si nous ne distinguons pas plus finement, nous ne trouverons pas les bons outils de lutte contre ce fléau : tout texte aura une portée trop générale et sera légitimement combattu au nom de la liberté d'expression.

Je vois pour ma part au moins trois catégories. Il y a d'abord les milliards, ou les millions, d'abonnés, « d'idiots de base », qui trouvent amusant de propager des rumeurs. À cet égard, la réponse adéquate est l'éducation et les Gafam doivent prendre des engagements fermes en ce domaine. Mais nous n'allons pas poursuivre des particuliers par millions...

Deuxième cas : lorsque des organisations, commerciales, ou même terroristes, font de la désinformation. L'autorégulation, en effet, a échoué et le législateur a une responsabilité sur ce point.

Troisième catégorie : la désinformation faite par un État. C'est autre chose, puisque nous parlons alors d'une guerre numérique, ou à tout le moins d'hostilités. On voit bien, par exemple, comment la Russie cherche de cette manière à casser l'Europe ou a tenté de peser sur l'élection américaine. Pour lutter contre cela, ce n'est pas d'une loi dont nous avons besoin mais de courage politique. Or, quelques mois après qu'Emmanuel Macron a expliqué devant M. Poutine que Russia Today n'était pas un site d'information mais un site de propagande - exactement comme, à la fin de l'ère Brejnev, le Direktorat D du KGB - le Conseil supérieur de l'audiovisuel (CSA) accepte sans aucune difficulté l'enregistrement de cette chaîne, sur le même pied que France Télévisions !

Mme Sylvie Robert. - Ce débat est aussi passionnant que vertigineux. La première question, en effet, est : de quoi parle-t-on ? Je ne sais s'il faut procéder à une classification, mais nous devons, en tout cas, être vigilants sur la défense de la liberté d'expression. Derrière les fausses nouvelles, il y a toujours des finalités, des objectifs. C'est peut-être par là qu'il faudrait préciser le périmètre de ce texte. En effet, l'éducation et la formation aux médias sont fondamentales, dans ce contexte. Pour rétablir la confiance, la garantie que l'information est vérifiée est indispensable. Existe-t-il un moyen de vérifier en temps réel si l'information est garantie ? Comment lever le doute ?

M. Bernard Benhamou. - Il est possible de tracer un graphe quasiment en temps réel sur la diffusion d'une nouvelle. On y voit aisément si des pôles semblent artificiels, ce qui permet de détecter les robots. Mais cela deviendra de plus en plus compliqué avec le temps car l'intelligence artificielle apprendra comment faire en sorte de ne pas éveiller les soupçons. Il est impératif que nous développions la recherche sur ces sujets, notamment en multipliant le nombre de doctorants qui s'y consacrent.

Mme Divina Frau-Meigs. - À cet égard, nous sommes amputés. Nous avons beaucoup de mal à avoir accès aux données. Certaines plateformes sont réticentes, d'autres plus ouvertes : c'est le cas de Twitter qui, du coup, est la plus critiquée parce que les chercheurs peuvent montrer son mode de fonctionnement. Des recherches au Royaume-Uni ont révélé qu'il faut deux heures pour montrer qu'une rumeur est une vraie information, mais quatorze heures pour prouver qu'elle est fausse. Quatorze heures, une veille d'élection, cela peut être fatal. Je souhaite que les chercheurs aient un plus large accès aux données des plateformes, y compris sur de longues périodes, sans pour autant menacer leurs secrets.

M. Hervé Brusini. - Une étude récente a montré qu'il y a sept fois plus de chances qu'une personne répercute une fausse information qu'une vraie. L'éducation est donc une nécessité impérative. Nos adolescents, les jeunes, peuvent faire preuve de crédulité - comme ceux que j'ai rencontrés ce matin à France Télévisions et qui connaissaient tous les Illuminati. Ce ne sont pas des idiots, ce sont simplement des jeunes : nous lisions Le Club des Cinq, eux se délectent d'autres histoires de complot. Le problème est que, pour eux, c'est devenu une grille de lecture de la vie et une négation de la valeur de la vérité. Sur notre chaîne, nos journalistes savent chasser la fausse information, au besoin avec des outils retraçant le parcours d'une vidéo, mais aussi, tout simplement, avec de l'esprit critique.

M. Olivier Paccaud. - Je comprends que les Gafam s'engagent à faire preuve d'une vigilance accrue pour mieux museler la diffusion de certaines fausses informations. Tant mieux ! Mais le risque zéro n'existe pas et n'existera jamais. De fait, la mauvaise information est aussi vieille que la propagande politique, et on peut remonter sur ce point à César et à sa Guerre des Gaules !

Cela dit, la « fake news » est, en elle-même, une information. Bien sûr, il faut lutter contre la diffusion des fausses nouvelles et renforcer l'éducation aux médias - à cet égard, je m'inquiète de voir que la part des sciences économiques et sociales risque d'être réduite dans le futur baccalauréat, alors qu'elles sont, avec la philosophie et la littérature, l'un des meilleurs moyens pour lutter contre l'emprise des « fake news ».

Le travail de journaliste, c'est de vérifier l'information. Au sein des écoles de journalisme, existe-t-il des modules consacrés à ce sujet ? Les récentes affaires ont-elles modifié la manière de travailler des journalistes ?

M. Pierre-Yves Collombat. - Ce débat me laisse perplexe, non pas qu'il ne soit pas important - la question est fondamentale - mais parce qu'il y a peu, on nous expliquait que l'avenir de la démocratie, c'était Internet et les réseaux sociaux, qui allaient sauver cette pauvre démocratie représentative qui était en train de mourir. Et voilà qu'on découvre que ce bistrot à dimension mondiale pose aussi un certain nombre de problèmes !

Et lorsqu'on est confronté à des résultats électoraux qui dérangent, qu'on ne souhaitait pas et qu'on n'attendait pas, on imagine tout de suite un complot - et, bien entendu, les Russes en sont responsables.

Mais la réalité est qu'un certain nombre de politologues américains avaient prévu l'élection de M. Trump. Ils savaient que l'élection se jouerait dans la Rust Belt, qui votait massivement pour les démocrates et qui a basculé. Notons d'ailleurs qu'Hillary Clinton n'y a même pas tenu un seul meeting... De même, les régions qui ont voté pour le Brexit étaient des régions à l'abandon.

Ce qui me frappe le plus dans la fabrication de l'opinion, pour reprendre la formule de Chomsky, ce ne sont pas les « fake news », c'est la sélection de l'information. Il y a des choses dont on ne parle jamais. Résultat : comme nos concitoyens entendent toujours la même chose, quand ils entendent quelque chose de complètement stupide, ils trouvent cela formidable et porteur d'information.

Quant aux algorithmes, si vous cherchez « dette publique » sur Internet, les résultats abondent. Si vous cherchez « dette privée », rien ! Bien sûr, l'éducation est un rempart utile, mais nous n'avons pas besoin d'une éducation aux médias, ou au numérique : ce qu'il faut, c'est une fabrication de l'esprit critique. Et cela ne se fait certainement pas en acquérant des compétences, comme une mode américaine le veut depuis une vingtaine d'années - au contraire. Cela permet de mettre les choses en perspective. Mais, comme disait le Général, c'est un vaste programme...

M. Laurent Lafon. - Ce qui est nouveau, ce n'est pas la désinformation, mais la diffusion des informations, vraies ou fausses, à l'échelle planétaire. Comment faire appliquer une loi nationale à l'échelle des réseaux sociaux ? L'auteur des « fake news » n'est pas toujours localisable : faut-il alors sanctionner le diffuseur, plus facilement identifiable ?

Mme Sonia de la Provôté. - La question de l'anonymat est majeure. En Estonie, chaque citoyen peut participer à la fabrique de la loi, sous réserve que son identité soit connue, ce qui, d'après les personnes chargées de piloter ces dispositifs, éradique les contributions malveillantes. L'anonymat sur Internet, nous le constatons tous, ouvre la voie à toutes sortes de dérives.

M. Benoît Tabaka. - Je vous rejoins sur l'importance de l'éducation au numérique. L'initiative publique est en la matière très importante, pour aider les personnes à décoder les informations. On ne pourra certes pas éradiquer les « fake news », qui circulent depuis la nuit des temps, mais on peut améliorer l'éducation.

Je suis en désaccord avec M. Benhamou, pour qui si on peut identifier un schéma de communication de l'information, on ne peut vérifier l'information elle-même. Lors de la dernière campagne présidentielle, le collectif CrossCheck et plusieurs rédactions ont publié près de 70 articles qui montrent le contraire. Témoin de l'attaque du Bataclan, j'ai par exemple été le premier à twitter que des coups de feu y étaient tirés et que des personnes en sortaient en sang. Comment traiter cette information d'un point de vue journalistique ? Grégoire Lemarchand, de l'Agence France-Presse (AFP), a très bien montré tout le profit tiré par les journalistes des réseaux sociaux pour couvrir le sujet en temps réel - avec un léger décalage, naturellement.

Il existe déjà une forme de régulation. Pour l'heure, elle ne prend la forme que d'une autorégulation car les concepts sont flous. Une étude d'impact permettrait de mieux circonscrire le phénomène qu'il est question pour le législateur d'encadrer.

Me Christophe Bigot. - On peut toujours ajouter des zéros au montant des amendes... L'Allemagne l'a fait, avec pour résultat que les plateformes qui reçoivent des signalements retirent aussitôt les contenus sans vérifier quoi que ce soit. En outre, il est très facile de se rendre anonyme sur le Net : qui le juge des référés sanctionnera-t-il ? Une loi qui se limiterait à ces aspects n'aurait donc qu'une portée limitée.

M. Bernard Benhamou. - Il est vrai que les internautes ne se comportent pas de la même façon selon qu'ils sont identifiables ou anonymes. L'exemple estonien est fascinant, mais il n'est pas reproductible dans un pays de 66 millions d'habitants. De plus, les outils d'anonymisation sont utilisés aussi bien dans nos démocraties qu'en Chine, par les dissidents rétifs à ce que les autorités contrôlent les déplacements de leurs 1,3 milliard d'habitants... Ce sont les mêmes techniques cryptographiques qui couvrent parfois des actes délictueux ou terroristes sous nos latitudes et qui protègent la liberté sous d'autres. Il n`existe donc pas de one size fits all, de taille unique, en matière de régulation. Lutter contre les délits de manipulation de l'opinion par achat massif de petites mains actives sur les réseaux sociaux dans des pays à bas coût de main d'oeuvre est aussi un combat géopolitique, qu'il faut mener à l'échelle européenne. Dans la gouvernance d'Internet, les parties prenantes sont en principe placées sur un pied d'égalité, mais en cas de crise de confiance systémique - c'est désormais le cas puisque l'on soupçonne à présent des officines de Cambridge Analytica d'avoir aussi influencé des scrutins colombien, argentin ou mexicain -, nous devons cesser de nous payer de mots et formuler des exigences de transparence plus strictes.

Mme Divina Frau-Meigs. - Je crois à l'importance de la définition, mais surtout à la démonstration des mécanismes et des leviers de la mal-information, qui permettent de remonter aux acteurs qui en sont responsables. Le premier est la monétisation de la publicité par d'autres acteurs que les entreprises elles-mêmes - c'est ce qui a motivé la création de ces fermes de serveurs moldaves ou macédoniennes travaillant à soutenir Donald Trump -, monétisation dans laquelle les plateformes sont impliquées. Deuxième mécanisme : la viralité, pas seulement celle du clic, mais ces logiques de trolling et d'astroturfing, qui expliquent l'implication de Facebook dans ces affaires : la plateforme compte en effet deux milliards d'individus réels que l'on peut cibler en faisant fi des frontières...

La solution ? Se doter de médias sociaux européens. Comment se fait-il que nous n'ayons pas laissé nos réseaux sociaux atteindre une taille critique ? C'est un scandale ! Les Russes ont leurs propres réseaux sociaux, de même que les Chinois, qui les vendent à présent en Amérique latine et en Afrique. Développer cette dorsale et les conduire à une taille critique à l'échelle de l'Europe suppose des incitations, des aides, des financements. Nous avons bien essayé avec les moteurs de recherche... Qwant ne représente que 4 % du marché, faute d'éducation au numérique. Or plus on le soutient, plus il s'améliore. Il faut aussi que les acteurs en position dominante sur ce marché lui laissent de la place. Une enquête sectorielle serait utile pour prendre les bonnes décisions. Cela suppose d'encourager la recherche.

L'éducation aux médias, quand elle est faite par les journalistes ou les Gafam, n'est que du branding. Google ne fait pas de l'éducation aux médias, mais de l'éducation au numérique : nuance. France Inter, elle, fait de l'éducation aux médias, mais son émission est programmée le dimanche à 6 h 30 du matin. La cible est-elle touchée ? J'en doute. Google affirme former 5 millions de personnes au numérique, mais un représentant de l'entreprise m'a dit travailler à former des gens à créer leur business en ligne ! Il existe ailleurs des centres de recherche sur les menaces hybrides, qui travaillent à comprendre cette cyber-guerre froide dans laquelle les réseaux sociaux sont impliqués contre leur gré. Je crois aux réseaux de chercheurs pour trouver des solutions : nous gagnerions à nous doter d'un tel outil.

Je rejoins M. Benhamou sur la question de l'anonymat. Les pays qui ne supportent pas la dissidence appliqueraient notre régime de restriction de l'anonymat et nous porterions la responsabilité morale des mauvais traitements infligés aux journalistes et aux lanceurs d'alerte.

M. Hervé Brusini. - Parler d'éducation aux médias, lorsque l'on est membre du service public, n'est pas du branding. L'émission de France Inter peut être réécoutée en ligne : la délinéarisation permet de toucher aussi les jeunes générations.

Oui, le numérique a chamboulé le journalisme, en le forçant à descendre de son piédestal pour répondre aux questions des gens. Le numérique suppose une conversation, et la régulation vient précisément du dialogue. Vous avez dit une bêtise ? Nous avons, journalistes, le devoir de répondre. La conversation est constitutive du journalisme numérique contemporain.

Je finirai sur une note positive : la fausse information nous a agressés, et nous allons enfin à la confrontation. Nous ne sommes plus subjugués par le déferlement du numérique qui remettrait en cause la télévision ou la presse écrite, nous livrons une bataille décisive pour la citoyenneté européenne - et peut-être au-delà ! Elle le sera à bon escient grâce aux chercheurs et à une dorsale européenne.

M. Philippe Bas, président. - Nous vous remercions pour l'éclairage que vous avez apporté à nos travaux en votre qualité de journaliste, juriste, universitaire, responsable de réseaux sociaux et spécialiste des stratégies numériques. Nous nous apprêtons à recevoir deux propositions de loi de l'Assemblée nationale ; nous jouerons ensuite notre rôle de chambre de réflexion. Ces matières, complexes, dépassent les enjeux des campagnes présidentielles. Nous avons déjà pu les aborder lors de l'examen du projet de loi pour une République numérique, mais les perspectives que vous ouvrez sont d'une toute autre ampleur : elles ont une dimension technique, pénale, touchent à des questions de responsabilité... Bien que les faits qui les génèrent aient toujours existé, les enjeux de régulation sont nouveaux, car les nouveaux médias offrent à la rumeur une rapidité de diffusion - deux heures pour la propager, quatorze pour la corriger, disiez-vous - qu'elle n'avait pas dans le bocage normand !

Mme Catherine Morin-Desailly, présidente. - Nous vous remercions d'avoir accepté de participer à cette table ronde qui ouvre nos travaux. Vous avez singulièrement enrichi notre réflexion. Internet est un nouvel espace politique et, en tant que tel, il doit être investi par le législateur.

Table ronde avec les responsables de l'information de France Télévisions, M6, CNews, France 24, Europe 1 et Franceinfo

MERCREDI 13 JUIN 2018

___________

Mme Catherine Morin-Desailly, présidente. - Le projet de loi initialement intitulé de « lutte contre les fausses informations » aurait dû être adopté par l'Assemblée nationale jeudi dernier, mais les députés ont arrêté son examen à l'article 1er à l'issue d'un débat passionné qui a mis en lumière de nombreuses inquiétudes sur certaines dispositions de ce texte. Comme vous le savez, le droit existant et notamment la loi du 29 juillet 1881 sur la liberté de la presse prévoient déjà un corpus juridique étoffé pour garantir la véracité de l'information et un débat public de qualité. La proposition de loi qui a été renommée et qui vise dans son nouvel intitulé à lutter contre la manipulation de l'information a pour ambition de répondre à de nouvelles pratiques, qui se développent sur les réseaux sociaux avec l'aide de robots, pour porter atteinte à la sincérité de certains scrutins. L'objectif est louable mais les dispositions juridiques peuvent interpeller.

J'ai déjà pu échanger avec les directions de certains médias qui sont unanimes à considérer que ce texte pose plus de problèmes qu'il ne permet d'en résoudre. J'ai souhaité ce matin que nous allions plus loin en commission en donnant la parole aux professionnels de l'information. Je souhaite donc la bienvenue en notre nom à tous à MM. Donat Vidal-Revel, directeur délégué à l'information d'Europe 1, Pascal Doucet-Bon, directeur délégué à l'information de France Télévisions, Vincent Giret, directeur de Franceinfo, Thomas Bauder, directeur délégué à l'information de CNews, Stéphane Gendarme, directeur de l'information de M6 et Marc Saikali, directeur de l'information de France 24.

Je vous propose que chacun des intervenants prenne la parole pour cinq minutes afin de nous faire part de son sentiment sur les questions posées par le développement des fausses informations, sur la façon dont les journalistes traitent ces questions, sur les méthodologies et la déontologie qui permettent de séparer le bon grain de l'ivraie.

M. Pascal Doucet-Bon, directeur délégué à l'information de France Télévisions. - À France Télévisions, nous attachons une importance particulière à la définition retenue pour la fake news. En effet, la fake news n'est pas une fausse information, elle fait référence à une information contrefaite et une manipulation organisée de l'information.

M. Donat Vidal-Revel, directeur délégué à l'information d'Europe 1. - À Europe 1, nous sommes conscients de la complexité du sujet et nous ne sommes pas opposés à une loi. La diffusion de fausses informations peut constituer une véritable arme contre la démocratie. Pour autant, la question de sa régulation n'est pas aisée. Nous sommes déjà soumis à des règles contraignantes à travers notre comité d'éthique, la loi Bloche sur l'indépendance des médias et les missions du Conseil supérieur de l'audiovisuel (CSA). Notre travail consiste à animer l'équipe de rédaction et, toute la journée, nous vérifions des informations. Par conséquent, d'un côté, il y a des plateformes qui ne font l'objet d'aucune régulation - par exemple elles n'ont pas de comité d'éthique - et de l'autre il y a des journalistes qui vérifient et sélectionnent les informations. On pourrait s'inspirer de la logique du pollueur-payeur et l'appliquer aux plateformes qui diffusent des arguments faux sans les vérifier à travers la mise en place d'un fonds qui financerait le travail de vérification et de recoupement des sources mené par les journalistes. Par ailleurs, plutôt que de se focaliser sur la nécessité de faire disparaître des informations sciemment fausses, on pourrait promouvoir les produits sûrs. C'est la démarche entreprise par Reporters sans frontières avec la mise en place d'un label validant la qualité des producteurs d'informations vérifiées et validées.

M. Stéphane Gendarme, directeur de l'information de M6. - L'examen de la proposition de loi sur les fausses informations soulève trois interrogations. La première porte sur la définition des fake news, qu'il convient de revoir. La deuxième concerne les conséquences du référé. La troisième est en lien avec la période de réserve à la veille et le jour du scrutin à laquelle sont soumis les médias audiovisuels et qui limiterait leur intervention en cas de diffusion d'une fausse information. Il faudrait donc assouplir ce régime.

Mme Catherine Morin-Desailly, présidente. - À ce stade de la discussion, je vous interroge collectivement sur la possibilité de trouver une définition des fake news à la fois suffisamment précise pour ne pas remettre en cause la liberté d'expression et néanmoins suffisamment large pour être efficace.

M. Marc Saikali, directeur de l'information de France 24. - Je ne pourrai pas répondre à votre question à brûle-pourpoint, il faut me laisser cinq minutes de réflexion ! Je ferai quatre remarques à propos de la proposition de loi. D'abord, quid de l'application du principe de réciprocité ? Dans un certain nombre de pays dans lesquels nous sommes implantés, les dirigeants nous expliquent qu'ils ont été élus démocratiquement et que s'ils disposent d'un mandat illimité, c'est pour le bien de leur pays. La suspension de la diffusion d'une radio ou d'une télévision étrangère pourra donc conduire à l'expulsion de nos journalistes. Par ailleurs, nous nous interrogeons sur le laps de temps - 48 heures - laissé au juge des référés pour prescrire les mesures visant à faire cesser la diffusion de la fausse information. Il paraît court, mais il est en réalité infini à l'échelle de temps des réseaux sociaux. Le fait de lutter contre les fake news uniquement en période électorale peut également inciter certaines puissances étrangères à lancer une campagne dénonçant la volonté de l'État français de museler la liberté d'expression au moment des élections. J'ajoute que la lutte contre les fake news passe par l'éducation aux médias, à l'instar de ce que nous faisons en collaboration avec France 2 avec la mise en place du programme Info ou intox qui décrypte les formes que peut prendre la manipulation à travers les images.

M. Thomas Bauder, directeur délégué à l'information de CNews. - Le journalisme reste la meilleure arme contre les fake news, dont l'action est encadrée par un comité d'éthique, une charte, le CSA et la société de journalistes. Quelle est la différence entre l'information et les fake news ? L'information est vérifiée et elle fait l'objet de délibérations constantes au sein de la rédaction : faut-il diffuser cette information ? Combien de temps accorder à telle information ? Ce sont des sujets abordés constamment par les journalistes. Enfin, l'information est réversible : à chaque étape de sa production, elle peut être retirée pour être retravaillée ou supprimée définitivement. Au contraire, les fake news ne sont pas réversibles. Je suis prudent en ce qui concerne la labellisation. Les journalistes ne sont pas des jambons ! Toutefois, il me semble qu'il faut distinguer les sites d'actualité des sites d'information qui impliquent un travail journaliste de vérification. À l'instar du protocole HTTPS développé pour les connexions sécurisées, il pourrait être mis en place un protocole HTTPI qui distinguerait les sites d'information des autres sites diffusant de l'actualité.

M. Vincent Giret, directeur de Franceinfo. - Le phénomène des fake news concerne les journalistes, mais également la société tout entière car son amplification à travers les réseaux sociaux est capable de troubler le processus électoral et de remettre en cause la démocratie. Au-delà de la déclaration de principe sur le journalisme comme arme pour lutter contre les fake news, nous journalistes avons une réelle responsabilité dans l'exercice de notre métier. Ainsi, notre rédaction avait sciemment refusé de reprendre « l'information » qui circula sur le candidat Emmanuel Macron le dernier jour de la campagne présidentielle. Parmi les éléments intéressants de la proposition de loi, je retiens la mise en place d'une traçabilité avec l'introduction d'une obligation de transparence concernant les contenus « sponsorisés » par l'intermédiaire des réseaux et des moteurs de recherche. En revanche, je partage les réserves de mes collègues sur les aspects juridiques, et notamment sur l'instauration d'une procédure de référé. Enfin, je suis favorable à la prise en compte du critère de manipulation pour définir la fake news car cela permet de protéger la liberté d'expression. En revanche, cette définition rendra très difficile la qualification de l'information comme fake news et je doute de l'utilité de la loi pour contrer les phénomènes observés récemment.

Mme Catherine Morin-Desailly, présidente. - Avant de donner la parole à chacun des groupes politiques, je voulais vous poser plusieurs questions. Pouvez-vous tout d'abord approfondir la définition d'une fausse information ? Concernant la labellisation les médias qui en bénéficieraient, ne risquent-ils pas de devenir des cibles en incarnant une « information officielle » ? Que se passera-t-il lorsque le juge des référés refusera le retrait d'une information ? Celle-ci pourrait-elle s'en retrouver légitimée ? Pourrez-vous préciser votre position concernant l'article 9 qui étend la compétence du CSA au numérique et l'article 9 bis qui prévoit des accords de coopération pour lutter contre les fausses informations ?

M. Marc Saikali. - La labellisation constituerait un risque si elle devait concerner les structures et non les contenus puisque une institution bénéficiant d'un label pourrait diffuser des fausses nouvelles sans être inquiétée. La nouvelle compétence reconnue au CSA est une bonne chose puisqu'on peut dire aujourd'hui n'importe quoi sur Internet. La période de réserve lors des scrutins ne permet pas aux journalistes de dénoncer les fausses informations. Lors de l'élection présidentielle lorsque le candidat Emmanuel Macron avait été mis en cause, France 24 avait néanmoins relayé la parole de la commission électorale.

M. Pascal Doucet-Bon. - La notion de manipulation qui est introduite dans le texte constitue un progrès mais elle reste vague, le terme de contrefaçon apparaît adapté puisqu'il suppose que le produit livré n'est pas réel et qu'une organisation est à l'oeuvre ce qui démontre l'intentionnalité. Nous sommes circonspects quant à l'idée de label appliqué aux structures mais ouvert à la labellisation des informations. La création d'un label a priori pourrait toutefois susciter de la méfiance.

Je peux citer le cas d'une journaliste qui anime « What The Fake », à qui j'ai proposé d'intervenir dans le journal télévisé ; celle-ci a refusé au nom du fait que sa démarche pourrait revenir à s'inscrire dans le « grand complot des médias établis ». Le délai de 48 heures reconnu au juge des référés est court et il existe un risque de blanc-seing si le juge devait ne pas ordonner le retrait de l'information contestée. Plus la définition sera précise moins il y aura de contentieux.

Le CSA juge, quant à lui, a posteriori et non a priori, ce qui, en matière d'Internet, pourrait rendre son intervention vaine et illusoire. Pour lutter contre les fausses informations nous avons établi à France Télévisions une chaîne de vérifications. Celle-ci a permis dans le cadre de l'affaire de l'attentat de Trèbes de démontrer en dix minutes que la rumeur selon laquelle le meurtrier aurait été naturalisé français après avoir fait l'objet d'une fiche S constituait une fausse information. Un média avait repris cette fausse information avant de la démentir. Les délais du juge ne sont pas les mêmes.

M. Vincent Giret, directeur de Franceinfo. - Je viens de lire un ouvrage d'Olivier Galland et Anne Muxel sur la jeunesse radicale qui montre comment tout ce qui a tendance à institutionnaliser les médias se retourne contre eux auprès de certaines populations qui sont dans la méfiance. Dans ce cadre, le label constitue une fausse bonne idée qui assimile le média au « système ». Aux États-Unis, des études ont montré que les médias qui comptabilisaient les fausses nouvelles diffusées par Donald Trump n'ont pas tiré bénéfice de cette activité.

Les médias doivent travailler leur éthique et assumer leur responsabilité, ils peuvent mutualiser leurs moyens. L'élargissement des compétences du CSA au numérique constitue une évolution naturelle. Il faut reconstituer des « digues de confiance » et la loi ne pourra pas suffire à elle seule.

M. Donat Vidal-Revel. - La démarche de labellisation apparaît contre-productive. Il me semble préférable d'envisager une démarche qui viserait à surpondérer le référencement des médias professionnels qui produisent des informations. On ne peut traiter en effet de la même manière des sources inconnues et des institutions professionnelles. Cette contrainte algorithmique pourrait tenir compte, par exemple, de l'existence d'une société de journalistes et d'un comité de déontologie.

Le délai de 48 heures laissé au juge des référés pour trancher apparaît beaucoup trop long et pourrait être à l'origine d'effets pervers terribles.

M. Stéphane Gendarme. - Nous ne sommes pas non plus favorables à la labellisation pour les raisons qui ont été mentionnées par ailleurs. Le recours au juge des référés constitue également une fausse bonne idée. Dans l'hypothèse où le juge ne se déclarerait pas compétent, l'information gagnerait en effet en crédibilité.

La période « de réserve » pose problème puisqu'elle empêche d'intervenir pour dénoncer une fausse information comme ce fut le cas lors de la dernière élection présidentielle. L'intervention du CSA dans le champ numérique peut constituer une bonne chose mais ce sera compliqué. Les rédactions sont toujours partagées entre ne pas donner une information qui va circuler par ailleurs sur Internet et prendre le temps de vérifier les sources.

M. Claude Malhuret. - la question de la définition d'une fausse nouvelle est une fausse question. Il est impossible de trouver une réponse car la notion recouvre plusieurs réalités. Il y a tout d'abord la désinformation étatique. À l'image de Russia Today, les informations sont vraies mais traitées de telle sorte qu'elles visent à affaiblir les pays occidentaux. Les mails de Hillary Clinton constituent une autre réalité puisque la plupart étaient véridiques mais avaient fait l'objet d'un piratage de données. Les sites terroristes posent des problèmes spécifiques qui sont différents des deux précédentes catégories, alors que l'affaire de Trèbes et les manipulations de sites comme le Réseau Voltaire appartiennent à une autre catégorie. Enfin, il y a des millions d'adolescents narcissiques qui veulent provoquer en diffusant de fausses informations sur leurs pages de réseaux sociaux. On peut être reconnaissant au Gouvernement d'avoir mis le sujet à l'agenda mais cette loi n'est pas aboutie.

Concernant le label tout le monde est réticent. Ayant créé le site Doctissimo il y a 20 ans qui était confronté à des sites diffusant de fausses informations d'ordre médical, j'ai l'expérience de la création d'un label de qualité tombé en désuétude. L'expérience montre que ceux qui veulent accéder à de fausses informations sont insensibles aux labels.

Concernant les plateformes numériques, il y a un débat entre les autorités et les hébergeurs. Je pense que ces derniers devraient être considérés comme des éditeurs car ils ont les moyens de trier les informations. Seriez-vous d'accord pour inscrire ce principe dans la loi ?

M. Pierre Ouzoulias. - La diffamation, telle que définie en droit pénal, peut tout à fait s'appliquer à la fausse information. Par ailleurs, il faut valoriser les corps intermédiaires, à l'image des journalistes. Pourquoi les plateformes ne sont-elles pas soumises aux mêmes contraintes pénales que les éditeurs ? Il y a une impunité absolue à la diffusion de fausses informations sur les réseaux sociaux. Cela a été le cas dans l'affaire du SAMU alsacien où trois personnes participant à l'accueil téléphonique ont été mises en cause sur les réseaux sociaux, jusqu'à recevoir des menaces, tout comme leurs familles. Aucune poursuite pénale n'a été menée contre les auteurs de ces menaces. Il faut établir une responsabilité.

Mme Sonia de la Provôté. - La contamination de l'information résulte à la fois d'une partialité de l'émetteur et du choix du moment opportun de la diffusion afin d'assurer la multiplication des reprises. Comment, dans ces conditions, permettre une écoute éclairée ? Il n'y a pas de fatalité mais une obligation de développer l'esprit critique.

M. David Assouline. - La législation actuelle offre déjà beaucoup de possibilités. Pierre Ouzoulias nous a rappelé la définition juridique de la diffamation. De même, l'article 27 de la loi de 1881 sur la liberté de la presse sanctionne la publication, la diffusion ou la reproduction de « nouvelles fausses ». On aurait pu envisager de modifier la loi de 1881, les « fausses informations » d'aujourd'hui étant les « nouvelles fausses » de l'époque. Mais le risque de déstabilisation d'un édifice législatif qui a fait ses preuves depuis plus d'un siècle est tel qu'on a préféré le contourner... La proposition de loi relative aux fausses informations est un texte qui ne sert rien et qui peut même être dangereux. Je ne vois pas comment il va permettre de lutter contre les fausses informations. De plus, il ne permettra pas de lutter contre certains dysfonctionnements ou dérives du système médiatique. Que ferait-elle par exemple d'une information telle que celle relative à ce fait divers particulièrement affreux qui avait eu lieu la veille du premier tour de l'élection présidentielle de 2002 et qui avait fait l'objet d'un véritable matraquage médiatique au point, peut-être, de modifier le résultat du scrutin ? De même, du cas d'une information importante pour le grand public qui ne serait pas relayée par un organe de presse parce qu'elle met en cause un de ses actionnaires ?

Le texte, dans sa rédaction actuelle, prévoit que le juge disposera de 48 heures pour faire cesser la diffusion d'une fausse information. Cinq critères doivent être réunis pour cela, ce qui, à mon sens, va conduire le juge à se prononcer très rarement parce que celui-ci adoptera la prudence. J'y vois un danger : que toutes les informations qui passeront entre les mailles du filet du juge soient crédibilisées du fait qu'elles n'ont pas été attaquées !

J'identifie un autre danger. Nos démocraties sont fragiles : quelle utilisation un pouvoir autoritaire qui ne garantirait plus l'indépendance de la justice ferait-il de cette loi ?

Je suis d'accord avec les mesures concernant la régulation des contenus disponibles sur Internet par le CSA ou l'éducation aux médias mais celles-ci peuvent être intégrées à la future loi audiovisuelle. Au final, j'estime que cette proposition de loi n'est pas amendable et doit être rejetée.

M. Jean-Pierre Leleux. - Le mensonge fait partie de l'humanité et cela ne changera pas. Les réseaux sociaux offrent simplement aujourd'hui un nouveau périmètre aux fausses nouvelles, mais nous, élus, savons que cela existe depuis des siècles dans le cadre des campagnes électorales. Faut-il une nouvelle loi en la matière ou adapter la législation actuelle ? Doit-on confier au juge l'expression de la vérité ? L'éducation aux médias est-elle un moyen suffisant ? Au final, je voudrais savoir quelles sont les mesures de la proposition de loi qui, selon vous, mériteraient d'être adoptées ?

Mme Françoise Laborde. - Est-ce une bonne idée de confier le rôle de gardien de l'ordre public au CSA ? J'entrevois également des difficultés pratiques. Je pourrais vous parler d'expérience de la plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (PHAROS) mise en place par le ministère de l'intérieur et qui permet de signaler en ligne les contenus et comportements illicites de l'Internet : il est très difficile de faire fermer certains sites qui incitent à la haine ou à la violence !

Je suis très perplexe sur ce texte. Le référé est-il utile compte tenu de l'arsenal juridique existant ? Comment déterminer l'intentionnalité dans ces affaires ?

Vous nous avez dit que vous étiez amenés régulièrement à jouer un rôle dans la détection de fausses nouvelles. Je dois vous avouer que votre travail manque de visibilité car, pour être une adepte des réseaux sociaux, je n'ai pas vu d'alertes sur ces sujets de votre part.

M. Antoine Karam. - Les réseaux sociaux et les citoyens équipés d'un téléphone portable ont pris le dessus sur les médias traditionnels et cela comporte des risques. Ainsi, dans mon territoire, la Guyane, un policier municipal a été froidement abattu ce week-end par deux jeunes. Très rapidement, la photo d'un jeune homme identifié comme « présumé coupable » a circulé sur les réseaux sociaux conduisant au harcèlement de sa famille. L'information a été relayée par Guyane 1ère. Mais 24 heures plus tard, le procureur de la République a remis en liberté ce jeune homme : il n'était pas impliqué !

Mme Laure Darcos. - Je doute de l'utilité de cette loi. Je considère qu'il y a en revanche une vraie problématique autour de la question des algorithmes de référencement : on constate que la toile est inondée de vidéos complotistes ou autres, très virales parmi les jeunes, et qui de ce fait bénéficient d'un meilleur référencement dans les moteurs de recherche que les informations en provenance des médias reconnus. Allez-vous renforcer votre présence sur les réseaux sociaux pour gagner la bataille du référencement ?

Mme Sylvie Robert. - Nous avons tous de grandes réserves sur le bien-fondé et l'utilité de cette loi. Je suis en désaccord avec M. Malhuret quand il dit que ce n'est pas une question de sémantique. La définition qui sera retenue déterminera les finalités et la proportionnalité des dispositifs de régulation qui seront ensuite mis en place. Je suis convaincue qu'il va falloir travailler en amont et mettre le paquet sur l'éducation. Enfin, je ne vous ai pas entendu parler de l'Union européenne et de sa décision de ne pas légiférer en la matière. Il y a une dimension européenne et internationale dans le phénomène des fake news qui doit aussi nous interroger sur l'utilité d'une loi limitée au territoire français.

M. Laurent Lafon. - Cette loi peut-elle avoir des conséquences sur votre travail, notamment vous limiter dans des enquêtes d'investigation de peur d'être attaqués pour fausse nouvelle ? Quel serait le traitement donné à une affaire équivalente à l'affaire Cahuzac, partie d'un simple témoignage, dans le contexte d'une campagne électorale ?

Avez-vous par ailleurs une politique de vérification vis-à-vis des vidéos truquées appelées « Deep fake » qui commencent à apparaître et qui font tenir de façon vraisemblable des propos totalement faux à des personnes filmées ?

M. Vincent Giret. - Les progrès de l'intelligence artificielle et leur détournement aux fins de manipulation, notamment dans le domaine de l'image, représentent un défi colossal. Ils révèlent à la fois un besoin d'équipement des rédactions et de mise en place d'une régulation. Au sein de Franceinfo, il existe une agence de vérification des informations. Depuis la semaine dernière, une personne s'y occupe des images et repère celles qui sont utilisées à l'appui de fausses informations. Ces images tamponnées « Fake » sont désormais signalées sur une plateforme baptisée « Vrai ou fake » alimentée par les médias publics d'information.

La question du référencement est à la fois éditoriale et marketing. Nous devons effectivement être capables de trouver les bons formats pour acquérir le plus d'audience possible et contrer les fausses informations. Pour cela, il faut développer nos connaissances des logiques « web » et de la viralité.

Il a été question, un moment, de prévoir des sanctions financières à l'encontre des plateformes et des réseaux sociaux en cas de diffusion de fausses informations. On peut se dire qu'il s'agit de bon sens mais cela pourrait conduire à les instituer en censeur de l'information et des contenus présents sur leur réseau. Ce n'est pas souhaitable. Il convient davantage, sans passer par la loi, de miser sur la transparence et d'avoir un dialogue serré avec ces opérateurs sur le référencement. C'est un défi qui, à mon sens, doit être relevé à l'échelle européenne.

M. Pascal Doucet-Bon. - Il faut faire attention à la mission qui sera confiée au CSA concernant la lutte contre les fausses informations car la tâche est plus large. Reconnaître au CSA une responsabilité sur l'information mériterait un débat approfondi.

M. Thomas Bauder. - Il existe deux débats qui n'ont rien à voir : un premier sur la diffusion des fausses informations et un second sur le travail des journalistes. Ces derniers sont formés pour lutter contre la propagation des fausses informations. Le problème vient que l'information en tant qu'institution est aujourd'hui débordée par le numérique.

Le rôle du CSA mérite un débat car cette loi s'appliquera à nous alors que nous sommes les derniers à diffuser des fausses informations. Nous avons mis en place un processus de validation au sein de la rédaction en utilisant une messagerie instantanée qui permet une discussion permanente pour confronter les sources et valider les informations. Ce n'est pas parce que on ne met pas une information en Une qu'on n'en parle pas. Il y a des choix éditoriaux. Tous les journalistes traitent toutes les informations mêmes celles concernant leurs actionnaires. La loi ne doit pas pénaliser les bons professionnels.

M. Marc Saikali. - La définition de la diffamation ne constitue pas une bonne réponse, car une information peut être vraie alors même qu'un média peut faire l'objet d'un procès en diffamation.

Nous avons mis en oeuvre des partenariats et créé un guide de vérification des images.

M. Donat Vidal-Revel. - On est subjugué par les plateformes qui ne sont pas régulées. C'est un bouleversement énorme car les citoyens ont pris le dessus dans l'accès à l'information. Aujourd'hui tout le monde est initié, notamment lors des élections où les résultats deviennent accessibles avant la clôture des grands scrutins. Nous sommes questionnés sur notre place en tant que média car nous sommes contournés. Est-ce qu'il faut légiférer ? Je ne sais pas mais il faut qualifier les plateformes comme des éditeurs car elles sont les nouveaux intermédiaires. Les médias sont soumis à des lois, pas les plateformes qui constituent une sorte de far west.

M. Stéphane Gendarme. - Telle qu'elle est écrite, la loi manquera sa cible. Mais je ne suis pas inquiet car le travail des journalistes permet de produire l'information. Nous avons par ailleurs créé, le samedi, une rubrique de décryptage qui permet d'analyser les fausses informations.

M. Thomas Bauder. - On ne peut comparer les moyens des chaînes d'information à ceux de France Télévisions. Les chaînes d'information ont un modèle économique low cost qui ne leur permet pas de « survalider » les informations ni de créer des cellules anti fausses informations. Nous nous appuyons sur des tiers de confiance, comme l'Agence France-Presse (AFP) qui produit 5 000 dépêches par jour.

Mme Catherine Morin-Desailly, présidente. - La question n'est effectivement pas celles des journalistes mais de savoir qui manipule qui et qui a intérêt à déstabiliser. Cette proposition de loi a de fortes chances de manquer sa cible.

Proposition de loi relative à la lutte contre les fausses informations - Table ronde avec les représentants du Syndicat de la presse quotidienne nationale (SPQN), du Syndicat de la presse quotidienne régionale (SPQR) et de Reporters sans frontières (RSF)

Mme Catherine Morin-Desailly, présidente. - Après avoir entendu les rédactions de l'audiovisuel, nous accueillons maintenant les représentants de trois grandes organisations de presse : MM. Francis Morel, président du Syndicat de la presse quotidienne nationale (SPQN), accompagné de Denis Bouchez, directeur, et Samir Ouachtati, responsable des affaires juridiques et sociales, M. Jean-Michel Baylet, président de l'Union de la Presse en région (UPREG), Mmes Maud Grillard, directrice, et Haude d'Harcourt, responsable des relations institutionnelles, ainsi que M. Christophe Deloire, secrétaire général de Reporters sans frontières (RSF).

M. Francis Morel, président du Syndicat de la presse quotidienne nationale (SPQN). - La lutte contre les fausses informations constitue incontestablement un sujet important, ce qu'ont bien montré certaines élections récentes à l'étranger. Le texte proposé n'est cependant pas pleinement abouti. Tout d'abord, on a bien du mal à définir ces fausses nouvelles. Il est en effet difficile de déterminer si une information est inexacte ou trompeuse et le juge, qui ne disposera que de 48 heures, ne sera pas en mesure de le faire. De plus, apprécier la mauvaise foi est un exercice complexe, voire impossible. Un seul critère me semble, à ce stade, pertinent, celui de la diffusion « artificielle ou automatisée et massive ». Pour autant, il me paraît important de souligner que les sites de presse, dont le fonctionnement est déjà très encadré, ne sauraient être concernés par cette mesure, ce qu'il conviendrait de préciser.

Initialement, la loi devait être intitulée « confiance dans l'information ». Il est en effet absolument nécessaire que l'origine d'une information puisse être retracée et précisément identifiée par les plateformes, d'où notre proposition de modification de l'article 9, qui vise à contraindre les plateformes à négocier avec les éditeurs pour labelliser leurs productions.

M. Jean-Michel Baylet, président de l'Union de la presse en région (UPREG). - J'exprime mon accord total et celui de l'Union de la presse en région avec les propos tenus par Francis Morel.

M. Christophe Deloire, secrétaire général de Reporters sans frontières (RSF). - Il me semble que cette loi traite de deux sujets distincts : le premier est celui des informations fallacieuses, malveillantes et déformées, qui visent à déstabiliser les processus électoraux ; le second est le bouleversement de l'espace public avec la mondialisation de l'information qui met en concurrence, sur un pied d'égalité, des contenus de natures très différentes. Sur le premier aspect, la loi de 1881 n'est peut-être pas totalement satisfaisante, et par conséquent le principe d'une nouvelle loi peut être légitime. Elle me paraît cependant largement inopérante, voire contre-productive. Je vais en donner quelques exemples. D'une part, les nouvelles capacités du CSA à sanctionner des chaînes étrangères pourraient entraîner une véritable « guerre de l'information » préjudiciable aux correspondants à l'étranger. Il serait plus efficace que le CSA s'assure du respect des obligations déontologiques et de l'indépendance des rédactions, quel que soit le propriétaire. D'autre part, le juge sera contraint de n'ordonner le déréférencement que pour les informations manifestement erronées, ce qui sera donc très peu fréquent et aura a contrario un caractère contre-productif en permettant à certains médias de se prévaloir d'une décision de justice pour accréditer leurs informations.

RSF a lancé la réflexion autour de la constitution d'un référentiel européen qui donnerait des avantages concrets aux sites ainsi reconnus en termes de référencement ou de ressources publicitaires. Je ne suis pas favorable à une labellisation par le CSA, par les plateformes ou même par les États : ce mouvement doit relever de l'autorégulation de la profession.

Mme Sonia de la Provôté. - Le texte pose un certain nombre de questions. Je citerai en particulier : quels sont les contenus qui peuvent être censurés, qui a le pouvoir de les censurer et quels sont les moyens mis à la disposition du contrôle, quand on les compare à ceux des grands acteurs d'Internet ? Je regrette que la dimension éducative soit encore trop ignorée. Ne pensez-vous pas que la seule loi pertinente traiterait plutôt de la question de la responsabilité des plateformes ?

Mme Françoise Laborde. - Nous voyons bien que la question posée est celle de la diffusion de l'information sur Internet. Le CSA ne me semble pas en mesure de traiter le sujet de manière efficace, vous seuls me paraissez en mesure de le faire.

Mme Laure Darcos. - Je note une évolution des pratiques de la presse sur Internet : pendant longtemps, les rédactions papier et numérique étaient séparées et les « vrais » journalistes ne rédigeaient que pour l'édition papier. Heureusement tel n'est plus le cas aujourd'hui. Ne faudrait-il pas continuer à travailler dans ce sens en renforçant la déontologie et en assurant la traçabilité de l'auteur ou de la publication ?

M. David Assouline. - Les médias audiovisuels et la presse écrite font déjà l'objet de régulation, à la différence de l'Internet. Aujourd'hui les médias étrangers peuvent influencer notre débat public, ce qui a suscité la réaction du président de la République. Cependant, ce phénomène de la désinformation pendant les campagnes électorales n'est pas nouveau même si sa forme a pu évoluer. À titre d'exemple, les images projetées à la veille du premier tour de l'élection présidentielle de 2002 ont fortement influencé le résultat. Je ne pense pas que ce sujet puisse être traité par une « petite loi » ; il doit faire l'objet d'une approche beaucoup plus globale. J'estime d'ailleurs que tout ne doit pas nécessairement emprunter la voie législative mais que la profession a une réelle responsabilité en la matière. Il faut donc trouver une autorégulation efficace dans le cadre législatif qui est le nôtre. J'approuve pleinement l'idée selon laquelle un juge qui n'aura que 48 heures pour trancher adoptera une attitude extrêmement prudente.

M. Claude Malhuret. - Ce débat tourne autour de la place et de la responsabilité des hébergeurs. Je suis sceptique sur ce sujet. En effet, il ne faut pas transformer les plateformes en censeurs de la liberté d'expression. Leur confier cette responsabilité revient à leur donner un trop grand pouvoir et je m'interroge sur les moyens d'éviter cette nouvelle forme de censure.

Mme Céline Brulin. - Christophe Deloire a utilisé les termes « inopérant» voire « contre-productif » pour ce projet de loi. Cet avis est très largement partagé. Il y a un vrai sujet autour des plateformes numériques et de la régulation des contenus qu'elles diffusent. Un chantier est à engager sur le développement de l'esprit critique et de l'éducation ; les médias y ont un rôle à jouer. Vous, la presse écrite, représentez un modèle particulier qui assume et protège une forme de pluralisme extrêmement avancé. Ce modèle n'est pas reproductible à l'identique, mais en quoi celui-ci peut-il être transposé dans d'autres médias pour développer un débat d'idées de qualité qui nous prémunirait des fake news ?

M. Jean-Michel Baylet. - Ce texte n'est pas parfait, mais il ouvre un débat et anticipe un cadre dans un secteur d'informations où il n'y en a pas. La presse écrite, de par son sérieux, sa diversité et son indépendance, donne un bel exemple de qualité d'information, déjà labellisée par la Commission paritaire des publications et agences de presse (CPPAP), et encadrée par des lois très strictes. Il ne faudrait pas qu'on complexifie le fonctionnement de l'information de la presse écrite qui, depuis 1881, a une organisation qui fonctionne. Ce qui pose problème, c'est l'apparition sur les réseaux sociaux, hors de tout cadre législatif, de fausses informations fournies par des sites, dont certains sont spécialisés en la matière, financés parfois par des États. Je vous rappelle que depuis la loi « Bloche », nous avons des chartes rédactionnelles qui sont parfaitement respectées. Par ailleurs, il nous faut organiser une coopération réelle entre les plateformes et les médias professionnels sur la valorisation des contenus et l'éducation aux médias. Il est aussi nécessaire de consacrer, hors CSA, une obligation légale qui impose aux opérateurs de plateformes de lutter contre les fausses informations et de contribuer à la lisibilité et à la compréhension pour les internautes, quant à l'information de métier.

Enfin, si une proposition de loi doit être examinée, elle ne doit pas porter uniquement sur les périodes électorales. Les fausses nouvelles peuvent influer fortement sur une élection présidentielle - nous l'avons vu aux États-Unis, mais aussi en 2002 en France avec des images qui ont tourné en boucle puis ont ensuite été démenties. Mais les fausses nouvelles concernent également l'ensemble des citoyens dans leur vie privée, l'ensemble des entreprises dans leur vie professionnelle - nous le voyons lorsque de fausses informations ont des conséquences directes sur les opérations en bourse. Il ne peut donc être question d'une loi ne se rapportant qu'au politique.

M. François Morel. - Pour répondre à Laure Darcos, nous avons la même responsabilité sur les titres de la presse écrite et sur la presse Internet : ce sont les mêmes journalistes qui écrivent dans l'une et l'autre. Auparavant, les journalistes eux-mêmes ne le souhaitaient pas. Je vous précise que 90 % des articles publiés sur les sites sont rédigés par nos journalistes. Néanmoins, je retiens l'idée de signature, pour une meilleure identification. Étant directeur de publication, je suis responsable aussi bien pour le site que pour les titres de presse, de la qualité de l'information. Par contre, je suis réservé sur l'autorégulation. Elle existe au travers de chartes éditoriales, de sociétés de journalistes, et vis-à-vis de nos lecteurs. Je suis également réservé quant à une association qui contrôlerait la régulation de l'ensemble de la déontologie professionnelle. Nous l'appliquons tous en permanence. Enfin, si les plateformes doivent labelliser, pourront-elles censurer ? Pour ma part, je pense qu'elles doivent uniquement présenter le nom de l'auteur. Elles ne doivent pas décider du contenu mais informer que le contenu provient de tel ou tel journal. Je suis également très sceptique sur les initiatives de mise au point d'un système qui serait créé sur les plateformes pour juger de la qualité.

Mme Catherine Morin-Desailly, présidente. - Il est vrai que sur la question de la labellisation de l'information, les participants de la table ronde précédente étaient unanimement d'accord, précisant que ce pourrait être contre-productif, dans une atmosphère de défiance généralisée.

M. Christophe Deloire. - Sur la question de la labellisation, Reporters sans frontières n'est pas du même avis. Notre idée est de créer un référentiel, qui travaillerait avec le comité européen de normalisation, l'ISO européen, sur les critères de l'indépendance éditoriale, la transparence des médias, le respect des méthodes journalistiques en matière de vérification et de correction et des règles déontologiques. Un secteur économique de la certification existant déjà, celui-ci pourrait établir une « liste blanche », ainsi utilisée par tous ceux qui ont une influence, même extérieure, sur les médias, non pas pour faire peser un poids supplémentaire sur des médias - qui en ont déjà assez -, mais pour distinguer précisément entre ceux relevant du journalisme, ou de la publicité, du journalisme dévoyé ou de la propagande politique. Il faudrait ensuite apporter à ceux qui présentent ces garanties, des avantages concrets, qui ne seraient pas un label public, mais qui amèneraient les plateformes et les moteurs de recherche à mieux les référencer. Nous avons réussi, dans cette logique, à inclure Google, Facebook ainsi que la fédération mondiale des annonceurs.

Par ailleurs, il nous faudrait éviter de faire l'erreur qui consiste à nous enfermer dans la même bulle, puisque nous lisons et écoutons à peu près tous les mêmes médias. Pourtant le champ d'information n'est pas le champ des médias. Il est incomparablement plus large. Le grand sujet, ce sont les plateformes. Celles qui existaient auparavant avaient un cadre juridique cohérent qui permettait de distinguer la publicité des contenus journalistiques. Aujourd'hui, il n'existe plus. Que faut-il donc demander aux plateformes ? À notre sens, l'idée d'un troisième statut est largement préférable, à savoir ni hébergeur, ni éditeur. Elles ne doivent pas devenir des rédacteurs en chef. En revanche des garanties méritent d'être appliquées aux plateformes, en matière de neutralité politique ou de transparence. Il y a également un travail à faire sur ce qui relève de l'exception à la liberté de l'expression, par exemple la pédopornographie ou le djihadisme, à savoir comment les plateformes peuvent effacer les données sans qu'elles ne prennent la place du juge.

Le sujet principal de la présente loi est la désinformation et l'atteinte aux processus électoraux. Il est différent du sujet général des conditions du débat dans l'espace public aujourd'hui et de l'équilibre juridique. Il faut veiller impérativement, dans le cadre de la procédure de référé, à ce que la charge de la preuve revienne bien au juge.

Enfin, si l'éducation aux médias peut être utile, elle ne résoudra pas les problèmes de l'espace public.

M. François Morel. - Je souhaite juste préciser que je m'oppose au projet présenté par Christophe Deloire, qui propose de contrôler la déontologie de l'ensemble des professionnels. Beaucoup d'informations ne proviennent pas des journaux. Mais les seules qui pourraient être vérifiées seraient celles provenant des journaux déjà contrôlés. L'ensemble des informations venant d'autres sources, pourtant les plus nuisibles, ne pourraient l'être. En outre, il me paraît extrêmement important qu'il y ait obligation pour les plateformes de négocier avec la presse écrite le contenu diffusé. Il faut l'inscrire dans la loi, afin que le rapport de force soit établi.

Mme Catherine Morin-Desailly, présidente. - Je crains que la problématique des plateformes soit beaucoup plus large que cela.

Mme Maryvonne Blondin. - Je suis très heureuse de ces débats. Ils démontrent que nous sommes dans un pays démocratique. Étant membre du Conseil de l'Europe, je ne peux m'empêcher de faire le rapprochement avec les missions d'observation d'élections auxquelles je participe. Nombre d'entre elles démontrent une concentration des médias tenus par les oligarques sous tutelle de candidats qui centralisent l'ensemble de l'information. Dans ce cadre, nous sommes dans l'obligation d'auditionner les médias et avons souvent la chance d'être accompagné de représentants de RSF. Leur présence est exceptionnelle quand on sait que les journalistes sont parfois emprisonnés, voire assassinés. Il nous faut saluer la difficulté avec laquelle ils interviennent dans ces États et il est heureux que dans notre pays nous puissions débatte de cela.

Mme Catherine Morin-Desailly, présidente. - Le Conseil de l'Europe joue un rôle important en la matière et nous en saluons le travail. Je remercie les intervenants d'avoir accepté notre invitation. Ce sujet nous passionne et je précise que la loi qui nous est présentée en tant que telle nous pose un certain nombre de questions. Nous continuerons nos travaux pour légiférer utilement.

Audition de M. Olivier Schrameck,
président du Conseil supérieur de l'audiovisuel

MARDI 19 JUIN 2018

___________

Mme Catherine Morin-Desailly, présidente. - Permettez-moi tout d'abord de souhaiter la bienvenue au président du Conseil supérieur de l'audiovisuel (CSA) en notre nom à tous et de lui dire notre plaisir à le revoir après plusieurs semaines d'absence qui donnent à cette rencontre une saveur toute particulière.

Nous organiserons prochainement l'audition sur le bilan annuel du CSA mais, aujourd'hui, nous allons parler d'un texte législatif qui devrait être examiné en juillet par le Sénat. La semaine dernière, déjà, nous avons réuni deux tables rondes : l'une avec les directeurs des rédactions des médias audiovisuels et l'autre avec les directeurs de l'information de la presse écrite.

Nous serons heureux de connaître votre avis sur l'ensemble de la proposition de loi mais, bien entendu, ce sont les articles relatifs au CSA sur lesquels nous attendons de votre part une analyse précise.

Quels sont, selon vous, les médias « sous influence étrangère » évoqués dans le titre II, dont vous avez eu à connaître depuis que vous présidez le Conseil ? Lors de la dernière campagne présidentielle, avez-vous constaté que des médias diffusant en France avaient essayé d'influencer l'opinion publique avec des fausses informations et avez-vous examiné les possibilités juridiques de faire cesser ces agissements ? En outre, nous avons un grand débat entre nous sur la définition des « fausses informations ».

La semaine dernière, le représentant de France 24 nous a indiqué que si les autorités françaises interdisaient la diffusion d'un média étranger originaire d'un État autoritaire, celui-ci adopterait immédiatement des mesures similaires en représailles. Comment pourrez-vous prendre en compte ce risque qui relève autant des relations internationales que de la régulation audiovisuelle ?

Sur l'article 9, pensez-vous être bien préparé pour mener une forme de régulation du secteur du numérique, qui est nouveau pour le CSA ? Que pensez-vous plus généralement de l'économie générale de cet article ? Le CSA se retrouverait en position de formuler des « recommandations » qui, en raison du verrou posé par le statut des plateformes au niveau européen, ne seraient suivies d'aucune sanction possible, mais se situerait plutôt dans une pratique du name and shame. Je vous sais très investi au niveau européen sur ces questions et vous êtes à l'origine du groupe de travail qui a travaillé sur le sujet.

M. Olivier Schrameck, président du CSA. - Je suis heureux de me retrouver devant la commission de la culture, de l'éducation et de la communication, qui est une interlocutrice de première importance pour le suivi des travaux de l'institution que je préside.

Avant de répondre à vos questions, je voudrais vous dire que je me trouve dans une situation un peu particulière. J'ai été absent quelques mois du CSA et cela ne fait qu'un peu plus de deux semaines que je suis revenu. Dans la corbeille du retour, j'ai trouvé ce texte : je n'ai contribué ni à sa rédaction, ni à son suivi, ni aux travaux de réflexion menés par les députés, puisqu'il s'agit d'une proposition de loi de l'Assemblée nationale, mais dont l'exécutif ne s'est pas désintéressé. Or, j'ai l'habitude de me présenter devant vous pour présenter des travaux dont j'assume la responsabilité.

Deuxième particularité : le collège du CSA n'a jamais débattu de ce texte. Je l'ai d'ailleurs dit à votre présidente il y a quelques jours : je ne peux donc en rien me faire le porte-parole d'une opinion du collège que je préside ; je ne vous livrerai que le fruit d'une réflexion personnelle car je n'ai pas non plus eu d'entretiens en tête à tête avec mes collègues.

J'en viens à vos questions.

En ce qui concerne les médias qui pourraient être concernés, j'ai noté les déclarations du chef de l'État, qui datent de quelques mois, et j'ai dit publiquement que nous serions particulièrement attentifs, notamment pour certains organes relevant de la sphère Internet comme le site Sputnik et la chaîne Russia Today (RT), laquelle s'est implantée en Grande-Bretagne assez tôt et plus tardivement en France. Nous observons attentivement cette chaîne ainsi que de son environnement numérique.

Je ne puis aller plus loin sur le sujet car il s'agit d'une proposition de loi en cours d'examen et qui sera soumise dans quelques semaines au collège du CSA. Comme je vous l'ai dit, je n'ai pas le droit de m'exprimer avant lui. En revanche, je vous confirme que le dossier est nourri semaine après semaine par les observations de la direction des programmes. Par ailleurs, il n'a pas encore été examiné par le groupe de travail « Droits et libertés » qui l'instruit avant de le soumettre au collège.

L'article 9, qui traite du numérique, est important et novateur et il répond aux souhaits du CSA. Nous appelions de nos voeux une régulation assouplie et complétée car l'environnement technologique et économique du monde audiovisuel a profondément changé depuis la dernière directive européenne de 2000, qui est d'ailleurs inspirée d'un texte de 1997.

La nouvelle directive vient d'être adoptée en trilogue et elle fera l'objet d'une finalisation littérale en novembre. Cette directive prévoit diverses novations : entreront dans la sphère de la régulation les acteurs numériques, les sites sociaux, les plateformes de vidéos et les plateformes en ligne, c'est-à-dire le streaming. Le champ de la régulation va donc considérablement s'élargir. L'article 9 répond à cette nouvelle conception de la régulation avec des missions d'observation, d'évaluation et de recommandation. Pour l'instant, cette proposition de loi ne prévoit pas de sanctions qui, généralement, sont régies par l'article 42 du fait de la logique du CSA, « gendarme de l'audiovisuel », même si je n'aime pas ce terme. Nous sommes donc dans une logique de co-régulation, qui va bien au-delà de la « police privée de la réglementation » mise en oeuvre par chacun de nos partenaires comme Twitter ou Facebook mais qui diffère d'un site à l'autre. Le CSA leur propose un cadre général auquel ils adhèrent en échange de certaines concessions. On parle alors d'acteurs vertueux. Ces négociations permettent d'obtenir des garanties financières et d'exposition, même si notre pays n'est pas le siège mais la cible de ces entreprises. En échange, les pouvoirs publics accordent divers avantages pour enraciner au mieux dans notre terreau culturel ces firmes étrangères, souvent nord-américaines, qui passent de plus en plus souvent commande à des producteurs français.

Il y a incontestablement des similitudes entre la future directive et l'article 9, puisqu'il y est question de recommandations, de bilans annuels, de rapports. Le législateur devra dire comment seront sanctionnées les éventuelles insuffisances.

J'ai entendu parler de « méta-régulation » ou de régulation au second degré. Un cadre d'ensemble serait fixé puis adapté par convention à chaque protagoniste. Mais il est encore trop tôt pour que j'en dise plus sur le sujet.

En ce qui concerne les mesures de rétorsion qui pourraient nous frapper si nous interdisons certains médias étrangers, je vous renvoie à divers précédents, dont les décisions du 21 février 2014 et du 21 février 2015 qui concernaient des médias d'origines turque et tamoule. Nous avons pris des mesures très restrictives à l'égard de ces chaînes étrangères. Le contexte est certes bien différent aujourd'hui, et c'est sans doute la raison pour laquelle le Parlement n'a pas encore abordé la question.

Mme Catherine Morin-Desailly, présidente. - Je me tourne vers M. Frassa, rapporteur de la commission des lois.

M. Christophe-André Frassa, rapporteur pour avis de la commission des lois. - Les articles 4, 5, 6 et 8 reviennent sur une question qui reste en débat : aurez-vous recours à l'article L. 233-3 du code de commerce pour définir les médias placés sous influence étrangère ? Cette question n'est pas secondaire puisqu'il s'agit soit d'ordonner la suspension de la diffusion, soit de prononcer la sanction de résiliation unilatérale de la convention. La commission des lois a en effet quelques difficultés à définir la notion « d'influence d'un État ».

Ne faudrait-il pas modifier la composition du CSA puisque la proposition de loi va lui confier de nouvelles missions ?

M. Olivier Schrameck. - La question de l'influence extérieure pesant sur une société ayant ou non son siège en France n'est pas nouvelle. Ainsi en fut-il avec Bertelsmann et RTL, avec Altice SFR, avec Numéro 23... Le CSA et le Conseil d'État ont donné leur interprétation de l'article L. 233-3 du code du commerce. Par rapport à divers critères arithmétiques, comme ceux inscrits dans la loi du 30 septembre 1986, la définition du code de commerce correspond mieux à la réalité de la prise de pouvoir et de décision au sein d'une société. Il est difficile de mesurer l'influence de tel ou tel acteur dans la vie d'une société mais plutôt que d'appliquer des critères rigides, une analyse fine permettra d'apprécier la situation.

Votre deuxième question traite du champ de compétence du CSA : nous sommes à la fois contraints par le droit européen et les réalités économiques alors que nous sommes immergés dans un bain - que certains qualifient d'océan - numérique.

S'il m'appartenait de réfléchir à la composition du collège, j'ai indiqué qu'il serait utile de faire appel à des spécialistes de l'informatique. La réduction du nombre de ses membres a coïncidé avec l'entrée de spécialistes de l'économie et du numérique.

Certes, plusieurs autorités de régulation sont conduites à traiter ensemble de problèmes larges : par exemple, la Cnil pour les données, la Hadopi pour le piratage et l'Autorité de régulation de la concurrence pour l'articulation entre régulation horizontale et sectorielle. Il convient donc de réfléchir à une formalisation de leur coopération. J'ai pris à cet égard l'initiative d'une première réunion de préfiguration, à l'automne dernier, et une seconde se tiendra le 9 juillet au siège de l'Autorité de régulation de la concurrence. À la convergence observée dans l'univers médiatique doit répondre celle des autorités de régulation.

M. Claude Malhuret. - Sur les chaînes RT et Sputnik, vous avez répondu sans répondre, au prétexte qu'elles sont sous observation...

M. Olivier Schrameck. - Ce n'est pas un prétexte, c'est une obligation !

M. Claude Malhuret. - Je le comprends. Mais vous avez autorisé RT, dont le président Macron a dit qu'elle était un instrument de propagande aux mains d'un service de renseignement hostile. Le CSA n'autorise pas un média audiovisuel sans un examen préalable, je suppose. Pouvez-vous nous présenter l'instruction que vous avez menée sur cette chaîne et qui vous a conduit à l'autoriser ?

M. Olivier Schrameck. - Il ne s'agit par d'une procédure d'autorisation, mais d'un conventionnement. La demande a été formulée en 2014, après une première installation au Royaume-Uni en 2010, qui n'avait été suivie d'aucun incident. Et, entre 2015 et 2018, l'Ofcom n'a fait que trois mises en demeure, sans prononcer aucune sanction. Dans le contexte général, cette demande nous parut comporter des risques, et nous avons mené pendant presqu'un an une discussion avec la chaîne, dont nous avons obtenu des garanties qui ne figurent pas dans les autres conventions : honnêteté et rigueur de l'information, indépendance économique et constitution d'un comité d'éthique - c'était avant que la loi de 2016 ne la rende automatique. La convention a été signée le 12 septembre 2015, mais RT n'a ouvert qu'en décembre 2017, aussi notre période d'observation se limite-t-elle à un semestre. Nous constatons que d'autres installations sont prévues, en Europe centrale et de l'Est.

M. Jean-Pierre Leleux. - Nous sommes nombreux à nous interroger sur la difficulté qu'il y aura à appliquer ce texte, et à chercher des arguments, le cas échéant, pour l'accompagner. Est-il nécessaire ? Utile ? Opportun ? Ne fera-t-il pas peser un poids néfaste sur la liberté d'expression ? Le CSA et le juge porteront une lourde responsabilité, puisqu'ils décideront où est la vérité et comment la distinguer du mensonge. Dans un univers où le subjectif règne, il leur sera bien difficile de trancher. Nous craignons un contrôle nouveau sur la liberté d'expression. Qu'en pensez-vous ? Comment préconisez-vous de définir la fausse nouvelle ? Peut-on le faire plus objectivement ?

Mme Catherine Morin-Desailly, présidente. - Plus précisément, en tout cas...

M. Olivier Schrameck. - Une solution satisfaisante à ce problème est recherchée depuis longtemps par la jurisprudence de la loi de 1881 sur la liberté de la presse, telle que modifiée par la directive de 2000. Il y a eu un premier débat sur la distinction entre fausses nouvelles et fausses informations. Parmi les critères, il y a une part d'intentionnalité et une part d'approche quantitative. Lors de la table ronde du 13 juin, M. Morel avait insisté sur les critères de systématicité, d'automaticité et de quantité, qui n'épuisent pas le sujet, mais semblent pertinents, car il existe des procédés informatiques pour lancer des nouvelles dans les réseaux. Les critères de notre tradition juridique, depuis le XIXe siècle, peuvent donc être adaptés aux modifications de notre environnement technologique. Je ne nie pas la difficulté de l'exercice, d'autant que l'application de la loi reviendra au CSA, sous le contrôle du juge. La méthode sera celle du faisceau d'indices, pour discerner l'intentionnalité, la finalité, l'existence d'une campagne. C'est celle qu'utilisent déjà Twitter et Facebook.

À cet égard, j'insiste sur la nécessité de donner au CSA les moyens de régulation économique nécessaires pour mesurer ces phénomènes. Actuellement, les rapports administratifs ne nous sont pas communiqués automatiquement, nous ne conduisons pas d'investigations sur place et sur pièces, et nous pâtissons parfois du retard de certains rapports publics. Ainsi, dans l'affaire Numéro 23, nous avons considéré, sur la base de faits reconnus par les dirigeants eux-mêmes, qu'il y avait eu fraude à la loi et manoeuvre pour acquérir une fréquence hertzienne avant de la revendre très rapidement avec une très forte plus-value. Mais le Conseil d'État a estimé que nous n'avions pas apporté suffisamment de preuves pour emporter sa conviction. C'est qu'il y a loin du CSA à un juge d'instruction !

Mme Sylvie Robert. - Disposez-vous d'outils suffisants pour contrôler les chaînes et contrer les fausses nouvelles ? Qu'en est-il de la coopération entre autorités de régulation sur Internet ? Pourquoi ne pas donner au CSA la possibilité d'intervenir sur les contenus et de collaborer avec l'Autorité de régulation des communications électroniques et des postes (Arcep) sur les réseaux et les algorithmes ?

M. Olivier Schrameck. - Depuis l'adoption de la loi de 1986, le législateur nous a confié 83 compétences supplémentaires. Durant la dernière législature, pas moins de quatorze lois ont augmenté nos attributions et nos compétences. Pendant cette période, le nombre d'emplois au CSA a diminué, ce qui a notamment rendu impossible la territorialisation de notre activité, qui me paraît pourtant primordiale. Notre directeur général mène chaque année la négociation budgétaire, mais nous subissons - comme d'autres - réfactions, gels et surgels. La transformation en autorité administrative indépendante (AAI), que nous souhaitions, a accru nos responsabilités. Si nous devons redéployer sans cesse nos moyens - ce que nous avons fait il y a dix-huit mois par une réforme importante de notre organigramme - et que le périmètre de notre régulation s'étend... J'avais proposé, en 2014, que nous reprenions les compétences et les services de la Hadopi. Nous travaillons désormais davantage, et mieux, avec elle - comme avec d'autres autorités de régulation.

Je n'ai pas cité l'Arcep, car on se focalise depuis cinq ans sur nos rapports avec elle. L'Arcep s'occupe des infrastructures - réseaux et débit - et le CSA, de l'« infostructure », c'est-à-dire des programmes et des contenus, ainsi que de la promotion de l'économie de notre création. Il y a des domaines communs, comme la question de la neutralité d'Internet.

Mme Sylvie Robert. - Voilà.

M. Olivier Schrameck. - Sur ce point, nous n'avons aucune opposition. D'ailleurs, nos deux administrations travaillent quotidiennement ensemble. J'ai proposé à mon homologue une coopération à trois étages : entre présidents, entre deux membres de chaque collège et entre les directions concernées. Je craindrais en effet une trop grande focalisation sur un seul type de coopération, quand une demi-douzaine de régulateurs doivent conjuguer leurs travaux. Fusionner deux organismes qui n'ont pas la même taille, pas les mêmes traditions ni les mêmes textes fondateurs requerrait beaucoup d'efforts, qui seraient plus utilement consacrés à des problèmes plus importants. De plus, l'exemple de nos voisins européens montre qu'après de telles fusions, l'essentiel des moyens est dévolu à l'équivalent de l'Arcep, car nous distribuons des fréquences gratuites, quand l'Arcep vend des licences à des prix très élevés - 2,9 milliards d'euros lors du dernier appel d'offres - ce qui focalise davantage l'intérêt de l'État.

Mme Catherine Morin-Desailly, présidente. - Certes, l'Arcep s'intéresse à un domaine assez large...

Mme Sylvie Robert. - Je ne parlais pas de fusion.

M. Olivier Schrameck. - Une commission mixte serait une piste...

Mme Sylvie Robert. - Par exemple !

M. Olivier Schrameck. - La réduction du collège du CSA de neuf à sept membres s'est faite dans l'idée d'avoir le même nombre de membres que l'Arcep.

Mme Catherine Morin-Desailly, présidente. - Vous avez été à l'initiative de l'Erga (European Regulators Group for Audiovisual Media Services), qui organise la coopération entre autorités de régulation européennes. Que pensez-vous de la loi votée en Allemagne sur les fausses nouvelles ? Où en est la réflexion européenne sur ce sujet ?

M. Olivier Schrameck. - Nos rapports bilatéraux et multilatéraux au sein de l'Erga sont un véritable atout.

Mme Catherine Morin-Desailly, présidente. - Que pensez-vous de la loi allemande ? Sur quels sujets échangez-vous avec vos homologues européens ?

M. Olivier Schrameck. - La loi allemande a été votée fin 2017, et est entrée en vigueur le 1er janvier 2018. Pour l'instant, nous n'avons aucun retour d'expérience de nos homologues allemands, que nous rencontrons une fois par an, au point que nous nous demandons si la loi a déjà été appliquée.

Mme Catherine Morin-Desailly, présidente. - Vous avez répondu à la question sur les fausses nouvelles par une synthèse des débats en cours. Quel est votre point de vue personnel ?

M. Olivier Schrameck. - Ce n'est pas une notion purement objective et l'on doit la dégager à l'aune des critères que sont la fréquence, le nombre, la finalité ou l'origine. Il existe toutefois des situations intermédiaires, où le doute est permis. Mais on a observé qu'à propos des dernières échéances importantes, qui ont affecté notre monde, les dirigeants ont tous dit qu'il y avait eu, à titre onéreux ou non, des transferts d'information ayant pu influer, même marginalement, sur le résultat.

M. Jean-Pierre Leleux. - Cela existe depuis des siècles !

M. Olivier Schrameck. - Pas avec les mêmes moyens.

M. Jean-Pierre Leleux. - La proposition de loi ne s'intéresse pas au niveau local. Pourtant, nous savons tous que lors des élections locales les tracts, libelles et fausses accusations sont monnaie courante. Et le juge classe toujours les dossiers sans suite.

M. Olivier Schrameck. - En effet, le juge pénal, qui est surchargé, n'est saisi que de façon erratique, et n'intervient que peu au regard de l'ampleur du problème. C'est pourquoi il nous faut créer un nouveau type de contrôle, plus rapide et plus interactif. J'ai observé qu'une grande partie du débat, à l'Assemblée nationale, a porté sur la question des délais. De fait, 48 heures, c'est très peu au regard de la procédure contradictoire, et très long pour les technologies actuelles !