Allez au contenu, Allez à la navigation

COMPTES RENDUS DE LA COMMISSION DE LA CULTURE, DE L'EDUCATION ET DE LA COMMUNICATION


Mardi 3 avril 2018

- Présidence conjointe de Mme Catherine Morin-Desailly, présidente de la commission de la culture, et de M. Philippe Bas, président de la commission des lois -

La réunion est ouverte à 18 h 10.

Fausses informations « fake news » - Diffusion d'un message et audition

M. Philippe Bas, président. - Avec Catherine Morin-Desailly, je suis heureux de réunir nos deux commissions pour une table ronde sur les fausses nouvelles sur Internet. Nous accueillons Mme Divina Frau-Meigs, professeure à l'Université Paris III Sorbonne-Nouvelle en sciences de l'information et membre du comité d'experts installé par la Commission européenne, M. Bernard Benhamou, ancien délégué aux usages d'Internet au ministère de l'enseignement supérieur et de la recherche et secrétaire général de l'Institut sur la souveraineté numérique, Me Christophe Bigot, avocat au cabinet Bauer Bigot et associés, spécialisé en droit de la presse, M. Hervé Brusini, directeur délégué au numérique, à la stratégie et à la diversité au sein de la direction de l'information de France Télévisions, ainsi que Mme Juliette Rosset-Caillet, sa collaboratrice. MM. Benoît Tabaka, directeur des relations institutionnelles et des politiques publiques de Google France, et Thibault Guiroy, chargé des relations institutionnelles, ont été retardés et nous rejoindront.

Le Président de la République a fait état, au mois de janvier dernier, de son souhait que soient prises des dispositions législatives pour mieux combattre la diffusion de fausses nouvelles, pendant les campagnes électorales, par les nouveaux médias. Ce souhait, incarné dans une proposition de loi organique et dans une proposition de loi ordinaire déposées à l'Assemblée nationale, fait écho au rapport de notre collègue Philippe Bonnecarrère « Décider en 2017 : le temps d'une démocratie « coopérative » ».

Mais avons-nous réellement besoin, compte tenu de l'arsenal juridique existant, de nouvelles dispositions ? Quels moyens juridiques est-il possible de mobiliser pour rendre effective l'interdiction des fausses informations ? Faut-il envisager des moyens dérogatoires au droit commun, à l'instar du référé spécifique prévu par la proposition de loi de l'Assemblée nationale ? Comment, enfin, articuler une nouvelle initiative du législateur français avec les efforts d'autorégulation des journalistes et des plateformes comme avec les travaux de l'Union européenne sur cette question ? Nous avons à concilier des exigences contradictoires : assurer que la sincérité d'un scrutin ne soit pas altérée par la diffusion de fausses informations, en respectant les prescriptions de la déclaration des droits de l'homme et du citoyen, qui font de la liberté d'expression, non pas un absolu, mais un droit ne pouvant être limité que dans des conditions très restrictives. Les modifications successives apportées à la loi du 29 juillet 1881 sur la liberté de la presse comme à la loi du 21 juin 2004 pour la confiance dans l'économie numérique montrent d'ailleurs avec quelles précautions le législateur a toujours abordé les sujets relevant de la liberté d'expression et, partant, du droit pénal.

Mme Catherine Morin-Desailly, présidente. - Je me réjouis également que nos deux commissions se soient associées, par souci d'efficacité, en amont de l'examen des propositions de loi organique et ordinaire de l'Assemblée nationale relatives à la lutte contre les fausses informations. Si ces textes sont d'initiative parlementaire, ils se trouvent en réalité largement d'inspiration gouvernementale et seront défendus par la ministre de la culture.

J'estime regrettables l'utilisation du terme « fake » pour qualifier le phénomène et, surtout, l'erreur de l'avoir traduit par « faux », qui ne permet pas d'insister sur l'aspect relatif à la manipulation de l'opinion, à la désinformation et à la perversion de l'information au travers des réseaux sociaux. Nous devrons, pour ne pas nous tromper de combat ni d'analyse, nous montrer attentifs à cette dimension. Prenons garde à ne pas réformer aveuglément le droit de la presse, compte tenu des risques encourus en matière de liberté d'expression, exigence démocratique s'il en est ! Le think tank Renaissance numérique a d'ailleurs mis en exergue les nuances entre fausse nouvelle, désinformation, mauvaise information et sous-information.

Notre vigilance à viser au plus juste le phénomène que nous souhaitons combattre est d'autant plus essentielle que la manipulation de l'opinion par l'entremise des réseaux sociaux a pris une dimension nouvelle depuis les révélations afférentes à la campagne présidentielle américaine. Souvenez-vous qu'en décembre 2016, lors de l'Agora numérique organisée au Sénat dans le cadre du partenariat pour un Gouvernement ouvert, Lawrence Lessig, professeur à Harvard, candidat malheureux à la primaire démocrate et auteur de la désormais célèbre formule Code is law, nous avait annoncé, plusieurs mois avant que n'éclate le scandale, la manipulation des élections américaines à travers les réseaux sociaux. Notre débat est également empreint de celui que nous venons d'achever s'agissant de la transposition, en droit français, du règlement général de l'Union européenne sur la protection des données personnelles (RGPD) et de la récente révélation du détournement de millions de données d'internautes de Facebook par Cambridge Analytica, avec la complicité de Palantir, dont le co-fondateur n'est autre que le conseiller numérique du président Trump. Il convient de mesurer si le texte qui nous est proposé permettra effectivement de répondre à ces enjeux de démocratie. Il en va de l'honneur du Sénat, qui n'a jamais cessé de défendre les libertés fondamentales.

Nous entamons nos échanges par la diffusion d'un message enregistré de Mme Mariya Gabriel, commissaire européenne à l'économie et à la société numériques.

Mme Mariya Gabriel, commissaire européenne à l'économie et à la société numériques. - Je vous remercie de me donner l'occasion d'intervenir en introduction de votre table ronde. La Commission européenne défend un Internet indépendant et ouvert, fermement ancré dans la protection des droits fondamentaux et des valeurs démocratiques. La liberté et le pluralisme des médias constituent des piliers de notre démocratie moderne, qui souffre d'une désinformation faussant le débat social et politique.

À l'instar des cyberattaques, la désinformation ne connaît pas de frontière. En conséquence, la Commission européenne a choisi d'élaborer une stratégie européenne pour la combattre, afin d'éviter toute fragmentation inutile. Nous avons reçu 3 000 réponses dans le cadre de notre consultation publique et une enquête Eurobaromètre a recueilli l'opinion de plus de 26 000 citoyens européens. Les premiers résultats interpellent : 97 % des sondés affirment avoir été la cible de fausses informations, principalement sur des sujets relevant de la politique, de l'immigration, des minorités et de l'insécurité, et, pour 70 % des sondés, les fausses informations nuisent à la démocratie. Dans son rapport publié le 12 mars dernier, le groupe d'experts, constitué en novembre 2017 pour formuler des recommandations sur la désinformation en ligne, prône une approche multidimensionnelle fondée sur l'autoréglementation. L'implication de chacun est, en effet, nécessaire : il ne peut exister de solution durable sans l'engagement de l'ensemble des parties concernées. Si le rapport insiste sur le rôle des plateformes, les médias traditionnels doivent également s'adapter aux exigences du numérique, afin de contrer la dissémination des fausses informations par la promotion d'une information de qualité. Les annonceurs publicitaires et les partis politiques doivent également participer à ce combat. Ainsi, nous pouvons ensemble espérer diluer le phénomène et, progressivement, l'éteindre. Enfin, je souhaite insister sur la nécessité de soutenir l'éducation numérique : nos concitoyens doivent disposer des outils et des connaissances leur permettant de discerner les fausses nouvelles et, ainsi, limiter leur propagation. Je présenterai, le 25 avril, un plan européen de mesures concrètes de lutte contre la désinformation en ligne.

Mme Catherine Morin-Desailly, présidente. - Quel propos liminaire intéressant et de circonstance pour entamer nos travaux ! Madame Divina Frau-Meigs, vous êtes membre du comité d'experts mis en place par la Commission européenne : partagez-vous l'analyse de la commissaire européenne ?

Mme Divina Frau-Meigs, professeure à l'Université Paris III Sorbonne-Nouvelle en sciences de l'information et membre du comité d'experts sur les « fake news » mis en place par la Commission européenne. - Comme Mme Gabriel, je crois qu'il n'existe pas de ligne Maginot de la mal-information : elle est transfrontière et, en ce sens et même si peuvent apparaître des enjeux de souveraineté nationale et d'intégrité des élections, la réponse doit être, à tout le moins, européenne. La Commission européenne a proposé, avec le groupe d'experts, une définition du phénomène, ce qui me semble constituer un préalable essentiel. La décision a été prise dans le rapport de ne pas utiliser les termes « fake news », car nombre de ces informations sont en réalité justes mais transformées dans leur contenu par des automates, et de leur préférer celui de « désinformation » pour insister sur l'aspect manipulateur. Je préfère pour ma part celui de « mal-information », qui rappelle la notion de malveillance très éloignée du canular de presse du XIXe siècle. La Commission a également mis en exergue deux cas différents, qui ne peuvent pas être traités à l'identique par une éventuelle réglementation : la mal-information à visée commerciale ou publicitaire et la mal-information politique portant atteinte, notamment, à l'intégrité des élections comme cela a pu récemment être constaté aux États-Unis. Il convient, en outre, de ne pas négliger le rôle des communautés d'usage, trop insuffisamment pris en compte dans la réglementation. Comment ramener les crédules dans le berceau d'un débat démocratique contradictoire dans lequel leurs idées ne sont pas rejetées et au sein d'un discours intelligible et intelligent ? Ils représentent, en réalité, les premières victimes de la mal-information.

Notre rapport prend de multiples précautions : les chercheurs n'ont pu prouver aucun effet avéré de la mal-information et nous ne disposons pas de suffisamment de recherches critiques pour affirmer qu'elle change une élection. Au contraire, les deux dernières recherches menées en Angleterre et en France font apparaître un résultat inverse : il y aurait une résilience des électeurs, qui ne seraient pas si crédules. En revanche, il est certain qu'il existe une volonté avérée de nuire et un effet diffus sur la population, celui du doute distillé par les marchands de soupçons sur Facebook comme sur d'autres médias sociaux, qui représentent les lieux de circulation, de diffusion et propagation privilégiés de ces contenus. L'absence de résultats scientifiques évidents a conduit l'Union européenne à avancer précautionneusement en matière de régulation en privilégiant l'autorégulation, qui nécessite une grande transparence dans les affaires publiques et commerciales. Elle demande également de la profession de journaliste, qui souffre du déséquilibre de la répartition de la valeur économique au profit des plateformes, une prise de conscience, notamment s'agissant de son comportement sur les réseaux sociaux. Il existe un hiatus entre l'information 1.0 véhiculée par les médias et la mal-information 2.0 favorisée par la viralité des réseaux sociaux et des communautés d'usage. La profession commence à se remettre en question et, ce faisant, à regagner la confiance populaire, d'après les sondages les plus récents. Nous préconisons en outre le renforcement de l'éducation aux médias, j'y reviendrai. Notre rapport propose, pour conclure, l'instauration d'un code de bonne conduite auquel les Google, Amazon, Facebook, Apple, Microsoft (Gafam) ont accepté de participer. Son élaboration sera réalisée conjointement et sa mise en oeuvre évaluée après un an ; en d'autres termes, la Commission engage un processus de la carotte, qui pourrait être suivi d'un processus du bâton s'il s'avérait que la première étape se solde par un échec.

Sans se désolidariser du rapport commis par le groupe d'experts, ma position personnelle s'en éloigne quelque peu. J'estime qu'il aurait été utile que nous aboutissions à une enquête sectorielle sur les plateformes, afin d'évaluer la réalité de la concurrence et des positions dominantes et d'étudier les comportements publicitaires, qui représentent un soutien essentiel, bien que souvent involontaire, aux marchands de soupçons. Le système publicitaire et d'agrégation de contenus, avec l'algorithmique correspondant, ne se positionne pas par rapport à l'authenticité ou à l'objectivité de l'information, mais en fonction de l'engagement et de l'émotion qu'elle suscite. Nous aurions ainsi pu mesurer combien ce comportement a coûté à l'information de qualité et, le cas échéant, corriger cette perte en créant un fonds d'aide aux nouveaux médias, y compris par la fiscalité. Je propose, pour ma part, d'installer une dorsale complète du service public du numérique : des moteurs de recherche qui ne tracent pas, des réseaux sociaux qui ne diffusent pas de publicité et des médias de qualité marqués d'un label facilement identifiable, sur le modèle de celui de Reporters sans frontières (RSF). Disposer d'un lieu dédié à l'information de qualité permettrait également de pouvoir retracer le cours d'une campagne électorale, comme s'y attellent actuellement les Américains. L'Europe a les moyens de mettre en place une politique favorable à l'intérêt général du numérique, reste à se doter de la volonté politique...

La situation actuelle, qui pose un insoluble problème de temporalité, n'est pas soutenable : il faut de douze à quatorze heures pour éteindre une rumeur sur Twitter en la démentant, dès lors, sans mesures sérieuses en amont, le mal peut être fait une veille d'élection. Avant même la réglementation ou l'autorégulation des acteurs, le succès de la lutte contre la mal-information réside dans l'éducation aux médias, qui ne dispose que de faibles moyens. La Commission européenne a proposé à cet effet d'inscrire l'éducation aux médias, qui forge les valeurs et les comportements, dans les compétences du Programme international pour le suivi des acquis des élèves (PISA), car c'est en étant évaluée qu'elle gagnera en importance. Elle ne doit pas être confondue avec l'éducation numérique, qui traite des outils et savoir-faire opérationnels, du code et de l'algorithme, dont elle est complémentaire.

La loi qui sera adoptée par la France sera observée avec attention à l'étranger avec la possibilité qu'elle soit à l'origine d'en effet domino, comme la réglementation allemande inspire la Russie et l'Indonésie. Prenons garde à ce que des lois liberticides votées dans d'autres pays ne se revendiquent pas du modèle français. Ayons conscience de notre responsabilité, comme pays des droits de l'homme. Nous devons sanctuariser les contenus et réfléchir à instaurer un statut des médias sociaux, par nature hybrides, les dotant d'obligations en matière de transparence et de droit de réponse. Je conclurai en insistant sur la nécessité de renforcer l'information aux médias et, surtout, de garantir son indépendance. Elle doit cesser d'être financée par les Gafam et intégrer les missions de l'école en étant prise en charge par les enseignants. Je mets d'ailleurs au défi les Gafam d'assurer cet enseignement à douze millions de jeunes Français de moins de seize ans ! Peut-être faut-il créer, si nécessaire, un fonds à cet effet, abondé par le fruit d'une fiscalité imposée aux Gafam.

Mme Catherine Morin-Desailly, présidente. - Nous donnons immédiatement la parole au représentant de Google France, puisque sa société vient d'être évoquée à plusieurs reprises s'agissant du code de bonne conduite et de la défiance croissante de la population à l'égard des Gafam. Quel est, monsieur Tabaka, votre opinion sur ces sujets et, surtout, sur les textes déposés à l'Assemblée nationale ?

M. Benoît Tabaka, directeur des relations institutionnelles et des politiques publiques de Google France. - Je vais m'inscrire en faux avec certains propos précédemment tenus sur les Gafam. Nous sommes certes des sociétés de la « tech », mais nous exerçons des activités bien différentes : moteurs de recherche, réseaux sociaux, plateformes d'hébergement, etc. Les Gafam ont bien sûr un rôle à jouer dans la lutte contre la désinformation, mais elles n'interviennent pas toutes au même stade de la diffusion des contenus incriminés, Depuis longtemps, Google prend le sujet au sérieux. Le coeur de métier de l'entreprise est d'organiser l'accès à l'information via son moteur de recherche et, en conséquence, d'éviter qu'il ne soit biaisé par certains, qui réussiraient à faire apparaître les contenus de leur choix en tête des résultats de recherche. Je préfère, pour ma part, le terme de « désinformation » à celui de « mal-information », qui semble supposer qu'une information a été inconvenablement formulée sans volonté de nuire. Le phénomène peut prendre des formes extrêmement variées, puisque les acteurs malveillants utilisent différents procédés pour répandre de fausses informations sur Internet. Dès lors, il ne peut y avoir de réponse unique et uniforme.

Google utilise déjà plusieurs outils pour lutter contre la désinformation en ligne. D'abord, son algorithme fait en sorte que les contenus de qualité se placent en tête dans les résultats du moteur de recherche, afin d'offrir à l'utilisateur l'information la plus fiable possible. À cet effet, ont été développés des éléments techniques permettant d'éviter que des robots ne réussissent à favoriser leurs propres résultats. Nous avons notamment annoncé, il y a quinze jours, que notre traitement algorithmique de référencement allait évoluer pour ne plus systématiquement favoriser les contenus en fonction de leur actualité. Lorsqu'un événement d'importance survient, des comptes malveillants tentent de diffuser des informations erronées en profitant du grand nombre de recherches afférentes réalisées en ligne. Nous travaillons avec RSF pour définir au mieux la fiabilité d'une information. Nous luttons, en outre, contre la désinformation via notre activité de régie publicitaire pour compte de tiers. À titre d'illustration, nous avons supprimé, en 2017, 1,7 milliard de publicités, toutes causes confondues, qui permettaient de monétiser de fausses nouvelles. Pour les mêmes raisons, 100 000 éditeurs de sites ont vu leur compte publicitaire supprimé. En d'autres termes, Google applique la stratégie dite follow the money, habituellement destinée à la lutte contre la contrefaçon, au combat contre la désinformation. Enfin, l'entreprise, depuis plusieurs années, aide la presse à s'adapter au numérique en mettant en place, en France puis en Europe, un fonds de soutien aux projets innovants. Nous avons ainsi soutenu Les Décodeurs du Monde à hauteur de plusieurs centaines de milliers d'euros. Il y a quinze jours, a été annoncée la création d'un fonds mondial doté de 300 millions de dollars sur trois ans.

Mme Catherine Morin-Desailly, présidente. - Pourriez-vous nous faire part plus concrètement de votre opinion sur les dispositions des textes déposés sur le bureau de l'Assemblée nationale ?

M. Benoît Tabaka. - Pour ce qui concerne plus spécifiquement la proposition de loi, je reconnais que nous sommes encore en cours d'analyse, le texte n'ayant été publié que récemment sur le site de l'Assemblée nationale. S'agissant de la publicité en ligne, et notamment de l'usage de moyens publicitaires pour promouvoir une fausse nouvelle, Google a d'ores et déjà développé des outils permettant d'identifier des comptes malveillants destinés à diffuser cette information en ligne. Ils existent, même s'ils peuvent évidemment être améliorés. La proposition de loi fait apparaître le concept de « contenu d'information ». Est-ce un contenu renvoyant vers un site d'information ou un contenu de nature informative ? Par exemple, un article portant sur une disposition de la loi relative à l'immigration serait-il considéré comme un contenu d'information et, dès lors, soumis automatiquement, pour ce qui concernerait la publicité qui le viserait ou y renverrait, au régime juridique prévu par la proposition de loi ? Ce point mérite d'être éclairci lors des débats parlementaires. Nous avons, de notre côté, des échanges avec le ministère de la culture.

Me Christophe Bigot, avocat. - Je m'en tiendrai à une analyse juridique et commencerai par rappeler l'existant, qui est déjà assez significatif mais n'est pas utilisé. En France, deux textes sanctionnent les fausses nouvelles. La loi de 1881 sur la liberté de la presse punit la fausse nouvelle qui trouble la paix publique et le code électoral celle qui a pour effet de porter atteinte à la sincérité des scrutins. Or les décisions judiciaires s'appuyant sur ces deux textes se comptent sur les doigts d'une main.

On voit tout de suite qu'entre ces deux textes, il existe un vide : la fausse nouvelle qui ne porte pas un trouble à la paix publique et qui est de nature à porter atteinte à la sincérité du scrutin, mais sans qu'on ait la démonstration d'un effet réel.

N'oublions pas, par ailleurs, l'action en diffamation : la diffamation est une allégation fausse de nature à porter atteinte à l'honneur et à la considération d'une personne. Ainsi, pendant la campagne présidentielle, l'allégation selon laquelle Emmanuel Macron aurait eu un compte offshore au Panama. La loi permet déjà au juge de statuer dans les 24 heures en période électorale. Inutile, donc, d'adopter un texte supplémentaire pour faire intervenir un juge des référés.

En somme, cette proposition de loi est largement inutile : à mon avis, c'est purement et simplement une posture politique.

Le modèle français en matière de liberté d'expression ne consiste aucunement à sanctionner la mal-information, au contraire ! La loi de 1881 pose le principe de liberté et il s'agit pas d'aller chercher qui s'exprime de manière bienveillante et qui s'exprime de manière malveillante. L'idée est de déterminer des incriminations précises, en dehors desquelles on est libre de dire ce qu'on veut, même lorsqu'on est malveillant. D'ailleurs, la communication politique elle-même est souvent malveillante en période électorale !

Nous ne voulons surtout pas changer de modèle et commencer à décréter ce qu'est la bonne ou la mauvaise information : ce serait ouvrir une boîte de Pandore.

Bref, votez une loi inutile si cela vous amuse...

M. Philippe Bas, président. - Nous avons d'autres occasions de nous amuser...

Me Christophe Bigot. - C'est une loi inutile, et qui peut être dangereuse si on commence à assimiler fausse information et information controversée ou mal présentée, ce qui aurait des conséquences en matière de liberté d'expression en période électorale.

Si l'on peut aisément identifier et signaler des comptes ou des contenus pédopornographiques, je ne vois pas comment une plateforme pourrait identifier une fausse information. Pour le cas du compte offshore prêté à Emmanuel Macron, un militant de la République en Marche peut le signaler à Google mais Google n'a pas les moyens de déterminer si c'est une fausse information ou non.

Cela dit, cette proposition de loi comporte des pistes prometteuses. D'abord, il peut être intéressant de cibler la diffusion massive et artificielle car celle-ci est un indice presque certain qu'on a affaire à une fausse information ou, en tout cas, à une information diffusée avec malveillance à une échelle industrielle. Cette notion de diffusion massive et artificielle est intéressante aussi car elle évite de mettre sous pression les vrais médias, les médias d'information.

Il est aussi opportun de renforcer la distinction entre l'information et la publicité ou la communication. Certes, nous avons déjà des textes qui prescrivent que toute information sponsorisée doit être signalée comme telle. On pourrait aussi ajouter une distinction entre ceux qui s'expriment de manière anonyme et ceux qui le font à visage découvert.

M. Hervé Brusini, directeur délégué au numérique, à la stratégie et à la diversité au sein de la direction de l'information de France Télévisions. - Je suis au coeur de la tempête, comme tous les journalistes qui ont subi cette dévastation de la confiance. Le phénomène n'est pas nouveau : en 1897 on a interrogé les Français sur la responsabilité des journalistes. Qu'avaient-ils fait de leur pouvoir ? Les plus belles signatures - Zola, Jaurès et d'autres - ont répondu à ce qui était déjà un débat national sur le déficit de confiance. La revue Le temps des médias donne un texte datant de 1700 sur la fabrication des fausses informations dans la fameuse Gazette de M. Renaudot, qui était pourtant un brave homme...

Dans la constitution d'un corpus nécessaire à l'éducation à l'information, les journalistes ont un rôle très important. L'éducation aux médias, actuellement, est en pièces détachées : son corpus est loin d'être rassemblé, pertinent et efficace et il serait bien difficile de trouver en librairie le grand livre qui nous permettrait de faire correctement ce travail.

La démocratie passe par l'éducation et, donc, par l'éducation aux médias. Comme le service public est un des responsables - j'allais dire un des coupables - en la matière, il nous incombe aussi de constituer le corpus de l'éducation aux médias, notamment avec l'éducation à l'image. Il y a quelques mois, a circulé une image des pyramides couvertes de neige. Le monde entier - y compris des habitants du Caire - a repris cette image sans aller voir ce qu'était la météo au Caire ce jour-là. En l'espèce, il n'y avait pas de malveillance.

Je trouve significatif qu'on soit obligé de faire une clarification du concept qui nous rassemble. De quoi parlons-nous ? De fausses nouvelles, de « fake news », de désinformation, de mal-information ? La précision du concept est essentielle.

Nous devons aux Français, qui ont la gentillesse de payer leur redevance, un vrai travail de journaliste, et nous devons rendre des comptes. La régulation est donc bienvenue. Nous avons été tellement secoués par un certain nombre de scandales, comme la fausse mort de Martin Bouygues, que la moindre des choses est de mettre en place des procédures garantissant une information de qualité, c'est-à-dire vérifiée. Déjà, nous nous astreignons à ne sortir une information qu'après une vérification puissante. Cela dit, on peut toujours nous critiquer. L'information n'est pas scientifique, c'est une activité humaine. Et pour cette raison, les contraintes doivent être d'autant plus fortes.

Pour le service public, cela signifie d'abord la promotion de l'éducation aux médias. Le service public ne peut pas déroger à sa responsabilité d'aller au contact des écoles ; il doit produire des modules de formation, y compris parfois en jouant avec le feu, c'est-à-dire en permettant aux élèves de fabriquer de la fausse information pour qu'ils comprennent comment tout à coup l'un de leurs camarades peut devenir un personnage épouvantable, chassé par tout le monde. Et, à l'antenne, nous devons absolument faire apparaître la transparence de nos procédures. Cette pédagogie de l'information au moment même de sa diffusion aide à lutter contre la fausse information.

Bref, les journalistes de France Télévisions s'interrogent beaucoup sur ces propositions de loi. Pourquoi ne pas garder l'arsenal existant ? En 1881, ce fut une bouffée d'oxygène extraordinaire pour l'information, et cette loi eut même un retentissement mondial. Il a été dit que les propositions de loi dont nous parlons peuvent avoir le même impact, mais comme textes liberticides.

Nous sommes prêts à réfléchir aux mesures permettant au public, notamment les jeunes, de distinguer les vraies informations des fausses. J'étais ce matin à Radio France devant près de 400 jeunes filles venues des quartiers. La plupart savaient ce que sont les Illuminati. C'est une alerte incroyable !

M. Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique. - La transparence des algorithmes est un sujet essentiel. Toutes les plateformes en utilisent, qu'il s'agisse de Facebook avec ses fils de News, de YouTube, de Google et ces algorithmes sont parfaitement opaques. Je vous invite tous à vous référer à l'excellent ouvrage The Black Box Society, de Frank Pasquale. L'auteur plaide pour une transparence qualifiée. Bien sûr, le code source d'une application est totalement illisible pour le grand public, mais il faut que des experts soient à même d'analyser ces codes quand il y va de notre vie : bientôt se poseront des problèmes sur les algorithmes des voitures sans pilote, qui devront faire l'objet d'un véritable débat démocratique pour savoir quels seront leurs comportements en situation d'accident.

De même, le choix des informations qui intervient sur des plateformes comme Google News ou comme le fil de News de Facebook, et peut-être surtout sur YouTube, est extraordinairement important. Pour l'instant nous n'y avons pas accès, ces algorithmes demeurant des secrets industriels. Mais, lorsqu'il est question d'enjeux aussi sensibles que le devenir de nos démocraties et le fonctionnement de nos sociétés, ce manque de transparence n'est pas soutenable.

Il commence à y avoir des études sur l'impact émotionnel, voir idéologique, de ces algorithmes. L'université de Cornell à New York et l'Université de Californie ont mesuré l'impact émotionnel d'une modification du fil de News de Facebook sur 700 000 personnes : qui dit manipulation émotionnelle dit sans doute, avec l'usage de l'intelligence artificielle, manipulation idéologique. De même qu'il y a quelques années il y a eu un avant et un après Snowden, je crois qu'il y aura un avant et un après Cambridge Analytica. Nous pensions que la bonne volonté des acteurs suffirait pour réguler le système, mais cette idée se heurte à la dure réalité de la manipulation, des intérêts économiques et des conflits géopolitiques.

Nous avons vu l'intervention stratégique d'un État étranger dans le fonctionnement démocratique de l'élection américaine, ainsi que, probablement, dans le vote sur le Brexit et sans doute aussi dans d'autres élections, y compris notre élection présidentielle. L'autorégulation a clairement montré ses limites et même, sur ces points, a échoué. À preuve, l'un des partisans et pionniers historiques d'Internet, Tim Berners-Lee, en a appelé récemment à la loi. Un éditorial du New York Times expliquait d'ailleurs récemment que le problème n'est pas Facebook, mais le fait que nos lois soient beaucoup trop molles en matière de protection de la vie privée. Un autre édito dans le même journal expliquait que l'Europe était en train de montrer le chemin, ajoutant que le nouveau monde doit aussi apprendre de l'ancien !

Le RGPD aura un impact bien au-delà des frontières de l'Union européenne : le consommateur américain sera touché par ses dispositions sur la protection des données. De fait, ce qui s'est passé avec Facebook de Cambridge Analytica était entièrement légal : les utilisateurs avaient donné leur accord - évidemment non éclairé au sens où nous l'entendrions en Europe. Ensuite, cette compagnie a ouvert les vannes de telle sorte que quelques centaines de milliers de personnes permettent de capter 50 millions de profils et d'en faire une moisson pour aller influencer une élection. L'élection américaine s'est jouée à 90 000 voix dans quelques États-clés. Or il est quasiment certain qu'une telle machine de guerre, en collusion possible avec des intérêts étrangers, a pu influencer 90 000 électeurs.

Nous devons donc nous interroger sur les algorithmes qui font fonctionner les plateformes. Si vous regardez une vidéo relative au massacre de Parkland, vous constatez que la vidéo suivante est celle du patron de la NRA, le lobby des armes. De même, si vous regardez des vidéos sur les attentats, YouTube vous présente ensuite des vidéos de plus en plus atroces. Je ne dis pas cela pour stigmatiser cette plateforme : la raison est tout simplement que l'algorithme détecte que les utilisateurs restent plus longtemps sur ces vidéos et que le modèle économique de ces plateformes est de montrer de la publicité.

Marc Zuckerberg, interviewé il y a deux jours, est revenu longuement sur ces questions et a indiqué qu'au mieux il faudrait plusieurs années pour rectifier le tir. Nous devons nous interroger sur les limites que nous souhaitons imposer à ces plateformes en tant qu'État démocratique et en tant qu'Union européenne. Penser qu'elles se réguleront elles-mêmes est une illusion. D'autant que la prochaine menace est celle de la manipulation de masse par des robots, qui pourront cibler certaines personnes en fonction des informations fournies par les plateformes. Et l'étape suivante est encore plus inquiétante : bientôt, l'usage de l'intelligence artificielle servira à dissimuler l'intervention des robots - au point qu'il faudra avoir recours aussi à l'intelligence artificielle pour les déceler.

Bref, ces questions qui ont fait irruption très rapidement, en une décennie environ, sont devenues si importantes pour l'avenir de nos sociétés que nous ne pouvons plus nous permettre le luxe de la naïveté.

Lawrence Lessig est légitimement inquiet. Il explique que, si notre société pouvait être jusqu'à présent captée par des groupes d'intérêts, elle peut désormais l'être par des puissances technologiques, y compris étrangères. À cet égard, la portée des propositions de loi est trop étroite puisqu'elles se focalisent sur la période préélectorale, en oubliant l'ensemble des phénomènes qui peuvent modifier le climat dans lequel les élections se déroulent. Le Brexit sera un terrain d'étude extraordinairement important dans ce domaine.

Un autre universitaire américain, philosophe et constitutionnaliste, M. Katzenstein, a écrit un ouvrage sur ces questions, et il considère qu'une démocratie digne de ce nom met en contact ses citoyens non seulement avec des opinions différentes, mais aussi avec des opinions qui les dérangent. En effet, l'élection américaine a montré qu'à force de n'être mis en contact par la régulation algorithmique qu'avec des opinions proches des siennes, chacun se radicalise. Si nous ne mettons pas chacun en contact avec des opinions abrasives, nous aurons perdu beaucoup de ce que nous considérons comme l'essentiel du débat démocratique. Il faudra donc une régulation par la loi. Cela aura un impact sur nos voisins et, d'ailleurs, l'opinion publique anglo-saxonne est en train de se rendre compte que ce qui a toujours été perçu comme le juridisme européen était en fait précurseur, puisque nous avons toujours été soucieux de protéger les données personnelles, qui sont bien la donnée de base pour le micro-targeting qu'on dénonce aujourd'hui.

M. Claude Malhuret. - Je pense aussi qu'il ne faut toucher à la liberté d'expression, comme disait Nietzsche, qu'avec des pattes de colombe. Pour autant, la démonstration que vous avez faite, maître Bigot, ne m'a pas convaincu. Vous dites que nous avons un arsenal législatif suffisant. Mais les sanctions prévues et appliquées sont ridicules. Pensez-vous qu'elles soient dissuasives pour M. Poutine lorsqu'il fait diffuser les emails de Mme Clinton ou qu'il répand le bruit qu'Emmanuel Macron a un compte offshore ? Il nous faut donc de nouveaux outils. En effet, monsieur Benhamou, ces propositions de loi, en se bornant à la période préélectorale, ne vont pas assez loin. Et les sanctions qu'elles prévoient sont également insuffisantes.

Mme Morin-Desailly avait raison d'appeler à la précision du concept. Il en existe plusieurs catégories et le mot « fake news » est devenu un mot-valise. Si nous ne distinguons pas plus finement, nous ne trouverons pas les bons outils de lutte contre ce fléau : tout texte aura une portée trop générale et sera légitimement combattu au nom de la liberté d'expression.

Je vois pour ma part au moins trois catégories. Il y a d'abord les milliards, ou les millions, d'abonnés, « d'idiots de base », qui trouvent amusant de propager des rumeurs. À cet égard, la réponse adéquate est l'éducation et les Gafam doivent prendre des engagements fermes en ce domaine. Mais nous n'allons pas poursuivre des particuliers par millions...

Deuxième cas : lorsque des organisations, commerciales, ou même terroristes, font de la désinformation. L'autorégulation, en effet, a échoué et le législateur a une responsabilité sur ce point.

Troisième catégorie : la désinformation faite par un État. C'est autre chose, puisque nous parlons alors d'une guerre numérique, ou à tout le moins d'hostilités. On voit bien, par exemple, comment la Russie cherche de cette manière à casser l'Europe ou a tenté de peser sur l'élection américaine. Pour lutter contre cela, ce n'est pas d'une loi dont nous avons besoin mais de courage politique. Or, quelques mois après qu'Emmanuel Macron a expliqué devant M. Poutine que Russia Today n'était pas un site d'information mais un site de propagande - exactement comme, à la fin de l'ère Brejnev, le Direktorat D du KGB - le Conseil supérieur de l'audiovisuel (CSA) accepte sans aucune difficulté l'enregistrement de cette chaîne, sur le même pied que France Télévisions !

Mme Sylvie Robert. - Ce débat est aussi passionnant que vertigineux. La première question, en effet, est : de quoi parle-t-on ? Je ne sais s'il faut procéder à une classification, mais nous devons, en tout cas, être vigilants sur la défense de la liberté d'expression. Derrière les fausses nouvelles, il y a toujours des finalités, des objectifs. C'est peut-être par là qu'il faudrait préciser le périmètre de ce texte. En effet, l'éducation et la formation aux médias sont fondamentales, dans ce contexte. Pour rétablir la confiance, la garantie que l'information est vérifiée est indispensable. Existe-t-il un moyen de vérifier en temps réel si l'information est garantie ? Comment lever le doute ?

M. Bernard Benhamou. - Il est possible de tracer un graphe quasiment en temps réel sur la diffusion d'une nouvelle. On y voit aisément si des pôles semblent artificiels, ce qui permet de détecter les robots. Mais cela deviendra de plus en plus compliqué avec le temps car l'intelligence artificielle apprendra comment faire en sorte de ne pas éveiller les soupçons. Il est impératif que nous développions la recherche sur ces sujets, notamment en multipliant le nombre de doctorants qui s'y consacrent.

Mme Divina Frau-Meigs. - À cet égard, nous sommes amputés. Nous avons beaucoup de mal à avoir accès aux données. Certaines plateformes sont réticentes, d'autres plus ouvertes : c'est le cas de Twitter qui, du coup, est la plus critiquée parce que les chercheurs peuvent montrer son mode de fonctionnement. Des recherches au Royaume-Uni ont révélé qu'il faut deux heures pour montrer qu'une rumeur est une vraie information, mais quatorze heures pour prouver qu'elle est fausse. Quatorze heures, une veille d'élection, cela peut être fatal. Je souhaite que les chercheurs aient un plus large accès aux données des plateformes, y compris sur de longues périodes, sans pour autant menacer leurs secrets.

M. Hervé Brusini. - Une étude récente a montré qu'il y a sept fois plus de chances qu'une personne répercute une fausse information qu'une vraie. L'éducation est donc une nécessité impérative. Nos adolescents, les jeunes, peuvent faire preuve de crédulité - comme ceux que j'ai rencontrés ce matin à France Télévisions et qui connaissaient tous les Illuminati. Ce ne sont pas des idiots, ce sont simplement des jeunes : nous lisions Le Club des Cinq, eux se délectent d'autres histoires de complot. Le problème est que, pour eux, c'est devenu une grille de lecture de la vie et une négation de la valeur de la vérité. Sur notre chaîne, nos journalistes savent chasser la fausse information, au besoin avec des outils retraçant le parcours d'une vidéo, mais aussi, tout simplement, avec de l'esprit critique.

M. Olivier Paccaud. - Je comprends que les Gafam s'engagent à faire preuve d'une vigilance accrue pour mieux museler la diffusion de certaines fausses informations. Tant mieux ! Mais le risque zéro n'existe pas et n'existera jamais. De fait, la mauvaise information est aussi vieille que la propagande politique, et on peut remonter sur ce point à César et à sa Guerre des Gaules !

Cela dit, la « fake news » est, en elle-même, une information. Bien sûr, il faut lutter contre la diffusion des fausses nouvelles et renforcer l'éducation aux médias - à cet égard, je m'inquiète de voir que la part des sciences économiques et sociales risque d'être réduite dans le futur baccalauréat, alors qu'elles sont, avec la philosophie et la littérature, l'un des meilleurs moyens pour lutter contre l'emprise des « fake news ».

Le travail de journaliste, c'est de vérifier l'information. Au sein des écoles de journalisme, existe-t-il des modules consacrés à ce sujet ? Les récentes affaires ont-elles modifié la manière de travailler des journalistes ?

M. Pierre-Yves Collombat. - Ce débat me laisse perplexe, non pas qu'il ne soit pas important - la question est fondamentale - mais parce qu'il y a peu, on nous expliquait que l'avenir de la démocratie, c'était Internet et les réseaux sociaux, qui allaient sauver cette pauvre démocratie représentative qui était en train de mourir. Et voilà qu'on découvre que ce bistrot à dimension mondiale pose aussi un certain nombre de problèmes !

Et lorsqu'on est confronté à des résultats électoraux qui dérangent, qu'on ne souhaitait pas et qu'on n'attendait pas, on imagine tout de suite un complot - et, bien entendu, les Russes en sont responsables.

Mais la réalité est qu'un certain nombre de politologues américains avaient prévu l'élection de M. Trump. Ils savaient que l'élection se jouerait dans la Rust Belt, qui votait massivement pour les démocrates et qui a basculé. Notons d'ailleurs qu'Hillary Clinton n'y a même pas tenu un seul meeting... De même, les régions qui ont voté pour le Brexit étaient des régions à l'abandon.

Ce qui me frappe le plus dans la fabrication de l'opinion, pour reprendre la formule de Chomsky, ce ne sont pas les « fake news », c'est la sélection de l'information. Il y a des choses dont on ne parle jamais. Résultat : comme nos concitoyens entendent toujours la même chose, quand ils entendent quelque chose de complètement stupide, ils trouvent cela formidable et porteur d'information.

Quant aux algorithmes, si vous cherchez « dette publique » sur Internet, les résultats abondent. Si vous cherchez « dette privée », rien ! Bien sûr, l'éducation est un rempart utile, mais nous n'avons pas besoin d'une éducation aux médias, ou au numérique : ce qu'il faut, c'est une fabrication de l'esprit critique. Et cela ne se fait certainement pas en acquérant des compétences, comme une mode américaine le veut depuis une vingtaine d'années - au contraire. Cela permet de mettre les choses en perspective. Mais, comme disait le Général, c'est un vaste programme...

M. Laurent Lafon. - Ce qui est nouveau, ce n'est pas la désinformation, mais la diffusion des informations, vraies ou fausses, à l'échelle planétaire. Comment faire appliquer une loi nationale à l'échelle des réseaux sociaux ? L'auteur des « fake news » n'est pas toujours localisable : faut-il alors sanctionner le diffuseur, plus facilement identifiable ?

Mme Sonia de la Provôté. - La question de l'anonymat est majeure. En Estonie, chaque citoyen peut participer à la fabrique de la loi, sous réserve que son identité soit connue, ce qui, d'après les personnes chargées de piloter ces dispositifs, éradique les contributions malveillantes. L'anonymat sur Internet, nous le constatons tous, ouvre la voie à toutes sortes de dérives.

M. Benoît Tabaka. - Je vous rejoins sur l'importance de l'éducation au numérique. L'initiative publique est en la matière très importante, pour aider les personnes à décoder les informations. On ne pourra certes pas éradiquer les « fake news », qui circulent depuis la nuit des temps, mais on peut améliorer l'éducation.

Je suis en désaccord avec M. Benhamou, pour qui si on peut identifier un schéma de communication de l'information, on ne peut vérifier l'information elle-même. Lors de la dernière campagne présidentielle, le collectif CrossCheck et plusieurs rédactions ont publié près de 70 articles qui montrent le contraire. Témoin de l'attaque du Bataclan, j'ai par exemple été le premier à twitter que des coups de feu y étaient tirés et que des personnes en sortaient en sang. Comment traiter cette information d'un point de vue journalistique ? Grégoire Lemarchand, de l'Agence France Presse (AFP), a très bien montré tout le profit tiré par les journalistes des réseaux sociaux pour couvrir le sujet en temps réel - avec un léger décalage, naturellement.

Il existe déjà une forme de régulation. Pour l'heure, elle ne prend la forme que d'une autorégulation car les concepts sont flous. Une étude d'impact permettrait de mieux circonscrire le phénomène qu'il est question pour le législateur d'encadrer.

Me Christophe Bigot. - On peut toujours ajouter des zéros au montant des amendes... L'Allemagne l'a fait, avec pour résultat que les plateformes qui reçoivent des signalements retirent aussitôt les contenus sans vérifier quoi que ce soit. En outre, il est très facile de se rendre anonyme sur le Net : qui le juge des référés sanctionnera-t-il ? Une loi qui se limiterait à ces aspects n'aurait donc qu'une portée limitée.

M. Bernard Benhamou. - Il est vrai que les internautes ne se comportent pas de la même façon selon qu'ils sont identifiables ou anonymes. L'exemple estonien est fascinant, mais il n'est pas reproductible dans un pays de 66 millions d'habitants. De plus, les outils d'anonymisation sont utilisés aussi bien dans nos démocraties qu'en Chine, par les dissidents rétifs à ce que les autorités contrôlent les déplacements de leurs 1,3 milliard d'habitants... Ce sont les mêmes techniques cryptographiques qui couvrent parfois des actes délictueux ou terroristes sous nos latitudes et qui protègent la liberté sous d'autres. Il n`existe donc pas de one size fits all, de taille unique, en matière de régulation. Lutter contre les délits de manipulation de l'opinion par achat massif de petites mains actives sur les réseaux sociaux dans des pays à bas coût de main d'oeuvre est aussi un combat géopolitique, qu'il faut mener à l'échelle européenne. Dans la gouvernance d'Internet, les parties prenantes sont en principe placées sur un pied d'égalité, mais en cas de crise de confiance systémique - c'est désormais le cas puisque l'on soupçonne à présent des officines de Cambridge Analytica d'avoir aussi influencé des scrutins colombien, argentin ou mexicain -, nous devons cesser de nous payer de mots et formuler des exigences de transparence plus strictes.

Mme Divina Frau-Meigs. - Je crois à l'importance de la définition, mais surtout à la démonstration des mécanismes et des leviers de la mal-information, qui permettent de remonter aux acteurs qui en sont responsables. Le premier est la monétisation de la publicité par d'autres acteurs que les entreprises elles-mêmes - c'est ce qui a motivé la création de ces fermes de serveurs moldaves ou macédoniennes travaillant à soutenir Donald Trump -, monétisation dans laquelle les plateformes sont impliquées. Deuxième mécanisme : la viralité, pas seulement celle du clic, mais ces logiques de trolling et d'astroturfing, qui expliquent l'implication de Facebook dans ces affaires : la plateforme compte en effet deux milliards d'individus réels que l'on peut cibler en faisant fi des frontières...

La solution ? Se doter de médias sociaux européens. Comment se fait-il que nous n'ayons pas laissé nos réseaux sociaux atteindre une taille critique ? C'est un scandale ! Les Russes ont leurs propres réseaux sociaux, de même que les Chinois, qui les vendent à présent en Amérique latine et en Afrique. Développer cette dorsale et les conduire à une taille critique à l'échelle de l'Europe suppose des incitations, des aides, des financements. Nous avons bien essayé avec les moteurs de recherche... Qwant ne représente que 4 % du marché, faute d'éducation au numérique. Or plus on le soutient, plus il s'améliore. Il faut aussi que les acteurs en position dominante sur ce marché lui laissent de la place. Une enquête sectorielle serait utile pour prendre les bonnes décisions. Cela suppose d'encourager la recherche.

L'éducation aux médias, quand elle est faite par les journalistes ou les Gafam, n'est que du branding. Google ne fait pas de l'éducation aux médias, mais de l'éducation au numérique : nuance. France Inter, elle, fait de l'éducation aux médias, mais son émission est programmée le dimanche à 6 h 30 du matin. La cible est-elle touchée ? J'en doute. Google affirme former 5 millions de personnes au numérique, mais un représentant de l'entreprise m'a dit travailler à former des gens à créer leur business en ligne ! Il existe ailleurs des centres de recherche sur les menaces hybrides, qui travaillent à comprendre cette cyber-guerre froide dans laquelle les réseaux sociaux sont impliqués contre leur gré. Je crois aux réseaux de chercheurs pour trouver des solutions : nous gagnerions à nous doter d'un tel outil.

Je rejoins M. Benhamou sur la question de l'anonymat. Les pays qui ne supportent pas la dissidence appliqueraient notre régime de restriction de l'anonymat et nous porterions la responsabilité morale des mauvais traitements infligés aux journalistes et aux lanceurs d'alerte.

M. Hervé Brusini. - Parler d'éducation aux médias, lorsque l'on est membre du service public, n'est pas du branding. L'émission de France Inter peut être réécoutée en ligne : la délinéarisation permet de toucher aussi les jeunes générations.

Oui, le numérique a chamboulé le journalisme, en le forçant à descendre de son piédestal pour répondre aux questions des gens. Le numérique suppose une conversation, et la régulation vient précisément du dialogue. Vous avez dit une bêtise ? Nous avons, journalistes, le devoir de répondre. La conversation est constitutive du journalisme numérique contemporain.

Je finirai sur une note positive : la fausse information nous a agressés, et nous allons enfin à la confrontation. Nous ne sommes plus subjugués par le déferlement du numérique qui remettrait en cause la télévision ou la presse écrite, nous livrons une bataille décisive pour la citoyenneté européenne - et peut-être au-delà ! Elle le sera à bon escient grâce aux chercheurs et à une dorsale européenne.

M. Philippe Bas, président. - Nous vous remercions pour l'éclairage que vous avez apporté à nos travaux en votre qualité de journaliste, juriste, universitaire, responsable de réseaux sociaux et spécialiste des stratégies numériques. Nous nous apprêtons à recevoir deux propositions de loi de l'Assemblée nationale ; nous jouerons ensuite notre rôle de chambre de réflexion. Ces matières, complexes, dépassent les enjeux des campagnes présidentielles. Nous avons déjà pu les aborder lors de l'examen du projet de loi pour une République numérique, mais les perspectives que vous ouvrez sont d'une toute autre ampleur : elles ont une dimension technique, pénale, touchent à des questions de responsabilité... Bien que les faits qui les génèrent aient toujours existé, les enjeux de régulation sont nouveaux, car les nouveaux médias offrent à la rumeur une rapidité de diffusion - deux heures pour la propager, quatorze pour la corriger, disiez-vous - qu'elle n'avait pas dans le bocage normand !

Mme Catherine Morin-Desailly, présidente. - Nous vous remercions d'avoir accepté de participer à cette table ronde qui ouvre nos travaux. Vous avez singulièrement enrichi notre réflexion. Internet est un nouvel espace politique et, en tant que tel, il doit être investi par le législateur.

Ce point de l'ordre du jour a fait l'objet d'une captation vidéo disponible en ligne sur le site du Sénat.

La réunion est close à 20 h 15.