Jeudi 12 février 2026
- Présidence de Mme Christine Lavarde, présidente -
La réunion est ouverte à 9 h 00.
Audition de MM. Pierre Rosanvallon, professeur honoraire au Collège de France, David Chavalarias, directeur de recherche au Centre national de la recherche scientifique (CNRS), et Antoine Bayet, directeur éditorial de l'Institut national de l'audiovisuel (INA), sur le rapport à l'autorité et à la vérité à l'horizon 2050
Mme Christine Lavarde, présidente. - Je remercie nos trois intervenants d'être présents ce matin pour poursuivre les travaux de la délégation sur l'évolution des valeurs à l'horizon 2050. Nous abordons plus spécifiquement les questions d'autorité, de vérité et de construction de l'information.
Ces travaux font suite à un premier rapport sur l'évolution de la valeur économique. D'autres sont en cours sur la démocratie - sera-t-elle toujours le système roi en 2050 ? - et sur le lien social, notamment la solidarité intergénérationnelle et la répartition des richesses. Ce sont les quatre grands thèmes qui nous intéressent.
Les travaux de la délégation seront également confrontés au regard de jeunes étudiants, dans le cadre du Parlement des étudiants, qui mènent une réflexion similaire en parallèle. Nous confronterons ainsi le regard des jeunes avec celui des experts que nous avons interrogés sur ces quatre thématiques.
Monsieur Rosanvallon, vous êtes professeur émérite au Collège de France et auteur de nombreux ouvrages essentiels dans la théorie politique contemporaine. Votre dernier livre, Les institutions invisibles, publié en 2024, porte justement sur la question de l'autorité, de la confiance et de la légitimité.
À vos côtés, Monsieur David Chavalarias, vous êtes mathématicien, directeur de recherche au CNRS et directeur de l'Institut des systèmes complexes de Paris-Île-de-France. Vous avez écrit en 2022 Toxic Data, qui porte sur les dangers que représentent les réseaux sociaux pour nos démocraties, un sujet en lien avec deux de nos rapports.
Enfin, Monsieur Antoine Bayet, vous êtes journaliste et directeur éditorial de l'Institut national de l'audiovisuel. Vous êtes l'auteur en 2022 de Voyage au pays de la dark information, qui traite des fausses informations. Surtout, vous avez contribué aux États généraux de l'information en 2024, dans le cadre desquels des scénarios de prospective ont été élaborés. Je pense que vous aurez des choses intéressantes à nous dire sur la manière dont le journaliste fournit l'information la plus juste possible dans le respect des règles déontologiques applicables à la profession. Nous observons tous que, lorsque l'on consulte différents journaux, une information peut être traitée de manière très différente, donnant parfois l'impression au lecteur que rien n'est vrai. Ce sont des questions qui nous préoccupent.
Si vous en êtes d'accord, je laisserai M. Rosanvallon débuter en présentant les enjeux de la notion d'autorité, ses justifications théoriques et les symptômes de la crise actuelle. Peut-on réinventer l'autorité dans nos sociétés démocratiques ? Comment pourrait-elle évoluer à l'horizon 2050 ? Ensuite, M. Chavalarias pourra présenter les dangers que représentent les réseaux sociaux en matière de manipulation de l'information. Quels sont les méfaits des algorithmes de personnalisation, les biais cognitifs pourvoyeurs de fausses informations ? Pourquoi le modèle économique de la « Big Tech » est-il selon vous incompatible avec la pérennité de nos démocraties ? Quelles seraient les solutions pour lutter contre ces fausses informations ? Cela permettra à M. Bayet de poursuivre sur ces questions en nous indiquant comment les journalistes se sont adaptés à cette révolution. Peut-être pourra-t-il aussi nous présenter les principales conclusions des États généraux de l'information. Nous vous interrogerons ensuite en réaction à vos interventions. Je vous propose un propos liminaire de dix à quinze minutes chacun. Monsieur Rosanvallon, vous avez la parole.
M. Pierre Rosanvallon, professeur honoraire au Collège de France. - Je vais parler d'un double point de vue : celui de l'historien avec les travaux que j'ai menés sur l'autorité, la confiance et la légitimité, et celui d'une expérience au Collège de France, où j'ai animé avec Serge Haroche, prix Nobel de physique, un travail sur science et démocratie. Le livre que nous avons publié, Science et démocratie, interroge les conditions dans lesquelles l'autorité scientifique pourrait retrouver une place dans nos sociétés où elle est bien malmenée.
Mon approche historique montre que cette question de l'autorité est très ancienne. Elle se fonde sur la différence entre la notion de pouvoir et celle d'autorité et, pour simplifier, insiste sur le fait que le pouvoir est faible s'il n'est pas accompagné d'une autorité. L'un des grands penseurs du XIXe siècle qui a réfléchi à cette question, auquel j'ai consacré ma thèse, est l'historien François Guizot. Il a écrit en 1820 un livre pionnier, Des moyens de gouvernement et d'opposition, qui était une réflexion sur le fait que les pouvoirs semblaient impuissants, alors même qu'ils disposaient de nombreux moyens de gouvernement : fonctionnaires, police, douaniers. Pourtant, ils n'arrivaient pas vraiment à saisir la société.
Mon travail a donc consisté à voir comment, derrière les moyens classiques de gouvernement, le pouvoir se définit par des capacités à donner des ordres, à contraindre ou à déterminer des règles, alors que les institutions invisibles dont relève l'autorité ne se décrètent pas. Le propre de l'autorité fait système avec la confiance et la légitimité ; il est très important de voir que ces notions font système. L'autorité, comme la confiance et la légitimité, vient d'en bas. Personne ne peut dire : « J'ai l'autorité » ; on vous reconnaît une autorité. Personne ne peut dire : « Je suis la personne de confiance » ; on doit vous reconnaître cette confiance. Il en va de même pour la légitimité, qui est moralement reconnue et non institutionnellement consacrée. Cette question était d'ailleurs l'un des grands débats de théorie politique au Moyen Âge.
La distinction entre pouvoir temporel et pouvoir spirituel aboutissait à la suprématie du second sur le premier, en raison de sa capacité supérieure à influencer et à diriger les esprits. Cela allait même très loin, puisque nous en avons tiré la conclusion qu'il était permis de tuer un gouvernant dépourvu d'autorité véritable et de légitimité. C'est toute la théorie théologique du tyrannicide. Une grande réflexion a ainsi eu lieu pendant toute la période médiévale, et bien sûr au-delà, sur la manière dont se constitue une autorité. Il y a eu un moment de formalisation de cette réflexion pour montrer que l'autorité n'appartient pas simplement à des institutions ou à des personnes, mais que nous pouvons la produire. Le laboratoire de production de cette notion d'autorité a été l'université. La notion d'autorité a été inventée dans l'université médiévale. Elle y était très forte : un maître universitaire était considéré comme quelqu'un qui, par son seul statut, pouvait accéder à la canonisation. Le fait d'être maître universitaire constituait une preuve de sainteté extrêmement importante.
À cette époque, la production de l'autorité était conçue non comme le simple énoncé d'une parole de savoir, mais comme un mode de production spécifique de celui-ci, né de la confrontation et de la discussion. Je pense notamment aux procédures dites quodlibétiques, où des questions mises à l'ordre du jour étaient examinées par un ensemble de personnes qui s'affrontaient. Le plus capable ou le plus âgé du groupe proposait ensuite une conclusion, après quelques jours de réflexion. L'autorité naissait donc d'une confrontation, d'une réflexion critique, et non de la réflexion d'une seule personne.
Il est très important de voir que, si le pouvoir se décrète immédiatement, car c'est un statut légal, l'autorité, elle, se produit. Toute la réflexion ira ensuite dans le même sens, non plus à partir de sujets théologiques ou philosophiques, mais sur ce que signifie la démarche scientifique. La science n'existe pas ; ce qui existe, c'est la démarche scientifique. J'y reviendrai à propos du travail que nous avons mené au Collège de France.
L'autorité est donc très importante, mais elle ne se décrète pas. Comme elle fait système avec la confiance et la légitimité, il faut voir comment cette dernière se construit. Comment vous reconnaît-on comme légitime ? Il y a des critères de proximité et de moralité. Dans une période relativement récente, la personne qui a le plus réfléchi à cette notion de légitimité est le Général de Gaulle, qui a développé avec son entourage toute une réflexion théorique sur le sujet.
La légitimité opposée à la légalité fut la base de la distinction faite par le Général de Gaulle entre la légitimité de Londres et ce qu'il appelait l'apparence de légalité du régime de Vichy. Qu'est-ce qui fait reconnaître l'autorité et la légitimité ? Qu'est-ce qui donne la confiance ? Il y a deux éléments : une liberté de la parole, qui est une parole d'autorité, et une recherche d'universalité. Cela pose une grande question en démocratie, car le propre de la démocratie est d'être organisée autour de la compétition entre des points de vue différents : le propre de la démocratie est d'organiser la division des opinions. Bâtir un compromis et avoir une parole d'autorité, ce n'est pas la même chose. Un compromis consiste à accepter mutuellement des transactions, alors que l'autorité est nécessairement une. En démocratie, la naissance de l'autorité est donc à la fois un problème et une très grande nécessité. Les Pères fondateurs de la démocratie pensaient qu'elle devait aboutir à un régime d'unanimité et d'unité. Il faut rappeler que, pendant la Révolution française, de 1789 à 1799, les partis politiques étaient interdits, car on craignait qu'ils ne construisent leur désaccord d'une façon qui pourrait être fort loin de la réalité. C'est aussi la raison pour laquelle, pendant la Révolution française, on ne pouvait pas se porter candidat à une élection. Les élections se déroulaient sans candidats, car on estimait que, s'il y en avait, ce serait un « bal des prétentions ». Il fallait donc déterminer le plus vertueux et le plus talentueux par un autre mode que la compétition. Cela se traduisait par des élections qui duraient très longtemps. Il s'agissait d'une élection à deux degrés : les électeurs de base élisaient un électeur pour 1 000 personnes. Il y avait donc des groupes de base de 1 000 personnes, au sein desquels on élisait un représentant, ce qui faisait 40 000 électeurs en France. Comme l'on votait beaucoup pendant la Révolution française, dans les années 1791 et 1792, les électeurs parisiens s'étaient rassemblés 180 jours dans l'année. L'introduction des candidatures a donc aussi été une mesure de simplification, car cette procédure était très compliquée. Il reste l'idée que la démocratie ne doit pas simplement être un régime de la concurrence et de la compétition, mais qu'elle devrait être un régime de l'unité et de l'unanimité. Cela ouvre donc toute une réflexion, qui se lie aux conditions dans lesquelles une autorité peut apparaître.
Je conclus rapidement en évoquant le travail que nous avons mené au Collège de France sur l'autorité. Même un prix Nobel peut aujourd'hui se voir contredire par quelqu'un qui lui dira : « J'ai vu sur Internet que vous vous trompez complètement. » C'est l'expérience vécue par tous les professeurs scientifiques du Collège de France lorsqu'ils s'expriment en public.
Comment surmonter cela ? La confusion et la défiance naissent du sentiment que le savant est une personne lointaine, réfugiée dans son Olympe, un expert qui prétend gouverner le monde depuis sa bulle. Une réflexion historique mérite d'être soulignée : aujourd'hui, la dénégation de l'autorité scientifique est la plus forte dans les milieux populaires, alors que c'était le contraire dans les années 1930.
À cette époque, de grands savants, parfois prix Nobel, étaient membres du Parti communiste. Ils étaient donc considérés comme des amis, des membres du parti, et leur parole était perçue comme parole d'évangile. C'est leur proximité qui les a rendus crédibles.
Arago, lorsqu'il dirigeait l'Observatoire de Paris, avait eu le souci d'organiser chaque semaine de grandes conférences pour expliquer très pédagogiquement son travail au public. Il est devenu un savant extrêmement populaire, non parce que les gens pouvaient évaluer ses théories, mais parce qu'il apparaissait au service de la collectivité, proche d'elle.
L'autorité me semble indispensable au fonctionnement social, car elle est un économiseur d'arguments et d'institutions, tout comme la confiance est un réducteur de complexité. La proximité est une des clés essentielles de la construction de cette autorité. Nous avons un sérieux besoin de la reconstruire dans ce pays, et il est évident que les domaines scientifiques sont directement concernés, mais hélas, pas seulement.
Même en matière d'histoire ou de sujets beaucoup plus triviaux, on voit à quel point l'autorité a du mal à s'imposer. L'un des enjeux est donc de montrer ce qu'est le métier du chercheur, la production de l'autorité. Organiser des visites de laboratoire, par exemple, est un aspect très intéressant. J'ai assisté à des visites au laboratoire de physique statistique du Collège de France avec de petits groupes de jeunes. Il est frappant de voir l'extraordinaire aspect de bricolage dans la construction des machines scientifiques. On a ainsi une perception sensible, directe, de ce qu'est l'hésitation, le tâtonnement, le fait que la vérité scientifique n'existe pas en tant que telle. Ce qui existe, c'est la démarche scientifique, avec des acquis qui se construisent dans le temps. Ce sont certainement des pistes à développer, même si la concurrence des réseaux sociaux est très forte.
M. David Chavalarias, directeur de recherche au Centre national de la recherche scientifique (CNRS). - Je vous remercie de me permettre de contribuer à vos réflexions en vous présentant quelques travaux de recherche que nous menons à l'Institut des systèmes complexes sur l'analyse du web.
Pour commencer, j'aimerais rappeler le contexte de ces recherches. Sur la distinction entre faits et opinions, cette citation d'Hannah Arendt est très éclairante : « Le sujet idéal du régime totalitaire n'est pas le nazi ou le communiste convaincu, mais les gens pour qui la distinction entre le fait et la fiction et la distinction entre le vrai et le faux n'existent plus. » Cela souligne le danger que constitue l'effacement de ce genre de frontières.
Actuellement, l'Europe est prise en tenaille entre des adversaires qui cherchent à la miner de l'intérieur. Sur le flanc est, nous observons depuis longtemps que la Russie cherche à provoquer des changements de régime en Europe par tous les moyens possibles, en soutenant certaines forces intérieures, comme l'a expliqué Dimitri Medvedev.
Sur le front ouest, nous avons les États-Unis. Je rappelle l'intervention du vice-président J.D. Vance à Munich l'an dernier, qui a glacé tout le monde, ou encore les propos de Donald Trump indiquant que l'Europe constitue un danger pour les États-Unis avec ses idées suicidaires sur l'immigration et l'énergie. La nouvelle stratégie de sécurité nationale américaine indique explicitement qu'il faut remettre la Russie au centre du jeu et que l'Europe doit se débrouiller sans l'OTAN. En somme, les États-Unis doivent cultiver au sein des nations européennes la résistance à notre trajectoire actuelle, notamment à nos politiques pro-environnementales et à notre manière de traiter l'immigration.
Nous avons donc deux acteurs majeurs qui ont l'intention d'agir sur les systèmes politiques en Europe, et notamment en France. La manière dont cela se fait est déjà écrite, je rappelle la doctrine de l'époque soviétique. Le KGB - qui est toujours le même en Russie actuellement, comme l'ont documenté David Collomb ou Nicolas Hénin - expliquait que pour miner de l'intérieur les démocraties, il faut modifier la perception des citoyens par tous les moyens possibles, afin qu'ils finissent par accepter le totalitarisme. Il indiquait que les premières cibles sont les médias. Nous étions en 1986 ; aujourd'hui, les médias, ce sont aussi les médias sociaux.
Sur le flanc ouest, Steve Bannon explique que la véritable opposition n'est pas les démocrates, mais les médias, et que la manière de traiter avec eux est - l'expression est grossière - « d'inonder la zone de merde », c'est-à-dire de créer de la confusion. Des deux côtés, l'objectif commun est donc de détacher les citoyens de leurs sources d'autorité, qu'elles soient politiques, scientifiques ou médiatiques, au profit de sources d'informations alternatives comme les réseaux sociaux ou les chaînes YouTube.
Il s'agit à la fois de désinformer, de désorienter et, d'une certaine manière, de conditionner, un peu comme dans Orange Mécanique, où une personne est conditionnée en regardant des films de manière forcée. Le web et les infrastructures numériques en sont la clé de voûte.
Le web et les réseaux sociaux étant internationalisés, nous observons depuis longtemps des synergies transnationales pour tenter, par exemple, de déstabiliser les élections. L'exemple des « MacronLeaks » de 2017 - cette fuite de documents de la campagne d'Emmanuel Macron une minute avant le début de la période de réserve - a été très officiellement attribué par la Présidence à une action de la Russie. Mais en réalité, la fuite a ensuite été reprise par des mouvements d'extrême droite américaine, puis rediffusée par leurs équivalents en France pendant quarante-huit heures pour essayer d'instiller le doute chez les votants et de peser sur le résultat de l'élection.
Il s'agit d'une action quelque peu transnationale, pas forcément coordonnée au sens d'une collusion, mais qui relève d'une synergie, d'une convergence d'intérêts. Sur Twitter, on voit bien les deux masses qui ont mené cette action. Au-delà de la désinformation, comme dans le cas des « MacronLeaks » où l'on prétendait à tort trouver des scandales d'État, il y a aussi ce que l'on appelle la guerre de l'opinion ou la « guerre des mèmes ». Il s'agit de diffuser en masse sur les réseaux sociaux des unités d'information destinées à moduler l'opinion, sans forcément que leur contenu relève du vrai ou du faux. Par exemple, un dessin remettant en cause de manière assez insidieuse à la fois la politique sanitaire et le soutien à l'Ukraine. Nous avons pu détecter, notamment en 2017, des campagnes de ce type dans l'entre-deux-tours, où des centaines, voire des milliers de comptes se coordonnaient sur des forums - ici, le forum 4chan - pour déterminer comment influencer les élections françaises. Ces personnes n'étaient pas françaises. On voit que, dans l'entre-deux-tours, l'écosystème Twitter a été perturbé par des individus se faisant passer pour des Français, qui reprenaient les vocabulaires de François Fillon et Jean-Luc Mélenchon pour inciter à voter pour Marine Le Pen et non pour Emmanuel Macron, alors qu'ils n'étaient pas des électeurs français.
Depuis peu, on observe aussi l'« astroturfing » qui consiste à créer une foule factice pour donner l'illusion d'une adhésion populaire à une cause et ainsi convaincre une partie de la population. En 2017, cela se faisait avec de vraies personnes ; maintenant, cela se fait autant avec de vraies personnes qu'avec de faux comptes, des robots. Vous avez l'exemple des élections allemandes de 2024 où l'AfD a été soutenue très officiellement par Elon Musk, qui s'est fait accompagner sur son réseau social par des robots - a-t-il organisé cela ou, en tout cas, l'a-t-il laissé faire ?
Les travaux de Karine Caunes et Florent Lefebvre montrent que la parole de l'AfD a été artificiellement amplifiée sur le réseau X, sachant que X est censé modérer les robots, puisque cela est contraire à ses conditions d'utilisation. Nous voyons donc un conflit d'intérêts direct entre l'action du propriétaire du réseau et les règles de ce réseau.
Il existe un autre type d'intervention. Celles que je viens de mentionner étaient externes, au sens où l'on utilise un espace numérique pour créer de faux comptes. Il y a maintenant des interventions totalement internes qui utilisent l'outil même de ces espaces. Par exemple, pendant les élections européennes et législatives de 2024, Facebook, entreprise américaine, a vendu à la Russie les données des Français de manière à faire de la publicité ciblée pour favoriser un candidat. Ces agissements ont été repérés par Paul Bouchaud, chercheur à l'Institut des systèmes complexes, qui a identifié 38 000 pages de ces publicités, lesquelles ont cumulé 38 millions de vues à l'échelle européenne. C'est donc une manière, avec l'hyperpersonnalisation, d'orienter l'opinion.
Par ailleurs, les robots deviennent de plus en plus sophistiqués. Avec les nouvelles intelligences artificielles de type ChatGPT, nous sommes capables de créer des agents en ligne plus vrais que nature, qui pourront même discuter avec les internautes. Ils pourront, par exemple, lire ce que les internautes ont écrit sur leur profil et adapter leur discours en conséquence. Ils feront de la veille sur les comptes de médias pour que, dès qu'une information est publiée par Le Parisien, Le Monde ou Le Figaro, elle soit contextualisée par une masse de robots se faisant passer pour des électeurs. Nous assistons donc à un véritable saut technologique depuis deux ou trois ans.
Enfin, nous observons aussi une intervention interne au sens où des figures d'autorité sur ces réseaux utilisent leur position pour influencer l'opinion. C'est le cas d'Elon Musk, avec un programme très clair. Il a publié par exemple un message très explicite - et très misogyne -, avec une image où l'on voit une personne en dominer une autre et lui faire boire du lait. La personne dominante est Elon Musk et la plateforme dominée est Twitter. Son intention est donc de gaver les 600 millions d'utilisateurs de Twitter avec son idéologie, sachant que le lait - ce n'est certainement pas un hasard - est un symbole de suprémacisme blanc. L'audience d'Elon Musk est fabriquée sur Twitter de manière à ce qu'il soit ensuite dominant. Pendant la campagne présidentielle américaine, Elon Musk a occupé une place disproportionnée. Le nombre de vues de ses tweets était deux fois plus élevé que celui de l'ensemble des publicités politiques de tous les candidats et de toutes les personnalités politiques.
J'en viens à la manière dont on peut aussi intervenir sur l'infrastructure elle-même. Elon Musk intervient en tant que personne ; il a reconfiguré l'infrastructure pour être au centre, mais il utilise ensuite cette infrastructure avec sa parole. Il y a cependant quelque chose de plus pernicieux : manipuler l'infrastructure elle-même, c'est-à-dire les algorithmes qui régissent la circulation des informations. Je parle de X-Twitter, mais l'on observe des phénomènes similaires sur Facebook, LinkedIn et TikTok, chacun avec ses spécificités.
Aujourd'hui, les opinions se forment majoritairement sur les fils d'actualité des réseaux sociaux, cette page où la plateforme vous abreuve d'informations qui viennent, soi-disant, de votre environnement social. Toutefois, un audit de ce genre de dispositif technique montre qu'un tiers du contenu est non sollicité et donc à la main de la plateforme. Quant aux deux tiers restants, ils viennent effectivement de votre environnement social, mais la plateforme ne peut vous en montrer qu'une toute petite partie. En effet, lorsqu'on est abonné en moyenne à 300 ou 400 personnes, on ne voit qu'une infime partie de leur production, soit environ 3 % des contenus, qui sont choisis de manière très spécifique. Nous avons pu mesurer que, dans les 3 % qui vous arrivent de votre environnement social - et dont vous pensez donc qu'ils proviennent de vos amis -, ces contenus éditorialisés sur les réseaux sociaux présentent un enrichissement de plus de 49 % en contenus dits toxiques - harcèlement, obscénité, injure, polémique -, ce qui se mesure de manière très précise. On constate un décalage systématique entre ce à quoi l'on s'abonne et ce que l'on reçoit. Sur des médias comme X, on peut même montrer que cela est consubstantiel à la maximisation de l'engagement, cette stratégie des grandes plateformes visant à montrer des contenus qui vont générer du clic, du « like » ou des partages.
Sur le réseau X-Twitter, cette distorsion vers les contenus toxiques a été aggravée avec l'arrivée d'Elon Musk et les changements qu'il a opérés dans son algorithme : elle est passée, nous l'avons mesuré, de 32 % à 49 % en moyenne. Cela n'a pas seulement un effet sur la circulation de l'information, mais aussi sur qui devient visible. En d'autres termes, les personnes les plus toxiques sont plus diffusées et, sur le moyen terme, arrivent au centre du réseau. Il y a donc une surreprésentation de personnalités toxiques parmi les plus influentes, du seul fait de la machinerie du réseau social. Dans une société où environ 60 à 70 % de la population s'informent sur les réseaux sociaux - 20 % s'informent même principalement par ce biais en France, ce qui est énorme -, si vous changez une ligne de code sur un serveur, vous changez tout. Quand Facebook a progressivement modifié son algorithme pour favoriser le clash et l'hostilité, les médias ont dû s'adapter en faisant des unes sensationnalistes pour ne pas devenir invisibles. Les politiques ont dû faire de même, en provoquant peut-être quelques esclandres. De fait, on change vraiment tout l'espace informationnel.
Désormais, on voit aussi en France, comme aux États-Unis, qu'il ne s'agit pas seulement des réseaux sociaux, mais qu'il y a une sorte d'hybridation entre ce qui se passe en ligne et hors ligne, sur les réseaux sociaux et sur des médias plus traditionnels car on observe l'émergence de médias qui relaient ce qui se passe sur les réseaux sociaux. Aux États-Unis, il y a eu Breitbart, puis Fox News qui a accompagné l'arrivée de Donald Trump. Aujourd'hui, sur CNews par exemple, l'ex-patronne de RT - média interdit en Europe - reprend des éléments de langage du Kremlin pour s'adresser à un public plus large. Nous observons la même chose sur le climat, comme le montre QuotaClimat. Il est donc très important de voir que cela ne concerne pas uniquement les réseaux sociaux, mais qu'il y a une synergie entre eux et des médias plus traditionnels.
Avant d'aborder une prospective pour 2050, je voudrais décrypter ce type de discours qui foisonne sur les réseaux sociaux et, de manière générale, chez les acteurs antidémocratiques. On y observe une réelle bataille sémantique, très bien décrite par Stéphanie Lamy : on pervertit le sens des mots, on réinterprète la liberté d'expression, la libre circulation, la fraternité. Un travail de fond est mené, qui passe par les réseaux sociaux, par les mèmes, et qui s'étend au reste de la société.
Une inversion des valeurs transparaît également dans les discours. Une manière de remettre les choses d'aplomb est de considérer que toute accusation est une confession. Quand Vladimir Poutine dit : « C'est l'OTAN qui m'attaque », cela signifie qu'il va attaquer l'Ukraine. Quand Donald Trump dit : « Les élections ont été volées », c'est qu'il réfléchit à voler les prochaines élections. Il y a donc à chaque fois des inversions de valeurs, ainsi que beaucoup de désinformation et de mensonges. L'objectif est que vous croyiez toujours ce qui va contre vos intérêts. Soit l'on essaie de vous faire croire un mensonge, soit l'on vous dit quelque chose de vrai, mais tellement énorme que vous n'allez pas le croire et donc pas vous préparer à temps. La personne pourra ensuite dire : « Mais je vous l'avais dit », et retrouver ainsi une sorte d'autorité. Ce type de déclaration qui va s'avérer vraie, qui est assez extrême, s'appelle le « dog whistling », c'est-à-dire l'envoi d'un message codé à vos supporters, qui permet aussi de détecter qui vous soutiendra par la suite.
Que se passera-t-il en 2050 ? Il est possible que l'alliance entre technologie et politique perdure. Les États-Unis sont en pleine conversion. Nous ne savons pas s'ils iront jusqu'au bout de cette conversion, mais ce type de régime peut durer très longtemps.
Nous voyons déjà que les acteurs du numérique utilisent leur infrastructure et leur position dominante pour imposer leur volonté. Par exemple, ils placent les réseaux sociaux - des infrastructures numériques américaines dominantes en Europe - au même niveau que les équipements militaires ou leur économie. Donald Trump menace d'instaurer des droits de douane si l'on s'attaque à la tech ; J. D. Vance menace de se retirer de l'OTAN si l'on touche à X. Cela montre l'importance que revêtent pour eux les infrastructures des réseaux sociaux, car si vous pilotez l'opinion, vous pilotez la démocratie.
Je cite aussi l'exemple du juge Nicolas Guillou, de la Cour pénale internationale, qui nous explique que nous devons retrouver le chemin de la souveraineté numérique, condition de l'État de droit au niveau national et international. Du jour au lendemain, ce juge s'est vu privé de son compte mail, de toute possibilité de commander par Amazon, de ses moyens de crédit bancaire : il est devenu un paria numérique. Et l'Europe, pour l'instant, n'a rien pu faire, car cela est piloté depuis les États-Unis.
J'attire également l'attention sur des services comme Starlink, qui sont technologiquement dominants et qui vont utiliser leur avancée pour conquérir toutes les infrastructures de connectivité internet. Si nous laissons Starlink à la libre concurrence, il est possible qu'en 2050 Internet soit entièrement opéré depuis l'espace par de telles sociétés. Leurs propriétaires pourront alors dire à un pays : « Si tu ne fais pas ce que je veux, demain ou dans une minute, tu n'as plus d'Internet. » Ce sera la fin, et les valeurs imposées par ce type d'acteur ne seront plus les nôtres.
Quelles questions aimerions-nous nous poser pour 2050 ? La première est : comment avons-nous pu rester soumis à une « tech autoritaire » ? L'expression est de Francesca Bria. Il s'agit de piloter la démocratie par des infrastructures technologiques qui sont autoritaires et non d'autorité, au sens où elles imposent des choses sans laisser le choix. Des voies de sortie existent. Il faut sortir à toute vitesse des infrastructures captives. Nous avons commencé à travailler sur la question des réseaux sociaux, mais le sujet est beaucoup plus large. Des dispositifs comme Starlink posent aussi problème.
Une autre question est : comment a-t-on pu laisser la démocratie s'intoxiquer avec un mode de scrutin ? Le mode de scrutin actuel est très vulnérable dans le contexte informationnel que nous connaissons. Il pousse à l'hostilité des échanges et, dans la préparation du premier tour, à la création de factions qui considèrent les autres comme des ennemis et non comme des adversaires. Au second tour, il ne reste le plus souvent que deux candidats, qui peuvent avoir un soutien populaire assez faible - on est généralement élu avec 20 % des voix - et faire l'objet d'un rejet majoritaire. Pourtant, il faudra bien en choisir un. Dans l'entre-deux-tours, il est assez facile, avec les techniques des réseaux sociaux, de moduler la perception du « moins pire », puisqu'il s'agira de voter contre plutôt que pour. On peut donc avoir un accident où une personne largement rejetée par la population est tout de même élue. Cela constitue une véritable faille du scrutin uninominal. Ces failles sont connues depuis longtemps et il existe des scrutins alternatifs. Je n'en mentionne qu'un : le scrutin au jugement majoritaire, inventé par des Français en 2006-2007. Il a fait ses preuves dans des élections comptant jusqu'à plusieurs centaines de milliers d'électeurs, il fonctionne très bien et évite le vote utile. Il n'y a plus de division des voix ni de risque de voir un candidat rejeté être finalement élu. Ce scrutin pourrait être une bonne solution à la baisse continue de la participation et changer complètement les campagnes électorales, puisqu'il ne s'agirait plus tant de voter pour une personne que de promouvoir des idées, puis de choisir les meilleures personnes, sans neutralisation entre des candidats aux programmes similaires.
Enfin, comment a-t-on pu laisser se pervertir les valeurs socles de la démocratie française, à savoir que la liberté, ce n'est pas la liberté d'être raciste ou d'opprimer ? L'égalité n'est pas incompatible avec la lutte contre les inégalités et l'adoption de mesures correctrices. La fraternité ne se constitue pas en opposition à de soi-disant ennemis extérieurs alliés à des ennemis de l'intérieur ; c'est une valeur d'une autre nature. Ce sont pourtant le genre d'acceptions que l'on essaie de nous faire admettre en ligne, notamment par l'intermédiaire des magnats de la « Big Tech ». Il serait donc bon qu'un jour nous nous demandions comment parvenir à remettre les choses à l'endroit.
M. Antoine Bayet, directeur éditorial de l'Institut national de l'audiovisuel (INA). - Il est assez impressionnant pour le journaliste que je suis de traiter un sujet aussi vaste que celui de vos travaux sur l'autorité, la vérité, les réseaux sociaux et les médias, et plus encore en adoptant une posture de prospective, exercice qui invite toujours à l'humilité. En complément de mes éminents prédécesseurs, je m'exprimerai en tant que journaliste en mobilisant plusieurs travaux de long terme que j'ai pu mener.
Je vous proposerai de me suivre dans deux voyages. Le premier sera un voyage chez les « décrocheurs de l'information », pour partager quelques enseignements d'une enquête de terrain que j'ai conduite en 2022 et que j'ai relatée dans mon ouvrage Voyage au pays de la Dark Information. Cela me permettra de vous emmener au contact de ces Français qui ont en commun une défiance totale vis-à-vis de l'information produite dans un cadre professionnel, qu'ils qualifient d'« information mainstream ». Ces Français que j'ai rencontrés sont tellement défiants qu'ils ont créé des dispositifs de quasi-médias extrêmement puissants et structurés, parfois même plus efficaces que les médias traditionnels pour capter des publics.
Le second voyage sera un voyage dans le temps, à l'horizon 2050, pour vous présenter les travaux prospectifs conduits dans le cadre des États généraux de l'information. Je vous exposerai trois scénarios que nous avons esquissés sur les mondes de l'information en 2050, ainsi que la grille de raisonnement qui leur a donné sens.
Après ces deux voyages, je vous ferai part de quelques convictions plus personnelles sur la crise de vérité et d'autorité, que je tenterai de revisiter autour de l'enjeu d'une crise du contexte. Ce sera l'occasion de mettre également ma casquette de directeur éditorial de l'Institut national de l'audiovisuel, où nous sommes confrontés au quotidien à cet enjeu de la guerre du contexte.
Le premier voyage que je vous propose nous mène chez les « décrocheurs de l'information » ou, si l'on reprend les termes de votre réflexion, à ces moments où l'autorité de l'information se déplace. Dans mon enquête, je pars d'un constat simple, mais profondément dérangeant pour tout journaliste : une partie croissante de nos concitoyens ne croit plus dans l'information que nous produisons et ne lui reconnaît plus aucune autorité particulière. Nous pouvons choisir d'ignorer cette réalité. Je suis, à l'inverse, convaincu que les journalistes doivent aller écouter ces décrocheurs. Un enseignement assez saisissant de mon enquête est que ces Français qui décrochent de l'information ne sont ni marginaux ni invisibles. Ils sont même le plus souvent très insérés socialement, majoritairement diplômés et ont pour point commun d'être très actifs numériquement. Pour le dire plus directement, aucun des décrocheurs que j'ai rencontrés ne pourrait ressembler au cliché du « Bac - 5 ». J'ai rencontré des patrons de start-up, des retraités de la Marine, des médecins, des avocats et même des élus. Je vais vous donner un exemple concret. J'ai eu l'occasion de documenter précisément l'explosion, au printemps 2020, d'un groupe Facebook intitulé « Didier Raoult versus Coronavirus », suivi d'un émoji « biscoteau ». En quelques jours, au moment même où les Français consommaient massivement de l'information traditionnelle - les journaux télévisés de 13 heures et de 20 heures étaient très regardés, certains y voyant le retour de la « grand-messe de l'information » -, ce groupe Facebook est passé de 0 à 370 000 membres. Je suis allé étudier les partages des contenus publiés sur ce groupe, car lorsqu'un internaute partage un contenu, cela marque une forme d'adhésion très forte. Cela se passait lors de la deuxième semaine du premier confinement, un moment de crise ouverte où l'information avait une valeur extrêmement importante.
Sur une semaine précise, les contenus du groupe Facebook dont je vous parle ont été plus partagés que l'ensemble des contenus diffusés par six médias d'information réunis : BFM TV, France Info, CNews, LCI, Le Monde et Le Figaro. Si vous étiez un utilisateur de Facebook pendant la deuxième semaine du confinement, vous aviez donc plus de chances de voir partagé dans votre fil d'actualité un contenu issu de ce groupe qu'un contenu issu d'une page d'information classique. Ce qui est frappant, ce n'est pas seulement la viralité, c'est la forme. Sur ce groupe Facebook et sur les autres lieux de diffusion de cette dark information, nous retrouvons des dispositifs qui reprennent tous les codes de l'information professionnelle : des interviews, parfois en studio, des génériques, des experts, un vocabulaire journalistique, voire une mise en scène de la contradiction, souvent orientée et truquée. J'ai appelé cela de l'« information Canada Dry » : cela ressemble à de l'information, cela a le goût de l'information, mais ce n'en est pas, parce qu'elle a été faussée et manipulée au nom d'intérêts militants, politiques ou économiques. En l'occurrence, concernant le groupe Facebook que j'évoquais, j'ai réussi à démontrer après enquête qu'il y avait un lien direct entre l'Institut Méditerranée Infection de Didier Raoult et le principal créateur du groupe, un entrepreneur très bien inséré dans la société. Évidemment, ce lien n'était pas du tout connu ni explicité pour les audiences.
Un autre exemple marquant est la vidéo intitulée Hold-Up, diffusée fin 2020 et vue par plusieurs millions de Français. La force du dispositif n'est pas sa marginalité, mais sa capacité à produire une forme d'autorité alternative en singeant des codes journalistiques. Dans Hold-Up, il y a des interviews d'anciens ministres, de professeurs de médecine, de chercheurs. Tout est fait pour fabriquer un effet de crédibilité alors que les faits sont tronqués et manipulés. J'ai interviewé un ancien ministre, Philippe Douste-Blazy, qui apparaissait dans ce documentaire ; il s'en mordait encore les doigts d'avoir accepté d'y participer. Au fond, nous ne sommes pas forcément face à une crise de l'intelligence collective en matière d'information - en tout cas, je l'espère. Nous sommes face à une crise de la légitimité des médias traditionnels. Pour en revenir à l'objet de vos travaux, les « décrocheurs de l'information » ne disent pas que tout est faux, mais que les journalistes ne sont pas légitimes pour dire le vrai.
Je vous propose maintenant un voyage dans le temps en partageant les conclusions d'un rapport de prospective sur le monde de l'information en 2050, conduit dans le cadre des États généraux de l'information. Ce travail, coordonné par l'INA, ne relevait pas de la partie « recommandations » des États généraux, mais bien de la partie « prospective ». Je salue mes co-autrices et co-auteurs de cette oeuvre collective. Au sein de l'INA, ce travail a été mené avec Agnès Chauveau, directrice générale déléguée, et François Quinton, rédacteur en chef de la Revue des médias de l'INA. En dehors de l'INA, il a été conduit avec les regards et expertises d'Antoine Buéno, auteur et prospectiviste, de Jérôme Ruskin, fondateur de la revue Usbek & Rica, et de l'universitaire Nathalie Sonnac.
La méthode retenue pour nous projeter en 2050 a reposé sur la construction d'une matrice d'incidence. Nous avons identifié cinq grands chocs structurants - technologique, économique, politique et géopolitique, sociétal, écologique - et étudié pour chacun les effets sur l'écosystème de l'information.
Pour donner un exemple concret de cette grille de lecture, un choc technologique comme le développement exponentiel des sciences cognitives pourrait aboutir à de l'information délivrée sur un nouveau support, tel que des implants neuronaux. Je ne suis pas compétent pour dire si ce monde à la Star Trek peut advenir, mais il faut l'envisager et nous interroger intellectuellement sur ce point.
Le croisement de ces chocs nous a permis de produire des hypothèses parfois dérangeantes, qui ont servi à construire trois scénarios contrastés sur les possibles mondes de l'information en 2050.
Le premier est un scénario de « miracle informationnel ». Nous imaginons qu'après une crise majeure, les citoyens reprennent la main sur leur destin informationnel et que l'information redevienne un bien commun. Dans ce monde, les individus accepteraient de payer pour s'informer, sans financement par la publicité. Les algorithmes seraient audités et l'intelligence artificielle mise au service de la vérification et du contexte. Bref, la confiance se reconstruirait. La probabilité que ce scénario advienne me semble assez limitée.
Le deuxième scénario est, à l'inverse, un scénario obscur, dans lequel l'information s'effondre, meurt et disparaît. Nous avons même analysé que l'information pouvait mourir au moins trois fois à l'horizon 2050, sans forcément que cela n'émeuve beaucoup. La première cause de cette mort pourrait être la disparition des conditions d'indépendance nécessaires pour produire de l'information. La deuxième serait une forme de « vote avec les pieds », dans un monde où il serait devenu trop compliqué de s'informer. En effet, l'effort à faire serait tellement énorme que les citoyens se détourneraient tout simplement de l'information, fatigués de devoir en permanence s'interroger sur le vrai ou le faux. La troisième possibilité de mort de l'information repose sur l'impossibilité pour les journalistes de s'engager. Un journaliste professionnel s'engage, par exemple, à corriger une information dès qu'il a connaissance d'une erreur. Comment poursuivre cet engagement dans un monde où le vrai et le faux deviennent indiscernables ? Dans un tel scénario, où les plateformes dominent entièrement et où l'information est un flux d'influence parmi d'autres, la démocratie devient structurellement vulnérable.
Le troisième scénario, qui a le plus de chances d'advenir puisqu'il est médian, est un scénario clair-obscur. Nous pourrions arriver à une forme d'information éclatée, coexistant sous plusieurs régimes de vérité auprès de différents publics. Certains disposeraient d'une information de haute qualité, parce qu'ils en ont besoin professionnellement ou qu'ils ont les moyens d'y accéder, tandis que d'autres vivraient dans des bulles informationnelles fermées.
Je vous ai dit à quel point il y avait une forme d'humilité dans l'exercice de prospective ; je me dois donc de vous dire que certains éléments envisagés à un horizon de 10 ou 15 ans sont advenus dans les 10 ou 15 semaines qui ont suivi la publication de ce travail. Nous imaginions, par exemple, une suspension d'élection en raison d'ingérence étrangère, que nous avions plutôt située à l'horizon 2035 qu'en décembre 2024 en Roumanie.
Si je devais tirer un fil commun, je dirais qu'au-delà de la crise de vérité, nous faisons face à une crise du contexte. Dans les univers de la dark information, les faits existent parfois, mais ils sont décontextualisés, extraits, recomposés. Les scénarios prospectifs à l'horizon 2050 montrent une aggravation de ce phénomène avec une fragmentation totale des récits. Or, le contexte en matière d'information n'est pas une coquetterie, ce n'est pas le septième paragraphe d'une dépêche AFP. Le contexte, c'est la condition même et la possibilité du débat démocratique.
Décontextualiser une image, nous l'avons vu, devient une arme. Sans les cinq secondes qui précèdent et les dix qui suivent, l'on peut faire dire à un extrait vidéo l'exact inverse de sa signification profonde. Bref, sans contexte, une information n'a plus de sens. Il faut redonner le goût du contexte. C'est une partie de mon activité à l'Institut national de l'audiovisuel, où nous investissons les lieux mêmes de la décontextualisation en y diffusant massivement des vidéos qui permettent d'éclairer l'actualité par le temps long de l'archive. J'espère que nous contribuons ainsi à faire prendre conscience du contexte de l'actualité et des changements de société.
Mais la réponse par le contenu ne peut être la seule. Une partie de la réponse passera par les salles de classe, notamment par l'éducation aux médias et à l'information, qu'il est plus que jamais nécessaire d'étendre à l'éducation à l'intelligence artificielle. Cette éducation à l'IA ne peut se limiter à l'apprentissage d'outils ; elle doit intégrer la compréhension de leurs logiques, de leurs biais et de leurs effets sur la perception du réel. Investir les salles de classe est un enjeu central. Il ne s'agit pas de former des experts, mais des citoyens capables de se poser les bonnes questions. D'où vient cette information ? Dans quel contexte a-t-elle été produite ? Que montre cette image ? Que ne montre-t-elle pas ? Que cache-t-elle ? Que fait l'algorithme à mon attention et à mon jugement ? Cet enjeu implique aussi de raconter, de partager, de montrer les coutures avec lesquelles l'information se fabrique. Si nous voulons éviter que la crise du contexte ne devienne une crise durable de la démocratie, l'enjeu est clair : il faut investir dans la transmission, dans l'éducation, dans la capacité collective à comprendre l'information, et pas seulement à la consommer.
Mme Christine Lavarde, présidente. - Je ne sais pas si vous le savez, mais le ministère de l'éducation nationale met actuellement en consultation un programme sur l'éducation aux médias et à l'information. Jusqu'à présent, et depuis les années 1980, tous les collégiens sont censés bénéficier d'une sensibilisation à ce sujet, mais celle-ci est diffuse et relève du bon vouloir des professeurs. L'idée du ministère est donc de mettre en place un vrai programme avec un contenu, qui est actuellement en phase de consultation.
M. Thomas Dossus. - Je m'interroge sur les moyens de rester optimistes afin de sortir de l'impasse informationnelle dans laquelle nous nous dirigeons à grande vitesse. Il n'y aura sans doute pas de retour à un ordre plus traditionnel, avec une presse de référence qui ferait autorité. Je crois cependant à la régulation.
Il existe deux modes de régulation. D'abord, par le marché : on peut se demander pourquoi une plateforme comme X, malgré son écosystème toxique, conserve une place aussi importante, alors que ses concurrents restent marginaux. L'autre régulation est celle que nous mettons en place en Europe avec le règlement européen sur les services numériques (DSA), qui exige beaucoup de transparence, notamment sur les algorithmes et la façon dont l'information que nous recevons est triée. La réponse de la démocratie a toujours été la transparence. N'est-ce pas une piste que de mettre en lumière et, en quelque sorte, d'ouvrir les boîtes noires qui organisent la façon dont nous recevons l'information ? Ces bulles sont créées par ces algorithmes.
Ma deuxième question porte sur un sujet qui se développe à une vitesse folle : les dispositifs d'intelligence artificielle servant d'assistants personnels. A-t-on déjà analysé les biais que chaque service peut présenter ? Nous savons que l'IA chinoise a du mal à décrire certains événements de son histoire. Analyse-t-on ces outils comme étant politiquement biaisés par leur construction même, ce qui pourrait conduire certaines classes de la population à utiliser plutôt ChatGPT et d'autres plutôt Gemini ? Tout cela ouvre un champ de réflexion assez vertigineux en termes de structuration du débat public. Peut-être faudrait-il se pencher sur cette question.
M. Bernard Fialaire. - Je voudrais d'abord formuler une remarque. Les réunions de la délégation ont toujours une dimension d'actualité. Hier, en séance, nous débattions de la liberté académique. C'est dire que ce sujet est bien présent et fait écho à vos propos, Monsieur Rosanvallon.
J'ai ensuite une première question. Monsieur Chavalarias, vous avez beaucoup parlé des rapports d'influence entre les États-Unis et la Russie, mais pourquoi n'avez-vous pas du tout évoqué la Chine ?
Par ailleurs, concernant la prospective, la place que prend l'information, et même la manière dont elle nous inonde, me rappelle une étude réalisée en 2000 sur la façon dont on imaginerait l'an 2100. En prenant pour base ce qui avait été fait en 1900 par rapport à l'an 2000, on prédisait que nous serions d'abord inondés par une information occupant une place prépondérante. Puis, nous arriverions à une telle saturation que son importance diminuerait et que l'éducation reprendrait sa place. Cela fait partie des scénarios. Je veux bien rester optimiste, mais je ne sais pas si nous sommes vraiment dans ce cas de figure.
Enfin, se pose la question du statut du journaliste. Quand on parle d'information, on ne sait jamais si c'est un journaliste qui respecte des règles déontologiques qui s'exprime, un simple intervenant ou quelqu'un d'autre. Nous n'avons plus aucun repère. Une personne peut obtenir sa carte de presse si plus de 50 % de ses revenus proviennent du journalisme, mais il n'y a pas de diplôme requis. Il manque peut-être un Ordre des journalistes qui puisse imposer des règles déontologiques communes à tous, car les instances existantes dans chaque média sont à géométrie variable.
Les journalistes n'ont pas tous la même éthique. Il manque un peu d'unité et un élément qui rassurerait, car les sondages prouvent que s'il y avait, par exemple, un Ordre des journalistes, les citoyens feraient davantage confiance à l'information. Encore faudra-t-il repérer qui s'exprime : est-ce un journaliste ou un simple rapporteur d'informations ?
Je voudrais savoir ce que vous pensez de cette évolution vers une possibilité de régulation, non pas seulement du média, mais aussi des journalistes qui sont à la source de l'information. Comment mettre en oeuvre cette régulation en conservant l'indépendance des journalistes par rapport aux structures qui les rémunèrent - les médias dépendant désormais de grandes puissances financières - afin de rassurer les lecteurs, les auditeurs et les spectateurs ?
M. Pierre Barros. - Il y a deux jours, nous recevions le Crédoc (Centre de recherche pour l'étude et l'observation des conditions de vie) et nous parlions de l'individualisme et de la coopération. Dans vos propos, on voit bien que l'on cible les gens de manière individuelle et à travers des objets de confiance.
Pour faire la boucle avec ce que nous avons évoqué, je me demande si, pour sortir de ce mécanisme qui met en réseau des individualités, le développement de structures et d'espaces collectifs de coopération ne permettrait pas d'éviter cette emprise des réseaux sociaux et des attaques frontales menées à dessein, qui ont des objectifs de prise de pouvoir. De cette façon, les individus pourraient coopérer et reprendre en quelque sorte le pouvoir sur l'information et sur la production d'une trajectoire de savoir.
Mon deuxième sujet est presque d'ordre local. Je suis très sensible au fait que les mots ont un sens et je constate que certains reviennent souvent dans nos débats. Assez régulièrement, dans l'hémicycle, on parle d'un amendement ou d'une proposition « de bon sens », on entend qu'il faut être « pragmatique », « raisonnable », agir « en responsabilité ». Je me demande si ces mots ont véritablement leur place dans le débat démocratique. Qu'est-ce que cela renvoie et qu'est-ce que cela renseigne sur celles et ceux qui les utilisent à foison ? Cela m'interroge à chaque fois, car je trouve que cela ferme la capacité à débattre. De telles expressions renseignent sur la façon dont on fait vivre le débat aujourd'hui et dont nous fermons nous-mêmes, au sein du Parlement, la capacité à autoriser la controverse.
M. Khalifé Khalifé. - Dans le prolongement de la question de mon collègue sur la déontologie des journalistes, je m'interroge sur la valeur que l'on peut donner aujourd'hui aux images prises facilement avec un appareil photo ou un téléphone lors d'un événement, et qui sont considérées comme la réalité.
Comment seront sécurisés les outils d'intelligence artificielle et les centres de données compte tenu de tout ce que vous nous avez dit sur les influences internationales ?
Mme Christine Lavarde, présidente. - Le canal de diffusion de l'information a-t-il des conséquences sur sa véracité ? Dans nos travaux précédents sur l'intelligence artificielle, nous avions auditionné un neuropsychiatre qui soulignait que la manière de projeter une image influe directement sur notre compréhension d'une information. Il nous expliquait que notre perception d'une information peut être très différente selon qu'on la lit dans un journal ou qu'on l'entend énoncée avec des images en arrière-plan, en fonction des images choisies comme support. Quel est votre regard sur cette évolution de la diffusion de l'information ? Auparavant, nous n'avions que le support papier et l'oralité ; le processus interne de construction de l'image était donc toujours présent, alors qu'aujourd'hui, nous sommes bombardés d'images accompagnées d'un peu de texte.
Par ailleurs, pour renforcer la crédibilité de l'information, ne serait-il pas nécessaire d'en connaître les sources ? Autrement dit, si, lorsqu'un contenu est publié sur un réseau social, l'on nous montrait qui est la personne qui le publie et quelles sont ses sphères d'influence - un peu comme les diagrammes en bulles que M. Chavalarias nous a présentés -, le fait de constater que cette personne est très proche d'Elon Musk pourrait directement susciter une défiance à l'égard de ce qu'elle nous montre.
M. Pierre Rosanvallon. - Je vais vous apporter quelques éléments de réponse sur deux points.
Le premier concerne la question du bon sens. Cette notion a été inventée au XVIIIe siècle en Écosse, lors d'une polémique contre les savants prétentieux. C'était, pour simplifier, une réponse de l'Église écossaise à l'Académie écossaise, la première reprochait aux grands philosophes de prétendre détenir la vérité, alors que la vérité venait « d'en bas ». Ce mot, « common sense », est celui qui a fait la Révolution américaine, à travers le best-seller de Thomas Paine.
Le bon sens est à la fois un écran et une protestation. Un écran, car lorsqu'on y fait appel, cela signifie qu'il y a quelques idées à garder et que le reste ne compte pas. C'est aussi un écran, car le bon sens consiste très souvent à éviter de s'interroger en profondeur. C'est souvent un argument et non la description d'une vérité.
Le deuxième point est lié à une expérience que j'ai eue en accompagnant la première mini-conférence citoyenne sur la vaccination, dirigée par Alain Fischer. Elle a eu pour résultat que la ministre de la santé de l'époque, Marisol Touraine, a accru le nombre de vaccinations obligatoires pour les enfants. J'ai alors constaté une imperméabilité totale d'une partie de l'opinion aux arguments scientifiques.
La seule réponse possible est qu'une parole pèse si elle accepte de prendre en compte les indéterminations, les questions et même les préjugés. Il faut être accueillant à tout cela et, ensuite, en disant « il est normal de se poser des questions, je comprends que cela n'aille pas de soi », construire son discours. Il ne faut pas dire : « Nous nous sommes réunis avec vingt personnalités qui ont auditionné quantité de personnes savantes et nous pouvons vous dire ce qu'il faut penser des vaccins. » La démocratie, c'est peut-être cela : accepter de prendre en charge l'indétermination, les erreurs et les questions de tous. Ce qui est commun, ce n'est pas d'abord le résultat de la vérité, mais la commune acceptation des préjugés ou des interrogations. C'est pourquoi l'idée qu'il faut simplement corriger les biais cognitifs est à la fois théoriquement vraie et pratiquement fausse. Je partage à 100 % les analyses de nombreux livres écrits sur les biais cognitifs, mais on ne peut pas rééduquer les cerveaux. On pense tout de suite aux enfants, à l'école. Bien sûr, cette formation est très bien, mais elle n'est pas suffisante. C'est donc tout au long de la vie et sur tous les sujets qu'il faut avoir une politique qui ne soit pas simplement celle de la correction des erreurs, mais une politique de bienveillance à l'égard de ce que l'on peut considérer comme des aberrations intellectuelles. Il faut les accueillir, sinon cela signifie que l'on n'accueille pas les personnes.
La démocratie est le régime où l'on peut faire avancer une collectivité si l'on est ouvert à tout et à tous. Tous viennent avec leurs questions, leurs inepties peut-être. Mais on ne répond pas à une ineptie en disant : « Vous êtes un imbécile. » C'est aussi cela, la démocratie.
M. David Chavalarias. - Concernant la Chine, il s'agit surtout d'une question de temps de ma part. Il existe de très bons rapports sur la désinformation chinoise, notamment celui de l'Institut de recherche stratégique de l'École militaire (IRSEM) avec Paul Charon, qui explique qu'en la matière, l'élève dépasse peut-être le maître russe. Cela dit, j'ai fait ce choix, car les interactions sont quelque peu différentes. En effet, la Russie et les États-Unis ont une sorte d'intérêt convergent à affaiblir l'Europe. La Russie essaie plutôt de regagner un statut pour elle-même et de l'élever au niveau international en recourant à ce genre d'influence. Évidemment, si elle est en position de force, elle en profite comme tous les autres, alors que les autres ont une réelle volonté d'affaiblissement, voire de destruction. L'un n'est pas forcément meilleur que l'autre, mais il y a des convergences dans les attitudes de la Russie et des États-Unis. Il y a évidemment beaucoup à dire sur la Chine, et TikTok, en tant qu'infrastructure, est problématique.
Sur la question de la régulation, vous avez raison, on peut se demander pourquoi X existe encore, pourquoi la plupart des responsables politiques l'utilisent encore, pourquoi il faut aller sur X pour entendre ce que certains disent et pourquoi les journalistes rapportent que « untel a dit cela sur X » alors qu'il pourrait le dire sur un autre réseau. Il faut bien comprendre que la régulation des très grandes plateformes numériques est une prérogative de l'Europe. La France dépend donc de ce que l'Europe va faire. Or, au niveau européen, la question devient immédiatement très politique et géopolitique. Et comme je vous l'ai montré, l'attitude consiste pour l'instant à ne pas trop faire de vagues, selon les échos que nous avons de la Commission et du Parlement européens. En effet, si l'on affronte les adversaires de manière frontale, si l'on s'attaque directement aux Américains par exemple, les réactions peuvent être si importantes que cela pourrait s'avérer contre-productif. Et nous n'avons pas actuellement la capacité de nous passer de l'aide américaine contre la Russie.
Nous avons de bons outils pour la régulation. Toutefois, le temps de la régulation et de l'application de ces règles risque d'être plus long que celui de la destruction de la démocratie. C'est pourquoi il faut envisager des pistes alternatives. Je travaille donc beaucoup sur la question du lien avec les citoyens, à la fois pour leur faire comprendre les enjeux, mais aussi pour leur redonner une liberté de mouvement dans les espaces numériques, afin que les utilisateurs puissent aller là où est leur intérêt, et pas seulement là où ils ont l'impression de ne pas trop perdre, car nous avons actuellement des infrastructures captives.
Concernant l'intelligence artificielle et les biais, il y a les algorithmes de recommandation qui amplifient la toxicité, puis les intelligences artificielles elles-mêmes. Tout cela constitue des infrastructures d'intermédiation dont l'idée est toujours de moduler la perception de la réalité des enjeux à l'échelle d'une population. L'intelligence artificielle va presque plus loin, puisque nous avons un agent conversationnel qui synthétise encore davantage l'information, avec encore moins de possibilités d'aller chercher les différentes références. Il y a donc un très grand enjeu sur la pénétration des intelligences artificielles conversationnelles auprès des citoyens et sur la manière dont elles peuvent les conditionner.
Par exemple, quand Grok se met à faire du négationnisme, ce n'est pas un hasard. C'est qu'Elon Musk a fait une expérimentation en lui demandant d'être moins politiquement correct. Il a dû changer une ligne dans son code, et à l'échelle de ses centaines de millions d'utilisateurs, tout a changé. L'expression « politiquement incorrect » vient en fait de 4chan, un forum qui a une section d'extrême droite très forte portant ce nom. Par conséquent, quand on demande à Grok d'aller dans cette direction, il va effectivement vers le négationnisme. Nous voyons donc bien que nous avons des infrastructures de plus en plus centralisées, opaques et facilement pilotables.
On peut, par exemple, demander à Grok ou à n'importe quelle intelligence artificielle de faire des tests psychologiques sur certains utilisateurs pour savoir quelles sont leurs failles. L'outil posera alors des questions de manière incidente pour récupérer des informations sur ces failles. Cela est tout à fait possible. Autant l'intelligence artificielle que les algorithmes peuvent exploiter des biais.
Je suis d'accord sur le fait de ne pas essayer de corriger les biais humains intrinsèques. En revanche, on peut considérer qu'une exploitation massive des biais humains naturels, comme le biais de négativité, devrait poser problème, être interprétée comme un risque systémique et donc être corrigée par les plateformes. On ne devrait pas pouvoir exploiter certains types de biais à grande échelle sur ce genre de sujets.
Enfin, le canal de diffusion a une importance. De fait, à partir du moment où vous mettez de l'image plutôt que du texte, vous faites appel à d'autres types de raisonnements, - je ne suis pas directement spécialiste, mais nous savons qu'il existe plusieurs manières de raisonner. On parle de système 1, plus émotionnel, et de système 2, rationnel et logique. L'introduction de l'image fait basculer sur le système 1, qui est émotionnel, pas forcément rationnel, et rapide. On peut ainsi moduler la part des deux systèmes. Par exemple, lors du Brexit, beaucoup de Britanniques se sont demandé quelques mois après : « Mais qu'avons-nous fait ? ». Je crois que beaucoup se sont fait manipuler sur un spectre émotionnel.
La piste du contexte de chaque information a été évoquée par tous les intervenants et c'est pour moi un point essentiel. Quand la vague de désinformation est apparue, le premier réflexe a été le fact-checking, consistant à dire aux gens ce qui est vrai et ce qui est faux. S'il est important que les journalistes aient des repères, la réaction est souvent : « Mais qui êtes-vous pour me dire ce qui est vrai et ce qui est faux ? Si j'ai envie de croire cela, j'en ai le droit. » L'enjeu est donc de redonner du contexte à l'information. Comme le disait Antoine Bayet à l'instant, une information sans contexte est une demi-information, on ne peut pas l'interpréter. Par exemple, nous essayons dans mon équipe de contextualiser les informations en identifiant « qui dit quoi », non pas au sens d'un individu, mais en termes d'origine ou de groupe social ou militant. C'est une approche que nous avons testée sur X, anciennement Twitter, en la fournissant aux journalistes. Nous avions des cartes de l'espace politique ; ils pouvaient interroger sur n'importe quel sujet et nous mettions en évidence la zone où l'information se diffusait. L'information peut être positive, comme dans le cas d'un lanceur d'alerte, ou négative, si un groupe d'influenceurs étrangers a déployé des bots pour propager une information. Il faut donc parvenir à redonner du contexte, et il existe de nombreux leviers pour cela sur lesquels nous menons des recherches.
Il s'agit de développer des infrastructures, des services publics, des communs numériques qui permettent à chacun de se demander qui diffuse une information, à quel groupe ou à quelle tendance il appartient. L'une des manières très efficaces de comprendre que l'on est en train de se faire tromper est de remonter à la personne qui a créé le contenu et de regarder ce qu'elle a publié précédemment. On s'aperçoit alors que c'est quelqu'un de monomaniaque, qui travaille visiblement de 8 heures à 17 heures sur un seul thème. Il est donc très important de développer des dispositifs qui recréent du contexte, ce qui permet d'éviter de donner des leçons, même si le fact-checking reste important. Il est essentiel de redonner de la liberté de circulation dans ces espaces numériques. Les utilisateurs doivent pouvoir aller là où est leur intérêt et non là où sont captés leur audience ou leur contenu éditorial. Cela est indispensable pour s'émanciper des différents services numériques, notamment des réseaux sociaux. La bonne nouvelle, c'est que cela est possible. Ce n'est pas comme si l'on modifiait tout le système routier. Changer de compte sur un réseau social se fait en deux minutes, mais cela doit se faire de manière synchronisée et collective. C'est simplement une question de coordination.
M. Antoine Bayet. - Je commencerai par la question du canal et de ses effets sur le produit. Pour vous montrer que, oui, le canal a une importance clé, je vous donnerai une date, inconnue dans l'histoire de l'information, et pourtant fondamentale. Le 12 septembre 2013 est une date très importante, car c'est le jour où Meta - à l'époque Facebook - a décidé d'activer la fonctionnalité « autoplay » sur le fil des abonnés. L'« autoplay » signifie qu'un utilisateur voit une vidéo se lancer automatiquement lorsqu'il parcourt sa page, sans avoir à cliquer. Cette fonctionnalité a directement donné naissance à des médias et a changé la manière dont un sujet vidéo est construit. En effet, lorsque vous scrollez, descendez votre page, il faut attirer l'attention du lecteur pour qu'il reste au-delà des trois premières secondes. Dans ce contexte de diffusion, on ne produit pas un sujet pour un journal de 20 heures, ni même pour une chaîne d'information. Il y a donc une influence très directe sur les contenus et sur la manière de produire de l'information.
Cette décision vertigineuse a été prise au sein des équipes produit d'un acteur de la technologie qui cherchait alors à rattraper son retard sur son concurrent, YouTube, en matière de consommation de vidéos. Elle a eu d'énormes incidences sur toutes les questions relatives au journalisme et à son statut.
D'après la loi, est journaliste celui qui tire 50 % de ses revenus de l'exercice du journalisme. L'appréciation de cette qualité est confiée à un organisme paritaire, la commission de la carte d'identité des journalistes professionnels. Avec cette définition, environ 30 000 personnes se voient délivrer chaque année une carte de presse en France. Est-ce un mode de régulation satisfaisant ? Je ne saurais le dire, mais cela peut conduire à certaines aberrations. Je vous en citerai une, à laquelle vous serez particulièrement sensible : les équipes de Russia Today France, lorsque cette chaîne était autorisée en France, disposaient d'une carte de presse de journaliste professionnel. À l'inverse, certains lauréats du prix Albert Londres, parce qu'ils travaillent pour des sociétés de production sur des formats longs de documentaire, n'ont pas de carte de presse. Tout système a ses limites. Il y a une norme fixée par la loi, et son application est confiée à l'appréciation de cet organisme paritaire.
Quoi qu'il en soit, les audiences se contrefichent - je vais être très direct - de savoir si un contenu a été produit par un journaliste détenteur d'une carte de presse. Ce qui me semble important, et il s'agit là d'une évolution du périmètre du travail de journaliste, ce n'est pas seulement de produire de l'information et de la recouper. Une dimension supplémentaire s'impose aujourd'hui pour regagner la confiance des audiences : montrer la fabrication de l'information, expliciter la manière dont elle se produit. Cela peut vouloir dire, à certains moments, qu'un journaliste soit en capacité de dire qu'il ne sait pas, ce qui est assez contre-intuitif, mais peut être une réalité.
Je rebondis sur la question de l'« accueil des aberrations », expression de Pierre Rosanvallon qui me semble absolument clé. Le journaliste doit accepter d'être contesté, et être prêt à expliquer son métier et les conditions de production de l'information, en expliquant par exemple à une personne pourquoi son interview ne sera pas retenue dans son intégralité. Si un journaliste ne prend pas le temps d'expliciter cela, il crée de la défiance. C'est donc un métier difficile, auquel on ajoute aujourd'hui des couches de complexité supplémentaires.
M. Bernard Fialaire. - Toujours sur l'éducation aux médias et à l'information, les sondages montrent que les jeunes, quand on les interroge, sont tous conscients qu'ils peuvent recevoir une mauvaise information, ce qui ne les empêche pas de l'avaler.
Je suis médecin, je sais quel est le meilleur régime alimentaire pour moi. Mais ce n'est pas parce que l'on connaît les risques que l'on prend toutes les précautions pour s'en prémunir. Par conséquent, le travail sur l'éducation n'est pas simple.
M. David Chavalarias. - L'important est de bien voir que nous pensons tous être moins vulnérables que nous ne le sommes vraiment à l'information et au conditionnement. Le problème vient des infrastructures globales, avec des milliards d'utilisateurs, qui sont capables de créer le même biais sur toutes les personnes en même temps.
S'il y avait une hétérogénéité d'acteurs, chacun influençant 100 000 ou 1 million de personnes, ce ne serait pas très grave, car les choses se compenseraient dans les débats. La dynamique sociale opérerait. Mais quand un acteur a une audience de 1 ou 2 milliards d'utilisateurs et exploite le même biais, cela pose un problème. C'est la notion de risque systémique en Europe. Il y a donc une véritable question de taille d'acteur. Quand un acteur est trop gros, qu'il soit mal intentionné ou non, il y a nécessairement des sorties de route, parce que des erreurs se produisent à un moment donné.
Mme Christine Lavarde, présidente. - Merci beaucoup d'avoir enrichi nos travaux. Nous sommes partis sur un thème et en avons abordé d'autres ; nos travaux en cours sont assez imbriqués. Je ne sais pas si, à terme, nous parviendrons à élaborer des scénarios de prospective à partir des réflexions menées dans nos quatre rapports.
L'objectif de nos travaux est d'éveiller les différentes sensibilités. Il faut également être attentif, comme nous l'avions déjà fait sur l'intelligence artificielle, à ne pas porter de jugement de valeur. La question n'est pas de savoir si c'est bien ou non, mais plutôt de déterminer les opportunités et les risques. C'est la démarche que nous essayons d'adopter. Merci beaucoup pour vos contributions.
Cette audition a fait l'objet d'une captation vidéo, disponible en ligne sur le site du Sénat.
La réunion est close à 10 h 40.