Lundi 12 juin 2023

- Présidence de M. Mickaël Vallet, président -

La réunion est ouverte à 17 h 00.

Audition de M. Christophe Deloire, secrétaire général de Reporters sans frontières

M. Mickaël Vallet, président. - Chers collègues, nous entendons cet après-midi Christophe Deloire, secrétaire général de Reporters sans frontières.

Monsieur Deloire, après avoir exercé des fonctions dans divers medias come Arte ou Le Point, vous avez été directeur et vice-président du Centre de formation des journalistes (CFJ) de 2008 à 2012. En juillet 2012, vous êtes devenu secrétaire général de Reporters sans frontières (RSF). Pour rappel, RSF est une organisation non gouvernementale internationale fondée en 1985, reconnue d'utilité publique en France, présente en 2020 dans 14 pays. Elle se donne notamment pour objectif la défense de la liberté de la presse et la protection des sources des journalistes.

En mars 2021, RSF a déposé plainte contre Facebook au motif que le réseau social s'adonne à « des pratiques commerciales trompeuses », dans la mesure où la prolifération de messages haineux ou les fausses informations relayées sur la plateforme viole selon vous les engagements de Facebook vis-à-vis de ses utilisateurs.

Plus généralement, vous avez développé un ensemble de recommandations à la fois juridiques et pratiques destinées à rendre le fonctionnement des plateformes plus conforme aux grands principes qui doivent encadrer l'information dans une société démocratique, et à lutter contre la désinformation. Vous pourrez nous dire si ces recommandations s'appliquent à TikTok et de quelle manière.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat. Avant de vous laisser la parole, je vais procéder aux formalités d'usage pour les commissions d'enquête. Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

M. Deloire lève la main droite et dit « Je le jure ».

Vous avez la parole.

M. Christophe Deloire, secrétaire générale de Reporters sans frontières. - Merci beaucoup, monsieur le Président, pour votre présentation. J'apporterai un complément pour préciser d'où je parle.

Le mandat de Reporters sans frontières est de défendre le journalisme ; le journalisme étant entendu comme un ensemble de droits et de devoirs, les uns et les autres étant également importants. La vision de notre organisation est de faire en sorte que les êtres humains puissent bénéficier autant que possible d'informations fiables leur permettant de faire des choix individuels ou collectifs.

La Chine est évidement un pays extrêmement important pour notre organisation. Elle est aujourd'hui classée à l'avant-dernière place du classement mondial de la liberté de la presse, la 179ème sur 180 pays. Il n'y a que la Corée du Nord derrière. Plus de 100 journalistes y sont incarcérés à l'heure actuelle et encore cette statistique ne rend-elle pas totalement compte de l'intensité du système de répression et du système de propagande mis en place en Chine. Ainsi, à Hong-Kong, Jimmy Lai, le seul grand patron de la presse indépendante qui demeurait, a été placé en en en détention, malgré son grand âge.

Nous avons publié plusieurs rapports sur la Chine. J'en citerai deux. En 2021, nous avons publié Le grand bond en arrière des médias. Très clairement, la Chine durcit son système de répression, depuis l'accession au pouvoir de Xi Jinping, par rapport à la période précédente du président Hu Jintao. Nous avions publié préalablement 2019 un rapport intitulé Le Nouvel ordre mondial des médias selon Pékin. Pékin est un régime qui, non content de réprimer le journalisme et plus largement l'information indépendante, entend changer l'ordre mondial de l'information. Il s'y adonne par des moyens divers et variés qui vont d'une opération bien nommée « tapis rouge », consistant à inviter des journalistes étrangers pour leur apprendre le journalisme aux caractéristiques chinoises, à des méthodes relevant de la diplomatie d'influence dans les organisations internationales en charge de ces questions.

Je commencerai mon intervention en tentant de répondre rapidement à deux questions : qu'est-ce qu'une plateforme numérique ? Deuxièmement qu'est-ce que TikTok pour nous ?

A ce stade, vous connaissez mieux TikTok que nous. J'aborderai donc plutôt des questions générales, notamment sur les logiques de régulation. De notre point de vue, très clairement, une plateforme numérique n'est ni un hébergeur ni un éditeur. Il convient, peu à peu, de distinguer un 3ème statut. On ne saurait parler d'un hébergeur dès lors que le travail d'une société comme TikTok n'est pas neutre. Les algorithmes de curation et de recommandation organisent ce qu'on voit, ce qu'on voit moins, et ce qu'on ne voit pas du tout. Il ne s'agit pas non plus d'un média puisque les plateformes ne produisent pas de contenu et ont une taille qui dépasse largement la taille des médias. Bref, de notre point de vue, ces entités structurantes organisent l'espace public. Ce n'est peut-être pas le lieu pour le dire mais, d'une certaine manière, les grandes plateformes numériques ont remplacé le Parlement. Code is law : le code, c'est la loi. Elles édictent des règles qui sont l'équivalent des lois sur la distribution de l'information autrefois été adoptées par le Parlement. Elles remplacent la justice puisqu'elles appliquent leurs propres règles. Elles remplacent les administrations puisque certaines d'entre elles allouent des fonds, y compris aux médias, à leur manière toute discrétionnaire et sans considération pour des principes démocratiquement admis.

Plus que cela, elles exercent un ministère de la vérité. Les plateformes ont encore la possibilité de prendre des décisions sur des aspects éditoriaux. C'est Facebook qui a décidé pendant longtemps que le virus n'était pas sorti des laboratoires de Wuhan. Je précise que je ne sais pas d'où est sorti le virus. Mais Facebook le savait et l'avait imposé à ses algorithmes. TikTok, comme des révélations du Guardian en 2019 ont permis de l'établir, interdisait qu'il soit question de certains faits pourtant historiquement avérés. C'est exactement ce qu'on appelle un ministère de la vérité.

Les plateformes numériques devraient selon nous être considérées comme des services d'intérêt général, des public utilities. Elles devraient être traitées, d'une certaine manière, comme des délégataires de service public et des obligations devraient leur être imposées comme à tout délégataire de service public. La question est celle aussi de leur responsabilité. De notre point de vue, la législation européenne déjà adoptée ou en cours n'a pas réponse à tout.

Qu'est-ce que TikTok ? C'est évidemment un enjeu ou un danger pour la démocratie. C'est un service privé pour créer des influenceurs et les pousser à la consommation. Je ne prendrai qu'un exemple récent : il semble que TikTok a laissé diffuser des contenus sponsorisés et des publicités politiques pour des marques de trottinettes en libre- service, dans lesquels des créateurs de contenus appelaient à se mobiliser et à voter contre l'interdiction des trottinettes en libre-service à Paris. Ce n'était peut-être pas le plus grand exercice démocratique qui soit, mais cela montre ce qu'une entité comme TikTok peut faire et le rôle qu'elle peut jouer. C'est un enjeu pour les libertés publiques. Je renvoie à toutes les questions qui ont déjà été évoquées devant comme votre commission en matière de surveillance. C'est un enjeu pour les médias en termes de marché et d'audience : pour s'adresser à une audience jeune, certains médias vont sur TikTok. C'est un enjeu pour la liberté de la presse : BuzzFeed avait révélé en juin 2022 - ce que TikTok a reconnu - que des ingénieurs de sa société-mère avaient accédé à des informations sur des sources journalistiques. Il faut d'ailleurs reconnaître à TikTok de souvent reconnaître ce qui s'est passé. La société a indiqué que c'était exceptionnel et lié à des « brebis égarées ».

TikTok n'est pas la seule plateforme qui peut, a pu, poser des questions en matière de surveillance. Edward Snowden nous en avait suffisamment appris sur le programme PRISM américain. Même si je ne renvoie évidemment pas dos à dos Washington et Pékin, il convient de ne pas considérer que le problème de la surveillance via les plateformes se limiterait à TikTok. TikTok ne doit pas être le paratonnerre qui empêche de s'intéresser aux autres plateformes. Néanmoins, il y a des spécificités. En matière de respect des principes démocratiques et de conformité des plateformes au principe démocratique, la question qui se pose est celle de la charge de la preuve. Est-ce aux autorités et à la justice d'établir que des infractions sont commises ? Ou est-ce aux plateformes elles-mêmes d'établir a priori, grâce notamment à un dispositif de transparence, qu'elles respectent des principes démocratiquement admis ?

La législation est en cours, notamment au niveau européen. Les DSA/DMA sont des avancées notables mais souffrent d'un certain nombre de fragilités. Le DSA porte plutôt sur la modération que sur les algorithmes de recommandation. Il s'intéresse plutôt à la distinction entre le champ du licite et de l'illicite plutôt qu'à l'organisation du licite. Or, la construction démocratique s'est faite sur l'organisation du champ du licite et la promotion de formes d'intégrité dans le licite, par la régulation des médias, par la distinction entre la publicité et les contenus journalistiques. Ce n'est manifestement pas les points de force du DSA. La question des messageries n'y est pas traitée non plus.

S'agissant d'un sujet central qui est la question de la fiabilité de l'information, il y a eu un test avec le code des bonnes pratiques contre la désinformation de la Commission européenne. Un engagement était attendu des plateformes dans un texte qui n'est pas hostile aux plateformes et qui a été abondamment négocié avec elles. Un engagement 22.6 portait sur les indicateurs de fiabilité. Ce code demande aux plateformes numériques de s'engager à proposer à leurs audiences des indicateurs de fiabilité. Il s'agit d'un engagement extrêmement faible, disons-le. Nous pensons quant à nous qu'il doit être tenu compte de la fiabilité de l'information dans l'indexation algorithmique elle-même. Malgré cet engagement faible, une seule plateforme l'a alors signé, Microsoft. TikTok n'a donc pas fait partie des signataires.

Reporters sans frontières a lancé des initiatives, qui peuvent nourrir nous semble-t-il vos travaux. Je citerai trois éléments. Nous avons d'ailleurs fourni une note à l'appui de cette intervention.

La régulation suppose des niveaux de granularité. C'est pourquoi nous avons lancé le Partenariat international sur l'information et la démocratie, regroupant 50 États. Nous avons formulé des centaines de recommandations dont certaines peuvent, je crois, nourrir votre commission et que nous tenons à votre disposition. Nous avons des propositions sur les messageries privées, sur la modération, sur la promotion de la fiabilité de l'information, ou encore sur les régimes de responsabilité des comptes de réseaux sociaux.

Je citerai aussi la Journalist Trust Initiative, fondée sur une norme européenne, avec des audits externes des médias et un dispositif de certification. Son objectif est de promouvoir la fiabilité de l'information sans décision discrétionnaire ni des États, ni des plateformes. Nous voyons de grandes avancées. D'abord parce que le European Media Freedom Act, actuellement sur la table à Bruxelles, l'intègre. Par ailleurs, une plateforme est en train d'avancer sur le sujet, et nous devrions faire une annonce bientôt. Elle n'est malheureusement pas l'une des plateformes ayant le plus d'abonnés. Des médias perçoivent désormais l'intérêt de démontrer qu'ils s'astreignent à des obligations pour trouver légitimement une place plus grande dans l'espace public.

Un enjeu majeur subsiste : imposer aux plateformes numériques d'amplifier la visibilité des médias qui démontrent leur fiabilité, sur la base de leurs processus et non des contenus. Cela trouvera-t-il sa conclusion dans le European Media Freedom Act ou bien cela sera-t-il intégré plus tard dans la loi nationale ? Près de la moitié des États européens y sont favorables. Une partie du Parlement y est favorable. Bref, c'est encore un combat à mener à Bruxelles mais il pourrait être intégré demain sur plan national dans une régulation nationale. Si l'on n'arrive pas à mettre ce principe au coeur des algorithmes, - ce qui est le cas de TikTok - alors on accepte que notre espace public soit soumis à une logique marchande. Il y a un combat majeur à mener sur ce point.

Mon troisième point concerne la manière dont les démocraties gèrent la globalisation de l'espace de l'information et de la communication. Se pose ainsi la question des limites des espaces publics. Il faut à la fois éviter une fragmentation de l'espace international, qui consisterait à revenir de façon regrettable à des espaces nationaux, et une symétrie entre les dictatures et les démocraties, qui favoriserait la dictature. Nous avons formulé une proposition de système de protection des espaces informationnels démocratiques, permettant d'aller le sens d'une plus grande ouverture mutuelle mais permettant aussi aux démocraties de se défendre sur la base d'un système de réciprocité intégrant les principes universels de la liberté d'expression. La semaine dernière, les commissions Ingérence étrangère et Affaires étrangères du Parlement européen l'ont recommandé. C'est une proposition que nous mettons sur la table.

Je crois que l'objectif des démocraties ne doit pas être de tout traiter par l'exception à la liberté d'expression mais en revanche de renforcer au coeur de l'espace public et donc au coeur des algorithmes toutes les sources d'information réputées fiables - quel que soit leur statut - qui en font la démonstration. Cela aura pour effet incident mais important de renvoyer vers les marges tous ceux qui ne respectent aucun de ces principes, qui véhiculent de la haine, propagent des rumeurs, relaient des manipulations de propagande et qui voient des complots partout. Les complots existent mais il y en a sans doute moins que ne le croient certains.

M. Claude Malhuret, rapporteur. - Merci beaucoup pour votre introduction et de nous avoir fait parvenir avant cette audition un certain nombre de documents et de propositions.

S'agissant du DSA, vous estimez qu'il s'agit d'un premier pas intéressant, comme l'avait été le RGPD. Mais vous précisez également que le DSA vous parait insuffisant. Dans quelques semaines, le Sénat comme l'Assemblée nationale vont être appelés à se prononcer sur un projet de loi présenté par le ministre du numérique, qui consiste schématiquement à transposer le DSA. Ce serait l'occasion pour nous de suivre un certain nombre de vos recommandations et de les proposer en amendements à ce projet de loi. Mais il se trouve que le procureur de la Cour de justice européenne vient de donner son avis sur un litige qui oppose les principales plateformes (Facebook, Google et TikTok) à la Commission européenne. Le jugement devrait être rendu sans doute dans quelques semaines ou quelques mois. Le procureur estime que la transposition du DSA dans les différents droits européens ne saurait aller au-delà des articles contenus dans le DSA. Au cas où la Cour de justice européenne suivrait l'avis du procureur, nous ne pourrons absolument pas proposer des amendements qui iraient au-delà du DSA. Dans ces conditions, les propositions que vous faites ont assez peu de chances d'être retenues... Peut-être est-il encore temps d'alerter les juges de la Cour de justice européenne. C'est pour moi un problème important.

Par ailleurs, le DSA et les négociations au sein de l'Union européenne prévoient que les régulateurs nationaux (en France l'ARCOM et la CNIL essentiellement) vont être dépossédés de leurs pouvoirs d'enquête et de sanction. Cette dépossession sera totale pour l'ARCOM et partielle pour la CNIL. Elles pourront toujours être saisies par des plaignants ou par des gouvernements mais la plainte sera désormais transmise pour les 27 pays de l'Union européenne à la Data Protection Commission (DPC) irlandaise qui sera le juge en dernière instance. Ce juge devra évidemment consulter les 27 régulateurs européens mais il sera souverain. On en a d'ailleurs l'exemple dès aujourd'hui avec une décision sur TikTok qui doit être prise dans le courant de l'été. Cette décision a fait l'objet de remarques d'un certain nombre de régulateurs, que la DPC - d'après mes informations - semble avoir choisi de ne pas suivre. Cette transmission des plaintes à la DPC me parait problématique car la DPC a beaucoup de raisons de se montrer beaucoup plus tolérante par rapport aux plateformes. TikTok a sa maison mère européenne en Irlande et va réaliser des investissements de centaines de millions d'euros dans ce pays avec le projet Clover.

En transmettant les plaintes à la DPC, nous nous coupons, dans une très grande mesure et pratiquement définitivement et totalement, d'une possibilité de régulation. Sur le fond du dossier, je suis européen et je pense que ce genre de sujet doit se traiter à un niveau européen. Mais l'ampleur des délégations et le fait de les confier à un régulateur qui n'a pas fait la preuve d'une très grande fermeté sur les sujets du numérique m'interroge. Je voulais donc vous demander votre avis sur ces deux sujets.

M. Christophe Deloire, secrétaire générale de Reporters sans frontières. - Je répondrai en étant conscient que je ne suis pas juriste et donc que mes réponses ne porteront pas sur le droit stricto-sensu.

Quand on a vu l'intensité et la diversité des méthodes de lobbying des plateformes, ne serait-ce qu'au moment de l'adoption de la directive sur les droits voisins, on ne peut que s'inquiéter de leur capacité de lobbying après l'adoption de la loi, au moment de sa mise en oeuvre. Il serait dangereux de mettre tous ses oeufs dans le même panier, a fortiori quand il s'agit de l'organe de régulation d'un pays qui a démontré combien ses intérêts économiques étaient attachés aux intérêts des plateformes. Quelle que soit l'indépendance affichée des organes de régulation, il y a toujours lieu d'avoir une forme de suspicion sur leur indépendance réelle. Je ne parle pas de cet organe de régulation en particulier, que je ne connais pas, mais il y a de manière générale un danger extrêmement fort.

Je ne sais pas ce que sera la décision de la Cour de justice européenne. J'espère que la régulation ne s'arrêtera pas là. Il y a deux types de régulation : la régulation de contenus et la régulation de moyens. La régulation de contenus a sa légitimité mais elle doit être limitée. On ne répondra pas à beaucoup de problèmes en accroissant la régulation de contenus. Il y a eu des volontés en Europe d'extraire de l'espace numérique des contenus licites mais dangereux ; ce serait de fait une attitude extrêmement dangereuse. En termes de régulation de moyens, il serait dommage de se priver de régulation plus avancée. Je rappelle que le DSA laisse aux plateformes apprécier le risque systémique qu'elles posent elles-mêmes. Cela revient un peu à demander à Monsanto de dire si ses propres produits sont dangereux...

Il s'agit d'une question fondamentalement démocratique. Je ne sais pas ce qu'en dira la cour de Karlsruhe pour l'Allemagne, qui est plus stricte que dans d'autres pays sur ces questions. Mais il semble que sur des questions aussi importantes du point de vue démocratique, transmettre les plaintes à un organe de régulation d'un pays tiers pouvant être soumis à des influences fortes est un jeu assez risqué.

M. Claude Malhuret, rapporteur. - Vous expliquez également que la réglementation des plateformes numériques suppose d'inventer un troisième statut entre celui d'hébergeur dénué de responsabilité et celui d'éditeur doté d'une responsabilité et d'une liberté éditoriale. RSF propose que les plateformes soient considérées - vous venez de le rappeler - comme des services d'intérêt général, également appelé public utilities, et soumises aux régimes de responsabilités qui en découlent. Cette réflexion rejoint la nôtre et va peut être encore plus loin. Le Sénat a voté, après en avoir discuté à plusieurs reprises en commission de la culture dont était présidente jusqu'à une date récente Madame Morin-Desailly, un amendement que j'avais proposé. Cet amendement prévoyait qu'à partir du moment où une plateforme organisait une curation par algorithme ou par un autre procédé informatique, il n'était plus un simple hébergeur. Il avait une vocation éditoriale et par conséquent il devenait un éditeur, ce qui emportait un certain nombre de responsabilités. Cet amendement a été voté à l'unanimité au Sénat contre l'avis du gouvernement, à l'époque. Mais il n'a jamais été présenté à l'Assemblée nationale.

La proposition que vous faites est une proposition intermédiaire qui me paraît intéressante. Ces plateformes sont en effet dans une situation intermédiaire entre les deux statuts. Malheureusement, le DSA a choisi, notamment à la suite du lobbying extrêmement fort des GAFAM et des BATX (Baidu, Alibaba, Tencent et Xiaomi), de ne pas retenir cette solution. Estimez-vous que la solution proposée par le DSA réponde en tout ou en partie à la solution que vous proposez ?

M. Christophe Deloire, secrétaire générale de Reporters sans frontières. - Le DSA a posé un cadre et la question se pose maintenant de l'utilisation de ce cadre. Il est assez difficile de prévoir la mise en oeuvre du DSA. Sera-t-elle très scrupuleuse ? Les personnes en charge de l'application du DSA auront-elles accès à suffisamment de données ? Auront-elles les capacités de statuer ? Quelle sera la fermeté dans l'imposition des principes démocratiques ? Tout cela est difficile à déterminer. Je ne dirai néanmoins pas que le DSA a refusé d'entrer dans cette logique de troisième statut. Au contraire, le DSA est peut-être une forme d'engagement dans cette logique, même si ce n'est pas précisé comme telle. Le DSA ne maintient pas la logique d'hébergeur et ne présente pas non plus les plateformes comme des médias.

Nous pensons que les plateformes numériques ne devraient pas être considérées comme des éditeurs parce que le principe d'un éditeur est d'abord d'être un acteur dans le cadre d'un pluralisme général. Un éditeur est responsable de ses contenus et il est responsable de statuer sur la présence de contenus illicites. Mais surtout, dans le cadre du pluralisme, il a le droit de décider de ce qu'il y a sur sa plateforme. Faire de Mark Zuckerberg, du patron de TikTok ou d'autres l'équivalent d'un éditeur reviendrait à leur accorder le droit d'avoir une ligne éditoriale. Ils pourraient alors décider de retirer ce qui ne leur convient pas. Ce serait leur conférer un pouvoir que sans doute nous n'avons pas envie de leur confier.

Dans le cadre des discussions de l'European Freedom Act, les réflexions se poursuivent pour déterminer dans quelle mesure les plateformes sont autorisées à prendre des décisions sur les contenus des médias. Cela est potentiellement extrêmement dangereux que des acteurs aussi importants, dotés d'un tel pouvoir puissent prendre des décisions relevant de choix éditoriaux. Puisque les plateformes numériques sont des bouts d'espace public, nous pensons qu'il faut précisément leur donner des formes de neutralité, par exemple sur les questions politiques, idéologiques, religieuses. Cette neutralité doit aussi s'appliquer vis-à-vis de leurs propres intérêts. Tous les jours en ce moment, quand j'ouvre mon Twitter, je tombe sur un tweet d'Elon Musk. Il semble que Twitter pousse ce tweet. Twitter se comporte clairement comme éditeur. Il faut des obligations de moyens très fortes, qui soient adaptées à ce que sont les plateformes, c'est-à-dire non pas une équipe produisant un contenu pour un lectorat mais bien un organisateur de notre espace public.

M. Claude Malhuret, rapporteur. - Au sujet de la transparence des algorithmes, vous précisez dans la note que vous nous avez transmise que « les exigences de transparence doivent cibler les fonctions essentielles de toutes les plateformes de l'écosystème de l'information publique : modération du contenu, classement du contenu, ciblage du contenu et renforcement de l'influence sociale ». Vous appelez également à « l'application de principes de transparence et d'explicabilité dans la modération automatisée » - donc algorithmique j'imagine -, et à ce que les utilisateurs soient « informés des biais des algorithmes et de leurs modèles d'entraînement, du taux de faux-positifs et de faux-négatifs des algorithmes. Ils doivent également avoir accès aux données d'entraînement des algorithmes. Les plateformes doivent être tenues responsables des torts causés par leurs algorithmes ». Dans ce que vous savez aujourd'hui du DSA, les propositions satisfont-elles à cette demande de votre part ? Nous sommes encore très en retard s'agissant de la transparence des algorithmes.

M. Christophe Deloire, secrétaire générale de Reporters sans frontières. - Il nous semble que ce qui est requis du DSA est plus une transparence sur des intentions qu'une véritable transparence attendue des plateformes. Il s'agit d'un affichage. Dès lors que « le code, c'est la loi », la loi doit être transparente. Peut-être faudra-t-il inventer des dispositifs qui permettent d'avoir une transparence soumise seulement à des organes de régulation statuant en étant eux-mêmes soumis à des formes de secrets. En tout cas, de notre point de vue, il doit y avoir une transparence la plus absolue vis-à-vis des institutions démocratiques chargées des vérifications. A défaut, ce n'est pas de la transparence.

M. Claude Malhuret, rapporteur. - C'est une réponse tout à fait nette, qui trancherait, si elle était appliquée, avec l'opacité actuelle de tous les algorithmes en général, mais a fortiori de celui de TikTok, développé et amélioré en Chine.

Avez-vous identifié sur TikTok des pratiques non déontologiques du type désinformation/mésinformation, censure ou vol de documents retransmis directement sur la plateforme sans contrat et sans paiement de droits ?

M. Christophe Deloire. - Nous n'avons pas lancé d'étude sur le sujet, je suis donc incapable de vous répondre.

Mme Catherine Morin-Desailly. - J'ai plusieurs questions dans le prolongement des questions très pertinentes du rapporteur. Nous avons tous bien conscience que le DSA est une étape, mais que celle-ci est forcément un peu frustrante et insuffisante. Dans les rapports que nous avons faits sur le DSA et le DMA, nous avons cherché au Sénat au sein de notre commission des affaires européennes à amplifier cette législation qui nous est proposée.

Pour aller dans le sens de la responsabilisation des plateformes, ne croyez-vous pas en réalité que nous serons de toute façon amenés à migrer vers un autre type de plateformes, vertueux par son modèle économique ? Cela revient à questionner la publicité ciblée, et donc à questionner la construction de l'algorithme pour aller chercher toujours plus de clics rémunérateurs et enfermer les utilisateurs dans des bulles de certitudes ou de vérité et dans des comportements de consommateurs. Selon vous, pensez-vous qu'un modèle d'abonnement, qui permettrait de réguler différemment cet espace public d'un point de vue économique, serait viable ?

Ma deuxième question porte sur les journalistes. Vous avez évoqué les journalistes emprisonnés en Chine. Avez-vous des témoignages sur la façon dont leur publication s'inscrive dans l'espace numérique ? Pouvez-vous nous expliquer concrètement comment se traduisent les censures de leurs articles ? On aurait besoin d'en savoir un peu plus pour comprendre comment la relation aux plateformes, et singulièrement à TikTok, peut ou ne peut pas se construire.

M. Christophe Deloire. - S'agissant de votre question sur un modèle économique vertueux des plateformes, celui-ci n'a pour l'heure pas encore été inventé. Les sociétés relevant du capitalisme de surveillance, décrites par Shoshana Zuboff dans son livre L'âge du capitalisme de surveillance, dominent actuellement. Elles ont l'avantage de non seulement avoir une vision claire de ce que nous sommes et faisons mais en plus de pouvoir prédire nos comportements. Ce capitalisme de la prédiction a un potentiel de manipulation globale, qui assure des positions dominantes à ces sociétés. Elles sont d'autant plus dominantes que le stock d'informations accumulées leur donne un tel avantage concurrentiel qu'il est difficile à de nouveaux entrants de se faire une place sur le marché. Dès lors que le coeur même de la machine, ou l'objet de la société, est d'organiser l'information et que la société tire des revenus de cette organisation, alors il y a une soumission du modèle même à une logique marchande, par définition. Le modèle alternatif n'a pas été trouvé. Pour s'assurer que les sociétés le trouvent ou le respectent, il faudra leur poser des formes de principe.

Je suis sidéré par la confiance qu'on a pu faire aux plateformes s'agissant de la lutte contre la désinformation. Elles ont demandé à ne pas être régulées, assurant s'en occuper elles-mêmes. On voit quelques années plus tard ce qu'il en est. Leurs actions en la matière ont consisté en du blanchiment, allouant des fonds à des médias de fact checking, pour donner l'impression d'agir. Tout cela permettait de ne pas atteindre le coeur du système. Il ne fallait pas toucher au système, les plateformes faisant en revanche des chèques à droite et à gauche. Dès qu'il s'agit d'aller toucher au coeur du système et que leurs intérêts sont en jeu, les plateformes refusent. Il y a quelques jours, YouTube a annoncé qu'il ne s'attacherait plus à empêcher la diffusion des contenus de désinformations dans la perspective de l'élection présidentielle américaine de 2024. Ces gens-là jouent avec le feu. Il me semble qu'aujourd'hui aucun des plus grands réseaux sociaux n'a mis en place des mesures systémiques. Aucun d'entre eux n'a limité les dividendes pour ses actionnaires afin de sauver la démocratie ; il n'y a même pas eu un déplacement de curseur dans l'arbitrage, tout est du côté de l'avantage économique.

Je n'ai pas d'informations extrêmement précises sur les censures des journalistes chinois dans le domaine du numérique. Nous pourrons vous fournir les deux rapports que nous avons publiés. Lorsqu'il y a une bulle d'expression sur l'internet chinois, elle est immédiatement réprimée. Les choses disparaissent comme par enchantement. Il en est de l'internet chinois comme de l'économie chinoise : c'est un théâtre d'ombres où le Parti communiste chinois n'est jamais bien loin. Je vous renvoie d'ailleurs à un livre du journaliste britannique Richard McGregor, The Party, qui montrait bien qu'il n'existait pas d'économie privée chinoise. Tout le secteur privé relève en réalité d'un contrôle d'État. Cela ne permet pas de porter des accusations sur le cas de TikTok en particulier. Votre commission est sans doute confrontée à la question des preuves s'agissant du contrôle de Pékin sur TikTok. Mais, encore une fois, à qui doit revenir la charge de la preuve ? L'organisation du système politique chinois et de l'ensemble de l'espace de l'information chinois est un espace de contrôle.

Mme Marie Mercier. - Nous avons appris lors d'une audition que TikTok finançait certains grands événements culturels comme le festival de Cannes ou le Salon du livre. J'aurais aimé que vous nous donniez votre sentiment sur ce sujet. Pensez-vous qu'il est grave voire gravissime d'en arriver à cela ?

M. Christophe Deloire. - Je ne voudrais pas être dans une forme de subjectivité trop grande. Le stand BookTok au salon du Livre démontre une forme de soft power de TikTok et prouve l'influence de ses recommandations en matière éditoriale pour faire vendre des livres. Ce ne sont sans doute pas les livres que nous lisons, mais ceux-ci ont des audiences extrêmement grandes. Je dirais que ce n'est pas le point central mais cela fait partie des opérations de lobbying, comme les plateformes en font. Quand j'ai pris mes fonctions au sein de Reporters sans frontières, j'ai découvert que nous avions une grande diversité de financements. Le seul qui a tenté de me tordre le bras était une entreprise du numérique américaine. Il était le seul à essayer de nous influencer à travers ces financements. Je crois qu'il y aura une histoire à écrire des opérations de lobbying et de l'influence via la capacité financière des sociétés technologiques. Ce que vous venez d'évoquer sur les partenariats culturels fera surement l'objet d'une partie de chapitre.

M. Mickaël Vallet, président. - Avant de passer la parole à André Gattolin, je vais me faire l'avocat du diable pour permettre de mieux identifier les problèmes aigus et ceux qui le sont moins. Personne n'est dupe ici du fait que nous ne sommes pas grâce à TikTok dans les années folles ni dans le surréalisme, comme l'avez défendu M. Garandeau. Il en était presque à dire que si Claude Sautet était encore en vie, il réaliserait ses films en format court sur TikTok...Le ridicule ne tue pas mais rapporte probablement beaucoup d'un point de vue pécuniaire. Néanmoins, quelle est la différence entre le partenariat TikTok avec le Salon du livre et un publi-reportage fait dans la presse ?

M. Christophe Deloire. - Le publi-reportage est parfaitement répréhensible. C'est d'ailleurs un terrain sur lequel nous commençons à aller. Il y a une dizaine de jours, nous avons ainsi révélé l'existence de pratiques de ce type dans la revue des anciens de l'ENA. Comme un certain nombre de médias, elle propose contre rémunération de publier des contenus relevant de la publicité et n'étant pas présentés comme tel. Je crois que c'est enjeu majeur de nos sociétés que de conserver la distinction entre les contenus journalistiques et la publicité.

Il y a toujours eu des formes de corruption. Il y a eu des périodes où elles étaient relativement maîtrisées et faibles. Nous sommes entrés dans une ère de la corruption des contenus. Si l'on peut réguler les publicités dites politiques, c'est-à-dire subventionnées sur les plateformes, en revanche, ces plateformes numériques ne savent pas dans quelles conditions ont été produits les contenus en amont de leur publication. C'est la raison pour laquelle nous ne parviendrons jamais, y compris par le droit pénal, à empêcher que ces pratiques aient lieu. La solution est de donner des formes d'avantages à ceux qui démontrent que l'information n'y est pas corrompue. Il y a malheureusement des plateformes sur lesquels il est possible pour des entreprises ou des individus d'acheter des articles sur eux-mêmes. C'est une dérive complète. Certains médias, j'espère rares, s'en accommodent en considérant que c'est le moyen de sauver leur modèle économique. Je crois qu'il est de notre responsabilité de trouver un moyen pour que l'écosystème de l'information soit organisé de telle manière qu'on puisse survivre sans cela et pour éviter que la corruption de l'information devienne admise.

M. Mickaël Vallet, président. - Ma question vise vraiment à comprendre comment cela fonctionne d'un point de vue déontologique. Je croyais que du moment que le lecteur était informé du fait que c'était un publi-reportage, cette pratique était admise.

M. Christophe Deloire. - C'est bien le cas. Certaines chaines de médias se sont spécialisées dans ces publications, qui sont la base de leur modèle économique. Les contenus ne sont pas présentés comme des contenus sponsorisés. C'est une dérive à laquelle il convient de mettre fin.

M. Mickaël Vallet, président. - Je songe notamment à des magazines nationaux qui réalisent un focus sur certaines villes ou départements.

M. Christophe Deloire. - Si ces magazines trouvent des annonceurs intéressés, je ne vois pas en quoi c'est répréhensible tant que le contenu des articles ne concerne pas l'annonceur.

M. Mickaël Vallet, président. - Le département ou la région qui est l'objet du reportage est bien content de se retrouver en une d'un magazine national. La régie publicitaire du journal indiquera ensuite quelles peuvent être les entreprises susceptibles « d'allonger »...

M. Christophe Deloire. - Pour avoir travaillé dans un hebdomadaire, qui pratiquait ces déclinaisons régionales, la logique était plutôt une logique d'audience. Faire un supplément sur telle ville permettait de s'assurer des ventes supplémentaires. Qui dit vente, dit le cas échéant annonceurs, avec peut être des formes de publicité plus ciblée relevant de la région. Je n'y vois rien de répréhensible tant que cela ne modifie pas la ligne éditoriale.

Est répréhensible le cas où une entité, quel que soit son statut, achète un contenu qui relève de la publicité et qui n'est pas présentée comme telle. Cela se développe de plus en plus, bien que ce ne soit pas encore au coeur du système. Cela se développe y compris à la faveur de la pression concurrentielle. Du point de vue démocratique, il est essentiel de trouver les moyens pour que la fonction sociale qui est aujourd'hui celle du journalisme soit exercée, en évitant le plus possible toute forme de corruption. Ce doit être au coeur de la réflexion sur le journalisme et sur l'avenir de l'information. Il faut s'assurer que dans le débat public existent des tiers de confiance, que doivent être les journalistes. Pour ce faire, les moyens économiques doivent être suffisants et l'organisation du marché pertinente.

M. André Gattolin. - Vous évoquiez le fait que les plateformes et les réseaux sociaux n'étaient pas des éditeurs. Regardons ce qu'est TikTok et prenons sa version chinoise, Douyin. L'application Douyin produit des programmes éducatifs qui sont reconnus pour leur qualité, manière d'éviter les critiques contre l'aliénation et le temps trop long passé sur les écrans. Le système des influenceurs est très particulier. Comme l'a rapporté la presse, certains influenceurs qui avaient pris des positions aux États-Unis sur la question ouïghoure ont vu leurs audiences passer de 200 000 à 30 personnes. Il s'agit d'une censure par l'algorithme, qui coupe les influenceurs de leurs habitués.

Sentant peut-être le vent du boulet, TikTok a développé aux États-Unis un nouveau réseau social dénommé Lemon 8, qui s'adresse à un public peut-être un peu plus âgé, et s'orientant davantage sur les styles de vie. Les influenceurs de TikTok sont débauchés pour fournir des contenus éditoriaux à Lemon 8. Selon moi, il s'agit là totalement d'une logique d'éditeurs, qui cache son nom. TikTok annonce par ailleurs que les créateurs seront désormais rémunérés en fonction de l'audience. Ce n'est plus juste une application « citizen to citizen » mais bien une application de business intermédiaire. Il ne s'agit plus seulement d'échanges horizontaux entre deux lycéens qui racontent leurs journées et leurs amours. Il y a une construction quasi éditoriale d'une équipe, qui débauche des influenceurs.

Ce statut hybride est extrêmement dangereux et peut conduire à leurrer les personnes qui suivent cette application. C'est une chose de de faire un placement de produit discret ; c'en est une autre d'être éditeur de contenu, avec des élaborations de films parfois assez sophistiqués, qui délivrent des messages. Quand le message ne correspond pas à ce qu'attend la plateforme TikTok, l'influenceur perd son audience. Quelle est votre réflexion sur ce sujet ?

M. Christophe Deloire. - J'entends parfaitement votre réflexion. Les plateformes sont comme Janus, on peut leur trouver beaucoup de visages. De plus en plus, les plateformes numériques nous font sortir des logiques classiques du pluralisme parce qu'elles nous apportent une réponse unique. Aucune de nos régulations ne répond à cette difficulté. Nous pensons que l'idée de faire des plateformes des éditeurs est une mauvaise idée. Un éditeur a le droit de ne pas parler des Ouïghours ; n'importe quel éditeur de presse en France peut décider de ne pas s'intéresser à ce sujet. Je ne pense pas que vous ayez envie de cela pour les plateformes.

M. André Gattolin. - Elles le font déjà !

M. Christophe Deloire. - Précisément, il faut empêcher cette censure. Ce serait curieux d'entériner par la régulation quelque chose que l'on veuille justement empêcher. J'évoquais les obligations de neutralité politique, idéologique, religieuse, ou vis-à-vis de leurs propres intérêts. Il y a des sujets sur lesquels on ne veut pas que les plateformes aient leur mot à dire. Si vous donnez aux plateformes le statut d'éditeur au titre de la loi de 1881, Mark Zuckerberg, Elon Musk et le patron de TikTok auront le pouvoir de décider d'écarter des contenus conformes à la liberté d'expression mais dont ils ne veulent pas. Les plateformes pourront ainsi orienter les contenus pour des dizaines de millions de personnes - 1,7 milliard d'utilisateurs dans le cas de TikTok. Il ne faut surtout pas leur laisser ce pouvoir-là. Au contraire, il faut les empêcher de prendre des décisions à caractère politique.

M. André Gattolin. - J'entends bien. Mais s'ils ne sont pas éditeurs, quelle responsabilité peuvent-ils avoir par rapport aux contenus ? J'ai travaillé dans un grand quotidien pendant quelques années ; je sais ce que c'est d'être responsable éditorial et d'avoir à rendre des comptes devant la justice. Nous avons organisé au Sénat la semaine dernière un colloque sur la situation au Cambodge. De nombreuses personnes de la communauté cambodgienne étaient présentes. Alors que les médias sont censurés au Cambodge, ces personnes s'offusquaient d'entendre dire de la part de Daniel Bastard, directeur régional de RSF, que Facebook n'était pas un média. Facebook est leur seul moyen de communication et d'information libre, et permet d'échapper à la censure des médias officiels. Je comprends bien la logique intellectuelle de votre propos mais il est, je pense, inaudible pour le citoyen moyen.

M. Christophe Deloire. - J'ai découvert récemment que les Ukrainiens ne s'envoyaient pas de mails : l'information passe par Telegram et les échanges de messages passent beaucoup par Facebook, y compris les échanges de proches conseillers de Zelensky. On peut toujours trouver des éléments qui rattacheraient les plateformes à l'édition. Mais ce qu'elles font est beaucoup plus vaste. Vous évoquiez les influenceurs, qui sont des formes plus ou moins déguisées de publicité. La régulation actuelle des médias empêche par exemple que la publicité occupe 90% des antennes. Pour les médias traditionnels, il y a des obligations, qui sont inscrits dans des conventions.

M. André Gattolin. - Un programme de téléshopping qui dure une heure ne respecte pas la logique d'insertion publicitaire...

M. Christophe Deloire. - Je ne vous dis pas que la loi est parfaite. Il y a tout de même une forme d'organisation du flux qui arrive au public. La question est de savoir si l'on est capable de travailler sur l'organisation du flux qui nous arrive par les plateformes. C'est un flux plus compliqué, plus massif et les plateformes ont un pouvoir beaucoup plus grand. Je crois que ce sera compliqué pour le législateur car une partie du public dénoncera alors le contrôle de l'information. Mais les espaces publics démocratiques se sont construits grâce à l'imposition d'obligations. On a ainsi imposé des obligations aux réseaux de distribution de la presse. Accepterait-on aujourd'hui que le réseau de distribution de la presse, depuis le distributeur jusqu'au vendeur, puisse faire des choix comme TikTok le fait sur les Ouïghours ? La réponse est non.

TikTok est aujourd'hui à la fois le recruteur de l'influenceur mais aussi le réseau de distribution. Il est un organisateur. Il est légitime que les institutions démocratiques imposent des principes à l'organisation du flux, sans jamais entrer dans le contenu lui-même. L'objectif est de rester dans une philosophie politique libérale. Nul n'est détenteur de la vérité et la question est de favoriser l'intégrité, l'honnêteté et certains types de processus. Chacun peut ensuite chercher la vérité par ses moyens.

M. André Gattolin. - Vous avez évoqué le texte en préparation par la Commission européenne sur la liberté des médias. Il se trouve qu'avec Catherine Morin- Desailly, nous avons produit un pré-rapport sur ce sujet. Pensez-vous qu'une autorité comme l'ARCOM soit en mesure de réguler à la fois les médias audiovisuel, numérique et de presse écrite ? Sur la régulation de la presse écrite, on peut avoir des critères de nature journalistique. Vous tachez d'ailleurs de recréer des indicateurs pour la qualité journalistique. On ne peut pas demander aux quotidiens la même logique de pluralisme, puisque c'est l'ensemble de l'écosystème qui fait le pluralisme de la presse écrite. Ce n'est pas la même chose en radio-télévision, avec des logiques beaucoup plus monopolistiques. Selon des vieilles théories datant des années 1930/190, le média radio serait même plus influent et plus impactant que les autres. Qu'en est-il des réseaux sociaux ?

S'agissant des instruments de régulation, il est très bien de confier des responsabilités à des organismes comme la « CNIL » irlandaise. Mais quid des moyens effectifs pour assurer cette régulation ? Si je confie à la boutique du coin le devoir de distribuer l'équivalent de quatre supermarchés, elle en aura le droit mais elle ne saura pas le faire. C'est une de mes autres inquiétudes. Il est évidemment important que l'Union européenne se dote d'instruments d'État de droit et de protection de la liberté de la presse, qui lui manquaient singulièrement. Mais je me demande si l'on n'est pas dans l'incantatoire du droit, sans les moyens et la logique propres à chacun des médias. La télévision, la presse écrite et les réseaux sociaux peuvent-ils être régulés de la même manière ?

M. Christophe Deloire. - J'aurai plusieurs niveaux de réponse. Tout d'abord, je crois que le système de régulation en découpage par secteurs (presse écrite, radio/télévision etc.) a en partie vieilli. Il y a des convergences entre médias : la télévision est allée vers le texte, la presse écrite voudrait aller vers la vidéo. Il y a d'ailleurs des effets de bord importants. Pour être un titre de presse écrite, vous ne devez pas faire beaucoup de vidéos, alors même que c'est la vidéo aujourd'hui qui mène l'audience. Pour garder une logique de presse écrite, un site de journal ne peut ainsi pas aller vers ce qui fait l'objet de la demande la plus forte. Nous sommes dans un moment de désintermédiation et d'explosion de la distinction des types de médias. Notre régulation repose sur une logique qui est en train de disparaître. Il faudra donc sans doute la faire évoluer sous cet angle.

Par ailleurs, je vous rejoins totalement sur la question des moyens. En ce moment l'OFCOM, qui est l'ARCOM britannique, est en train de recruter 300 personnes pour se préparer à traiter de ces questions, qui n'ont pas encore officiellement été confiées à cette autorité par le Parlement britannique. Aujourd'hui, la France ne met pas les mêmes moyens à disposition. Je suis d'accord pour qu'il y ait un organe de régulation ayant une vue relativement large. Mais cet organe de régulation doit dans ce cas être suffisamment fort. Face à ces grands fauves numérique, il faut avoir une capacité forte de régulation, comme il le faudrait aujourd'hui face à des acteurs en télévision qui méprisent les principes démocratiques et notamment celui du pluralisme interne, principe de régulation de l'audiovisuel à la différence du principe de pluralisme externe pour la presse écrite. Je fais évidemment référence au dossier Bolloré.

La loi impose à l'ARCOM de mettre en oeuvre trois principes : honnêteté de l'information, pluralisme de l'information et indépendance. De notre point de vue, l'ARCOM ne s'attache pas assez à donner du contenu à ces trois principes et à les imposer. Elle ne le fait pas au nom d'une logique consistant à considérer le champ de la communication comme un grand champ où l'important est que tout le monde puisse s'exprimer également, chacun trouvant la vérité en regardant l'ensemble. Cela ne nous semble pas pertinent du point de vue de l'organisation d'un système médiatique.

Disposer d'organes de régulation trop sectorisées, les uns à côté des autres, ne nous semble pas un bon moyen pour répondre aux questions très vastes qui se posent aujourd'hui. Par ailleurs, il nous semble la législation ne permettra jamais de suivre les évolutions. Il faut donc déléguer à des organes indépendants - le DSA pose d'ailleurs question sur ce sujet, compte tenu des pouvoirs de la Commission européenne - le fait de pouvoir édicter des règles au fil de l'eau, sans attendre la prochaine législation qui interviendra dans vingt ans.

M. André Gattolin. - Cela suppose de contrôler ces organes indépendants.

M. Christophe Deloire. - Il faut toujours contrôler les contrôleurs !

M. André Gattolin. - Au Royaume-Uni, il y a une charte royale tous les dix ans et c'est le Parlement qui mène le bal. Ce n'est pas l'autorité indépendante qui s'autoévalue. C'est une différence dans la conception du contrôle démocratique.

M. Mickaël Vallet, président. - Nous vous remercions beaucoup pour vos éclairages sur toutes nos questions.

La réunion est close à 18 heures 20.

Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.