N° 831

SÉNAT

SESSION EXTRAORDINAIRE DE 2022-2023

Rapport remis à M. le Président du Sénat le 4 juillet 2023

Enregistré à la Présidence du Sénat le 4 juillet 2023

RAPPORT

FAIT

au nom de la commission d'enquête (1) sur l'utilisation du réseau social TikTok, son exploitation des données, sa stratégie d'influence,

Président
M. Mickaël VALLET,

Rapporteur
M. Claude MALHURET,

Sénateurs

Tome II - Comptes rendus

(1) Cette commission est composée de : M. Mickaël Vallet, président ; M. Claude Malhuret, rapporteur ; M. Stéphane Artano, Mme Toine Bourrat, MM. Thomas Dossus, André Gattolin, Loïc Hervé, Mmes Marie Mercier, Catherine Morin-Desailly, MM. Pierre Ouzoulias, Cédric Perrin, Mme Laurence Rossignol, vice-présidents ; Mmes Annick Billon, Céline Boulay-Espéronnier, Valérie Boyer, MM. Rémi Cardon, Daniel Gueret, Mmes Christine Lavarde, Sophie Primas.

COMPTES RENDUS DES AUDITIONS
DE LA COMMISSION D'ENQUÊTE
« LA TACTIQUE TIKTOK : OPACITÉ, ADDICTION
ET OMBRES CHINOISES

Audition de M. Marc Faddoul, chercheur en intelligence artificielle et directeur de Al Forensics, le 13 mars 2023

M. Mickaël Vallet, président. - Nous commençons nos travaux par l'audition de Marc Faddoul, chercheur en intelligence artificielle et directeur de l'association Al Forensics.

Vous avez notamment mené des recherches à l'université de Berkeley et au sein de Facebook AI. Vous êtes aussi directeur de Tracking Exposed, une organisation qui étudie l'influence des algorithmes des réseaux sociaux sur nos vies. Vous avez d'abord créé des algorithmes avant de mettre vos connaissances au service de ceux qui travaillent sur leur impact sur la société, notamment sur les plans politique et géopolitique.

Dans ce cadre, vous avez travaillé sur plusieurs réseaux sociaux dont TikTok, c'est pourquoi nous avons choisi de vous entendre aujourd'hui pour entrer directement dans le vif du sujet. Vous pourrez ainsi évoquer les caractéristiques de cet algorithme de TikTok ainsi que la manière dont, éventuellement, ce réseau social favorise certains types de désinformation. Vous aborderez également sans doute la question de la différenciation des contenus proposés par cette application selon les pays, et notamment se poser la question de la censure.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat. Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête. Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

M. Marc Faddoul prête serment.

M. Marc Faddoul, président de Al Forensics. - Je salue l'initiative de votre commission, elle arrive à point nommé.

Souvent, le débat sur les réseaux sociaux et l'influence qu'ils exercent sur le débat public se focalise sur la modération de contenu : on se demande quels posts ou vidéos sont retirés ou supprimés, quels utilisateurs sont bloqués ; c'est certes important, et la modération joue un rôle critique dans l'arbitrage des contenus, mais ce rôle est minimal au regard de l'influence des algorithmes de recommandation, qui font que des posts et vidéos vont être, ou non, présentés en priorité à des millions d'utilisateurs. La modération du contenu est donc la partie émergée de l'iceberg, quand la promotion et la rétrogradation algorithmiques - qu'on appelle parfois le shadow banning ont un impact bien plus important.

Les algorithmes sont vraiment les gardiens de l'information en ligne. C'est le cas, lorsque Google trie nos résultats de recherche, lorsque YouTube et Netflix personnalisent notre page d'accueil, lorsque Instagram ou Twitter font la « curation » de notre fil d'actualité, ou encore lorsque TikTok choisit les vidéos à nous présenter, avec le fameux feed « ForYou » qui est l'interface principale de l'application. Le rôle des algorithmes dans la distribution du contenu en ligne n'est pas nouveau, mais il s'est considérablement accru sur TikTok - ce qui a entrainé une prise de conscience de l'importance de l'algorithme et du fait qu'il est au centre de l'expérience utilisateur, tout en étant malheureusement opaque.

L'association Al Forensics a précisément pour mission de lever cette opacité : nous analysons ces systèmes de recommandation, pour s'assurer que les plateformes soient tenues responsables de leurs actions face à leurs utilisateurs, et devant la loi. Ces efforts de transparence ne sont pas faciles à mettre en place, d'abord parce que les données nécessaires à l'analyse ne sont pas disponibles, ou pas facilement.

La nouvelle législation européenne, le Digital Service Act (DSA) donne de l'espoir, grâce à des mesures qui vont obliger les plateformes à mettre en place des mécanismes de partage de données avec les chercheurs et la société civile. Il sera possible de réaliser des audits en coopération avec les plateformes, notamment via des Digital Service Coordinators (DSC), rôle qui sera sans doute joué par l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Nous mettons beaucoup d'espoir dans ces nouvelles procédures, dont les détails restent à déterminer. Cependant, leur cadre apparait déjà limité et elles ne remplaceront pas le besoin d'auditeurs collectant la donnée de manière indépendante, donc sans attendre l'autorisation des plateformes - ce besoin va rester nécessaire, ne serait-ce que pour garantir l'intégrité des données.

La plupart des critiques et suspicions envers TikTok peuvent concerner toutes les autres plateformes : l'opacité des algorithmes, le design addictif, la collecte intrusive de données personnelles à des fins de publicité ciblée, les biais introduits par les contenus polarisants et sensationnalistes. Les différences entre TikTok et les autres plateformes sont minces en termes de design algorithmique et de collecte de données, hormis la fréquence de collecte des données qui est plus rapide sur TikTok en raison de la courte durée des vidéos, on y reviendra. Toutes ces entreprises ont en commun de placer au premier plan l'objectif de gain financier. On voit parfois de l'intention, là où il n'y a que de la vénalité, qui peut se mêler à de l'incompétence... En réalité, TikTok, comme les autres, cherche à faire de l'argent, et pas de la politique. Les dérives algorithmiques, telles que la promotion disproportionnée de contenu polarisant ou de désinformation, sont avant tout une conséquence du design algorithmique qui cherche à maximiser l'engagement : les contenus les plus provocateurs ayant tendance à générer plus de réactions d'approbation ou de rejet, et donc de commentaires, l'algorithme les met d'autant plus en avant qu'il vise lui-même à maintenir la présence de l'utilisateur sur la plateforme.

TikTok est une entreprise relativement « jeune », et d'après les informations que j'en ai de l'intérieur, elle reste débordée par sa propre croissance et n'investit pas suffisamment dans la modération et la sécurité de ses utilisateurs - son équipe Trust and Safety est particulièrement petite -, ceci pour conserver des marges élevées ; elle n'anticiperait donc pas suffisamment les problèmes, les équipes produits pousseraient les nouvelles fonctionnalités avant qu'elles ne soient bien testées et que leurs conséquences ne soient bien évaluées, tandis que la modération serait toujours insuffisante, et toujours faite sous la contrainte.

De fait, la modération coûte cher et provoque toujours plus de polémiques qu'elle n'apporte de revenus ; la qualité de la modération est presque toujours proportionnelle à la force et à l'influence de la pression régulatrice, d'où son importance. Et si la modération laisse encore à désirer aux États-Unis et en Europe, la situation est bien pire en Afrique ou au Moyen-Orient, où les risques de déstabilisations sont pourtant encore plus élevés.

Pour TikTok, comme pour les autres plateformes, l'appât du gain est la cause de de la plupart des maux. TikTok est donc plutôt un mauvais élève, mais pas fondamentalement différent des plateformes américaines. Les critiques que l'on peut adresser plus spécifiquement à TikTok tiennent surtout à l'origine chinoise de l'entreprise, et aux liens que cela suppose nécessairement avec le parti communiste chinois. Des documents ayant fuité en 2020 montrent qu'à un moment donné, les modérateurs de la plateforme avaient pour instruction de censurer certains thèmes politiques sensibles pour le parti communiste chinois, par exemple toute référence aux manifestations de la place Tian'anmen. Le régime de Xi Jinping a démontré à plusieurs reprises qu'il contrôlait l'écosystème technologique d'une main de fer. On se souvient notamment de la disparition durant plusieurs mois de Jack Ma, le fondateur d'AliBaba, qui sortait un peu trop des rangs sur certaines de ses positions. Le fait que TikTok, parce qu'elle est une entreprise chinoise, doive répondre aux demandes d'un gouvernement autoritaire, constitue une distinction importante ; mais les mécanismes de dépendance à la plateforme sont similaires à ceux des plateformes américaines.

C'est pourquoi, je recommande que les exigences de transparence et les réponses en termes de régulation vaillent pour toutes les plateformes, plutôt que de viser TikTok en particulier. Depuis son rachat par Elon Musk, par exemple, Twitter montre plus de signes de manipulation algorithmique intentionnelle et de risque d'influence et d'ingérence politique que TikTok.

Je félicite votre commission de prendre au sérieux la question de TikTok, et de notre dépendance technologique. Nous devons défendre notre souveraineté digitale de manière systématique, et en continuant à nous appuyer sur les institutions européennes, où la régulation des technologies a été un réel succès ces dernières années, car l'Union Européenne a été en mesure d'imposer ses standards dans l'industrie à l'échelle mondiale.

M. Claude Malhuret, rapporteur. - Merci pour votre concision. J'ai beaucoup de questions et je ne vous les poserai pas toutes d'emblée, pour laisser de l'espace à chacun des membres de la commission.

Vous dites que le DSA marque une avancée, c'est vrai en particulier avec l'installation de Digital services Coordinators (DSC), mais qu'il faut aller plus loin : quelles recommandations feriez-vous pour avancer, sur la question qui nous réunit ?

Savez-vous, ensuite, quelle a été la réponse du président de ByteDance Singapour aux remarques assez « cuisantes » des quatre commissaires européens sur les manques de modération et sur l'opacité de l'algorithme utilisé par TikTok ? Des délais lui ont-ils été fixés pour y remédier ?

Connaissez-vous quels sont les contenus amplifiés ou cachés par les « pousseurs », c'est-à-dire par des opérations humaines volontaires, et quelle est leur part par rapport à l'algorithme dans la promotion de contenus ou la censure ?

Enfin, le Sénat avait voté, contre l'avis du Gouvernement, mon amendement à la loi du 24 août 2021 confortant le respect des principes de la République, pour faire de l'hébergeur un éditeur de contenu dès lors qu'il met en place du contenu à partir d'algorithmes et qu'il imprime une ligne éditoriale à sa plateforme : que pensez-vous de cette piste, que l'Assemblée nationale a écartée ?

M. Marc Faddoul. - Le DSA fait référence à la modération de contenus, beaucoup moins aux recommandations algorithmiques, sauf pour demander aux plateformes d'évaluer les risques systémiques pour la société de ces recommandations. Le DSA demande ensuite aux plateformes de mettre en place des interfaces de données, ouvrant un accès aux chercheurs à certaines conditions, mais sans préciser quelles données devront être accessibles, le texte n'est pas clair sur les données qui seront effectivement mises à disposition. Il y a actuellement une discussion au sein de la Commission européenne sur les actes délégués, qui vont préciser l'application de ces articles. Les plateformes ont été invitées à participer à un groupe de travail sur le code de bonnes pratiques contre la désinformation, où seront écrites les règles qui, si elles sont respectées, indiqueront que le DSA est respecté. Ces éléments précis restent à définir et mon association se bat sur plusieurs points, en particulier pour définir ce que nous appelons le reach, c'est-à-dire la quantité et la qualité des utilisateurs qui peuvent être touchés par un certain contenu - il faut pouvoir savoir directement quelles personnes sont touchées par des contenus qui procèdent d'une ingérence politique étrangère ou qui désinforment et quelles sont leurs caractéristiques. Ces éléments sont encore flous, ils ne sont pas fixés par le Règlement, et les plateformes se défendent âprement, pour limiter leurs réponses aux demandes de la société civile.

Ne connaissant pas précisément les relations entre la Commission européenne et la direction de TikTok, je préfère ne pas répondre à votre question sur l'échange qu'elles ont eu récemment.

S'agissant du contenu qui est « poussé » par une intervention humaine sur la plateforme, nous savons que cela existe mais nous n'en connaissons pas l'échelle. Une fuite récente d'un document interne de TikTok évoque une proportion de 1 à 2 % de vues faites sur des vidéos manuellement amplifiées - l'entreprise parle de « hitting » -, pour mettre en avant des contenus jugés valorisants pour la plateforme et influencer « la culture » de l'algorithme, c'est considérable. Nous n'avons pas de preuve que cela concerne du contenu politique, mais la fonctionnalité existe. Ce qui est inquiétant aussi, c'est qu'un grand nombre d'employés pourraient agir sur ce levier, alors qu'ils peuvent être eux-mêmes influencés de l'extérieur.

La censure est difficile à évaluer de l'extérieur, d'autant plus qu'il faut y intégrer l'incidence de l'algorithme de recommandation : la modération écarte du contenu puis l'algorithme de recommandation en tient compte et il écarte à son tour des contenus similaires. Un effet de second ordre de rétrogradation algorithmique, que l'on appelle shadow banning, peut se produire. Cette tendance crée une « zone grise » de contenus qui ne sont pas illégaux mais ont tendance à moins sortir dans les résultats algorithmiques, un phénomène que dénoncent notamment les associations de la communauté LGBT, qui montrent que leurs contenus sont moins recommandés, probablement parce qu'ils emploient des mots similaires à ceux utilisés dans des contenus à caractère sexuel qui sont plus retirés. C'est une forme de censure par similarité.

Enfin, je suis absolument d'accord avec vous sur le fait qu'une plateforme devient un éditeur : l'algorithme de YouTube, par exemple, a plus de pouvoir éditorial sur la circulation d'information que sans doute les grands journaux américains ou français. C'est d'autant plus vrai sur les questions politiques car les plateformes, en réponse au fait qu'elles promouvraient des informations de faible qualité, amplifient les sources dites d'autorité, c'est-à-dire des journaux et médias reconnus comme crédibles, qui ont eux-mêmes une ligne éditoriale. Même le choix des thèmes qui reçoivent ce traitement d'informations présélectionnées ou préfiltrées constitue une édition. Cette distinction est essentielle puisque les plateformes sont protégées aux États-Unis par la section 230 - le Communications Decency Act (CDA) 230 -, qui les exonère de toute responsabilité sur le contenu posté par les utilisateurs sur leur plateforme.

Dans notre étude sur les plateformes pendant l'élection présidentielle française, nous avons comparé les stratégies de TikTok et YouTube. Alors que YouTube mettait en avant beaucoup d'informations dite d'autorité, c'est-à-dire de grands médias reconnus, TikTok promouvait davantage du contenu provenant d'utilisateurs.

M. Mickaël Vallet, président. - Vous dites que d'autres plateformes sont tout aussi intrusives que TikTok, mais qu'on peut lui adresser quand même des reproches spécifiques : lesquels ?

J'ai lu aussi que TikTok était plus addictif parce que les vidéos y défilent plus vite, ce qui multiplie les interactions avec l'utilisateur qui donne plus rapidement des informations sur lui ; qu'est-ce qui fait que cet algorithme est plus puissant et mieux formaté ? Et pourquoi les autres plateformes n'ont-elles pas eu l'idée avant ?

Enfin, pouvez-vous nous en dire plus sur la « cyber-balkanisation » de l'internet : est-ce un fantasme, ou une réalité - et quelles chances a-t-on de mieux connaître, comme vous le proposez, qui subit de fausses informations ?

M. Marc Faddoul. - Effectivement, le design de l'expérience utilisateur de TikTok est centré sur un algorithme de recommandation qui travaille sur un fil d'une seule vidéo à la fois. Sur le premier fil de Facebook, l'algorithme de recommandation proposait cinq ou six posts associés à la recherche, ce qui donnait une certaine liberté de choix à l'utilisateur. Le passage de l'écran d'ordinateur au mobile a réduit la quantité de posts proposés. Par ailleurs les plateformes ont augmenté la taille des posts, ce qui en a diminué le nombre : l'algorithme est devenu de plus en plus « paternaliste » en décidant ce que l'utilisateur va regarder. TikTok va encore plus loin, en ne proposant qu'une seule vidéo à la fois. Ce design a deux conséquences : il diminue la charge cognitive pour l'utilisateur, il n'y a plus qu'à suivre ou à rejeter la proposition, et il fournit à l'algorithme des données d'entrainement bien supérieures à la fois en nombre et en qualité. Chaque vidéo est évaluée toutes les cinq ou dix secondes en la regardant en entier ou en passant à la suivante, constituant une donnée d'entrainement pour savoir si la vidéo correspond à son intérêt ou pas ; là où YouTube collectait une dizaine de points d'entraînement par heure, TikTok en collecte plusieurs centaines, voire un millier de points, par heure, la plateforme peut alors bien mieux cibler les intérêts de l'utilisateur. J'aime bien raconter cet exemple : après avoir téléchargé TikTok pour la première fois, l'algorithme a détecté mon intérêt pour l'algorithme de recommandation en environ d'une demi-heure, ceci parce que j'étais allé voir une vidéo où un créateur de contenu se plaignait d'être moins recommandé, puis les commentaires sur cette vidéo, je regarde une deuxième sur le sujet, ainsi que les commentaires. Tout est allé très vite pour que la plateforme détecte cet intérêt de niche par comparaison entre les vidéos. À l'échelle de plusieurs heures de visionnage, l'algorithme est capable dresser un profil d'intérêts et presque psychologique très précis de l'utilisateur.

Nous avons donc comme différences la prééminence de l'algorithme dans l'expérience utilisateur, la quantité de données fournies à la plateforme et également le modèle de viralité.

Alors qu'Instagram et Facebook ont un modèle porté sur le réseau d'amis et les profils qui ont été suivis intentionnellement par l'utilisateur, TikTok le met en relation avec des créateurs de contenus qu'il ne connait pas et qu'elle lui suggère à partir de ceux qu'elle lui a déjà suggérés et qu'il a suivis, c'est bien plus large et moins intentionnel.

Le dernier élément important est la composante musicale : à la base, TikTok est une plateforme de karaoké et de danse. Beaucoup de vidéos ont une chanson ce qui joue un rôle important dans la viralité, ce qui est lié à l'émotion qui accompagne la musique.

Mme Annick Billon. - On sait que TikTok est utilisé comme intermédiaire pour faire « basculer » les utilisateurs, pour les entrainer vers d'autres sites : savez-vous dans quelle proportion ?

On dit aussi que l'algorithme serait différencié selon les pays, c'est donc qu'il viserait d'autres objectifs : quels sont-ils, et quelles sont les différences ?

J'ai lu en début d'année que TikTok pourrait autoriser la diffusion de contenus pour adultes, cela fait écho aux travaux que nous avons conduits, à la Délégation aux droits des femmes, sur l'industrie de la pornographie - et je suis convaincue que si TikTok s'intéresse à ces contenus, c'est parce qu'il y a énormément d'argent à gagner. Pensez-vous que les tentatives de contrôler l'âge des utilisateurs qui accèdent à ces vidéos puissent aboutir ? À quelle échelle le faire, sachant que l'industrie pornographique est, elle, organisée à l'échelle internationale ?

M. Marc Faddoul. - Il y a un réel débat sur l'importance des bulles cognitives sur internet, des utilisateurs y entreraient sur des plateformes ouvertes, où ils ne feraient que passer pour s'enfermer ensuite dans des réseaux spécialisés. La littérature académique, qui concerne surtout les États-Unis, est assez nuancée sur le sujet : il semble que la fréquentation des réseaux sociaux donne accès à un environnement informationnel plus varié que le fait de suivre un seul média, par exemple une chaine de télévision elle-même très orientée - et il n'est pas établi que les gens soient plus isolés sur internet que dans la vie réelle. Cependant, les réseaux sociaux ont la capacité d'identifier des utilisateurs vulnérables sur des intérêts particuliers que l'on n'a pas hors ligne. Le phénomène d'enfermement dans des bulles cognitives et la radicalisation se concentrent à la marge de la population, sur certains utilisateurs plus vulnérables. Souvent cette radicalisation se passe en privé : l'utilisateur va être attiré dans la communauté à travers l'algorithme de recommandation, mais ce n'est pas cet algorithme qui va maintenir l'utilisateur dans cette bulle. Ce dernier va faire l'objet de messages directs et ensuite envoyé sur des réseaux cryptés comme Telegram. C'est bien pourquoi l'éducation aux médias est essentielle ; il y a de très bonnes associations qui font ça en France.

S'agissant de la « cyber-balkanisation », en effet l'algorithme est très sensible à la géolocalisation à deux niveaux : au GPS, qui lui fait diffuser du contenu très local, et à la nationalité, une notion qui est en fait difficile à définir sur internet. Nous avons comparé le contenu diffusé aux Russes et aux Ukrainiens depuis un an : suite à la loi russe sur la désinformation qui interdisait notamment l'utilisation du mot « guerre » pour parler de l'Ukraine, TikTok a décidé de modérer de manière grossière et de bannir tout contenu international pour les utilisateurs russes puisque l'essentiel des critiques vient de l'extérieur et qu'il y a plus d'autocensure en Russie. L'entreprise l'a fait de manière complètement opaque, sans même prévenir de cette nouvelle politique de modération. L'algorithme a donc ses spécificités nationales. Au passage, nous avons vérifié que ce tri était fait non pas en fonction de la seule adresse IP, mais aussi du lieu où le compte a été créé la première fois, démontrant que les plateformes choisissent les critères qui leur conviennent pour définir l'identité digitale des utilisateurs - il serait donc peut-être intéressant de préciser ce point dans la loi. Les règles de modération sont elles aussi adaptées selon les pays. En Thaïlande par exemple, où le crime de lèse-majesté existe toujours, la plateforme censure les contenus critiques envers la royauté. La guerre en Ukraine a porté la balkanisation d'internet à un niveau inédit, mais je crois que le mouvement va continuer, d'autant que de plus en plus de pays vont chercher à réguler ces plateformes, ce qui entraîne une fragmentation des contenus disponibles.

Sur les contenus pour adultes, il ne faut pas oublier que le succès de TikTok s'est construit sur un soft porn qui ne s'avoue pas comme tel, en mettant en avant des personnes très jeunes, souvent légèrement vêtues et attractives selon les critères de beauté conventionnels... D'ailleurs, le document interne que je vous ai cité, démontrant la censure de certains contenus politiques, demandait aussi de mettre en avant des gens beaux, et d'écarter ceux qui ne répondaient pas à ces critères ou qui n'avaient pas l'air aisés. Je précise que ce document date de 2019 et que, depuis, TikTok a déclaré que ces règles ne s'appliquaient plus.

Mme Annick Billon. - J'ai entendu dire que l'utilisation de l'application Waze faisait qu'on était encore plus géolocalisé par les plateformes : le confirmez-vous ?

M. Marc Faddoul. - Je n'ai pas connaissance de ce à quoi vous faites référence. Mais dès lors que vous autorisez Waze à accéder en permanence à votre GPS, vous êtes localisé en permanence...

M. Thomas Dossus. - Comment avez-vous suivi le conflit en Ukraine, à partir de l'invasion russe ? Les équipes de TikTok Russie sont-elles basées en Russie ? Comment les choses se passent concrètement ? Y a-t-il des consignes ? Sont-elles élaborées en coopération avec le parti communiste chinois ? Où les équipes qui « poussent » les tendances sont-elles localisées ? Y-a-t-il là encore des consignes venant de Chine ?

Comment, ensuite, le législateur peut-il légiférer de manière robuste sur les algorithmes ? Il semble que nous soyons toujours à la course derrière certaines dérives : peut-on les prévenir ? Vous appelez à des algorithmes qui seraient au service du bien commun, plutôt qu'au seul service économique des plateformes : pouvez-vous développer cette vision ?

M. Marc Faddoul. - La décision de modérer le contenu international en Russie a été une conséquence de la loi russe, soit une influence politique directe. Y a-t-il eu des tractations derrière des portes, entre les autorités politiques russes et TikTok ? Je n'en ai pas connaissance. En tout état de cause, je pense que la plateforme TikTok qui est encore en phase de croissance et a beaucoup de regards tournés vers elle, aurait vraiment beaucoup à perdre en cas d'interférence du parti communiste chinois sur les décisions de modération. Nous avons analysé l'affaire de la joueuse de tennis Peng Shuai, nous avons regardé les vidéos diffusées et il n'y a rien de clair qui établisse une censure. Cela dit, si Taïwan venait à être envahi par la Chine, peut-on espérer un comportement impartial de TikTok ? Je ne le crois pas, son comportement dépend des risques et de ses intérêts, donc aussi de l'importance du sujet pour le pouvoir chinois.

Comment légiférer de manière robuste ? La législation se focalise surtout sur la transparence ; le DSA demande aux plateformes d'évaluer le risque systémique sur la société, en termes d'addiction et de promotion de contenus polarisants : ce n'est pas suffisant pour promouvoir des alternatives. Comment promouvoir une forme de souveraineté algorithmique ? Dans l'idéal, on pourrait obliger une interopérabilité qui permettrait à des tiers de fournir des systèmes de recommandation qui fonctionneraient sur les plateformes, de façon à ce que l'utilisateur puisse choisir un algorithme qui lui convienne, c'est-à-dire un algorithme qui apporte de l'information intéressante sur des sujets choisis et avec la fréquence choisie, et non un algorithme qui cherche uniquement à le maintenir sur telle ou telle plateforme.

Mme Céline Boulay-Espéronnier. - Quelles sont les conditions générales d'utilisation (CGU) de TikTok ? Sont-elles aussi peu lisibles et peu accessibles que pour les autres réseaux ?

Comment cette application collecte-t-elle les données ?

M. Marc Faddoul. - Je vous avoue que je n'ai pas lu les CGU de TikTok et je ne dois pas être le seul, c'est une dimension du problème. Le DSA prévoit, je crois, d'obliger à les rendre plus lisibles. L'une des conditions qui est souvent repérée comme problématique est la condition d'âge de 13 ans, mais nous savons que cette condition n'est pas vérifiée ; TikTok évoque une reconnaissance faciale, je crois que c'est une très mauvaise idée.

En acceptant les CGU, on accepte que TikTok collecte nos données comportementales, notamment les données qui décrivent notre interaction avec le contenu. On autorise ainsi la plateforme à dresser un profil psychologique et d'intérêts à notre sujet et à l'utiliser à des fins commerciales, pour faire de la publicité ciblée, ce qui est essentiel dans son modèle économique. Cette façon de faire n'est pas différente des autres plateformes.

Au sujet du modèle économique, je souligne que TikTok est la plateforme où les dons directs aux créateurs de contenus sont les plus importants, ils atteindraient 1,5 milliards de dollars l'an passé, soit plus que toutes les autres plateformes réunies. C'est très attractif pour les créateurs de contenu, sachant que les plateformes sont en concurrence pour les attirer. Aujourd'hui les gains essentiels des influenceurs se font désormais moins sur les revenus publicitaires que par le sponsoring, officiel ou non officiel, et les dons des utilisateurs. Le sponsoring non officiel est d'ailleurs difficile à contrôler et présente le plus de risque pour l'ingérence politique : ce n'est peut-être pas à dire, mais dans une campagne politique aujourd'hui, l'un des leviers efficaces consiste à payer des influenceurs sans le dire...

Mme Laurence Rossignol. - Vous parlez d'un sponsoring officiel et d'un sponsoring non officiel : quelle est la différence ?

M. Marc Faddoul. - Il y a un sponsoring déclaré, affiché comme tel, et un sponsoring qui ne s'affiche pas, dissimulé.

Mme Toine Bourrat. - TikTok est, avec Facebook, l'un des seuls réseaux sociaux à avoir dévoilé une part des secrets de son algorithme, qui repose sur les recommandations. Malgré cette « transparence » qui tient lieu d'affichage publicitaire ou de tentative de blanchiment de ses activités, nous savons qu'un algorithme reste opaque. Peut-on néanmoins, lorsqu'on n'en n'est pas le concepteur, en cerner tous les « secrets » ? Sommes-nous capables d'en cerner toutes les conséquences ou tous les effets néfastes ?

La lanceuse d'alerte Frances Haugen, lors de son audition devant le Sénat, avait pris l'exemple de Facebook dont l'algorithme avait permis de suggérer des contenus néonazis à des utilisateurs allemands, du fait de l'absence d'entrave légale à l'intérêt commercial de l'outil. Elle notait que le DSA, qui entend responsabiliser les plateformes, pourrait limiter ces externalités négatives. Si je vous ai bien compris, le DSA ne pourra pas inciter les réseaux sociaux à restreindre cet algorithme. Pensez-vous que les mesures de ce nouveau bouclier européen ne seront pas suffisamment efficaces pour éviter ce type de contenu ?

M. Marc Faddoul. - En réalité, même le concepteur de l'algorithme ne peut prédire avec précision le comportement de l'algorithme, ni mesurer l'impact qu'il aura sur la société. La conception de l'algorithme se fait en l'absence de données, c'est une fois mis en place qu'il va évoluer en interaction avec l'utilisateur et la création de données par l'utilisateur, et le résultat ne peut pas être vraiment anticipé. Du reste, pour faire un audit algorithmique, notre objectif n'est pas, par du Reverse Engineering, d'atteindre le code source de l'algorithme, mais plus d'observer son comportement. La plateforme sait dire comment l'algorithme a été conçu, pas comment il se comporte précisément, car cela demande un investissement important pour le savoir - et la plateforme se concentre surtout sur le fait de savoir si l'algorithme crée et maintient de l'engagement.

Les contenus problématiques ou racistes sont déjà interdits par les CGU et généralement par la loi. Face à la loi très restrictive que l'Allemagne a mis en place en 2017, la Netzwerkdurchetzungsgesetz (NetzDG) qui les a obligées à réagir dans un délai très restreint, les plateformes, pour se protéger, ont eu tendance à sur-modérer les contenus, ce qui est problématique. Cela dit, les contenus racistes restent un problème, ils sont la conséquence de communautés présentes sur les réseaux, dont les contenus sont amplifiés parce qu'ils sont polarisants, et parce que ces communautés sont très actives, car elles veulent se faire entendre et postent donc beaucoup de contenus.

M. Pierre Ouzoulias. - Merci pour la qualité de vos réponses. La loi pour une République numérique a tenté, dès 2016, de réguler les algorithmes, avec des outils nouveaux - en particulier l'article L. 111-7 du code de la consommation. Or, ces outils sont très difficiles à utiliser dès lors que le régulateur, l'Arcom, n'accède pas à l'algorithme, elle essaye de déduire de l'utilisation des plateformes le fonctionnement des algorithmes. Quelle est donc la capacité des États à contraindre les plateformes, qui sont partout et nulle part, à respecter certaines règles ? Vous évoquez l'interopérabilité, comment la mettre en place ?

M. Marc Faddoul. - Je ne connais pas la législation française sur ce point, mais je sais que le défaut d'application est également l'une des grandes craintes de ceux qui élaborent le DSA, car à quoi bon définir des principes et mettre en place des outils, si l'on ne peut pas les utiliser ?

L'interopérabilité est une possibilité qui semblerait plus facile à imposer, mais ses implications techniques seraient importantes et ouvriraient un très large champ au lobbying pour prétendre qu'elle est impossible. Or, avant son rachat par Elon Musk, Twitter l'avait envisagée et avait entrepris des recherches dans ce sens avec le projet Blue Sky, signe que l'interopérabilité est envisageable - le problème, c'est qu'elle n'est pas du tout dans l'intérêt des plateformes, qui veulent garder un algorithme fermé pour maintenir les utilisateurs chez elles ; on voit d'ailleurs que les navigateurs intégrés vous reconduisent sur la plateforme quand vous en consultez un lien externe...

Mme Laurence Rossignol. - Je ne connais pas bien TikTok et suis plus familière de Twitter et de Facebook. Est-ce que l'on repère sur TikTok autant d'usines à trolls et de bots que sur les autres plateformes ?

M. Marc Faddoul. - Sans doute. Il y en a sur toutes les plateformes, et il n'y a aucune raison de penser que TikTok soit plus efficace pour lutter contre ce phénomène. Les résultats, en la matière, dépendent directement des investissements dans les équipes de modération et dans les systèmes de détection, il y a toutes les raisons de penser que ces bots soient nombreux sur TikTok. Une nouvelle tendance voit arriver des contenus créés par intelligence artificielle, y compris en vidéo, ce qui va faciliter les campagnes de trolling. C'est un problème supplémentaire pour lutter contre la désinformation.

M. Thomas Dossus. - Les contenus polarisants sont plus visibles, par exemple ceux de l'extrême-droite pendant la campagne présidentielle : est-ce le fait que les milieux d'extrême-droite maitriseraient particulièrement bien les réseaux sociaux ou le fait de la plateforme qui met en avant les contenus polarisants ?

M. Marc Faddoul. - Les deux : il y a une bonne maîtrise des codes des réseaux sociaux par certains partis qui ont peut-être moins de scrupules à utiliser de fausses informations ou des informations déformées qui retiennent plus l'attention de l'utilisateur. Notre étude sur l'élection présidentielle française montre qu'Éric Zemmour est représenté de manière disproportionnée dans les recommandations algorithmiques, mais c'est aussi que ce candidat surfait alors sur une vague de sur-représentation médiatique. On a même vu des utilisateurs utiliser le hashtag Zemmour pour des messages qui portaient sur tout autre chose, juste pour bénéficier de sa notoriété.

Je donne ce chiffre au passage : l'estimation basse est de 1 milliard de vidéos à contenu politique vues pendant la campagne présidentielle sur TikTok, on est donc loin de la simple plateforme de divertissement, telle que se présente TikTok pour justifier qu'elle investit peu dans la modération de contenu... TikTok est bien un vecteur de dialogue politique, même si elle s'en défend.

M. Claude Malhuret, rapporteur. - Vous estimez que l'idéal, ce serait d'obtenir la transparence des algorithmes et l'interopérabilité, au moins pour les DSC, ce qui placerait les plateformes davantage au service des utilisateurs. On dit que Douyin serait différente de TikTok, plus culturelle et éducative, moins addictive, avec une limite d'usage de 40 minutes sur la plateforme, une idée qui pourrait être reprise en Europe : est-ce le cas, Douyin traite-t-elle vraiment ses utilisateurs avec plus de respect, ou bien n'est-ce là que du buzz et qu'une forme de propagande ?

Face aux nombreuses critiques, ensuite, TikTok, qui sent le vent du boulet, a annoncé implanter des serveurs en Europe, où elle a choisi de les concentrer en l'Irlande, et aux États-Unis, par un partenariat avec Oracle, ceci pour montrer que les données ne s'en vont pas en Chine. Pensez-vous que c'est un vrai changement de politique qui apporte une solution, ou bien ce n'est qu'une façon de noyer le poisson, la plateforme ayant toujours la possibilité, depuis la Chine, de faire ce qu'elle veut des données ?

M. Marc Faddoul. - Il y a eu ce « narratif » sur le fait que Douyin serait une réplique de TikTok pour le marché chinois mais avec une librairie de contenus différents, alors qu'en réalité, les deux applications sont développées par les mêmes équipes : les mêmes ingénieurs travaillent sur les algorithmes de TikTok et Douyin. Cela dit, la politique de modération et éditoriale est nécessairement différente sur Douyin, puisque son contenu est apolitique et la censure assumée. Je n'utilise pas Douyin, mais je crois que la présentation que vous en dites n'est qu'un « narratif ». De ce que j'en sais, Douyin est une plateforme de distraction où des influenceurs promeuvent une culture capitaliste et beaucoup de produits. En revanche, il y a une réelle volonté du parti communiste chinois de limiter l'influence des plateformes sur les enfants, il y a une politique de limitation du temps d'écran face à l'addiction aux jeux et aux plateformes - et nous pourrions nous en inspirer.

Sur l'accès aux données, je préfère ne pas m'avancer car il est très difficile de savoir ce qui se passe précisément une fois les données stockées. Même si les données des utilisateurs américains sont stockées aux États-Unis, il y a toujours un backup en Chine, notamment à Shanghai, et j'imagine mal une imperméabilité, ne serait-ce que parce que TikTok aura besoin des données d'utilisateurs pour continuer à entraîner son algorithme qui est développé en Chine, elle aura donc besoin de faire des requêtes à ces données ; et même si les données sont anonymisées, elles sont si précises et si spécifiques, qu'il devient possible de retrouver l'identité de l'utilisateur, via son profil d'intérêt, de comportement et son adresse IP. En un mot, je vois mal comment TikTok se passerait complètement d'un accès à ces données.

M. Mickaël Vallet, président. - Merci pour toutes ces informations et analyses.

Audition de M. Benoît Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom), le 16 mars 2023

M. Mickaël Vallet, président. - Nous avons le plaisir d'auditionner ce matin M. Benoît Loutrel, ancien directeur général de l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep), ancien directeur chargé des relations institutionnelles de Google France et aujourd'hui conseiller membre du collège de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

Autorité publique indépendante qui résulte de la fusion, le 1er janvier 2022, du Conseil supérieur audiovisuel (CSA) et de la Haute Autorité pour la diffusion des oeuvres et la protection des droits sur internet (Hadopi), l'Arcom est notamment compétente en matière de régulation des plateformes en ligne et des réseaux sociaux.

Ses compétences ont progressivement été renforcées par les lois récentes relatives à la protection de l'enfance et de l'adolescence, à la manipulation de l'information, à la lutte contre la diffusion de fausses informations et la haine en ligne : autant d'enjeux pour lesquels nous souhaiterions connaître les risques spécifiques pour les utilisateurs de TikTok.

Selon la presse, vous avez même reçu cette semaine le conseiller général de ByteDance à propos des critiques exprimées par l'Arcom sur la faible qualité du rapport sur la lutte contre la désinformation remis par TikTok l'an dernier : vous vous exprimerez sans doute sur ce point également.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, M. Benoît Loutrel prête serment.

M. Benoît Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique. - Depuis la loi de 2018 relative à la lutte contre la manipulation de l'information, l'Arcom s'est vu confier, en plus de ses missions de régulateur de l'audiovisuel, la mission de réguler les plateformes numériques de partage de contenus, dont le vif succès s'accompagne de certains débordements, qui suscitent des questions sur le fonctionnement de notre démocratie.

Nous avons dressé en novembre dernier un bilan de l'application de la loi sur la manipulation de l'information, montré les acquis de notre législation et ses limites, et épinglé la société TikTok.

Le législateur, en créant le devoir de coopération des grandes plateformes et en leur imposant de participer à la lutte contre la manipulation de l'information, a suscité une dynamique. Nous sommes mieux armés pour faire face aux risques informationnels ou d'interférences étrangères, notamment dans les processus électoraux. Nous avons ainsi pu préparer la dernière élection présidentielle, avec le Conseil constitutionnel et les plateformes, pour pouvoir répondre en cas de problème, mais la menace ne s'est pas avérée. Est-ce en raison du déclenchement de la guerre en Ukraine ? En tout cas, nous étions prêts. La désignation d'une autorité publique comme point de référence a facilité l'action des plateformes. Nous les avons préparées à la mise en place de la Commission nationale de contrôle de la campagne électorale en vue de l'élection présidentielle (CNCCEP), à travailler et à échanger avec le Conseil constitutionnel.

La loi exige que les plateformes s'engagent dans la lutte contre les manipulations de l'information, prennent des mesures proactives et, point crucial, les rendent transparentes, afin que tout le monde puisse en prendre connaissance et comprendre ce que font les plateformes. Il s'agit de renforcer la confiance. Dans ce cadre, chaque année, l'Arcom adresse un questionnaire aux opérateurs de plateformes en ligne. Pour la première fois, l'obligation s'appliquait à TikTok, parce qu'auparavant l'entreprise n'avait pas franchi les seuils qui la soumettaient à cette obligation. À sa décharge, c'était donc la première fois que la plateforme était soumise à cet exercice.

Nous avons reçu beaucoup de réponses incomplètes à nos questions de la part de l'ensemble des plateformes, mais les manques étaient beaucoup plus nombreux pour TikTok. C'est pour cette raison que nous avons choisi de les épingler publiquement. Notre rapport indique que la « déclaration est particulièrement imprécise avec peu d'informations relatives au service en France et aucun élément tangible permettant une évaluation des moyens mis en place ». Nous déplorons que le dispositif de signalement soit accessible mais peu visible - il est accessible via une icône en forme de flèche symbolisant le repartage du contenu.

L'entreprise a développé une politique de signalement des « médias contrôlés par un État », mais la mise en oeuvre de cette règle est sélective : si les chaînes ukrainiennes contrôlées par l'État ukrainien étaient étiquetées, le compte de China Global Television Network Europe (CGTN Europe), contrôlé par l'État chinois, n'était pas identifié comme tel.

TikTok n'a pas répondu pleinement à notre questionnaire. La société est jeune et semble être encore dans un processus de construction et de mise en oeuvre de sa politique de modération. Toutefois, ses imprécisions nous semblaient poser un problème, et c'est pour cela que nous les avons rendues publiques.

La transparence s'est avérée efficace, car l'entreprise est revenue vers nous très vite pour nous dire qu'elle avait corrigé son erreur, et qu'elle avait désormais étiqueté les chaînes de CGTN.

Les plateformes ont une activité de trust and safety, de confiance et de sécurité : il s'agit pour l'entreprise de veiller à l'intégrité du réseau, à l'absence de troubles sur la plateforme, à ce que les usagers ne soient pas en danger. Historiquement, les plateformes ont développé cette activité de manière volontaire, comme une forme d'engagement au titre de la responsabilité sociale et environnementale (RSE) de l'entreprise. TikTok n'a pas mis autant d'énergie à développer cette activité qu'elle n'en a mis pour assurer sa croissance commerciale.

L'exercice que nous avons mené en novembre a montré tout l'intérêt des lois françaises, comme leurs limites. Parmi ces dernières, on note que nous n'avons pas de capacité à exiger la transparence. Nos lois datent de 2018 en France, de 2019 en Allemagne (loi NetzDG sur la haine en ligne). La France a adopté une loi en 2020 visant à lutter contre les contenus haineux sur internet, qui a été partiellement censurée par le Conseil constitutionnel, mais qui a mis en place un observatoire des plateformes, qui a prouvé son utilité comme lieu de discussion avec toutes les parties prenantes, et un pôle national de lutte contre la haine en ligne.

Ces lois ont permis aux pouvoirs publics d'acquérir un savoir-faire, une capacité d'action institutionnelle, de créer une dynamique, et maintenant nous pouvons être plus ambitieux. Nous sommes maintenant en train de basculer dans une logique de préfiguration de la mise en oeuvre du règlement européen sur les services numériques (RSN) ou Digital Services Act (DSA), qui permettra d'aller beaucoup plus loin dans la responsabilisation des grandes plateformes.

L'activité de confiance et de sécurité va devenir une exigence légale, sous le contrôle des régulateurs et des pouvoirs publics. Le but est en fait de permettre à tout le monde de participer à l'exercice de responsabilisation des plateformes, car les problèmes posés par les réseaux sociaux, qu'il s'agisse de l'incitation à la haine en ligne, de la mise en danger des publics, des mineurs ou encore du développement des addictions concernent en fait tout le monde. La régulation telle qu'elle est conçue dans le cadre du RSN vise à permettre à chacun de se saisir de ces sujets. Il s'agit de pouvoir agir collectivement, mais aussi de maintenir la confiance.

Ces plateformes sont au coeur du fonctionnement de nos démocraties. Elles permettent d'étendre notre capacité à exercer notre liberté d'expression, et c'est ce qui fait aussi leur succès populaire ; mais ces nouvelles libertés appellent de nouvelles responsabilités. Le cadre européen renforce sensiblement la responsabilité des grandes plateformes numériques, vise à permettre la mobilisation des usagers et à les responsabiliser, car ces derniers font partie à la fois de la solution et du problème. C'est l'enjeu de la construction d'une citoyenneté numérique.

M. Claude Malhuret, rapporteur. - Nous vous avons envoyé un questionnaire détaillé, et nous poursuivrons nos échanges, le cas échéant, après la réunion pour approfondir la question.

Le rapport de l'Arcom du 18 novembre 2022 est critique à l'égard de toutes les plateformes, mais particulièrement à l'égard de TikTok. Vous avez indiqué que la société était jeune et n'avait pas encore l'expérience des autres plateformes, même si elle existe déjà depuis plusieurs années. Néanmoins, il est rare pour un régulateur de s'adresser à la presse, et les termes étaient assez durs : vous estimez que « le statu quo n'est pas possible » ; vous appelez TikTok à un « rattrapage accéléré pour faire face à ses obligations » actuelles et futures. Vos recommandations ont-elles été suivies d'effets ? Le 13 mars 2023, un entretien a eu lieu entre M. Erich Andersen, conseiller général de ByteDance, et M. Roch-Olivier Maistre, président de l'Arcom. Est-ce que des engagements supplémentaires ont été pris par les représentants de TikTok ? Si oui, lesquels ? Ou bien ont-ils fait part de difficultés à suivre vos recommandations ?

Vous avez évoqué les opérateurs contrôlés par des États étrangers : le problème se pose pour CGTN, mais aussi pour ByteDance, la maison mère de TikTok, car la loi chinoise oblige toutes les sociétés à coopérer avec les services de renseignement chinois. La direction de ByteDance comporte une cellule du parti communiste chinois. Ces éléments semblent caractériser le contrôle d'une société par un État. Est-ce que l'Arcom considère que TikTok est une personne morale contrôlée, au sens de l'article L. 233-3 du code de commerce, par un État étranger ou placée sous l'influence de cet État ?

L'Arcom sera-t-elle le Digital Services Coordinator (DSC), ou coordinateur pour les services numériques (CSN), pour la France dans le cadre du règlement sur les services numériques (RSN) qui prévoit leur mise en place dans chaque pays européen ? La décision est-elle prise ou non ?

L'Arcom est-elle satisfaite des mesures mises en oeuvre par le réseau social TikTok pour vérifier l'âge de ses utilisateurs ? Ce sujet intéresse particulièrement certains de nos sénateurs et sénatrices. Les utilisateurs doivent être âgés d'au moins 13 ans. Or il semble que nombre d'entre eux sont des enfants d'âge bien inférieur à 13 ans. Des moyens de vérifier la politique de TikTok existent-ils ? Et celle-ci vous paraît-elle suffisante en la matière ? Dans le cas contraire, quelles recommandations leur avez-vous adressées ?

De la même façon, l'Arcom est-elle satisfaite des mesures prises par le réseau TikTok pour limiter le temps d'utilisation ? Ce dernier est drastiquement limité en Chine, puisque l'utilisateur y est déconnecté au bout de quarante minutes, ce qui montre sans doute la méfiance de la Chine à l'égard de l'addiction ou d'autres problèmes que l'application peut causer pour ses utilisateurs. Les représentants du réseau ont annoncé qu'ils appuieraient cette politique en Europe, notamment en France, mais de façon bien plus modérée. Ainsi, les utilisateurs ne seront pas directement déconnectés, mais simplement avertis au bout d'une heure d'utilisation. À votre connaissance, ce système a-t-il été mis en place ? Ou, comme souvent de la part des plateformes, est-ce une annonce qui sera mise en oeuvre le jour où on le voudra ?

Enfin, s'agissant d'un important sujet d'actualité, que pensez-vous des interdictions, émises à destination de leurs fonctionnaires par la Commission européenne et le Parlement européen à l'instar de nombreux gouvernements, d'utiliser l'application TikTok sur leur téléphone professionnel et de fortement déconseiller son usage sur leur téléphone personnel ? La raison exacte de ces interdictions n'a pas été indiquée, seuls des transferts de données ont été vaguement évoqués. J'imagine qu'il s'agissait d'éviter un incident diplomatique avec certains gouvernements extra-européens. Mais il s'agit d'une véritable boite de Pandore : si la Commission européenne se pose la question des transferts de données, celle-ci concerne l'ensemble des gouvernements européens, et notamment le gouvernement et l'État français. Quelles conclusions en tirez-vous ?

Que pensez-vous du projet Clover récemment annoncé par les représentants de TikTok en Europe ? Celui-ci consiste à localiser les centres de données sur le sol de l'Union européenne. Actuellement, si je ne me trompe pas, ce n'est pas le cas. Ceux-ci sont situés à Singapour et aux États-Unis. Cela vous paraît-il suffisant pour assurer la sécurité des données ? Pensez-vous que l'existence de backdoors, à savoir de portes dérobées, est toujours possible - ce qui est allégué par d'assez nombreux chercheurs en informatique - et que cette assurance paraît bien faible ?

La dernière question date de cette nuit et s'inscrit dans la saga du « US Government versus TikTok », si je puis dire. En effet, nous avons appris la décision du gouvernement américain de demander à ByteDance de vendre TikTok, étant donné les menaces de chantage évidentes qui pouvaient exister à l'égard des utilisateurs de la part d'un gouvernement non démocratique. J'aimerais que vous nous disiez ce que vous en pensez.

M. Benoît Loutrel. - Je me permettrai d'écarter les questions ayant trait à la protection des données et de la vie privée, champ sur lequel l'Arcom n'a pas de compétence. Nous n'avons pas ce mandat. Comme tous les services de l'État, nous suivrons les consignes gouvernementales en la matière s'il y en a.

TikTok a quatre ou cinq ans d'expérience. Nous les avons épinglés. Nous nous battons avec toutes les plateformes, et TikTok, la première, pour leur faire comprendre qu'elles doivent répondre publiquement à nos questions et ne pas venir nous voir pour le faire. Il ne s'agit pas de nous rassurer, mais que tout le monde soit convaincu de la réalité de ce qu'elles font.

À l'origine, en application de la loi de 2018, nous demandions aux plateformes de rédiger un rapport destiné à l'Arcom, qui ensuite faisait un rapport de synthèse. Pour la première fois, nous leur avons demandé de rédiger des rapports destinés aux Français. Ceux-ci ont été rendus publics dès leur réception. Ils ont fait l'objet de critiques dans les médias. Facebook, qui avait été critiqué par un média, est revenu vers nous. Nous leur avons expliqué que c'était le but, afin que leurs actions soient jugées collectivement et pas uniquement par le régulateur, car nos moyens sont dérisoires au regard de la puissance de ces plateformes et de la multiplicité des sujets.

Lors de cette réunion de lundi soir, à laquelle assistaient le directeur juridique monde de TikTok et d'autres représentants de la plateforme, Roch-Olivier Maistre et moi-même, les représentants de TikTok nous ont dit qu'ils travaillaient à la résolution des problèmes que nous leur avions signalés. Nous leur avons indiqué que leurs réponses devaient être rendues publiques. Nous veillons soigneusement à ne pas nous enfermer dans un dialogue « portes fermées » avec ces plateformes.

L'enjeu est de rendre la gestion de ces plateformes plus rigoureuse et de préserver la confiance dans nos espaces informationnels. Nous devons réussir collectivement à nous convaincre qu'elles sont plus responsables. Nous repoussons leurs tentatives d'information directe. Nous voulons collectivement en savoir plus et pas juste l'Arcom, afin de pouvoir collectivement évaluer leurs activités et obtenir ensuite des réajustements lorsque ce n'est pas satisfaisant. Ces sujets sont trop importants.

M. Mickaël Vallet, président. - Un parallèle peut-il être établi avec les recommandations de certains grands acteurs et des services étatiques, en matière de cybersécurité, sur le partage des informations ? Ainsi, en cas d'attaque subie, il n'est pas utile de le cacher, mais au contraire il est nécessaire de partager ce qui s'est passé, afin de résoudre collectivement le problème et ne pas être « en silo ». Est-ce la même logique en matière de contrôle de la qualité de l'information ?

M. Benoît Loutrel. - La logique est identique, mais elle est poussée encore plus loin. En effet, il existe une vérité scientifique de la sécurité, alors qu'en matière d'information, aucun ministère de la vérité n'existe. Il s'agit de renforcer la confiance de tous, de veiller à ce que chacun puisse se forger son opinion et de rassembler autour de cette démarche collective en décentralisant la régulation. Comme en matière de cybersécurité, il existe une question de mobilisation collective afin de ne pas être seul pour résoudre ces difficultés. Comment répondre à la puissance de la globalité des plateformes ? Cette question taraude tout le monde aussi bien en France, en Europe qu'aux États-Unis. La réponse est : avec la puissance de la démocratie, en mobilisant selon une démarche horizontale et en permettant à tous de participer à cet exercice.

La première audition de cette commission d'enquête avec M. Marc Faddoul était extrêmement importante pour nous. En effet, l'enjeu est de mobiliser le monde académique. Par exemple, comment régule-t-on la presse ? La loi de 1881 est en vigueur et est suivie de très peu d'interventions du juge ensuite. Pourtant, cette loi porte une obligation de transparence : liberté de la presse, mais exigence de procéder à un dépôt légal ; chacun peut lire la presse.

M. André Gattolin. - Le directeur de la publication est responsable.

M. Benoît Loutrel. - Oui, mais cela n'arrête pas certains médias complotistes. Ainsi M. Prigojine construit de fausses informations en créant un site web et la responsabilité de directeur de la publication ne suffit pas à l'arrêter.

En réalité, une autre forme de régulation est fondée sur la transparence. Ainsi, tous les médias se critiquent et se surveillent entre eux ; toutes les universités françaises ont un département de sciences de l'information, de sciences politiques ou de sciences sociales analysant le fonctionnement de l'écosystème médiatique, ce qui engendre des cordes de rappel. C'est ce que nous devons recréer.

Actuellement, il existe une asymétrie d'information bien trop forte par rapport à ces plateformes sur la réalité de ce qu'elles font. Cette transparence, facile à exiger des « médias éditorialisés », est très dure à construire dans le cas de « médias algorithmiques », car ils traitent l'information à grande échelle et en individualisant le contenu. Ainsi, je peux consulter mon compte TikTok, mais cela ne me dit pas ce qui figure sur le vôtre, car ce que je vois est le résultat d'une série de traitements algorithmiques individualisés à partir des informations qu'ils détiennent sur moi. Si nous voulons comprendre ce que les plateformes font, nous devons comprendre comment leurs algorithmes sculptent l'information. Ainsi, selon une version optimiste de la situation, leurs traitements de l'information pourraient par exemple mettre en avant les contenus renforçant la prise de conscience de la nécessité de gérer la transition écologique. La version négative est qu'ils peuvent faire l'inverse. Nous devons détruire cette asymétrie d'information.

Grâce au règlement européen sur les services numériques (RSN), nous allons pouvoir exiger une « transparence sortante », c'est-à-dire révéler une information en leur possession concernant l'intention mise dans leurs algorithmes, mais aussi une « transparence entrante », où de l'extérieur nous pourrons révéler des informations qu'ils n'ont pas - leurs algorithmes ont-ils des effets non intentionnels ? - ou des éléments qu'ils essaient de nous cacher.

Les travaux de Marc Faddoul ont fourni un exemple formidable. Sans coopération de la plateforme, il a développé des travaux d'observation qui montrent ses comportements. Des biais algorithmiques peuvent être révélés : par exemple, des algorithmes qui poussent des contenus augmentant les problèmes d'obésité en France. Cela fait partie du modèle de régulation. C'est cela qu'il faut arriver à passer également à l'échelle, ce qui signifie que, dans toutes les universités, les départements de sciences politiques, de sciences sociales ou de sciences de l'information, dans le cadre de travaux interdisciplinaires, se saisissent de ces sujets pour révéler où sont les risques et évaluer collectivement la pertinence des réponses de ces plateformes. C'est l'enjeu le plus fort. C'est ce que nous martelons à TikTok. Ses représentants sont venus nous annoncer la mise en place d'un programme d'accès des chercheurs aux données. Nous leur avons demandé où était l'information sur ce sujet, si elle était rendue publique, quels étaient les laboratoires qui pouvaient s'en saisir, s'ils pourront mener des recherches de façon indépendante. En raison de leur importance, nous nous sommes saisis de ces sujets avant même l'adoption du RSN. L'Arcom a lancé une consultation publique sur l'accès des chercheurs aux données des grandes plateformes en juillet dernier, alors que le règlement n'était pas encore adopté, mais nous connaissions le contenu de l'accord politique. Tout un travail de mobilisation est à réaliser. Nous sommes en train d'armer une mécanique très puissante, car elle est décentralisée dans nos démocraties.

Vous me demandez s'il s'agit d'une personne morale contrôlée au sens du code du commerce. Nous n'avons pas répondu à la question en tant que tel, car, selon nous, elle n'a pas de conséquences dans le cadre juridique actuel. Cependant, que ce contrôle soit réel ou fantasmé, il a quasiment le même effet, puisqu'un effort supplémentaire de TikTok par rapport à d'autres plateformes sera nécessaire pour recréer la confiance légitime. Nous avons essayé de leur faire comprendre. Comme nous l'avons déclaré en conférence de presse, le statu quo est impossible. TikTok a un retard de jeunesse, un retard culturel - comme l'indiquait les représentants de l'entreprise lundi soir -, car elle n'est pas encore cotée en bourse et donc elle n'est pas habituée à ces obligations de transparence issues de la réglementation des marchés financiers. Au-delà de ces raisons, cette entreprise n'a pas connu la même naissance que les grandes plateformes américaines, qui ont subi une forte pression de la société civile américaine lors de leur création.

Le RSN, comme la démarche européenne, a été construit sur l'impossibilité de se satisfaire de la démarche américaine constituée d'un socle juridique léger - la section 230, équivalent de la directive européenne sur le e-commerce - et d'une autorégulation exercée sous la pression de la société civile. Celle-ci a permis d'avoir un acquis énorme qui est absent pour TikTok. Ce régime européen qui vient d'être élaboré est encore plus nécessaire s'agissant de TikTok, afin de rattraper l'ensemble de ces retards de jeunesse et culturel. Cette suspicion peut éroder la confiance et justifie que la plateforme en fasse plus pour atteindre le niveau des plateformes comme Facebook, Twitter ou Instagram.

Sur la question portant sur l'identité du futur coordinateur de services numériques (CSN), ce choix sera formalisé au travers d'une loi votée par le Parlement et à l'initiative du Gouvernement. L'Arcom s'y prépare et est candidate. C'est le sens de l'ensemble des lois françaises votées depuis cinq ans. La France a été très engagée dans l'élaboration du RSN et l'Arcom se prépare à être le CSN. Dans le RSN, l'article 40 accorde un droit d'accès aux données des plateformes à des chercheurs qualifiés. Il s'agit d'une mécanique très puissante, qui sera compliquée à mettre en oeuvre, car elle devra être articulée avec le droit à la protection privée et avec le règlement général de la protection des données (RGPD). Depuis un an, nous travaillons avec la Commission nationale de l'informatique et des libertés (Cnil) à la mobilisation des équipes de recherche avec l'espoir que la France soit à l'avant-garde de la mise en oeuvre du RSN. Ce règlement sur les services numériques donnera une puissance bien plus forte et laisse de l'espace à l'engagement de chaque pays.

Toute une série d'inquiétudes, légitimes, apparaîtront au sujet des plateformes, en raison des enquêtes journalistiques ou des travaux de recherche médicale, ou sur la manipulation de l'information. Dans le cadre de la construction du RSN, c'est ce qu'on appelle un risque systémique. Le RSN identifie le risque systémique de manipulation de l'information. Pour les très grandes plateformes, comme TikTok, ce règlement exige qu'elles identifient leurs risques systémiques et qu'elles les rendent publiques, qu'elles élaborent des plans de réduction des risques, les rendent publiques et les soumettent à des audits pour vérifier leur mise en oeuvre. En outre, par le biais de l'accès des chercheurs aux données, elles doivent se soumettre à des évaluations indépendantes. Ce système est itératif. La dynamique du RSN est de construire une capacité d'adaptation aux problèmes du futur, justement pour ne pas courir après les problèmes et disposer de lois pouvant s'adapter. C'est pourquoi un réseau de régulateurs y a été introduit pour activer et utiliser cette boîte à outils.

Des exercices itératifs auront lieu. Les premiers seront décevants. Les risques auront été identifiés, la dynamique se lancera, les régulateurs s'engageront... Le terme de « coordinateur pour les services numériques » a été introduit afin de souligner que le régulateur veillera à la participation de tous à ces exercices et à la critique de ces efforts. Le but n'est pas d'imposer des sanctions, mais de modifier les comportements. La plateforme semble déjà sentir le vent du boulet européen et annonce qu'elle mettra en place des outils de réduction du temps d'écran. Nous avons les mêmes questions que vous : les annonces ne valent rien, il faut des éléments tangibles. Ces dynamiques positives commencent à se mettre en place. L'Arcom se prépare à cela.

Sur les situations américaine et européenne, je ne sais pas si elles sont comparables. Jusqu'à récemment, c'était le cas, au sens où l'Union européenne et les États-Unis avaient mis en place un régime juridique propice au développement des plateformes. Il s'agit de la directive sur le e-commerce, avec son régime de responsabilité limitée à raison des contenus, et de son équivalent américain, la section 230. Cependant, les deux continents divergent s'agissant de la dynamique politique. La dynamique politique aux États-Unis est bloquée sur la section 230 et tous les acteurs interrogés témoignent de l'impossibilité d'adopter une grande loi. En revanche, l'Europe a voté ce règlement sur les services numériques. Des efforts sont engagés depuis les pays d'Amérique du Nord pour nous aider à réussir la mise en oeuvre de ce règlement, car ils sont en train d'en percevoir le potentiel.

Une question n'a pas été posée à Marc Faddoul lundi. Il s'agit de celle portant sur le mode de financement de ses travaux. La réponse est qu'ils sont en partie financés par des fondations américaines. Un enjeu très important a trait aux moyens de réussir la mise en oeuvre du RSN. Une loi est d'abord nécessaire pour régler la partie institutionnelle en France. Il faudra également déterminer comment lancer des programmes de financements de la recherche publique, comment relancer des programmes multidisciplinaires dans toutes les universités françaises afin de se saisir de ces sujets. Beaucoup de sujets sont liés à nos usages du numérique, qu'il est nécessaire de mieux comprendre pour créer un nouveau sentiment de citoyenneté numérique des usagers et pour répondre aux nouvelles demandes issues de la découverte de nouveaux risques systémiques.

Actuellement, la question porte sur les moyens de multiplier les travaux mis par exemple en oeuvre par Marc Faddoul, le Médialab de Sciences Po à Paris, par les équipes de Lille que je rencontrerai dans une semaine, par celles de l'université Aix-Marseille... Ces travaux interdisciplinaires, qui croisent des recherches en santé publique, en sciences de l'information et en sociologie, devront être financés. Il faut stimuler et utiliser le potentiel de nos universités, où résident des jeunes et des cerveaux capables de s'approprier ces technologies numériques et d'intelligence artificielle.

Aujourd'hui, le règlement qui a été voté est très puissant. La question est de savoir à quelle vitesse les institutions seront construites et dotées d'hommes et de femmes pour les mettre en oeuvre. Mobiliser les chercheurs est un enjeu opportuniste, car il permet de mobiliser également leurs étudiants, afin que tous s'engagent dans la mise en oeuvre de ce règlement.

M. Claude Malhuret, rapporteur. - Quelle est votre opinion sur les interdictions émises par la Commission européenne et le Parlement européen portant sur l'utilisation de l'application par les fonctionnaires sur leur téléphone ?

M. Benoît Loutrel. - Il s'agit d'un problème de sécurisation des données, sur lequel l'Arcom n'a pas de compétence. Nous attendons l'éventuelle décision des autorités publiques françaises que nous suivrons, comme tous les services de l'État.

M. Mickaël Vallet, président. - En matière de politique publique, on ne réinvente pas l'eau chaude. Des postures et des façons de faire s'agissant du contrôle d'acteurs économiques importants peuvent être un peu les mêmes. Vous avez évoqué au début de votre intervention la citoyenneté numérique, qui irrigue la question du contrôle, la prise de conscience collective, l'impératif démocratique de l'ensemble. On a mis en oeuvre et développé, secteur par secteur, l'écoparticipation à laquelle nous sommes désormais habitués lors de l'achat d'un appareil électroménager. Au regard des milliards investis par les grandes entreprises du numérique ou certaines plateformes comme Amazon dans la recherche et le développement - cela peut dépasser la quinzaine de milliards -, n'est-ce pas un vivier à utiliser ? Comme dans le cas de l'écoparticipation, ces entreprises pourraient participer elles-mêmes au financement de leur propre contrôle. Cela est-il valable pour l'ensemble des plateformes, autant que pour TikTok ?

M. Benoît Loutrel. - Le règlement sur les services numériques (RSN) prévoit que les plateformes doivent contribuer au financement de la fonction de régulation. La Commission européenne s'est lancée et préfinance son activité, c'est pourquoi son premier acte est de désigner les très grandes plateformes et d'amorcer le mécanisme financier qui les conduira à contribuer au financement de leur propre régulation.

Pour beaucoup, l'enjeu économique est phénoménal. L'autorégulation était insatisfaisante, car au sein même de ces entreprises, l'allocation des moyens entre, d'une part, le financement de la croissance et du développement, et d'autre part, celui de la stabilisation et de la gestion proactive des effets non intentionnels, était inadéquate. Les incitations n'étaient pas les bonnes. Le RSN vise à les forcer, en précisant que c'est une obligation légale. Le régime de sanctions qui peut être activé est très sévère en cas de défaut de moyens. Une lutte existe pour savoir dans quels secteurs les ingénieurs sont affectés au sein de ces sociétés, à savoir au développement du dernier produit ou à la mise à niveau du reporting de mesure des effets pervers. C'est le reproche que nous adressons à TikTok, lorsque nous lui indiquons que le statu quo n'est pas possible. Les moyens consacrés à la croissance de son activité l'ont été au détriment de celle des mécanismes de stabilisation.

M. Mickaël Vallet, président. - Vous avez déclaré ne pas avoir constaté de problèmes dans le cadre de l'élection présidentielle. Vous avez fait référence à la diversion des événements en Ukraine pour l'expliquer. Des craintes d'ingérence ont été publiquement exprimées au sujet d'un scrutin référendaire en Nouvelle-Calédonie. Avez-vous relevé des incidents particuliers ?

M. Benoît Loutrel. - En 2021, pour se préparer à l'élection présidentielle avec ces grandes plateformes, nous avons noué des relations de confiance avec les personnes décisionnaires en cas de crise, par exemple avec la Commission électorale ou le Conseil constitutionnel si nécessaire, et nous avions des discussions avec Google, qui a certifié de leur mobilisation à cette occasion. Nous leur avons signalé l'existence du scrutin en Nouvelle-Calédonie qui avait lieu avant l'élection présidentielle. Ils ont été étonnés, car ce territoire compte 200 000 habitants, ce qui est tout petit à leur échelle. Mais ils ont compris qu'ils devaient mobiliser leurs efforts, là où cela était important pour nous et au moment que nous souhaitions. Ce type de relation peut être développé dans le cadre européen. À l'époque, nous avions envoyé des demandes à Facebook et à Google - TikTok n'était pas encore concerné, car l'entreprise était encore en dessous des seuils d'application de la loi. À ma connaissance, rien n'a été constaté.

M. Mickaël Vallet, président. - Comme M. Faddoul, diriez-vous que cette entreprise est débordée par son propre développement ?

M. Benoît Loutrel. - Nous avons constaté l'existence d'un décalage entre un succès commercial fulgurant et l'engagement de leur responsabilité, alors que le contenu des lois françaises était connu, puisqu'il s'appliquait à leurs concurrents. Le succès fulgurant de TikTok a des conséquences concurrentielles : Meta a modifié le fonctionnement d'Instagram pour suivre TikTok, la pression de ses usagers l'a arrêté ; sur YouTube, un nouveau format de vidéos très courtes, selon le même modèle que TikTok, est apparu. Il est nécessaire d'avoir un cadre européen pour empêcher que la concurrence commerciale se fasse au prix d'une déresponsabilisation des acteurs.

M. André Gattolin. - S'agissant de la spécificité de TikTok, vous avez uniquement répondu que c'était un média jeune. La jeunesse peut expliquer la croissance, mais j'aurais aimé peut-être une caractérisation plus approfondie de TikTok, compte tenu des compétences de l'Arcom, y compris en termes de nature de contenus. Ainsi, s'agissant des conséquences de l'addiction à cette application, l'usage systématique des défis ou des challenges incite les jeunes à la transgression et à la surtransgression, ce qui n'existe pas ou très peu sur les autres réseaux sociaux.

Un autre aspect est celui de la censure. Je travaille depuis quelques années sur les ingérences étrangères. De nombreuses personnes qui m'ont contacté, notamment des chercheurs, et qui ont eu le malheur de diffuser un court message soutenant les Ouïgours, ont vu leur message supprimé, puis leur compte fermé. Nous avons un réel problème en France : nous disposons de la plateforme Pharos, qui concerne un certain nombre de délits et qui fonctionne bien, mais nous n'avons pas de plateforme un peu neutre et ouverte dans son fonctionnement. Je vous conseille de prendre langue avec la division Strat.2 du service européen pour l'action extérieure de l'Union européenne, (SEAE) qui a eu une rapid alert system (RAS) et qui s'intéresse à la désinformation, avec laquelle j'ai beaucoup échangé. Malheureusement, je vais chercher des signalements sur la France sur leur plateforme. Sans ce retour des logiques éditoriales, qui ne sont pas simplement des logiques d'influence, mais des censures explicites, la question ne se serait pas posée.

Quelles collaborations avez-vous avec les autres régulateurs, membres du Groupe des régulateurs européens des services de médias audiovisuels ou European Regulators' Group for Audiovisual Media Services (Erga), à propos de TikTok ? À ma connaissance, des sollicitations ont été adressées aux autorités de régulation néerlandaises à propos de TikTok. Nous avons un problème en France de parangonnage. Sur ce sujet, il est intéressant de suivre les actions de vos homologues.

J'insistais sur ces thèmes, car l'incitation à la transgression, auprès d'un public dont c'est naturellement la tendance compte tenu de son âge, est extrêmement gênante. En effet, la conservation des données, alors que la transgression est encouragée, est un problème. Il n'existe pas de droit à l'oubli. Dans ses statuts et dans le droit international, TikTok a le droit de transférer à sa maison-mère les données. La question est ensuite celle de l'usage qui en est fait et de l'absence de régulation de type RGPD en la matière.

Ces aspects méritent d'être mis en lumière. Nous aimerions avoir une approche systémique de TikTok, puisque la plateforme a un fonctionnement systémique, comme beaucoup de ces grandes plateformes, et en particulier de toutes les stratégies d'influence émanant de la République populaire de Chine.

Un système d'alerte, à l'instar de Pharos, pourrait-il exister ? Cela aurait un sens, car vous ne pouvez pas consulter les contenus de chaque personne. Les chercheurs ont de grandes qualités, mais nous avons du mal à construire des choses qui aient une validité scientifique sur le plan de l'observation des contenus.

M. Benoît Loutrel. - Nous sommes intarissables pour documenter les défauts, réels, de Twitter, mais le réseau a ouvert très tôt un accès massif à ses données tant pour les chercheurs que pour les médias, par le biais d'une interface de programmation - en anglais, application programming interface (API). Facebook a fait de même. En revanche, nous savons très peu de choses sur TikTok : c'est pourquoi nous souhaitons là aussi qu'une telle interface soit créée.

Cela dit, les initiatives de Twitter et de Facebook relèvent de la seule volonté de ces deux entreprises : elles peuvent ainsi disparaître à tout moment. C'est pourquoi nous avons mené bataille pour intégrer ces dispositions à l'article 40 du RSN, pour permettre aux chercheurs d'accéder à ces données, tout en respectant le RGPD, afin de ne pas déboucher sur un nouvel Cambridge Analytica. En France, les chercheurs peuvent accéder sous des conditions strictes à certaines données sensibles par l'intermédiaire du centre d'accès sécurisé des données, dont le pilotage a été confié à l'Insee. Cette consultation est conforme au RGPD.

Il incombe aux homologues européens de la Cnil de faire respecter le RGPD. L'Arcom n'est pas directement concernée. En revanche, nous avons noué un partenariat avec la Cnil en vue de généraliser les interfaces de programmation.

Nous sommes convaincus que c'est en travaillant avec nos partenaires européens que nous ferons avancer les choses. Au mois de janvier dernier, nous avons organisé une conférence internationale portant sur l'accès des chercheurs aux données. La gouvernance prévue dans le RSN est plus puissante que celle du RGPD, qui consacrait le principe du pays d'origine. Demain, la Commission européenne et les régulateurs de tous les pays européens agiront de concert. Les chercheurs accédant aux données de TikTok et de Facebook devront être agréés par le régulateur irlandais, qui pourra s'appuyer sur un pré-agrément donné par le régulateur national. Nous fonctionnerons en réseau, à l'image des interactions entre la Banque centrale européenne (BCE) et les banques centrales des États membres. Nous essayons de faire converger les dynamiques nationales et européennes.

M. André Gattolin. -La plateforme Pharos ne règle pas tous les problèmes. Les actions menées par le système d'alerte sur la désinformation, créé par le Service européen pour l'action extérieure (SEAE), m'ont impressionné.

M. Benoît Loutrel. - Là encore, nous essayons de travailler en réseau : au niveau national, avec Pharos, avec le pôle national de lutte contre la haine en ligne ou encore avec Viginum. Nous commençons à travailler avec la société civile et avec le monde académique, notamment en vue des prochaines échéances électorales. Nos sociétés se numérisent toujours davantage, le débat public a lieu aussi bien sur les médias éditorialisés que sur les médias algorithmiques. Nous devons être capables de réagir rapidement, comme lors de la dernière présidentielle, lorsque Twitter avait fermé plusieurs comptes par erreur : ces péripéties ne doivent pas nuire au bon fonctionnement de notre démocratie. La Commission nationale de contrôle de la campagne électorale en vue de la campagne présidentielle a d'ailleurs souligné la qualité de la coopération avec les plateformes. Je rappelle que toutes les lois, notamment celles relatives aux droits d'auteur et à la propriété intellectuelle, doivent être respectées sur les plateformes : lors de la campagne, certaines chaînes sur les réseaux sociaux étaient menacées de fermeture pour non-respect de ces règles, ce qui aurait constitué une entrave inutile au bon fonctionnement du jeu politique. Il faut constamment s'adapter à un espace sans cesse plus numérisé.

M. Thomas Dossus. - Vous avez évoqué les moyens dérisoires dont dispose l'Arcom pour assurer ses missions, parmi lesquelles l'analyse du mode de fonctionnement des algorithmes des plateformes. Combien de collaborateurs de l'Arcom sont-ils affectés à ce travail ? Cette part progressera-t-elle à l'avenir ?

En outre, l'Arcom lancera-t-elle des appels à projets pour favoriser le travail des chercheurs sur les plateformes ?

Vous opposez médias éditorialisés et médias algorithmiques. Comment les algorithmes ont-ils façonné le débat ? Ont-ils entraîné sa polarisation ? Ce phénomène a-t-il eu des conséquences sur les médias éditorialisés ?

M. Benoît Loutrel. - Notre direction des plateformes en ligne compte huit personnes. Au sein de la direction des études, une équipe composée de deux personnes facilite le travail des chercheurs. Enfin, plusieurs membres de la direction Europe et international facilitent le travail en réseau. L'ensemble de ces personnes se retrouve au sein d'un groupe de travail consacré à la supervision des plateformes en ligne, que je préside. En 2023, les crédits de l'Arcom augmentent, ce qui nous permettra d'envisager de nouveaux recrutements. Nous devons disposer d'une taille critique pour être crédibles en vue d'animer un réseau ouvert à la recherche extérieure. Mais nous ne devons pas vouloir tout contrôler, car il est impossible de décréter l'innovation : nous devons jouer un rôle d'animateur. Je fais appel à la représentation nationale et au Gouvernement pour que des programmes de recherche interdisciplinaires puissent recevoir les financements nécessaires. Le développement des réseaux numériques est allé plus vite que celui de notre citoyenneté numérique.

Il nous faut également développer un réseau territorial. Chaque région compte une antenne de l'Arcom, qui devra décliner dans nos territoires les règles européennes et nationales. Les antennes pourront par exemple travailler avec les collectivités territoriales et les élus locaux sur le sujet du harcèlement scolaire.

M. André Gattolin. - TikTok ne paye ni la taxe numérique ni la taxe sur les services vidéo, contrairement aux Gafam. Ce problème relève-t-il de l'Arcom ? Quelles sont les sanctions prévues ? Il est possible de résilier un contrat de diffusion d'une chaîne de télévision ou de radio, mais que faire face aux acteurs de l'internet et des réseaux sociaux qui ne respectent pas leurs obligations minimales ?

M. Benoît Loutrel. - Je ne suis pas en mesure de formuler une réponse précise sur le plan juridique. En tant qu'héritière de la Haute Autorité pour la diffusion des oeuvres et la protection des droits sur internet (Hadopi), l'Arcom favorise la médiation afin de régler les problèmes.

Le pouvoir de sanction des plateformes est réparti entre la Commission européenne et les régulateurs des États membres, selon la gravité et l'étendue des faits. La Commission a ainsi dressé des amendes d'un montant record contre les grandes plateformes américaines. Les régulateurs nationaux pourront exercer leur pouvoir de sanction contre des acteurs installés en France, y compris à la demande de régulateurs d'autres pays européens. Le règlement européen facilite cette mise en réseau. La plateforme française Yubo, peu connue dans notre pays, rencontre un grand succès dans les pays anglo-saxons. Nous nous préparons à recevoir des demandes d'autres régulateurs, dont nous devrons assurer le traitement. Nous avons ainsi tiré les leçons des imperfections du RGPD.

M. Claude Malhuret, rapporteur. - Vous n'avez pas répondu à ma question portant sur la vérification de l'âge des utilisateurs. Cette vaste question ne concerne pas que TikTok. Je pense à un épisode malheureux pour l'Arcom, qui n'a pas obtenu satisfaction après sa plainte contre les sites pornographiques. Où en est la procédure juridique ?

Quelles sont les mesures de contrôle de l'âge ? Selon des associations de parents d'élèves, certains enfants de 8 ans passent leur nuit sur TikTok. Avez-vous évoqué ce sujet lors de la réunion du lundi 13 mars, et obtenu des engagements de la part des représentants de TikTok ?

Les interfaces de programmation d'application (API) sont importantes et nécessaires pour lancer le débat auprès du grand public, au-delà des seuls spécialistes. TikTok s'est-il engagé sur le sujet ? Quel est le calendrier d'application de mise en oeuvre du RSN en France, notamment sur ce sujet ?

M. Benoît Loutrel. - On voit tout l'intérêt de se saisir de la régulation des médias algorithmiques à l'Arcom, qui traite des médias audiovisuels. Il n'existe qu'un seul espace informationnel dans lequel se forment l'information et l'opinion publique, mais deux moteurs : les médias éditorialisés et les médias algorithmiques.

Je suis le vice-président d'un groupe de travail sur la santé publique présidé par ma collègue Bénédicte Lesage. Nous demandons aux médias audiovisuels d'être plus responsables sur les chartes alimentaires et d'en faire plus ; ils se plaignent que nous demandions beaucoup aux médias traditionnels, et rien aux plateformes numériques. Cela se fera grâce au règlement sur les services numériques. Nous pourrons leur dire que nous avons identifié un risque systémique et qu'ils ont pris des engagements. Nos données montrent à quel point la durée d'écoute individuelle des médias audiovisuels baisse, surtout chez les jeunes. Or ceux-ci passent toujours plus de temps sur les écrans : ils écoutent ou regardent donc autre chose. Nous allons pouvoir avoir une approche globale, intégrée. Les équipes de l'Arcom qui travaillent sur ces sujets transverses de cohésion sociale pourront travailler sur les deux familles de médias pour une meilleure efficacité.

Nous ne sommes pas armés juridiquement pour le contrôle de l'âge. Les limites d'âge ne sont jamais respectées. C'est vieux comme le monde de transgresser ces limites, mais l'objectif reste pertinent.

M. André Gattolin. - Un enfant qui achète du tabac se fait repérer.

Mme Toine Bourrat. - Il faut présenter une pièce d'identité...

M. Benoît Loutrel. - On ne vous la demande pas toujours, mais il faut avancer. Il va falloir identifier un risque systémique sur toutes ces plateformes : la mise en danger des mineurs. Nous aurons ainsi le support juridique nécessaire pour leur dire que le statu quo n'est pas possible, et leur demander ce qu'elles proposent. Il n'y a pas de solution miracle. Mieux caractériser l'âge des jeunes, c'est aussi mieux caractériser l'âge des adultes ; la pièce est à deux faces. Nous buterons alors sur d'autres difficultés, mais il faut progresser. On ne peut laisser filer l'usage. Nous sommes convaincus que des solutions peuvent exister.

Il faut réussir la généralisation et la montée en puissance. Nous demandons aux médias audiovisuels de nous aider à mieux faire savoir, de communiquer... Près de 98 % des terminaux utilisent deux systèmes exploitation : iOS d'Apple et Android de Google. Sur ces deux systèmes, il existe des systèmes de contrôle parental extrêmement sophistiqués, avec une ergonomie qui a fait des progrès phénoménaux, mais qui sont peu utilisés. Le premier enjeu, c'est de mobiliser et de susciter l'usage. Nous devons travailler avec des réseaux d'associations de parents d'élèves, de collectivités territoriales, pour provoquer l'adhésion. La culture américaine est très forte pour livrer des résultats, tandis que la culture européenne est excellente pour concevoir des systèmes puissants. Nous devons nous retrousser les manches pour mobiliser ces outils.

M. Mickaël Vallet, président. - Merci pour cet exposé très intéressant. Je vous félicite d'avoir aussi peu pratiqué d'anglicismes dans un domaine où cela ne doit pas être évident...

Audition de M. Paul Charon, directeur du domaine « Renseignement, anticipation et stratégies d'influence » à l'Institut de recherche stratégique de l'École militaire (Irsem), le 20 mars 2023

M. Mickaël Vallet, président. - Nous avons le plaisir d'auditionner, cet après-midi, M. Paul Charon, directeur du domaine « Renseignement, anticipation et stratégies d'influence » à l'Institut de recherche stratégique de l'École militaire (Irsem).

Associant universitaires et militaires, l'Irsem est l'organisme de recherche stratégique du ministère des armées. Ses études contribuent au renforcement du lien entre la défense et la recherche stratégique, apportent leurs concours à l'enseignement militaire supérieur et soutiennent le rayonnement de la pensée stratégique française aux niveaux national et international.

Spécialiste de la Chine, vous avez notamment été chercheur associé à l'antenne franco-chinoise de sciences humaines et sociales de l'université Tsinghua, à Pékin. En octobre 2021, vous avez publié, avec Jean-Baptiste Jeangène Vilmer, un rapport remarqué de l'Irsem sur les opérations d'influence chinoises.

Qualifiant la phase actuelle de l'attitude chinoise de « moment machiavélien », vous y décrivez TikTok comme une « plateforme surveillée et censurée », utilisée comme outil de propagande par le parti communiste chinois (PCC). Soulignant les liens des dirigeants de ByteDance avec Pékin, le rapport cite plusieurs exemples de contenus censurés sur l'application - en Chine et à l'international -, mais aussi de contenus ajoutés par des « comptes fantômes », gérés par des employés de l'entreprise.

Alors que les interdictions d'utilisation de TikTok pour les élus ou les fonctionnaires se multiplient, vous pourrez nous éclairer sur la réalité de la dépendance de cette entreprise et de sa société mère, ByteDance, à l'égard du pouvoir chinois.

Après de premières auditions plutôt axées sur les aspects techniques, votre audition va nous permettre d'élargir le champ et de nous poser la question des contenus.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je rappelle qu'un faux témoignage devant notre commission d'enquête serait passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.

Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure. »

Conformément à la procédure applicable aux commissions d'enquête, M. Paul Charon prête serment.

M. Paul Charon, directeur du domaine « Renseignement, anticipation et stratégies d'influence » à l'Institut de recherche stratégique de l'École militaire. - Je suis un spécialiste de la Chine, et pas un spécialiste des aspects techniques de la désinformation, notamment sur les réseaux sociaux. Je vais donc surtout essayer de vous éclairer sur le contenu et sur la façon dont, de manière générale, les pratiques informationnelles chinoises se déploient, que ce soit sur TikTok ou sur d'autres plateformes - le problème n'est pas fondamentalement différent.

Il faut peut-être commencer par rappeler que l'application TikTok ne recueille pas davantage de renseignements sur ses utilisateurs que d'autres applications du même type, et même moins que Facebook par exemple - d'après ce que j'ai pu lire, car je ne suis pas un spécialiste de ces questions.

La question n'est donc pas seulement celle de la quantité de données ou de la nature des données qui peuvent être collectées par TikTok et, in fine, par ByteDance, la maison mère chinoise. C'est plutôt celle de la nature du régime politique entre les mains duquel ces informations pourraient arriver, compte tenu de la nature autoritaire, s'il en est, du régime chinois.

Une autre distinction qui est peut-être importante est celle de la nature des utilisateurs. Il y a sans doute une distinction à faire - je la nuancerai tout à l'heure - entre des utilisateurs dont les activités professionnelles représentent un intérêt pour la Chine et peuvent donc constituer des cibles du parti communiste chinois et les utilisateurs « lambda », qui, en tant que tels, ne présentent pas d'intérêt pour le PCC, même s'ils peuvent, collectivement, faire l'objet d'opérations de désinformation ou d'influence menées par le parti.

Je vous propose de passer en revue un certain nombre de points durs, de questions qui émergent dans les médias, d'activités à tout le moins « inquiétantes » de la part de TikTok. Ce ne sera pas exhaustif, mais cela permettra d'illustrer en quoi l'application peut poser problème.

D'abord, il y a eu, ces trois dernières années, un certain nombre de révélations, à commencer par une opération d'espionnage, de contrôle, de suivi de journalistes par ByteDance. Cette affaire a été révélée par différents médias à la suite d'enregistrements audio qui ont fuité depuis TikTok. Ce sont à peu près 80 heures d'enregistrement qui ont été ainsi diffusées. Elles ont été analysées par les médias qui ont travaillé sur cette question, notamment BuzzFeed, qui ont montré que les données d'un certain nombre d'utilisateurs américains étaient entre les mains de membres du personnel de l'entreprise ByteDance en Chine, et non pas de TikTok hors de Chine.

Cette affaire a montré que toute la défense de TikTok, qui est bien illustrée par le projet Texas de stockage des données utilisateurs, que l'entreprise a mis en place récemment, notamment aux États-Unis et à Singapour - donc en dehors de Chine -, n'était pas vraie, puisque des membres de ByteDance affirmaient eux-mêmes, dans ces enregistrements, qu'ils avaient accès aux données. Ces premières informations ont été le point de départ d'enquêtes menées par différents médias d'investigation américains, lesquels ont révélé qu'une partie des Américains qui avaient été suivis par ByteDance étaient des journalistes qui s'intéressaient à TikTok. Et ce qui intéressait particulièrement ByteDance était de savoir s'il était possible de croiser les données de géolocalisation de ces journalistes avec celles des employés de TikTok, pour identifier qui était responsable des fuites au sein de la société, donc qui avait parlé aux journalistes. On ne peut donc pas accorder beaucoup de crédit à TikTok quand l'entreprise nous dit que les données restent aux États-Unis - ou, en tout cas, hors de Chine -, que la frontière entre ByteDance et TikTok est étanche et qu'aucune donnée ne peut être exploitée par la partie chinoise du groupe.

Le deuxième problème, que vous avez évoqué tout à l'heure, est celui de la censure sur les contenus TikTok.

Je commencerai par nuancer un peu la situation : la censure dont on parle sur TikTok n'a rien à voir avec celle qui existe sur les réseaux sociaux chinois en Chine, à commencer par Douyin, qui est la version chinoise de TikTok, où la censure est complète - il y a un contrôle total de l'information. Dans le cas de TikTok, la censure est différente : elle est plus comparable à ce que l'on peut voir sur Facebook, sur Instagram ou encore sur Twitter, que les Chinois, à l'image des Russes, ont investi depuis un certain nombre d'années, avec des opérations de plus en plus nombreuses et de plus en plus sophistiquées.

Pour illustrer le type de censure que la Chine pratique sur TikTok, je citerai des contenus qui ont disparu, des comptes qui ont été fermés parce qu'ils avaient évoqué des points relatifs à la politique intérieure chinoise, notamment - ce sont toujours les mêmes sujets qui reviennent - les événements de Tian'anmen - c'est-à-dire la question des dissidents, de la démocratie -, la question tibétaine, les Ouïghours, Taïwan, la secte Falun Gong. C'est grosso modo ce que les Chinois appellent « les cinq poisons », les cinq menaces les plus importantes à la pérennité du régime communiste.

D'ailleurs, de manière générale, les activités informationnelles et de renseignement chinoises portent d'abord sur ces questions, parce que l'obsession du PCC, c'est la pérennité de son pouvoir.

M. André Gattolin. - Et Hong Kong ?

M. Paul Charon. - Non, cela ne fait pas partie des sujets, sauf si c'est englobé dans la question des dissidents, c'est-à-dire des démocrates.

M. Mickaël Vallet, président. - Quid de la contestation contre le covid ?

M. Paul Charon. - Les cinq poisons sont une rhétorique déjà assez ancienne. C'est ce qui, du point de vue du PCC, semble menacer le plus sa pérennité. C'est aussi en ce sens que les Chinois peuvent s'attaquer au modèle démocratique. D'ailleurs, quand ils agissent sur le contenu, c'est aussi sur ce point qu'ils agissent. On observe, par exemple, quel que soit le support - qu'il s'agisse de réseaux sociaux ou de médias traditionnels -, un accroissement, depuis quelques mois, d'une rhétorique antidémocratique, qui tend à affirmer que la démocratie ne fonctionne pas, que c'est un mensonge.

En général, ces supports s'attaquent au modèle américain - mais pas uniquement. Ils tentent d'affaiblir l'alternative démocratique, en montrant les défaillances de la démocratie américaine. Ils ne cessent de ressasser un certain nombre de cas de racisme, par exemple, comme l'affaire George Floyd, ou de mettre en avant l'hypocrisie américaine.

On est dans le schéma des « mesures actives », pratique soviétique forgée par le KGB, qui consiste à identifier, dans les sociétés cibles, tous les sujets qui peuvent créer du dissensus, des tensions sociales. Finalement, à part sur la question de la démocratie peut-être, les Russes, comme les Chinois, ne véhiculent pas, en matière informationnelle, de modèle particulier. Ils essaient juste d'affaiblir le modèle des autres. Peu importe ce qu'ils disent : ce qui compte, c'est que cela affaiblisse l'adversaire.

D'autres cas de censure sur TikTok ont été révélés par une enquête du Washington Post, en 2019. Celle-ci a montré comment les équipes de TikTok étaient amenées à supprimer du contenu qui était jugé culturellement problématique, « culturellement » étant entendu dans un sens extrêmement large. Il faut savoir que, dans la loi de 2015 sur la sécurité nationale, la culture a été ajoutée par le PCC dans les menaces pour la pérennité du régime, le parti pensant essentiellement au risque que la démocratie soit importée en Chine par la diaspora chinoise : la diaspora chinoise vivant dans des régimes démocratiques, libéraux, serait susceptible, en venant en Chine, d'y importer ses idéaux, donc d'affaiblir le parti. C'est la raison pour laquelle ce dernier a créé le « label » de l'infiltration culturelle.

Enfin, la même année, le Guardian a eu accès à un certain nombre de consignes données au personnel de TikTok, auquel on prescrivait l'élimination de toute mention d'un certain nombre de sujets, dont ceux que j'ai mentionnés tout à l'heure, notamment Tian'anmen.

On dispose donc désormais d'un certain nombre de preuves, suffisamment importantes, qui montrent que le contrôle des contenus sur TikTok n'est ni accidentel ni marginal, mais que c'est une pratique qui tend à se systématiser.

Autre problème, qui est lié à la question de la censure, celui du risque de manipulation, c'est-à-dire le risque que TikTok soit utilisé comme un vecteur dans la lutte informationnelle chinoise. Sur ce point, on revient à des pratiques qui sont très similaires à celles que l'on peut observer sur les réseaux sociaux occidentaux. L'idée est de diffuser des représentations. Cela peut être soit des représentations positives de la Chine - mettre en avant ses succès, sa bienveillance, le fait qu'elle promeut des relations gagnant-gagnant, qu'elle tient compte des particularités du Sud global, comme elle aime à le rappeler régulièrement - ou, au contraire, des contenus informationnels négatifs - on en revient aux « mesures actives », qui essaient d'affaiblir les sociétés cibles.

Il y a eu un autre cas intéressant, que l'on a moins creusé : TikTok a été accusé de supprimer des comptes créés par des Afro-Américains ou, en tout cas, d'entraver la création de comptes par ces derniers, pour limiter la présence d'Afro-Américains en tant que créateurs - et non comme utilisateurs - sur la plateforme. Je ne sais pas à quel point c'est étayé, car je n'ai pas plus d'informations sur cette dimension. Quoi qu'il en soit, TikTok a jugé utile de communiquer publiquement sur ces questions.

Quelles sont les données collectées par TikTok ? C'est une question importante, et j'imagine que vous avez pu l'aborder avec les personnes qui sont plus au fait de la dimension technique. Pour ma part, j'ai listé les données qui peuvent être collectées par TikTok, via l'utilisation de l'application sur mobile, sans la permission de l'utilisateur : son adresse courriel, son numéro de téléphone, sa date de naissance, son adresse IP bien sûr, les contenus du presse-papier, les frappes sur le clavier, au moins lors de l'utilisation de l'application - peut-être même en dehors de celle-ci -, le type d'appareils utilisés. Peuvent être collectées, avec l'autorisation de l'utilisateur, avec plus ou moins de capacité de contrôle, en fonction du modèle de mobile utilisé : la liste de contacts, le micro et la caméra, la bibliothèque de photos, la géolocalisation. Telle est la liste des données que TikTok est capable de collecter et qui peuvent être transmises au parti.

Qu'est-ce que TikTok transmet au parti ? En fait, cette question très sensible est très vite résolue dès lors que l'on a compris qu'aucune société chinoise ne peut tenir tête au parti. C'est juste impossible. Le système ne le permet pas, d'abord parce qu'une loi sur le renseignement et une loi sur le contre-espionnage autorisent, depuis 2014 et 2017, les services de renseignement chinois à demander à toute entreprise chinoise de leur transmettre les données dont elle dispose sur des individus ou des personnes morales. Soyons clairs, les services de renseignement chinois le faisaient déjà avant que ces lois ne soient promulguées ! Et il ne viendrait à l'esprit d'aucun entrepreneur chinois, qu'il s'agisse d'une entreprise publique ou privée, de tenir tête au ministère de la sécurité d'État. Il faut donc partir de l'idée qu'aucune entreprise ne peut conserver de données contre la volonté des services de renseignement chinois, qu'il s'agisse du ministère de la sécurité d'État ou du ministère de la sécurité publique.

Cela étant dit, les données dont on parle sont une goutte d'eau dans l'océan des données captées par la Chine. Il faut aussi en avoir conscience ! Il est louable de s'attaquer à la question des données que TikTok peut collecter, mais cela ne représente qu'un très faible pourcentage de la masse de données captées par la Chine aujourd'hui. Si l'on parle ne serait-ce que des États-Unis, qui sont l'acteur le plus impliqué dans l'opposition à TikTok aujourd'hui, avec les opérations cyber menées contre l'office du management du personnel américain ou l'entreprise Equifax, qui est une société de régulation du crédit à la consommation, et l'opération de hacking des données de la chaîne d'hôtels Marriott, la Chine détient des millions de données sur à peu près la moitié de la population américaine, ce qui est beaucoup plus large. Au reste, ce sont des données beaucoup plus précises, puisqu'elles sont financières - elles permettent par exemple de savoir qui a fait une demande d'habilitation au secret-défense aux États-Unis. Ces données sont donc beaucoup plus précieuses pour les services chinois que celles qu'offre TikTok.

Je ne suis pas en train de dire que le sujet n'est pas important et qu'il ne faut pas s'en occuper, mais les données concernées ne sont qu'une toute petite part des données exploitables qui sont captées par la Chine aujourd'hui dans le cadre des opérations de renseignement.

Quand on cible une personne en particulier, on peut récupérer énormément de données sur sa situation financière, sur les habilitations qu'elle a demandées, sur la composition de son portefeuille, sur la thérapie qu'elle a pu suivre... On peut apprendre énormément de choses dans le cadre d'une opération de renseignement humain - une personne recrutée pour obtenir du renseignement - ou de programmes de big data, données utilisées pour nourrir les intelligences artificielles mises en place par Pékin.

J'en viens très rapidement aux autres questions qu'il faut avoir en tête, même si elles sont peut-être moins brûlantes.

Le pouvoir du PDG de TikTok semble relativement faible au regard de la société mère ByteDance.

On observe, depuis 2019, un accroissement très important du budget consacré au lobbying par TikTok. Si nombre d'entreprises font du lobbying, sans que ce soit forcément significatif, il est intéressant de constater que TikTok s'est plus attaché à accroître ses moyens de lobbying, qui sont aujourd'hui bien supérieurs à ceux de Huawei, par exemple, qu'à répondre aux inquiétudes des gouvernements ou des utilisateurs qui se sont manifestées.

Enfin, l'éventuelle volonté de TikTok d'abêtir les populations cibles est bien évidemment impossible à vérifier en l'état. Il nous faudrait des études beaucoup plus poussées. Ce qui est certain, c'est que le fonctionnement même de l'algorithme de TikTok entraîne une captation d'attention beaucoup plus forte que sur les autres plateformes, à tel point que celles-ci s'en inspirent aujourd'hui. Cette captation de l'attention fait que TikTok devient plus dangereux. Cependant, ce que l'algorithme pousse comme contenu est-il orienté par Pékin ou par les simples choix des utilisateurs ? En l'état, on ne sait toujours pas. Bien évidemment, on ne peut qu'être étonné des différences de contenus entre Douyin, qui est la version chinoise, et TikTok, qui est la version internationale. Certains l'ont déjà signalé : la version chinoise comporte du contenu beaucoup plus éducatif. Par ailleurs, le Gouvernement chinois a limité le temps d'utilisation de cette application pour les citoyens chinois - à 40 minutes par jour si je ne me trompe pas, ce qui n'est pas du tout le cas chez nous, même si l'on pourrait réfléchir à ce type de contraintes pour ce type d'acteurs.

M. Claude Malhuret, rapporteur. - Votre rapport d'octobre 2021 sur la stratégie d'influence chinoise est particulièrement éclairant. Il fait froid dans le dos... Je recommande sa lecture à tous nos collègues sénateurs - il est disponible librement sur internet. D'ailleurs, je pense qu'il pourrait être recommandé dans toutes les écoles de sciences politiques ou écoles de guerre.

Ce rapport a été publié il y a un an et demi. Depuis, le nombre d'utilisateurs de TikTok a explosé. Comme vous le disiez tout à l'heure, il s'agit essentiellement d'enfants et d'adolescents, mais on a de plus en plus l'impression que ce réseau social va prendre la place de beaucoup d'autres plateformes et qu'il est de plus en plus utilisé par des adultes.

Quelles sont, pour vous, les évolutions marquantes depuis octobre 2021 ? Les choses se passent-elles exactement comme avant, ou la croissance du réseau a-t-elle conduit à introduire ou à développer d'autres fonctions qui n'existaient pas encore ?

D'un côté, il y a collecte de données. De l'autre, il y a production ou poussée de contenus. C'est donc à double sens.

Sur les collectes de données, vous nous avez expliqué que la loi chinoise, qui oblige à déférer à toute demande des services de renseignement, qui impose, dans la direction de ByteDance, une cellule du parti communiste chinois, montre qu'il n'y a évidemment aucune échappatoire pour les dirigeants de ByteDance à l'égard du parti communiste chinois.

Mais les dirigeants de TikTok, lorsqu'ils sont interrogés aux États-Unis ou en Europe, nous disent : « nous ne sommes pas ByteDance. Nous sommes TikTok, nous sommes une société immatriculée ailleurs ». D'ailleurs, ByteDance Monde est immatriculé aux îles Caïmans - je ne suis pas sûr que cela lui confère un gros avantage...

Ces dirigeants nous disent qu'ils ne déféreront pas aux demandes du parti communiste chinois ; que jamais ByteDance n'a reçu de demande de ce dernier ; que, s'il devait en avoir, demain, ils n'y accéderaient pas. En ce qui concerne ByteDance, ce n'est même pas la peine de se demander s'il s'agit ou non d'un mensonge ! En ce qui concerne TikTok, je crois, pour ma part, qu'il en va exactement de même. Quel est votre sentiment sur ce point ?

S'agissant de la production de données - je parle là de désinformation ou de censure -, vous avez écrit, dans votre rapport, que les dirigeants de ByteDance, y compris le PDG Zhang Yiming, ont déclaré officiellement, répondant au parti communiste chinois, qu'ils s'assureraient que « leurs produits serviraient à promouvoir le programme de propagande du PCC. Ils ont clairement indiqué que la ligne du parti devait être intégrée dans les applications de l'entreprise, jusqu'au niveau de l'algorithme. Ainsi, en 2018, une application de partage de blagues développé par la compagnie a été supprimée. Le produit s'est égaré, publiant un contenu qui va à l'encontre des valeurs fondamentales socialistes, a expliqué Zhang Yiming. La compagnie a, depuis, recruté 4 000 censeurs supplémentaires et investi beaucoup d'argent pour développer un algorithme intégrant ces valeurs fondamentales socialistes ». Avez-vous une idée de ce que recouvre un tel algorithme ? Quelles sont les répercussions en termes de production de contenus ?

Le Président de la République a lui-même évoqué une entreprise d'une naïveté confondante et un abêtissement - je ne pense donc pas dévoiler grand-chose en le disant. Vous avez affirmé que, pour pouvoir le déterminer exactement, il faudrait pouvoir comparer, en détail, la production de Douyin et celle de TikTok. On parle de différences évidentes, par exemple la coupure de l'application au bout de 40 minutes pour les Chinois, ou le contenu beaucoup plus pédagogique. Vous qui parlez chinois, et qui avez sans doute visité l'un et l'autre, voyez-vous un certain nombre de caractéristiques très différentes entre Douyin et les TikTok des autres pays ?

M. Paul Charon. - Depuis la publication du rapport, on n'a pas noté de transformation radicale de TikTok, en tout cas des opérations informationnelles chinoises menées via TikTok. On note, en revanche, une transformation des opérations informationnelles de manière générale. Globalement, elles suivent la ligne que l'on a pu identifier dans le rapport, avec un durcissement croissant : leur dimension coercitive, agressive est de plus en plus manifeste.

Ces opérations sont également de plus en plus sophistiquées. Auparavant, il nous fallait à peine quelques minutes pour identifier le contenu informationnel manipulé et pour remonter jusqu'à un acteur chinois. Cela devient de plus en plus difficile ; en tout cas, cela nous demande de plus en plus de temps. La manipulation est plus fine. Il y a plus d'intermédiaires. Il y a de plus en plus d'acteurs qui n'appartiennent pas à l'appareil du parti État, même s'ils sont chinois. Il y a aussi des acteurs qui ne sont pas chinois : ce sont des acteurs locaux des sociétés ciblées. Cette évolution est très nette, par exemple sur YouTube, avec soit des comptes créés par les Chinois eux-mêmes, soit, de manière plus subtile, des comptes qui existent déjà, qui fonctionnent bien, qui sont populaires et que les Chinois vont tenter d'acheter, en payant les producteurs et les créateurs de contenus pour qu'ils diffusent des contenus soit favorables à la Chine, soit défavorables à leurs cibles.

Cette évolution est très nette et très rapide : ils apprennent vite. Les Chinois se sont beaucoup inspirés des Russes, mais n'ont pas tout à fait la même stratégie que ces derniers, qui misent plus sur le qualitatif. D'une manière générale, les opérations informationnelles russes sont en moyenne beaucoup plus subtiles, alors que les Chinois misent plus sur la quantité.

Par exemple, depuis deux ou trois ans, les contenus produits par QAnon aux États-Unis sont plus souvent rediffusés sur les réseaux sociaux par la Chine que par la Russie. Ce n'était pas le cas il y a quatre ou cinq ans. Aujourd'hui, les Chinois sont plus actifs que les Russes en matière de diffusion des théories du complot et des manipulations de l'information par les réseaux QAnon.

La stratégie est fondée sur le quantitatif, quitte à diffuser des produits beaucoup moins sophistiqués. Elle s'appuie, par exemple, sur les recherches récentes en sciences cognitives, qui montrent que plus on est exposé à une information, même fausse, plus le cerveau a tendance à y croire. Autrement dit, la qualité de la manipulation de l'information est moins déterminante que le degré d'exposition à cette information, et les Chinois en tiennent compte dans leurs opérations informationnelles.

Bien évidemment, ces opérations informationnelles font sens entre elles, sont liées entre elles, et se renvoient l'une à l'autre. Par exemple, dans le rapport, nous évoquons l'opération que nous avons appelée « Infektion 2.0 », voulant faire croire que les États-Unis avaient fabriqué le virus du SARS-CoV-2. Cette opération a ciblé la base de Fort Detrick, aux États-Unis, que le KGB avait déjà accusée lors de l'opération « Infektion », en 1983, d'avoir fabriqué le virus du sida pour décimer les populations afro-américaines et gay aux États-Unis.

Que les Chinois utilisent certains référents puissants des théories du complot montre que la sophistication n'est pas toujours utile. Avec quelques mots-clés, cela suffit à faire sens et à renvoyer à un imaginaire puissant du complot.

De manière générale, on constate donc une sophistication croissante, des opérations de plus en plus clandestines, avec de plus en plus d'intermédiaires, y compris locaux. Nous sommes pour l'instant pénalisés par l'absence de travaux en profondeur sur TikTok. Beaucoup de personnes travaillent maintenant sur les opérations d'influence chinoises, et nous disposerons bientôt d'études fines sur le nombre de faux comptes, ou sur les informations qu'ils diffusent.

Concernant la collecte des contenus, il y a des cellules du parti dans toutes les entreprises, et cela n'est pas propre à TikTok. Mais le degré d'indépendance des entreprises varie. Pendant très longtemps, dès lors qu'elles donnaient l'impression de respecter les grandes lignes fixées par le parti communiste, elles sont restées relativement indépendantes, les membres de la cellule du parti dans l'entreprise ne vérifiant pas toujours dans le détail ce qui s'y passe. Mais depuis deux ans, le contrôle croissant des entreprises du secteur des nouvelles technologies rend de plus en plus difficile une pratique commerciale totalement indépendante vis-à-vis du parti.

TikTok a affirmé n'avoir jamais obéi à une demande de transmission d'informations concernant les utilisateurs à l'étranger. C'est faux, j'en ai parlé tout à l'heure : peut-être qu'ils n'ont jamais transmis d'informations, mais ils ont autorisé au personnel de ByteDance d'accéder à leurs informations. Ce n'est pas tout à fait la même chose, mais on joue sur les mots, puisque le résultat est identique : la possibilité, pour ByteDance, d'avoir accès aux informations des utilisateurs de TikTok.

Sur les contenus, que signifie qu'une application soit à l'image des valeurs socialistes chinoises ? C'est en fait très clair : ces entreprises doivent se conformer à l'idéologie et aux grandes lignes fixées par le parti, de plus en plus strictes et sévères, qui imposent aux entreprises la diffusion de contenus conformes à l'idéologie, tant sur le plan politique que sur le plan des moeurs - il ne faut pas de contenus à connotation sexuelle, pas de contenus irrespectueux vis-à-vis de certaines parties de la population... Les contrôles sont beaucoup plus forts que ceux que nous imposons aux plateformes comme TikTok.

La Chine a intérêt à diffuser du contenu sur TikTok. Il faudrait nuancer, mais il y a une différence entre la Chine et la Russie. La Russie tend à diffuser des contenus la plupart du temps négatifs, ciblant les faiblesses de la société visée, les montant en épingle et les diffusant largement - il suffit de voir ce que fait le groupe Wagner en Afrique. Les spécialistes de la Russie montrent cependant que les Russes, peut-être influencés par la Chine, recommencent à s'intéresser à la diffusion d'une image positive de la Russie. La Chine, elle, diffuse à la fois des contenus donnant une image positive d'elle-même, de sa politique, de son respect des pays en voie de développement, du Sud global, de sa puissance technologique, industrielle ou sportive, et des contenus négatifs, à l'image des Russes, pour diviser les sociétés ciblées et créer du dissensus.

Sur les différentes versions de TikTok, les différences manifestes sont celles que vous avez indiquées, elles sont liées aux bonnes moeurs en Chine et au contrôle des pratiques addictives imposées par Xi Jinping. Les pratiques de jeux vidéo sont beaucoup plus réduites et limitées, notamment les cybercafés où des adolescents passaient leurs journées et leurs nuits sont beaucoup plus contrôlés.

Ce que l'on ne sait pas, c'est à quel point le fait de mettre du contenu tendant à abêtir les utilisateurs correspond ou non à une stratégie de la Chine. Est-ce seulement une conséquence néfaste de l'algorithme, surtout conçu a priori pour faire du profit, suivant l'intérêt de TikTok et de ByteDance ? Mais comme la plateforme a du succès, elle intéresse nécessairement les services chinois, qui peuvent être intéressés par la diffusion de contenus. Il est difficile de savoir à quel point cela est fait en accord et en coopération avec TikTok.

M. Mickaël Vallet, président. - Je vais me faire un peu l'avocat du diable. Vous avez commencé par indiquer que la nature des données collectées n'était pas pire que celle des données collectées sur d'autres plateformes, et vous avez même dit que TikTok collectait un peu moins de données que Meta.

Vous avez également fait une distinction entre les données collectées avec ou sans autorisation, comme le nom ou la date de naissance. Mais, pour s'inscrire, il faut donner sa date de naissance.

M. Paul Charon. - Il est toujours possible de mentir sur son âge...

M. Mickaël Vallet, président. - Certes, mais lorsqu'on s'inscrit en toute bonne foi, on peut se douter que ces informations seront collectées. Le problème tient à l'utilisation qui peut en être faite.

Tous les États font attention aux contenus disponibles. En France, à une heure de grande écoute, sur une chaîne contrôlée par l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom), il n'y a pas non plus de contenus pornographiques. Pourriez-vous nous préciser, du point de vue d'un connaisseur de la culture chinoise, et sans tomber dans le relativisme, si les différences entre Meta et TikTok pourraient être liées aux cultures locales, certaines choses ne devant pas être laissées à la vue des enfants ?

Y a-t-il une différence profonde, de nature, entre les problèmes rencontrés lors de l'affaire Cambridge Analytica et ce que l'État chinois pourrait faire des données TikTok ? Ou encore, sur le fait que, d'un côté, le contrôle porte sur ce que l'algorithme peut mettre à disposition, alors que, de l'autre, des plateformes comme Facebook laissent filer les contenus par souci du profit, ce qui peut poser des problèmes inverses ? Pouvez-vous nous expliquer comment les choses peuvent fonctionner dans la culture chinoise ?

Une autre question concerne le contrôle des contenus : est-il tenable à long terme ? Les neurosciences nous apprennent que, concernant l'addiction à l'algorithme et la réaction neuronale, il n'y a pas de différence de fond entre un Chinois et un Occidental. Comme l'algorithme est bien fait, la limitation du temps d'utilisation à 40 minutes est-elle tenable à long terme, pour le pouvoir chinois ? Ceux qui pensent in fine en tirer un profit étatique ou politique ne finiront-ils pas par se prendre les pieds dans le tapis ?

M. Paul Charon. - Pourriez-vous préciser ce que vous entendez par « culture » ? Me demandez-vous si TikTok fonctionne parce que l'utilisation qu'en fait la culture chinoise serait plus vertueuse ? Je ne le crois pas. C'est plutôt le contrôle : ce sont certaines prescriptions du parti qui font que l'orientation de la plateforme a pris une tout autre direction que chez nous. Si l'on imposait le même type de critères à nos plateformes, leurs orientations seraient peut-être similaires à celle de Douyin...

En revanche, si l'on compare les données collectées par TikTok et celles collectées par Facebook, des affaires comme Cambridge Analytica et certaines études montrent que Meta et Facebook collectent davantage de données, et que, dans certains cas, ces données peuvent être utilisées contre nos intérêts. Mais la différence majeure tient à la nature des régimes politiques qui explique que l'utilisation des données est très différente en Chine et aux États-Unis. Aux États-Unis, ces données peuvent être utilisées contre nos intérêts économiques, et on peut imaginer qu'elles le soient contre nos intérêts politiques. Dans le cas de la Chine, c'est très manifeste.

Par ailleurs, on peut toujours se poser la question de la réciprocité vis-à-vis des Chinois. Les Américains devraient demander pourquoi Twitter ne peut pas être utilisé en Chine, (nous n'avons pas de plateforme de ce type en Europe) ? Pourquoi tolérerait-on TikTok, si Twitter et Facebook sont interdits en Chine ? La comparaison pourrait être étendue à d'autres questions, y compris la présence et le travail des journalistes : les journalistes et les médias chinois travaillent totalement librement en France ; pourquoi est-ce si compliqué pour les journalistes ou pour les chercheurs français de travailler en Chine ? Certains sont harcelés, subissent des refus de visas, sont harcelés sur place par la police, et peuvent être poursuivis en justice - une chercheuse française est ainsi poursuivie par Huawei.

Nous vivons dans un régime démocratique, et nous ne pouvons pas adopter les mêmes pratiques qu'un régime autoritaire, nous tolérons des choses qu'eux ne tolèrent pas. Il y a là matière à négocier, pour alerter la Chine sur le fait que nos relations sont souvent asymétriques : nous aurions intérêt à négocier le plus largement possible, quel que soit le sujet, à l'échelon européen et non national pour peser plus fortement.

Est-ce que la limite est tenable ? Il est très difficile de répondre à cette question. Il y a une vingtaine d'années, les Chinois avaient introduit des élections locales, au niveau du village, auxquelles tout le monde pouvait se présenter : seul le parti communiste était autorisé, mais on pouvait être candidat hors parti. On s'était demandé si le ver n'était pas dans le fruit, un processus de politisation des ruraux pouvant remonter, par contamination et par capillarité, l'ensemble de la chaîne étatique. Pour l'instant, la situation est restée sous contrôle, et cela a même profité au parti, en renforçant sa légitimité. Il est possible que le parti arrive à tenir cette limite.

Le parti communiste chinois est caractérisé par sa grande ductilité et sa capacité à s'adapter. La Chine n'est pas forcément un régime dans lequel toute expression d'un mécontentement est réprimée : même si l'ampleur des manifestations contre les règles de contrôle de la pandémie était un peu nouvelle, ce type de manifestations accusant des cadres locaux ou l'hégémonie du PCC sont en partie tolérées, et une dose de contestation est tolérée à la marge. Le parti est beaucoup plus subtil que l'impression qu'il donne parfois, et peut réussir à tenir les choses.

Depuis l'arrivée au pouvoir de Xi Jinping, on remarque tout de même une rigidification du système. La ductilité était surtout caractéristique des dirigeants précédents, Hu Jintao et Jiang Zemin. Xi Jinping a eu tendance à casser ces mécanismes d'ingénierie du consentement : aujourd'hui, la répression est beaucoup plus forte, le contrôle est plus fort, l'idéologie a repris une place plus importante, même s'il s'agit d'un jeu, d'un maquillage, de rhétorique. Cette rigidification fragilise sans doute le système : vous avez plus de chances d'être réprimé pour des activités jugées hostiles au PCC, mais en même temps il me semble que le PCC serait bien moins capable de résister à un mouvement de contestation d'ampleur que sous Hu Jintao. Certains mécanismes de consentement de la population ont été cassés, et le parti est beaucoup plus aveugle à ce qui se passe au niveau local. Certains mécanismes qui permettaient la remontée de l'information au sommet du pouvoir ont été cassés sous Xi Jinping, et le pouvoir, très largement mal informé, ne perçoit peut-être pas complètement ce qui se passe sur le terrain.

Mme Catherine Morin-Desailly. - Vous avez évoqué la censure, le retrait de certains contenus précis, ainsi que l'injonction faite aux entrepreneurs de faire remonter les données de leurs entreprises ou de leurs clients. Pouvez nous dire précisément quel est le cadre législatif chinois à cet endroit ? Y a-t-il une différence entre les injonctions faites aux entrepreneurs chinois et les requêtes de l'État fédéral américain envers les plateformes américaines, dont les divisions des services informatiques (DSI) traitant des données, y compris en dehors des États-Unis, doivent fournir les données des abonnés ?

Une autre question porte sur les comptes : y a-t-il, au travers des amis des utilisateurs non abonnés à TikTok, la reconstruction de shadow profiles, pour se doter de davantage d'informations sur la société occidentale en général ? À votre connaissance, ces pratiques sont-elles avérées ?

Vous êtes un spécialiste de la stratégie d'influence. Des plateformes américaines comme Facebook pourraient-elles faire l'objet d'ingérences de la part de la Chine, et être infiltrées ? L'affaire Cambridge Analytica a montré une infiltration russe, et la manipulation des opinions lors des scrutins électoraux. Une telle stratégie d'exploitation des failles des plateformes américaines est-elle à l'oeuvre ?

Enfin, qu'est qu'un algorithme addictif ? Il me semble que ce sont plutôt les contenus qui sont addictifs. Je ne suis pas une informaticienne ou une spécialiste des algorithmes, mais pourriez-vous préciser ? Somme toute, Instagram ou d'autres réseaux sont également très addictifs.

M. Paul Charon. - Des lois ont été votées en Chine pour exiger que toute entreprise transmette les données concernant des individus ou des personnes morales aux services de renseignement chinois le demandant. Mais je le redis, il me semble que cela n'a pas d'importance, puisque les renseignements chinois étaient capables de les obtenir auparavant.

Bien évidemment, on peut comparer les cadres législatifs chinois et américain, mais il y a des différences majeures : en Chine, personne ne prendra le risque de dire non aux officiers de la sécurité de l'État demandant des informations, personne n'ira en justice s'il est mécontent, d'abord parce qu'il serait assuré de perdre, et parce que les conséquences pour son intégrité physique pourraient être catastrophiques. Ce n'est absolument pas le cas aux États-Unis. Les deux systèmes sont en réalité tout simplement incomparables. Cela ne veut pas dire que le gouvernement américain n'a pas accès à de nombreuses données ; il ne faut pas être angélique, mais ces deux systèmes sont complètement différents, il est toujours possible, aux États-Unis, d'aller en justice, y compris pour dire qu'on a été traité de manière illégale par le gouvernement.

Concernant l'infiltration, les Chinois créent des comptes. À quel point, sur TikTok ? On ne le sait pas : aucune recherche n'est suffisamment fine pour connaître précisément les modi operandi, et la quantité de faux comptes manipulés. Les Chinois ont-ils besoin de créer de faux comptes pour récolter des informations ? Je n'en suis pas persuadé...

Mme Catherine Morin-Desailly. - Je ne posais pas la question de la création de faux comptes, mais celle de la reconstitution de profils de personnes qui ne sont pas abonnées à TikTok, c'est-à-dire de l'entourage, des membres d'une famille, comme Facebook le fait.

M. Paul Charon. - Oui, cette reconstitution est probable, comme elle existe sur d'autres plateformes. Dans tous les cas, les plateformes sont utilisées à la fois pour diffuser du contenu et pour collecter des informations sur des individus, des segments de société, ou des sociétés entières. Mais il n'y a pas d'enquête précise permettant de chiffrer cela, ou de détailler le modus operandi.

Mme Catherine Morin-Desailly. - Se pose aussi la question de l'ingérence dans les plateformes étrangères, à l'instar de ce qu'ont fait les Russes.

M. Paul Charon. - Au sein de la société, ou au sein du réseau ?

Mme Catherine Morin-Desailly. - L'affaire Cambridge Analytica a montré une infiltration des Russes, qui ont exploité les failles créées par le réseau lui-même, et ont manipulé des scrutins électoraux. Les Chinois ont-ils la même stratégie ?

M. Paul Charon. - Ils l'ont peut-être, mais pour l'instant nous n'avons pas de cas similaire à celui de Cambridge Analytica. Mais nous savons que les Chinois s'intéressent à l'ingérence électorale. Il n'y a plus qu'un pas à franchir, pour exploiter ce type d'outils dans le cadre d'ingérences électorales. Depuis longtemps, avec vigueur, les Chinois le font à Taïwan, de plus en plus au Canada, en Australie ou en Nouvelle-Zélande. Ils commencent à s'y intéresser aux États-Unis, et l'Europe y viendra.

Il faut voir ce qui se passe à Taïwan, en Australie, en Nouvelle-Zélande et au Canada comme une image de notre avenir, même si la nature des régimes politiques, la différence entre État unitaire et États fédéraux, ou entre les modes de scrutins font que les stratégies sont différentes. La volonté de peser sur les élections est évidente.

Concernant les algorithmes addictifs, même si cela n'est pas ma spécialité, les techniciens et les ingénieurs semblent dire que TikTok est la plateforme la plus efficace pour créer de l'addiction, parce que l'algorithme est mieux capable de comprendre ce qui intéresse l'utilisateur. Il suffit de passer quelques microsecondes de plus sur une vidéo pour que l'algorithme le détecte, identifie un intérêt, et pousse du contenu ressemblant. C'est cette qualité de l'algorithme qui lui permet d'être aussi addictif, et d'être bien plus efficace pour évaluer les goûts que celui de YouTube ou d'Instagram.

Mme Annick Billon. - Vous avez identifié la volonté de TikTok d'affaiblir des sociétés cibles. Il a surtout été question des Américains, mais a-t-on connaissance d'une hiérarchie de ces sociétés ciblées ?

Le public de TikTok est assez jeune. N'est-ce pas contradictoire par rapport à la volonté de collecter des données sur des entreprises ou des décideurs ? Comment expliquer la différence entre les menaces ressenties par rapport à ce réseau et le public jeune qu'il vise ?

Ce réseau social est le seul à avoir réussi à séduire l'Asie, l'Afrique, l'Amérique et l'Europe. Comment expliquez-vous qu'il soit le seul réseau social à avoir réussi à s'implanter dans tous les pays du monde ? Quelles sont les raisons de ce succès à l'international ?

Enfin, vous indiquez dans votre rapport que la direction de TikTok recevrait quotidiennement des directives de modération des autorités chinoises. Pouvez-vous nous en dire plus ? Avez-vous eu connaissance de ces directives ? Quels sont leurs contenus, leur fréquence ?

M. Paul Charon. - Je parlais des sociétés ciblées par la Chine et le parti communiste chinois ; savoir si cela rejaillit sur TikTok revient à se demander à quel point TikTok est contrôlé par le PCC. Il faut être prudent. Ce qui est plus inquiétant, c'est, d'une part, l'utilisation par les acteurs étatiques des données collectées, et, d'autre part, le contenu poussé par des acteurs malveillants qui ne sont pas forcément liés à TikTok. Le succès de TikTok est une opportunité que les acteurs de la lutte informationnelle chinoise ont saisie, plutôt que le résultat d'une vaste stratégie de Pékin.

Le fonctionnement est probablement assez similaire à celui des « mesures actives » du KGB pendant la guerre froide : des membres des services de renseignement ou des organes comme le département de la propagande font de la désinformation ; ils identifient des sujets pouvant affaiblir les sociétés cibles, par exemple les « gilets jaunes » lorsqu'il y a des manifestations en France ou le mariage gay au Canada, car ces sujets peuvent diviser la population, ou en tout cas dissocier la diaspora chinoise, souvent conservatrice, et le reste de la société. Des membres de ces administrations et de ces agences sont chargés d'identifier les sujets pouvant être exploités, puis on imagine la stratégie qui permettra d'exploiter ces sujets.

TikTok est l'un des vecteurs que ces acteurs peuvent utiliser, mais ils ne se limitent souvent pas à un seul vecteur. TikTok appartient à une vaste stratégie à plusieurs canaux, où sont utilisés Twitter, Facebook, les médias traditionnels, mais également des réseaux humains, dans des associations professionnelles ou sportives, des associations d'amitié, des think tanks, des maisons d'édition... L'ensemble de ces vecteurs sera utilisé pour diffuser un message, une représentation : il ne faut pas isoler TikTok de l'ensemble du répertoire d'action dont dispose le parti. Cela ne veut pas dire que tout est parfaitement coordonné : les acteurs n'agissent pas forcément en très bonne entente, et certains sont même en compétition avec d'autres, mais les grandes lignes sont les mêmes.

Concernant la hiérarchie des sociétés ciblées, certaines le sont bien évidemment en priorité. Certaines sociétés sont intéressantes parce qu'elles sont perçues comme des adversaires du parti ou des rivaux de la Chine, comme les États-Unis. Elles peuvent aussi être jugées comme fragiles, et pouvant être encore davantage fragilisées. Elles peuvent aussi être visées en raison d'intérêts chinois à défendre ou à accroître, ou en raison de la présence d'une diaspora importante : le fait que la France ait la plus grande diaspora chinoise d'Europe fait d'elle une cible particulière, mais à un degré moindre que l'Australie ou le Canada, où les communautés chinoises sont encore plus importantes, et qui subissent également le fait d'être des états fédéraux, plus faciles à pénétrer, car il est plus facile de pénétrer les autorités locales que de participer à des élections nationales, où les élus sont bien plus visibles.

Les publics jeunes ne sont pas dénués d'intérêt ou isolés. TikTok est privilégié pour toucher la jeunesse, mais d'autres canaux peuvent être utilisés pour toucher d'autres segments de la population. Ainsi, pour toucher la diaspora, c'est WeChat qui est utilisé, ou d'autres médias traditionnels. Il est difficile d'établir des chiffres avec précision, mais 95 % des médias traditionnels en langue chinoise hors de Chine seraient contrôlés par le parti. En France, aucun média papier en chinois n'est indépendant du parti : Nouvelles d'Europe est un média entièrement contrôlé par le PCC, et c'est lui qui informe les Français d'origine chinoise, au moins jusqu'à la troisième génération, pour laquelle WeChat prend le relais. C'est un vrai problème, dont on parle peu. Bien sûr, RFI fait un travail formidable, mais avec trop peu de moyens. On laisse un segment de notre population être informée par la Chine, y compris avec des appels à aller aux urnes, sans directive de vote pour l'instant, mais il me semble que c'est un test pour évaluer les capacités de mobilisation de la population. Tout cela est très inquiétant. TikTok n'est qu'un outil, permettant de toucher un segment particulier.

TikTok vise actuellement des adolescents sans activité professionnelle, mais ils en auront un jour. Ils auront pu être influencés par des contenus, avoir une image de la Chine plus positive que les générations précédentes : c'est aussi une stratégie de long terme.

Quant à la diffusion mondiale de TikTok, il me semble que la réponse tient à la qualité de l'algorithme, qui s'adapte aux besoins et aux goûts des populations locales.

Pour la modération, il y a eu quelques fuites concernant les directives, ce qui n'est pas étonnant, car tous les médias chinois en reçoivent. Elles prennent souvent la forme de listes de mots interdits, et de listes de mots ou de sujets à promouvoir en priorité. Un site américain, associé à l'université Harvard, diffuse régulièrement ces directives du département de la propagande lorsqu'il y a des fuites - et il y en a régulièrement.

M. André Gattolin. - Tout cela est très intéressant. Je diverge un peu sur les volontés d'influence électorale de la Chine - peut-être pourrons-nous en parler plus tard. Je voulais revenir sur une chose : de quoi TikTok est-il le nom ? L'objectif affiché très tôt était de devenir le premier média adolescent dans le monde : il est réalisé aujourd'hui, avec plus de 1 milliard d'utilisateurs.

TikTok est-elle une entreprise commerciale ? Il y a des ressorts idéologiques derrière, abrités par le pouvoir du régime de Pékin. Les quelques informations dont nous disposons sur les recettes publicitaires ne sont pas glorieuses : TikTok est beaucoup plus puissant que Snapchat, mais ne fait pas le quart de ses recettes publicitaires. Les dirigeants de TikTok ont annoncé que la moitié de leurs recettes publicitaires serait utilisée pour rémunérer les créateurs. L'intérêt, d'un ordre différent, repose sur la collecte et le stockage des données, notamment pour les jeunes : un jeune aujourd'hui transgressif sur ce genre de médias peut se retrouver dans cinq ans à Sciences Po, dans dix ans dans un cabinet ministériel. La Chine a-t-elle les capacités de stockage et de traitement suffisantes ? En tout cas, elle pourra identifier ces personnes qui se sont elles-mêmes filmées...

On remarque, peut-être moins en Europe qu'en Amérique du Nord, que dans les grands magasins vendant des livres, comme Indigo, la principale table présente des livres recommandés par TikTok. À coup de renforts publicitaires, TikTok devient un prescripteur important dans l'édition, dans de nombreux domaines. Je perçois bien la logique : on retrouve une constante de la stratégie chinoise, que l'on avait vue notamment pour les matières premières ou les terres rares : faire du dumping pour éliminer toute concurrence puis, une fois le monopole établi, en faire un autre usage.

Je ne peux pas m'empêcher de penser que TikTok fait partie d'une entreprise dont le but n'est pas simplement l'abêtissement, mais de pousser à des comportements hors normes, pour se réserver, peut-être demain, des leviers de pression directe.

Ne serait-on pas face à une expérimentation extrêmement large et importante ? On ne capte pas 1 milliard de jeunes sans un projet plus politique... Peut-être suis-je habité par une paranoïa antitotalitaire, mais j'y vois un projet plus large qu'un énième GAFAM ou géant de l'internet. Dans les déclarations des dirigeants chinois, tout cela n'a pas l'air d'être si anodin...

M. Paul Charon. - Nous pourrons reparler de l'ingérence dans les élections. Cela fait partie de la stratégie. Nous avons des cas très bien documentés...

M. André Gattolin. - Très ponctuels !

M. Paul Charon. - ... d'ingérence électorale dans plusieurs pays occidentaux, qui montrent qu'il s'agit de l'un des volets des opérations d'influence de la Chine.

Sur la stratégie globale de l'entreprise, j'essaie de n'affirmer que ce pour quoi j'ai des preuves. Il me faut avoir collecté suffisamment d'éléments pour affirmer quelque chose. Je reste prudent. Votre hypothèse est plausible, mais nous n'avons pas la preuve d'un vaste plan. Par ailleurs, j'ai quelques doutes sur cette hypothèse : globalement, le parti n'est pas toujours efficace pour mettre en oeuvre de vastes plans de ce type. En revanche, il est très opportuniste : quand quelque chose fonctionne, et qu'il peut l'instrumentaliser ou l'utiliser à des fins politiques, même si le projet d'origine était purement commercial, le parti le fait sans états d'âme et avec beaucoup d'efficacité. Le résultat est le même, mais ce n'est pas tout à fait la même chose du point de vue du chercheur, pour comprendre la nature et le fonctionnement du régime.

Vous avez raison concernant la capacité de la Chine à voir à long terme. Cela ne veut pas dire que tout projet est élaboré sur le long terme : certains projets sont menés dans l'urgence, sans aucune réflexion, et ne sont pas pensés pour durer. Mais les Chinois sont capables de projets à long terme. Pour illustrer mon propos, nous l'avons remarqué dans les opérations de recrutement, lorsque les services chinois veulent recruter une source. Un service de renseignement travaillant sur le court terme identifie la source possédant les renseignements dont on a besoin, un ingénieur travaillant chez Thales ou un membre d'un cabinet ministériel. En misant sur le long terme, on recrute des gens plus jeunes, en espérant qu'un jour les fonctions des recrues seront importantes pour la Chine. Les Chinois font les deux : non seulement ils recrutent des gens déjà en fonction, disposant des informations dont ils ont besoin, mais ils recrutent aussi à long terme.

Je peux évoquer le cas de Glenn Duffie Shriver, étudiant américain parti faire ses études à Shanghai, qui a été recruté, par petite annonce, par le ministère de la sécurité d'État, qui cherchait un étudiant américain pour rédiger une petite étude insignifiante. Cette étude, extrêmement bien rémunérée, a été suivie d'une autre, puis encore d'une autre. La relation s'étend dans la durée, pendant plusieurs mois. La première personne au contact de l'étudiant passe la main à une autre personne - probablement un officier du ministère. Petit à petit, les travaux deviennent plus intéressants. Au final, l'étudiant est incité à tenter le concours du département d'État ou de la CIA. S'il échoue au premier, il réussit les premières épreuves du second. Mais, lorsqu'il a été soumis au détecteur de mensonge, ce qui est obligatoire pour entrer à la CIA, il a un peu paniqué quand on lui a demandé s'il avait déjà perçu de l'argent d'une puissance étrangère. Il a dit qu'il n'était plus candidat, et il a tenté de retourner en Chine. Il a été arrêté alors qu'il s'apprêtait à prendre l'avion.

Le fait que les services de renseignement chinois recrutent des jeunes, encore étudiants, en espérant qu'ils auront un jour des fonctions intéressantes ou même - encore mieux - en les orientant vers les carrières qui les intéressent montre qu'ils sont capables de développer des stratégies à long terme, même si c'est avec plus ou moins de succès.

M. Thomas Dossus. - Je reviens sur les mesures actives et sur les contenus poussés. D'après vos connaissances, s'agit-il d'une intervention directement sur l'algorithme de TikTok, ou plutôt de l'utilisation de comptes comme relais des termes à promouvoir ?

Dans les interventions multicanaux dont vous avez parlé, TikTok est-il plus ou moins efficace que YouTube ou Facebook ? Je rappelle que YouTube a un peu modifié son algorithme pour éliminer les fausses informations. TikTok est-il désormais un canal privilégié ?

M. Paul Charon. - Pour l'instant, ce que l'on note, c'est que les Chinois privilégient le contenu : si nécessaire, ils créent de faux comptes et diffusent des contenus qui vont soit créer du dissensus, soit orienter les opinions sur certains sujets. Peut-être y a-t-il aussi une intervention sur l'algorithme, mais nous n'avons aucune information à ce sujet. Ce qui est sûr, c'est que, sur TikTok comme sur les autres réseaux sociaux, ils misent d'abord sur le contenu.

S'agissant des interventions multicanaux, l'efficacité relative de TikTok est difficile à évaluer, déjà parce qu'il y a ce que l'on voit et tout ce que l'on ne voit pas. Il y a ce que les réseaux sociaux veulent bien révéler. Certains acteurs acceptent de donner accès à leur interface de programmation d'application (API), ce qui permet d'obtenir les données et d'y travailler, quand d'autres refusent. La comparaison est donc difficile. Par ailleurs, TikTok ne vise pas les mêmes segments de population qu'une application comme Facebook, qui a atteint son plafond, qui ne grandira plus parce que sa population est plus âgée, et qui sera maintenue en place jusqu'à qu'elle meure doucement. Il est tout de même utile de recueillir le même type d'informations sur d'autres segments de population.

Je ne suis pas sûr que comparer TikTok à Twitter ou Facebook soit la bonne façon de procéder. Ce que l'on voit, c'est que la plupart des États qui en ont les moyens travaillent sur toutes ces plateformes, parce qu'elles ont chacune leurs avantages, leurs faiblesses, vont apporter tel type de données ou faciliter l'accès à tel segment de la population.

M. Claude Malhuret, rapporteur. - Je veux m'adresser, de façon plus générale, au directeur du domaine « Renseignement, anticipation et stratégies d'influence » de l'Irsem.

Vous avez évoqué tout à l'heure le problème de l'asymétrie effarante : les GAFAM et d'autres plateformes sont totalement interdites en Chine, alors même que les Chinois et les Russes peuvent intervenir autant qu'ils veulent sur Facebook, YouTube, etc. En plus, TikTok est aujourd'hui, d'une façon ou d'une autre, lié au gouvernement chinois et peut se développer comme il le veut dans l'ensemble des pays occidentaux. J'ai d'ailleurs cru comprendre que vous nous suggériez qu'il faudrait peut-être s'en occuper...

De la même façon, vous avez évoqué les refus de visas des journalistes et des chercheurs, alors qu'il y a des millions d'étudiants chinois dans les universités européennes et américaines.

Vous dites également, dans votre rapport, qu'il y avait, voilà quelques années, plus de 2 millions d'« influenceurs à 50 centimes » - ceux qui trollent, qui sont en permanence sur les réseaux sociaux occidentaux et sont payés par le régime chinois. On se dit que jamais la France ou les États-Unis ne feront de telles choses !

Sur cette terrible asymétrie en matière de renseignement, pourriez-vous, à ce jour, formuler quelques recommandations ? Auriez-vous, par ailleurs, quelques données susceptibles de nous rassurer sur les contre-offensives possibles ?

Dans votre rapport, vous écrivez que « la prise de conscience en France des risques posés par l'influence chinoise est vive et croissante depuis 2019, avec une nette accélération en 2020-2021. C'est dans ce contexte de « réveil français », qui semble désormais irréversible, que s'inscrit la publication du présent rapport ». Je ne suis pas tout à fait sûr d'être aussi optimiste que vous. Tout le monde ici est au courant des dernières données, qui ont conduit la Commission européenne à interdire, en urgence, l'installation de l'application sur le téléphone de ses fonctionnaires. Plusieurs pays européens l'ont fait en même temps. Cette décision est-elle, selon vous, le fruit d'une prise de conscience progressive ou les services de renseignement ont-ils brusquement découvert une réalité que l'on ne connaissait pas ?

La Commission européenne n'a pas donné beaucoup de détails. La moindre des choses est de lui demander les raisons de son geste ! Celle-ci a ouvert une boîte de Pandore : si elle estime que les transferts de données concernent ses fonctionnaires ou ceux du Parlement européen, ils concernent évidemment ceux de tous les gouvernements. Trouvez-vous qu'il y a là une sorte de prise de conscience qui peut nous conduire à l'optimisme quant aux réactions du gouvernement français ?

Je trouve la conclusion de votre rapport intéressante : en définitive, toutes ces stratégies d'influence sur les réseaux sociaux se concluent, selon vous, par un « échec stratégique », puisque, aujourd'hui, dans les études d'opinion, l'image de la Chine est catastrophique. J'analyse cet échec comme étant en lien avec le durcissement, à la fois à l'intérieur et à l'extérieur, de Xi Jinping, qui a d'ailleurs conduit à une gestion désastreuse du covid.

Ce durcissement annonce-t-il un nouveau blocage, après la « remaoïsation » que l'on a connue - toutes proportions gardées - de Deng Xiaoping à Hu Jintao ? Couplé à la catastrophe démographique que connaît actuellement la Chine, entraîne-t-il une probabilité d'affaiblissement du régime chinois à terme ? Ou estimez-vous qu'il est très difficile de tirer des plans sur la comète sur ce qui est en train de se passer aujourd'hui et de conclure, compte tenu également des déboires que connaît la Russie, à de potentiels vrais problèmes pour les régimes totalitaires face aux démocraties occidentales ?

M. Paul Charon. - Nous n'avons pas formulé de recommandations dans notre rapport, car nous sommes des chercheurs, et tel n'est pas notre métier. Mais je peux vous indiquer quelques pistes, d'abord liées à la question de l'asymétrie, de l'absence de réciprocité. Il ne tient qu'à nous d'exiger cette dernière à chaque fois que cela nous semble nécessaire, sans porter atteinte à nos institutions ou à nos valeurs.

De plus, cette asymétrie est aussi celle de la connaissance de l'autre : on connaît bien moins la Chine que la Chine ne nous connaît, pour de nombreuses raisons. Il y a beaucoup plus d'étudiants chinois venant en France que d'étudiants français ou européens se rendant en Chine, beaucoup plus de Chinois parlant français ou anglais que de Français ou d'Anglais parlant le chinois. Cette asymétrie de connaissance touche les institutions, mais aussi et surtout la pensée stratégique chinoise. Cette méconnaissance ne concerne pas que la France, mais aussi les États-Unis, où ce constat est largement partagé. Un exemple souvent mentionné : la bible de la pensée stratégique chinoise date de quinze ans, mais cet ouvrage majeur n'a été traduit en anglais, pour la première fois dans une langue occidentale, que l'année dernière. Auparavant, on continuait de mentionner Sun Tzu ou La Guerre hors limites quand on tentait de comprendre la pensée stratégique chinoise. Or cette dernière est pourtant très riche : les militaires, les diplomates ou les think tanks ont une production colossale, très vive et dynamique, mais nous ne la connaissons pas. Nous ne savons pas comment les Chinois se représentent les questions informationnelles, stratégiques ou la guerre. Tout cela est très mal connu.

Cela me conduit à formuler une recommandation évidente : il faut plus de chercheurs spécialistes de la Chine, plus de bourses, plus de postes dans les universités, plus de sinologues spécialistes de ces questions au Centre national de la recherche scientifique (CNRS), plus de postes dans les think tanks et les administrations. C'est un levier d'action très concret qui nous permettrait d'être mieux armés.

Nous pourrions être tentés d'utiliser les mêmes méthodes que les Chinois et les Russes. Je pense qu'il faut s'en préserver : si nous créions de faux comptes sur les réseaux sociaux pour diffuser de fausses informations dirigées contre nos adversaires, nous nous ferions prendre, comme eux...

M. André Gattolin. - C'est arrivé en Afrique...

M. Paul Charon. - Le cas africain est intéressant. L'affaire de Gossi nous montre ce que nous pouvons faire : révéler les actions des Russes, entraver leurs opérations de désinformation, c'est vertueux, c'est efficace, et c'est à notre portée. Nous pourrions être tentés de créer de faux comptes, comme les Chinois et les Russes, mais nous devons nous en préserver, car nos institutions et nos valeurs démocratiques seraient affaiblies, ce que cherchent tant les Chinois que les Russes : nous pourrions tomber dans le piège qu'ils nous tendent.

Une autre recommandation possible, c'est celle de rendre systématiquement publiques les opérations détectées, surtout lorsqu'elles sont de plus en plus sophistiquées et qu'elles font appel à des intermédiaires en France. Si des Français, quelle qu'en soit la raison, décident de soutenir une opération informationnelle chinoise, il faut le rendre public. Le coût informationnel est très important, et une fois entravés, ces intermédiaires ne peuvent plus être utilisés. Il faut le faire de manière systématique, le plus largement possible.

Le réveil français et la prise de conscience sont progressifs. Cela ne concerne pas que TikTok. La pandémie a joué un grand rôle, en mettant au jour certaines pratiques. Mais c'est également lié au virage chinois. Tant que les opérations informationnelles chinoises misaient essentiellement sur la séduction, cela ne posait pas de problème. Mais lorsque les instituts Confucius sont associés à d'autres moyens relevant de l'infiltration, cela peut nous poser des problèmes. Là encore, il faut faire valoir la réciprocité : la Chine laisserait-elle les alliances françaises diffuser de fausses informations, réécrire l'histoire ? Les matériaux utilisés par les instituts Confucius pour enseigner le chinois sont très tendancieux historiquement... On pourrait leur opposer la réciprocité, en leur demandant pourquoi nous devrions tolérer chez nous ce qu'ils ne toléreraient pas chez eux.

Cette prise de conscience est lente, progressive, mais elle est réelle. Il y a de multiples illustrations. Le débat sur TikTok n'en constitue que le dernier volet : il y a déjà eu la mise en place du service de vigilance et de protection contre les ingérences numériques étrangères (Viginum), un certain nombre de rapports et de travaux scientifiques, et de plus en plus de journalistes enquêtent et font des révélations. Des gens qui étaient très favorables à la Chine et la soutenaient dans ces opérations ne le font plus aujourd'hui. Il y a une prise de conscience, et un coût à adopter ce type de comportements.

M. Mickaël Vallet, président. - Vous pensez à des politiques, des chercheurs, des journalistes ?

M. Paul Charon. - Oui, à tous ces domaines confondus.

M. Mickaël Vallet, président. - Pensez-vous à quelqu'un en particulier ?

M. Paul Charon. - Non, je parle de manière générale. Le rapport contient des exemples intéressants. Il y a un véritable coût réputationnel qui fait hésiter certaines personnes, surtout lorsque la motivation n'est pas idéologique, ou qu'elle ne va pas jusqu'au partage d'idée, mais plutôt à l'identification d'un ennemi commun. En France, l'une des chances de la Chine, c'est l'antiaméricanisme. Les Chinois arrivent à pénétrer certains segments de la société en misant sur l'antiaméricanisme, et des gens aident la Chine non par amour du régime chinois, ou parce qu'ils sont convaincus par l'idéologie prônée par Xi Jinping, mais parce qu'ils sont tout simplement antiaméricains.

Vous avez parlé de « remaoïsation ». Il faut faire attention : le durcissement du régime n'est pas sa maoïsation. La maoïsation d'un régime repose sur la mobilisation des masses. Le régime maoïste est comme Janus, il a un visage institutionnel, celui de l'État, et un autre visage, celui des mobilisations populaires. Pensons au Grand bond en avant, ou à la Révolution culturelle : ces fièvres populaires, caractéristiques du maoïsme, ne correspondent pas à ce que fait Xi Jinping aujourd'hui. Il faut faire attention à ne pas faire d'erreur d'analyse.

M. Claude Malhuret, rapporteur. - J'aurais dû dire : néostalinisation...

M. Paul Charon. - Oui, il y a un échec stratégique, parce que, même si la Chine est capable de remporter un certain nombre de succès tactiques ici ou là, avec plusieurs opérations qui ont très bien fonctionné et qui ont apporté des gains à court terme, on assiste, sur le moyen terme, à un effondrement de l'image de la Chine dans le monde. L'exemple le plus flagrant est celui de la Corée du Sud : il y a vingt ans, 69 % des Coréens du Sud avaient une image positive de la Chine, contre 19 % aujourd'hui. Cela s'explique tout simplement par le fait que le parti communiste a une posture beaucoup plus agressive à l'égard de la Corée, comme de l'Europe ou de l'Amérique du Nord.

Il faut malgré tout apporter une nuance à cette évaluation, compte tenu des succès que la Chine remporte dans le Sud global. Là aussi, ce n'est pas par adhésion au régime chinois : cela peut être par anti-occidentalisme ou par anti-américanisme, de la même manière qu'un certain nombre de pays se laissent séduire par les Russes et Wagner plus par rejet de la France que par adhésion au modèle russe. C'est important, parce que cela veut dire que la réponse n'est pas forcément la même partout. Il y a une réponse qu'il faut apporter à la Chine : on doit mettre en place un certain nombre de dispositifs pour nous protéger contre ses opérations informationnelles. Mais il y a peut-être une réponse plus diplomatique à apporter aux pays qui se laissent séduire par la proposition de rééquilibre mondial que propose la Chine. Ce que la Chine propose n'est ni plus ni moins qu'un révisionnisme international. Le parti et Xi Jinping le disent très clairement : ce qu'ils veulent, c'est refonder le système international pour qu'il ressemble davantage au système chinois et qu'il défende mieux les intérêts de la Chine. L'offensive vers le Sud global relève de cette logique.

Veillons à ne pas trop nous isoler de ce Sud global, pour ne pas le voir prendre parti pour Pékin. Regardez ce qui se passe à l'ONU ! Ce sont les régimes autoritaires qui, aujourd'hui, y dominent les débats sur les droits de l'homme, parce qu'ils sont plus nombreux. Cette rhétorique, la Chine l'avance en permanence. Même dans le vote sur les sanctions de la Russie en raison de l'invasion de l'Ukraine a été mis en avant le fait que les quelque 45 ou 50 États qui ont voté contre ou se sont abstenus représentaient plus de la moitié de la population mondiale. C'est un argument auquel on ne sait pas répondre pour l'instant - ou alors on le fait très mal. C'est un enjeu colossal.

Y a-t-il un affaiblissement potentiel du régime ? C'est une question à laquelle il est extrêmement difficile de répondre. On ne peut absolument pas dire si le régime est sur le point de s'effondrer ou pas. Mais, s'il s'effondre, je ne serai pas surpris.

M. Mickaël Vallet, président. - Vous concluez par une réponse de diplomate, mais nous avons été très intéressés par les considérations de chercheur que vous avez développées tout au long de l'audition. Merci infiniment !

Audition de M. Julien Nocetti, enseignant-chercheur à l'académie militaire de Saint-Cyr Coëtquidan, le 27 mars 2023

M. Mickaël Vallet, président. - Nous avons le plaisir d'auditionner cet après-midi M. Julien Nocetti, enseignant-chercheur à l'académie militaire de Saint-Cyr Coëtquidan et chercheur associé à l'Institut français des relations internationales (IFRI). Pour rappel, l'académie militaire de Saint-Cyr Coëtquidan dispense une formation initiale pluridisciplinaire de haut niveau aux officiers de l'armée de terre. Vous êtes également directeur de la chaire Gouvernance du risque cyber au sein de l'école de management de Rennes, Rennes School of Business, et chercheur au centre de géopolitique de la Datasphère (GEODE) -- université Paris 8. Enfin, vous êtes docteur en sciences politiques.

Spécialiste en « géopolitique des technologies », vous avez tout particulièrement travaillé sur la cybersécurité et sur les stratégies numériques des États. Vous avez publié plusieurs articles sur la guerre technologique sino-américaine, en étudiant notamment le cas de l'affaire Huawei, que l'affaire TikTok aurait presque réussi à nous faire oublier !

L'application TikTok est donc aujourd'hui le nouvel objet de tensions dans la guerre numérique entre la Chine et les États-Unis. Auditionné pendant plus de cinq heures, le 23 mars dernier, par la Chambre des représentants américaine, le PDG de TikTok a de nouveau contesté les accusations de contrôle de la société ByteDance par Pékin. S'il a reconnu que des serveurs chinois détenaient encore des données d'utilisateurs américains, il a assuré que le projet Texas réglerait ce problème d'ici à « la fin de l'année ».

Votre regard d'expert nous aidera à mieux comprendre, d'une part, les menaces que font peser des outils numériques tels que TikTok en matière d'influence ou de collecte de données, et, d'autre part, ce qui se joue dans cet affrontement sino-américain autour de la plateforme, notamment en Europe. Par ailleurs, nous aimerions aussi vous entendre sur la stratégie européenne à l'égard de l'application. Est-ce qu'un front uni se dessine ; les Européens sont-ils, selon vous, capables de peser autant que les Américains ? Nous avons tous entendu les annonces qui ont été faites la semaine dernière par le ministre chargé de la transition numérique et des télécommunications et par celui qui est chargé de la fonction publique.

J'indique que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure. »

Conformément à la procédure applicable aux commissions d'enquête, M. Julien Nocetti prête serment.

M. Julien Nocetti, enseignant-chercheur à l'académie militaire de Saint-Cyr Coëtquidan. - La matière de cette audition étant très dense, je ne prétends à aucune exhaustivité, mais m'efforcerai de souligner des faits saillants méritant un approfondissement, notamment dans une perspective européenne. J'organiserai donc mon propos en trois temps. Premièrement, je propose de démêler les enjeux de TikTok : de quoi TikTok est-il le nom dans le cadre des rapports internationaux ? Deuxièmement, quels sont les acteurs en jeu dans ce phénomène TikTok ? Vous avez souligné les initiatives récentes des États-Unis, le positionnement de Washington est peut-être plus complexe qu'il ne paraît, ou du moins que l'audition récente du PDG de TikTok ne laisse paraître. La question du positionnement de la Chine, de l'Union européenne et des États membres se pose également. Troisièmement, je m'attarderai sur les risques et les menaces cognitives, un sujet qui a d'ailleurs notamment été souligné par la commission d'enquête. Il est difficile de voir ce qui relève du seul produit TikTok et ce qui relève du projet d'influence à plus ou moins long terme.

Vous avez souligné l'enjeu de Huawei qui a suscité il y a quelques années des débats plus ou moins passionnés en Europe et aux États-Unis. Mais lorsque l'on resitue ces débats dans les cinq années de sanctions technologiques et financières américaines contre les acteurs chinois, on observe que les questions de sécurité l'emportent sur l'idée du doux commerce. Cela constitue d'ailleurs une évolution majeure, engagée par l'administration de Donald Trump, puis poursuivie par Joe Biden. Ainsi, l'anxiété à l'égard de toute menace d'interférence étrangère, tantôt russe, tantôt chinoise, figure au premier rang des priorités de politiques nationales et étrangères.

Alors de quoi TikTok est-il le nom ? Il s'agit d'un objet géopolitique d'un genre particulier. Cet enjeu illustre un hiatus extrêmement fort entre la majorité des usages de l'application, que l'on pourrait qualifier de « futilité joyeuse » et le coup de projecteur géopolitique que TikTok subit depuis quelque temps, depuis 2019 en réalité, par le biais de Donald Trump lui-même, puis avec l'interdiction de l'application par les autorités indiennes en 2020 dans un contexte de rivalités plus ou moins sourdes avec Pékin.

Rappelons que la trajectoire ascendante de l'application est assez inédite de la part d'un réseau social chinois, puisque TikTok est devenu le premier réseau social mondial, cinq ans après son lancement. C'est l'application la plus téléchargée au monde depuis 2020, la période de confinement ayant pu favoriser son succès. Or ce succès confirme le poids du pouvoir des utilisateurs, puisque ceux-ci ont adopté l'outil sans prendre en compte son origine géographique. On ne peut donc pas balayer les utilisateurs d'un revers de main en se concentrant uniquement sur les capacités d'action et les réponses des États. TikTok est également le premier média social né en dehors des États-Unis, capable de rivaliser avec les réseaux sociaux de la Silicon Valley. Si Facebook et ses filiales, Instagram et Whatsapp paraissent inattaquables, les projets concurrents qui ont été lancés ont constitué des échecs, malgré les moyens engagés. Ces acteurs ont donc été bousculés en à peine cinq ans, ce qui renvoie au fait que le temps d'action de l'économie numérique ne concorde pas forcément avec celui du politique.

De plus, TikTok vient contester frontalement l'hégémonie des États-Unis dans le champ de l'économie numérique, tout en renvoyant l'image d'une puissance numérique qui réussit. Le réseau combine en effet deux modèles d'affaires : un réseau social et une application permettant de partager des vidéos, ce qui en fait jusqu'ici une plateforme inédite.

Par ailleurs, cette trajectoire ascendante vient éclairer en creux la politique chinoise de la part de l'administration américaine. Il s'agit de renforcer la sécurité, mais aussi de ralentir la conquête technologique de Pékin. Cette donnée est à identifier sur le long cours - sous la présidence de Barack Obama, on avait déjà identifié ces enjeux de conquête technologique, qui regroupent des questions de propriété intellectuelle, de cyberespionnage et de cyberdéfense. Depuis une dizaine d'années, l'impératif de l'innovation représente un enjeu plus flagrant que celui d'ordre stratégique ou militaire dans l'accroissement des tensions entre les États-Unis et la Chine. Ainsi, l'intelligence artificielle a constitué un épicentre des tensions entre les deux pays, comme la 5G, dont l'affaire Huawei a été le révélateur, et aujourd'hui TikTok vient agréger toutes ces inquiétudes américaines, ce qui fait monter d'un cran cette friction entre les deux pays.

TikTok est aussi une nouvelle illustration de l'instrumentalisation des interdépendances économiques et technologiques tissées entre les pays, et de la possibilité d'affaiblir l'adversaire par ce biais. Dans ce cadre, TikTok et sa maison mère ByteDance représentent de manière très aboutie ces interdépendances sino-californiennes qui ont fonctionné à plein régime depuis vingt ans : ByteDance est immatriculée aux îles Caïmans, le PDG de TikTok est singapourien. De plus, l'émergence de TikTok a eu lieu grâce à de grands acteurs, comme la banque japonaise SoftBanck ou l'américaine KKR. Le financement a été aussi permis par le rachat de Musical.ly qui incarnait très bien cette ligne droite entre Shanghai et Santa Monica.

Il existe finalement - sans céder à une lecture psychologisante - un effet miroir de TikTok pour les États-Unis. On constate le même procédé de monétisation massive des acteurs performants de l'économie numérique, un emprunt à la culture du « mème », ces contenus ayant une dimension virale à certains moments de la vie internationale.

Enfin, jamais les débats n'ont été aussi vifs au sujet des implications socioculturelles d'une plateforme numérique. L'audition menée la semaine dernière par le Sénat américain en constitue une preuve flagrante, ce qui inquiète le législateur américain va bien au-delà des risques en matière d'interférences classiques.

S'agissant des jeux internes des acteurs, je souhaite m'attarder sur la politique américaine, en rappelant que le marché américain est le plus important, avec 150 millions d'utilisateurs actifs. Par ailleurs, cette affaire vient finalement clore deux décennies de business as usual avec la Chine, pendant lesquelles les questions de géopolitique n'étaient pas totalement absentes, mais soumises aux flux humains et technologiques. Cela renvoie à ce doux commerce qui avait été l'apanage de l'essor de la mondialisation commerciale et technologique.

Une question se pose de manière assez nette, mais les contours devront être précisés dans les semaines à venir : la façon dont cette bataille entre les autorités américaines et TikTok va permettre de ressouder ou non les plateformes américaines, derrière le législateur américain. Je pense notamment au groupe Meta dont le PDG, Mark Zuckerberg, a subi des auditions musclées, ces dernières années, par le Congrès américain. Il a mis l'accent sur la nécessité de ne pas réguler ou démanteler Facebook sous peine de favoriser mécaniquement les exportateurs chinois. Mais la question se pose différemment pour d'autres acteurs américains : hier, Timothy Donald Cook, le PDG d'Apple, louait la relation « symbiotique » d'Apple avec la Chine. De même, l'entreprise Tesla dépend en partie des capacités de production se trouvant en Chine. Faut-il y lire une peur de contre-réponse de la part de Pékin ? C'est possible, mais il est certain que la frustration de ne plus pouvoir accéder au marché chinois pèsera certainement et déclenchera des jeux d'influence du côté des institutions américaines. Il s'agit, à mon sens, d'une donnée qu'il faudra suivre dans les prochaines semaines.

Une autre donnée majeure concerne la possibilité de la Maison Blanche à attaquer une application aussi populaire auprès de jeunes qui constituent son socle électoral, qui plus est dans un contexte de majorité fragile. L'équation pour le décideur américain est complexe. Des députés ou des sénateurs américains proposent de ne pas bannir TikTok, mais d'aborder la problématique dans sa globalité, en imposant une forme de régulation d'ensemble des réseaux sociaux. S'agissant de notre prisme européen, nous pourrions nous inspirer de cette démarche pour résoudre certains problèmes majeurs identifiés sur les réseaux sociaux, comme la désinformation ou la circulation des discours de haine.

Dans ce contexte américain, les mots prononcés dernièrement illustrent bien, à mon sens, ce découplage analysé depuis quelques années, dont TikTok peut être le symbole, et qui déclenchera probablement des contre-réponses de la part de Pékin. On peut penser à la dépendance occidentale aux cellules de batterie, aux éléments de panneaux solaires, aux approvisionnements en lithium raffiné, autant de produits dans lesquels les acteurs chinois ont des parts de marché très importantes.

Du côté des Chinois, le fait que l'application TikTok en Chine, Douyin, soit configurée différemment, de manière qu'elle ne soit pas utilisée à des fins contestataires, donne assez logiquement corps aux arguments selon lesquels il existerait une stratégie chinoise visant, pour le moins, à diviser, sinon abêtir l'Occident. Il ne faut pas considérer l'enjeu TikTok comme étant propre à la jeunesse occidentale : après l'Inde, l'application a été interdite en Jordanie, et des discussions ont actuellement cours en Égypte. Une lecture globale serait donc plus utile en termes d'action politique.

Lorsque Donald Trump faisait pression en 2020 pour imposer une vente des activités de TikTok aux États-Unis, la Chine ajoutait un nouveau catalogue de contrôle des exportations. Il s'agissait de répertorier de manière implicite les algorithmes comme des éléments contrôlés, dans le cadre d'une politique de rétention. Cet exemple montre que le décideur chinois peut anticiper les actions de Washington.

Sur un plan international, cette affaire TikTok pourrait paradoxalement jouer en faveur des intérêts chinois, car, pour Pékin, le raidissement américain vient confirmer l'existence de doubles standards américains en matière de libre circulation des données. Le fait d'interdire TikTok viendrait affaiblir ce magistère moral des Américains, qui avait déjà été écorné sous la présidence de Donald Trump, mettant ainsi les États-Unis en difficulté pour continuer à faire valoir cette position traditionnelle de garant de la libre circulation des informations. Or cet enjeu structure en bonne partie la diplomatie américaine sur la question du numérique et se voit retranscrit dans la plupart des grands textes américains. Cette donnée diplomatique est à prendre au sérieux, qui plus est dans le contexte de la guerre en Ukraine.

Je souhaite revenir, avant de conclure, sur cette notion de menace cognitive, qui est un terme à la mode, en rappelant quelques constats.

Premièrement, le cas de TikTok, en termes d'accès aux données numériques, n'est pas isolé. En revanche, le vivier d'utilisateurs de la plateforme est particulier, avec 1,7 milliard d'utilisateurs.

Deuxièmement, TikTok est l'une des rares plateformes à ne pas recourir massivement à des publicités ciblées dans le cadre de son modèle économique.

Troisièmement, TikTok est bien plus qu'un simple forum, c'est aussi un éditeur de contenus, ce qui peut préoccuper les législateurs.

Plus largement, s'agissant de la menace cognitive, l'entremêlement et l'interdépendance de tout le réseau médiatique et numérique font de cette suprématie narrative, informationnelle un enjeu extrêmement éminent à l'échelle globale, mais aussi plus localisée : entre les États-Unis et la Chine ou entre l'Union européenne et la Chine ou la Russie par exemple. La grammaire stratégique de la subversion est remise au goût du jour par l'évolution des technologies. La preuve en est, l'intelligence artificielle a pris une importance nouvelle en personnalisant plus finement les manipulations d'informations pour atteindre un plus grand nombre d'individus. Cette interdépendance cognitive entre les sociétés a permis de développer un mercenariat d'influence numérique, dont les effets restent difficiles à contrer, car ces manipulations font très souvent intervenir des intermédiaires, des proxies, qui sont en réalité étatiques. Nous faisons donc face à des dénis de responsabilité ou à des actions dissimulées plus ou moins clandestines dans ce champ informationnel, dans lequel TikTok peut aussi servir de stratégie.

TikTok peut également tout simplement ne pas recommander un contenu grâce à son algorithme, ce qui façonnera en retour la consommation des utilisateurs de l'application ; ces évitements de contenus concernent notamment tous les sujets qui suscitent l'ire du parti État en Chine.

Il faut comprendre que les stratégies de subversion sont devenues la norme dans le cadre des relations internationales, plutôt que l'exception. Ce rapport de force dans le domaine cognitif vient finalement exploiter quelque chose d'assez ancien. Mais celui-ci est adapté à des contenus extrêmement personnalisés, et s'insère dans une démarche de répétition, qui, alliée à des contenus courts, permet de capter l'attention de l'utilisateur et de le rendre très dépendant des contenus qu'il consulte.

S'agissant de la ligne européenne, c'est une chose de prendre des mesures pour restreindre TikTok dans la communauté des fonctionnaires européens, cela en est une autre de décider d'interdire l'application au sein des États membres. Cette interdiction poserait d'évidents problèmes en matière de liberté d'expression. Malgré les précédents de RT ou Sputnik l'année dernière, il faut des raisons graves pour étayer une telle décision.

Un autre enjeu européen porte sur les resserrements des relations transatlantiques depuis février 2022. Les États-Unis réalisent en effet d'importants efforts diplomatiques pour renforcer les alliances européennes et asiatiques, avec le Japon, la Corée du Sud ou Taiwan. Ainsi, le forum de Davos, la conférence de Munich sur la sécurité en février, et le Mobile World Congress de Barcelone montrent que l'objectif des États-Unis était d'inciter les partenaires européens et asiatiques à rejoindre la position américaine au sujet de TikTok, et des acteurs technologiques chinois en général.

En conclusion, je dirais que les institutions européennes ne partent pas de zéro en ce qui concerne les menaces cognitives. Le Service européen pour l'action extérieure (SEAE) a entrepris des réflexions depuis déjà quelques années, notamment sur le sujet de la sécurité cognitive, dans le cadre de la stratégie de réponse aux menaces informationnelles et d'interférence étrangère. Il conviendrait également de faire une étude approfondie de cette application, en y associant différentes formes d'expertises, afin d'analyser les effets potentiels sur différents types d'audience.

Enfin, il est important pour nous, Européens, d'élargir la focale, puisqu'il existe un lien entre la problématique technologique, la problématique énergétique et la problématique militaire. Un exemple récent a montré qu'un industriel de l'armement norvégien livrant notamment l'Ukraine, Nammo, ne pouvait pas agrandir une usine de production, parce que des datas centers utilisés par TikTok consommaient toute la production électrique de la région concernée. Le PDG de cette société a relevé que la croissance d'entreprise était entravée par le stockage de vidéos de chatons. Si l'allusion est triviale, elle montre que les intérêts européens reposent sur une équation à plusieurs données : le soutien à l'Ukraine, l'informatique énergétique, et les actions extra-européennes à mettre en place, porteuses de défis et de risques.

M. Claude Malhuret, rapporteur. - Je vous remercie pour votre exposé détaillé.

Que pensez-vous du projet Texas développé aux États-Unis, qui vise à répondre aux inquiétudes sur les transferts de données vers la Chine ? Ce projet permet-il réellement de contrôler totalement ces données sans qu'aucune fuite vers l'Asie ne puisse avoir lieu ?

En interdisant brusquement TikTok à tous les fonctionnaires, la Commission européenne a ouvert une boîte de Pandore. Quid du Parlement, de tous les gouvernements européens, et même des entreprises ? Pour autant, la Commission européenne n'a donné aucune raison explicite. Avez-vous des informations plus précises sur ce point ?

Selon vous, le Digital Services Act (DSA) permettra-t-il une véritable responsabilisation des plateformes ou en est-on encore loin ?

Les Gafam - Google, Apple, Facebook, Amazon, Microsoft - sont interdits en Chine et en Russie et, parallèlement, on laisse la Chine et la Russie agir librement sur ces plateformes en termes de désinformation. Dans un contexte de confrontation géopolitique qui ne fera que se renforcer dans les années à venir, comment sortir de ces contradictions ?

M. Julien Nocetti. - Je prendrai comme point de départ votre dernière question, qui porte finalement sur les enjeux de réciprocité et d'interdépendance instrumentalisée de part et d'autre. J'aurais tendance à relier la question à des enjeux d'identité. Cherche-t-on à défendre l'enjeu des valeurs lorsque l'on cherche à défendre un modèle technologique ? Ou assume-t-on le fait que tous ces enjeux technologiques soient devenus des enjeux de sécurité nationale ?

L'enjeu de fragmentation technologique a été identifié il y a plus d'une décennie et la Chine en tient compte dans la structuration même de son propre cyberespace. Néanmoins, face à certaines actions occidentales, on peut avoir l'impression d'un détricotage des interdépendances et de ce qui fonde la nature, ouverte et interopérable, du réseau. Ce sont donc des choix politiques sur ce que l'on souhaite transmettre par le biais de la technologie, et c'est là une question épineuse. Vivre dans un contexte de réciprocité est assez tentant, d'ailleurs le terme de weaponization illustre bien le contexte, mais cela aurait aussi pour effet de créer des situations d'escalade. En effet, la Chine pourrait répliquer via un certain nombre de domaines économiques. Le sujet est donc très sensible.

L'appareil législatif est-il suffisant ? En considérant le règlement général sur la protection des données (RGPD), le DSA ou la capacité d'action des commissions de l'informatique européennes, on constate que l'appareillage européen est déjà assez important. Un foisonnement d'initiatives existe également en matière de cybersécurité depuis une année, ainsi qu'une volonté de lutte contre la désinformation qui est louable - nous pouvons nous en féliciter. Il faut donc que l'Union européenne puisse tirer profit de cette puissance normative et, comme elle l'a montré avec le bannissement de TikTok, qu'elle puisse agir rapidement.

S'agissant du manque de justification donnée à cette interdiction, je ferais un parallèle avec la « boîte à outils 5G », qui avait été annoncée au plus fort des tensions avec Huawei et qui avait déjà constitué un signe politique assez fort de la part de la Commission, même si elle n'avait fait alors que des propositions aux États membres. Ne faudrait-il pas voir si cela reflète une continuité entre ce qui a suscité l'intérêt du législateur européen à cette époque et aujourd'hui ?

Concernant la question du projet Texas et du projet Clover, qui est finalement une émanation de cette initiative, j'y vois avant tout le retour en force de l'enjeu de la relocalisation des données, dont nous avions pris conscience il y a dix ans avec l'affaire Snowden. Ce projet de relocalisation des données numériques avait été à l'époque vertement critiqué par les Américains, qui accusaient l'Europe de protectionnisme déguisé. Il est finalement assez cocasse de constater qu'ils se livreraient à des pratiques similaires, qui reviennent de facto à imposer un protectionnisme très marqué en matière de stockage des données. J'ignore si cela signifie que les Européens auraient les coudées franches en la matière, mais, d'un point de vue politique, il faut suivre ce sujet.

D'un point de vue technique, la relocalisation des données de TikTok aux États-Unis renvoie à la capacité de l'entreprise à pouvoir assurer cette scission des activités, sachant qu'une partie des équipes techniques se situe toujours en Chine et dépend donc de la loi chinoise. Si cette donnée est moins souvent évoquée dans le cadre du projet Texas, elle méritera une clarification de la part de TikTok et de la maison mère ByteDance.

M. Mickaël Vallet, président. - Vous avez insisté sur la particularité de TikTok, à savoir le vivier d'utilisateurs - le nombre d'abonnés est énorme par rapport à d'autres réseaux arrivés à saturation -, l'absence de publicité ciblée et le fait que l'application soit éditrice de contenus.

Toutefois, vous n'évoquez pas de différence de nature avec d'autres réseaux sociaux. Simplement, TikTok ne recommande pas certains éléments. On peut trouver dans ce fait un parallélisme avec le fonctionnement de Cambridge Analytica, qui réussissait à dissuader de voter plutôt que d'inciter à voter pour un autre candidat.

Confirmez-vous qu'il existe une différence de nature liée au régime politique du pays dans lequel se trouve la maison-mère ?

Par ailleurs, ne peut-on établir un parallèle avec Huawei ? En effet, sans parler d'interdiction générale et absolue, ce qui soulèverait une difficulté en Occident en termes de libertés publiques, n'y aurait-il pas des freins ciblés à mettre en place ?

M. Cédric Perrin. - Quelles raisons motivent les pays non occidentaux, comme la Jordanie, l'Inde ou l'Égypte, à interdire TikTok ?

Par ailleurs, quelle analyse faites-vous des initiatives miroirs au projet Texas portées par l'Union européenne ?

Mme Annick Billon. - Monsieur Nocetti, vous avez dressé le tableau d'une application jeune et ludique, qui devient l'outil d'une guerre géopolitique, en donnant l'occasion à Pékin de dénoncer la censure occidentale. Ne pensez-vous pas que cette censure, qui intervient après des années d'utilisation d'autres réseaux sociaux, puisse affaiblir les démocraties occidentales ? En effet, l'accaparement des données n'est pas un fait nouveau. Qu'est-ce qui justifie, aujourd'hui, de telles inquiétudes ? N'auraient-elles pas dû naître voilà plusieurs années ?

S'agissant du RGPD ou du DSA, quelles sont les pistes ? Est-il encore possible d'encadrer un réseau comptant presque deux milliards d'utilisateurs ?

M. André Gattolin. - De quoi TikTok est-il le nom ? En la matière, je reste un peu sur ma faim, l'analyse et les propos me paraissant un peu flous.

S'agit-il d'une entreprise classique ? Si oui, quel est son business model actuel et quel est son devenir ? En effet, les résultats économiques de TikTok sont très inférieurs à ceux d'autres réseaux américains. Je pense notamment à Snapchat. On le sait, des centaines de milliers de millions de données personnelles sont l'objet d'une « évaporation ». Dans la mesure où la Chine développe un modèle d'intelligence artificielle fondée sur le nombre et le machine learning, pourquoi Pékin se priverait-il de l'utilisation de ces données ?

TikTok annonce que plus de la moitié de ses futurs bénéfices permettront de rémunérer les producteurs de contenus. Si je veux bien croire que le capitalisme chinois diffère singulièrement du capitalisme occidental, je ne peux m'empêcher d'y voir un dessin beaucoup plus obscur, en termes de captation de données, d'influence généralisée et de « dumping ». En effet, un réseau social sympa et sans publicité ciblée attire un grand nombre de personnes. Cela rappelle les méthodes utilisées par la Chine sur des matières premières rares ou des composants technologiques : il s'agit d'accaparer 100 % du marché et de casser la concurrence. Je voudrais donc savoir où est la production de valeur de TikTok.

Mme Catherine Morin-Desailly. - Monsieur Nocetti, vous avez évoqué un « détricotage » de l'interdépendance. C'est la balkanisation de l'internet qui est en route. Pourriez-vous nous dire précisément ce qu'elle est susceptible d'entraîner ? Dans la guerre de l'internet, l'Europe est très clairement un enjeu.

S'agissant de la réglementation européenne, M. le rapporteur vous a interrogé précisément sur le DSA et le Digital Markets Act (DMA). Vous l'avez souligné, nous avons su nous doter d'un certain nombre d'outils de régulation. Toutefois, j'aimerais revenir sur le DSA, qui régulera les services et les contenus, donc TikTok. Croyez-vous que le texte qui sera adopté permettra d'aller mesurer sérieusement ce que sont ces algorithmes, véritables boîtes noires ? N'aurait-il pas fallu prendre d'autres mesures, telles que des expertises indépendantes plus régulières de ces plateformes, afin de disposer d'une régulation plus efficace ?

Enfin, vous avez parlé de l'enjeu de la relocalisation des données. Au-delà de cette relocalisation, la problématique du traitement de ces données subsiste.

Mme Toine Bourrat. - L'Union européenne, qui a suivi les États-Unis, a interdit à ses fonctionnaires d'utiliser TikTok. Selon vous, une telle décision est-elle de nature à limiter l'influence de l'application ? Une interdiction totale est-elle envisageable ? Sinon, une interdiction partielle nous prémunirait-elle contre les menaces les plus vives fragilisant la souveraineté nationale ? Peut-on craindre, via TikTok, une attaque géante aussi paralysante que les attaques venues de Russie contre l'Estonie en 2007 ?

M. Julien Nocetti. - J'ai effectivement indiqué tout à l'heure que l'Inde et la Jordanie avaient interdit TikTok. Dans le cas de l'Inde, il s'agissait de bannir une soixantaine d'applications chinoises. En 2019 et 2020, le discours indien mettait déjà l'accent sur les risques potentiels pour la jeunesse. Le même motif a justifié la décision des autorités jordaniennes d'interdire également TikTok. Alors que cette interdiction aurait dû être temporaire, elle s'est prolongée sans justification politique. Pour ce qui concerne l'Égypte, les discussions parlementaires évoquant l'influence de TikTok sur la jeunesse se poursuivent.

S'agissant de la question plus générale des campagnes d'influence pouvant être menées par TikTok sur le long terme, c'est-à-dire des campagnes non circonscrites à des périodes de crise, ce point n'a jamais été clairement démontré. L'application vise plutôt à dissuader, en amont, toute velléité contestatrice, y compris en anticipant, comme en Russie, les desiderata des législateurs. Convient-il de resituer cet épisode dans la relation bilatérale sino-russe, laquelle, sur les plans technologique et numérique, est assez nourrie ? Quoi qu'il en soit, il s'agit sans doute de lutter contre l'« hégémonie » des acteurs américains. Cette attitude est tout à fait convergente avec le discours russe, qui assimile les plateformes américaines à des « armées qui nous tirent dans le dos ». Il y a là une véritable militarisation du discours s'agissant des acteurs technologiques, qu'il s'agisse de TikTok ou des Gafam.

En mettant l'accent sur la jeunesse, TikTok vise, à long terme, l'affaiblissement des résistances. Les doctrines chinoises mettent l'accent sur la guerre « intelligentisée ». Il s'agit de détruire, sur plusieurs décennies, la force productive d'une société, via des actions directes sur la cognition de l'ennemi. C'est écrit noir sur blanc.

M. Mickaël Vallet, président. - Où est-ce écrit noir sur blanc ?

M. Julien Nocetti. - Dans les doctrines de sécurité militaire de la Chine ! Il y a des débats stratégiques extrêmement nourris en Chine sur ces questions. Sur le plan diplomatique, cela agit par effet miroir. Au fond, la Chine dit aux Américains qu'elle va renverser les dividendes de l'internet, tel qu'il a été conçu, en prenant appui sur la liberté d'expression permise par le réseau.

M. Mickaël Vallet, président. - C'est donc présenté comme quelque chose étant de bonne guerre ?

M. Julien Nocetti. - Tout à fait !

S'agissant de l'affaiblissement des démocraties libérales, votre institution a souligné depuis très longtemps les risques numériques liés à la Chine. Selon moi, nous sommes à un moment charnière, puisque l'ensemble des sociétés occidentales a pris la mesure du risque.

J'en reviens, dans la perspective européenne, à des enjeux plus juridiques et économiques. Les dispositions du texte DSA peuvent sembler satisfaisantes au premier regard. Toutefois, elles sont critiquées par une partie des acteurs américains, aux yeux desquels le texte favorisera les acteurs chinois. Je vous rejoins, madame la sénatrice, sur l'idée de décortiquer la boîte noire de l'algorithme de TikTok, qui est particulièrement opaque.

En matière d'effet d'échelle, vous avez évoqué les 2 milliards d'utilisateurs de TikTok. N'est-il pas trop tard ? Le temps politique joue-t-il en notre faveur ? Même si j'ai tendance à rester optimiste, le caractère transformiste de la société, qui a racheté différents acteurs avant son exportation internationale, mérite une certaine vigilance.

Pour ce qui concerne le projet Clover, peu d'éléments peuvent être relevés aujourd'hui, à l'exception des implantations de data centers en Irlande, pays qui s'est toujours démarqué de certains efforts de solidarité, en matière de fiscalité numérique et de respect des règles de concurrence, et en Norvège, qui n'appartient pas à l'Union européenne. Quelle est donc la stratégie de TikTok au regard de la politique communautaire ?

Mme Catherine Morin-Desailly. - Vous avez évoqué la classe politique américaine, en distinguant Démocrates et Républicains, ces derniers cherchant, par le biais du cas TikTok, à légiférer sur l'ensemble des plateformes. Pouvez-vous nous en dire un peu plus ?

M. Mickaël Vallet, président. - Pouvez-vous également préciser votre réponse s'agissant de l'interrogation de M. André Gattolin sur le modèle économique de TikTok ?

M. Julien Nocetti. - Au cours des derniers mois, les propositions des Républicains et des Démocrates ont été nombreuses. Je pense notamment à celles des sénateurs Marco Rubio, Républicain, ou Mark Warner, Démocrate.

Les Démocrates sont favorables à une prise en compte de tous les effets délétères des plateformes numériques, sans focalisation sur un acteur particulier. Cette lecture globale est nouvelle aux États-Unis, et doit donc être soulignée. Elle est liée à des problématiques nationales, en particulier le rôle de certains de ces réseaux dans des affaires de tuerie de masse.

Pour ce qui concerne le modèle économique de l'application, la force principale de TikTok est la puissance de son algorithme et non pas son pari sur la publicité ciblée ou d'autres types d'avantages comparatifs. Dès le départ, TikTok s'est appuyée sur le monde de la musique et du sport. Des contrats ont été noués, notamment aux États-Unis, avec des célébrités du basket ou de la musique, ce qui a permis au réseau d'engranger massivement des utilisateurs. J'ai moins d'informations concernant le modèle économique de TikTok, modèle qui reste, encore aujourd'hui, relativement opaque.

J'ajoute que l'application a cherché à se débarrasser, sur le plan visuel, de tout rattachement à la République populaire de Chine.

M. Mickaël Vallet, président. - Je vous remercie, monsieur Nocetti, de vos éclairages.

Audition de M. Louis Dutheillet de Lamothe, secrétaire général de la Commission nationale de l'informatique et des libertés (Cnil), de Mme Karin Kiefer, directrice de la protection des droits et des sanctions, et de M. Bertrand Pailhès, directeur des technologies et de l'innovation, le 3 avril 2023

M. Mickaël Vallet, président. - Nous débutons notre après-midi avec l'audition de M. Louis Dutheillet de Lamothe, secrétaire général de la Commission nationale de l'informatique et des libertés (Cnil), de Mme Karin Kiefer, directrice de la protection des droits et des sanctions, et de M. Bertrand Pailhès, directeur des technologies et de l'innovation.

La Cnil est le régulateur des données personnelles et, du fait de cette compétence, votre regard intéresse nos travaux. Vous avez été, semble-t-il, le premier régulateur français à sanctionner TikTok en décembre dernier, mais la décision n'a concerné que le fonctionnement de son site web et non son application. Peut-être pourrez-vous nous en expliquer les raisons et nous dire où en est cette procédure ? Votre réponse nous intéresse, sachant qu'il semble que c'est plutôt l'application TikTok, dès lors qu'elle est installée sur le téléphone, qui pose beaucoup de questions.

À l'occasion d'une rencontre organisée par le directeur du pôle d'expertise de la régulation numérique (PEReN), nous sommes nombreux à avoir été frappés par l'ampleur des données collectées sur nos téléphones par ce type d'application. Ces données, dont certaines semblent triviales, peuvent, par recoupement, parfaitement identifier l'utilisateur, et même, s'agissant de TikTok, dresser un « profil psychologique » de celui-ci, selon les termes employés par le chercheur Marc Faddoul. Nous aimerions comprendre comment la Cnil s'organise pour contrôler ces applications. Le contrôle de TikTok est-il différent de celui des autres plateformes ? Par ailleurs, pouvez-vous nous préciser votre rôle à l'égard de ce groupe aux ramifications internationales et comment il se coordonne avec celui des autres autorités de contrôle européennes - je pense à la Data Protection Commission (DPC) irlandaise ?

Je vous indique que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête. Je vous rappelle qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal. Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, M. Louis Dutheillet de Lamothe, Mme Karin Kiefer et M. Bertrand Pailhès prêtent serment.

M. Louis Dutheillet de Lamothe, secrétaire général de la Commission nationale de l'informatique et des libertés. - Je représente la présidente de la Cnil, qui ne peut être présente aujourd'hui et se tient à votre disposition par le biais d'un questionnaire écrit ou oralement si nécessaire. L'audition étant publique, il est possible que, pour un certain nombre de réponses, nous vous opposions le caractère confidentiel de l'instruction, notamment si nous devions évoquer les dossiers gérés en coopération avec la DPC. Nous donnerons des éléments plus précis dans le questionnaire et, si vous le souhaitez, l'échange pourra se prolonger dans le cadre d'une audition à huis clos.

M. Mickaël Vallet, président. - Si la réponse est confidentielle, dites-le d'emblée, nous n'insisterons pas.

M. Louis Dutheillet de Lamothe. - Dans mon propos liminaire, je souhaite évoquer brièvement quatre points : les compétences de la Cnil par rapport à TikTok ; les éventuelles spécificités de TikTok concernant le traitement des données personnelles d'utilisateurs sur un réseau social ; les transferts de données personnelles en dehors de l'Union européenne (UE) ; et enfin, la question de la cybersécurité des administrations avec le téléchargement de TikTok.

La Cnil est compétente en la matière au travers de deux textes réglementaires : le règlement général sur la protection des données (RGPD), avec de très nombreuses règles sur les données personnelles et leur traitement ; et la directive ePrivacy, un texte beaucoup plus spécifique qui concerne la règle de protection des terminaux, c'est-à-dire le fait que l'on ne puisse lire ou écrire dans votre terminal avec l'application TikTok qu'avec votre consentement, sauf si cela est nécessaire au fonctionnement du service demandé.

La Cnil n'est pas compétente pour un certain nombre de législations plus spécifiques, notamment sur le caractère approprié ou non des contenus et des informations. Même si cela est toujours en lien avec la licéité du traitement en général, la Cnil ne peut être compétente pour tout et notre contrôle s'arrête au traitement de la donnée.

Des contrôles ont été lancés, début 2020, à la fois sur l'application TikTok et le site, par voie écrite. Le RGPD prévoit un système de « guichet unique » ; cela implique que des entreprises ayant une activité à l'échelle de l'UE n'en réfèrent qu'à une seule autorité de protection des données, en général là où se trouve leur siège ; le règlement parle d'« établissement principal ». En juillet 2020, TikTok a créé un établissement principal en Irlande, en réorganisant la manière dont sont régis ses traitements - Mme Kiefer complétera ce point après mon propos liminaire.

Désormais, TikTok Irlande et TikTok UK sont coresponsables d'un grand nombre de traitements, et c'est l'autorité irlandaise qui est compétente sur le sujet. Dès le moment où nous a été opposée cette structuration, nous sommes devenus incompétents sur les procédures que nous avions lancées, à l'exception de celles qui concernaient la directive ePrivacy, car en cette matière spécifique, chaque pays demeure compétent pour les utilisateurs et les terminaux sur son territoire.

Nous avons donc transféré les plaintes, les contrôles, les constats, les investigations et les interrogations à la DPC. Depuis lors, nous nous inscrivons dans un mécanisme de coopération avec l'autorité irlandaise. À la demande de la présidente de la Cnil, nous avons maintenu des contacts réguliers avec nos homologues irlandais afin qu'ils nous tiennent au courant de l'avancée des procédures ; nous ne sommes pas les seuls à avoir procédé de la sorte en Europe.

L'autorité irlandaise a deux instructions en cours concernant TikTok ; l'une d'elles a donné lieu à un projet de décision, envoyé au Comité européen de la protection des données (CEPD), qui concerne la question du traitement des données des mineurs. Le contenu du projet n'a pas été rendu public ; en revanche, il doit être étudié dans le cadre du mécanisme de coopération prévu par le RGPD et l'on peut espérer une décision à la mi-2023.

Une autre procédure est également en cours ; aucun projet de décision n'a été envoyé. Ce projet devrait - je dis bien : devrait - inclure la question des transferts des données sur laquelle nous avions demandé à l'autorité irlandaise d'être particulièrement vigilante. D'après les derniers contacts avec nos homologues irlandais, nous espérons qu'un projet puisse être envoyé au CEPD vers la mi-2023, déclenchant ensuite le mécanisme de coopération.

Concernant la directive ePrivacy, comme vous l'avez indiqué, la Cnil a sanctionné TikTok à hauteur de 5 millions d'euros. Cette sanction portait sur des questions tout à fait classiques, non spécifiques à TikTok, liées aux interfaces de demande de consentement de cookies, et uniquement sur le site web qui, comme vous l'avez également rappelé, n'est pas le principal vecteur du service. Cette procédure s'est inscrite dans le cadre d'un plan beaucoup plus général, mené depuis 2020 par la Cnil, sur l'ensemble des sites Internet et le recueil des cookies. TikTok n'était que l'un des acteurs visés par ces procédures.

Dans un second temps, la Cnil avait annoncé des contrôles similaires sur les applications de téléphone. L'exercice sur les sites Internet s'est achevé au début de l'année 2023, et de nombreuses procédures sont actuellement en cours concernant les applications. Le contrôle et le fonctionnement d'une application sont techniquement très différents des sites web, ce qui explique le choix de procéder en deux temps.

Sur le sujet du traitement des données, TikTok présente des problématiques largement classiques et communes à beaucoup de réseaux sociaux, même si, par certains aspects, celles-ci sont amplifiées. Comme les autres réseaux sociaux, ce type d'outil collecte un nombre impressionnant de données personnelles sur ses utilisateurs. Ce qu'il est possible de savoir sur l'utilisateur au travers de ce qu'il dit, partage ou regarde sur des applications telles que Facebook, Snapchat, Instagram et TikTok, est absolument impressionnant ; c'est d'ailleurs pour cela que ces données intéressent autant les publicitaires, les scientifiques et d'autres encore.

TikTok est capable, pour certains types de données, de pousser à un degré de finesse peut-être encore plus important ; je pense au temps de visionnage qui, comme vous le savez, est extrêmement rapide, ainsi qu'à l'appréhension du comportement de l'utilisateur et de son interaction avec le réseau social. Cela est en lien avec ce fameux algorithme de recommandation de vidéos.

Autres points spécifiques à TikTok : la rapidité et la jeunesse. La rapidité du visionnage inclut une rapidité de l'enrichissement du profilage des données. Cela se combine à la forte adhésion d'un public très jeune, qui présente des vulnérabilités particulières ; en étant, par exemple, moins prudent dans l'usage des données personnelles, ou moins agile pour effacer des données ou pour porter plainte à la Cnil.

Les risques liés à ce traitement de données à caractère personnel sont classiques et bien connus de la littérature sur ce type de sujet. Ils sont peut-être, pour certains, amplifiés du fait du fonctionnement particulier de TikTok ; ce sont des risques liés à la vie privée, à la visibilité de ce que l'on partage sur le réseau social - nos opinions politiques, religieuses, etc. Les plus jeunes n'ont pas toujours conscience que cela laisse des traces.

Le ciblage des publicités repose sur le consentement dans le paramétrage de l'application, mais il s'avère consubstantiel à l'application. Cela dépasse parfois ce que l'on a anticipé comme capacité de profilage.

On observe également des risques sur l'utilisation des données sensibles, dont l'utilisateur n'a pas forcément conscience qu'il les révèle par le biais de son comportement, à l'occasion, par exemple, d'une fête religieuse ou d'une manifestation politique. Il y a également ce que l'on appelle la « bulle de filtrage », lorsque l'algorithme vous propose des choses correspondant à ce qui est censé le plus vous intéresser par rapport à ce que vous avez déjà vu ; évidemment, cela ne facilite pas l'ouverture.

Sur la question des transferts de données à caractère personnel, une spécificité de TikTok est ses liens avec la Chine. Depuis l'arrêt Schrems II de la Cour de justice de l'union européenne (CJUE) du 16 juillet 2020, l'UE a pris un parti très strict sur l'application de lois étrangères permettant à des autorités publiques de demander à des opérateurs de leur communiquer tel ou tel type de données personnelles. Pour celles qui concernent des Européens, la CJUE a demandé que les pays déclarés « adéquats » par l'UE ne se réfèrent pas à ce type de loi - ou, plus exactement, qu'ils s'y réfèrent en répondant aux standards de protection de garantie exigés pour l'UE.

De ce point de vue, la loi américaine a été déclarée comme « ne répondant pas aux standards de protection demandés par la CJUE ». Dans les dossiers concernant cette question, nous avons estimé qu'un constat identique pouvait s'établir avec les lois chinoises. Cela signifie qu'une vigilance particulière est requise lorsque des données à caractère personnel d'Européens sont transférées sur le territoire chinois. Comme l'a indiqué la Cnil peu après l'arrêt Schrems II, il s'agit également de faire attention à des données entre les mains d'opérateurs soumis à la législation chinoise, même si celles-ci sont hébergées et traitées sur le sol européen. Tout cela est à regarder au cas par cas, en fonction des situations, mais le risque est bien réel.

Sur cette question, nous avons alerté l'autorité irlandaise ; c'est à elle de prendre position, et celle-ci n'est pas facile à prendre. Il s'agit de déterminer dans quelle mesure la loi chinoise s'applique à tel ou tel type d'entités du groupe ByteDance ; sur ce point, TikTok a avancé des arguments. Il s'agit de préciser où sont les données, et de savoir également si des mesures supplémentaires mises en place par TikTok peuvent protéger de ce type de risque. Si jamais une difficulté apparaît, la Cnil dispose d'un corpus doctrinal suffisamment étoffé ; elle peut dire qu'il ne suffit pas d'héberger les données en Europe pour se protéger de ce risque : des mesures de sécurité beaucoup plus radicales sont nécessaires.

Un certain nombre d'administrations, notamment en France depuis une circulaire récente, ont décidé de demander à leurs fonctionnaires de ne plus utiliser TikTok ou, plus généralement, des applications récréatives sur leur téléphone professionnel. Le problème me semble dépasser le cas de TikTok. Ces applications accèdent à un certain nombre de données sur le téléphone, ne sont pas conçues dans un cadre professionnel, avec un même niveau de sécurité. À la Cnil, nous n'avons pas pris, pour l'instant, de décision similaire, mais un groupe de travail a été mis en place pour renforcer la sécurité sur nos terminaux. Nous ne pouvons que soutenir toutes les mesures visant à garantir la confidentialité des données échangées dans un cadre professionnel ; ces mesures doivent naturellement être adaptées au contexte de chaque organisation.

M. Claude Malhuret, rapporteur. - Dans la mesure où une partie des compétences de la Cnil a été transférée à l'autorité irlandaise, comment se passent les choses entre vous et les autres organismes avec lesquels vous avez l'habitude de vous coordonner, comme l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) ? Continuez-vous à échanger au sujet de la directive ePrivacy ? Cela pose-t-il des problèmes de coordination avec l'Irlande ?

Vous avez indiqué que l'application était particulièrement intrusive en matière de données eu égard à d'autres réseaux sociaux. La collection de données se poursuit-elle lorsque l'on désactive l'application ?

Vous avez évoqué la nécessité de porter une vigilance particulière lorsque les données sont transférées sur le territoire chinois, ce qui semble être le cas. Des mesures de sécurité plus importantes sont donc nécessaires. Confirmez-vous que la protection des données n'est pas assurée aujourd'hui ?

Selon la NÚKIB, l'office tchèque de la cybersécurité et de la sécurité de l'information - l'équivalent de l'Agence nationale de la sécurité des systèmes d'information (Anssi) - TikTok collecte un nombre « excessif » de données ; sans les citer toutes, je pense au contenu des communications privées stockées sur les serveurs de ByteDance, à la vérification périodique de l'emplacement des appareils, à l'accès aux contacts et aux informations sur l'appareil, au numéro de série, au numéro de téléphone, au numéro de la carte SIM, à l'accès permanent au calendrier, au navigateur natif qui, d'après la NÚKIB, permet de surveiller la quasi-totalité de l'activité de l'utilisateur. J'ai l'impression que vous partagez ce constat de la NÚKIB. Pouvez-vous me le confirmer ? Par ailleurs, cette collecte est-elle légale ? Ou bien, quelle partie est-elle illégale, et que peut-on y faire ?

L'algorithme de Twitter a été publié par Elon Musk il y a quelques jours. Peut-on encore accepter les arguments des autres réseaux sociaux pour refuser, au nom des secrets de fabrication, de communiquer les algorithmes qui s'avèrent être le noeud du problème ? Quelle est votre position sur le sujet ?

M. Louis Dutheillet de Lamothe. - S'agissant de la coordination entre autorités publiques depuis le transfert de compétences, nous collaborons parfaitement, presque quotidiennement, avec l'Arcom. Les sujets qui nous occupent vont continuer, avec le paquet numérique européen, d'être de plus en plus liés. Dès que l'Arcom doit appliquer des législations à des contenus se posent des questions de traitement de données à caractère personnel. Nous entretenons un dialogue continu, de manière que tout se déroule de manière fluide. Concernant l'Irlande, je laisse la parole à Karin Kiefer.

Mme Karin Kiefer, directrice de la protection des droits et des sanctions de la Commission nationale de l'informatique et des libertés. - À partir du moment où l'autorité irlandaise est devenue compétente, nous avons lui transmis les éléments issus de nos contrôles. Depuis lors, nous avons eu au moins cinq ou six échanges formels dans le cadre de la coopération. L'article 61 du RGPD prévoit que l'on puisse faire des demandes et obtenir toutes informations utiles sur les dossiers. Nous effectuons également des points téléphoniques pour connaître l'avancée des procédures. Enfin, nous demandons de la documentation sur ce que la DPC a réussi à obtenir de la part de TikTok lors de ses enquêtes, notamment sur le sujet des transferts.

M. Louis Dutheillet de Lamothe. - Concernant la désactivation de la collecte après la désinstallation de l'application, je ne crois pas que nous ayons établi de constat sur le sujet lorsque nous avons effectué nos contrôles au début de l'année 2020. Mais Bertrand Pailhès peut peut-être nous éclairer...

M. Bertrand Pailhès, directeur des technologies et de l'innovation de la Commission nationale de l'informatique et des libertés. - Vous parlez de la désactivation ou de la désinstallation ?

M. Claude Malhuret, rapporteur. - La désinstallation entraîne-t-elle la désactivation de toutes les possibilités de recueil des données ?

M. Bertrand Pailhès. - Nous n'avons pas encore conduit ce type de constat. On peut constater ce que fait une application quand elle est activée ; quels sont ses flux réseau, ses éventuelles requêtes sur le terminal pour accéder à la géolocalisation, aux documents, au calendrier...

Par ailleurs, on peut constater les permissions que l'application demande ; cela ne veut pas dire qu'elle active nécessairement l'ensemble de ces permissions. Un site comme Exodus Privacy publie l'ensemble des permissions d'une application ; par exemple, une permission de relance automatique au redémarrage du téléphone montre que l'application essaie de rester en partie active quand elle est installée.

Quand l'application est désinstallée, nous n'avons pas, à ce stade, observé de bouts de logiciel qui persisteraient sur le système. Tous ces systèmes d'exploitation fonctionnent en bac à sable. Chaque application cherche à s'isoler des autres applications et du système, et n'accède à des informations sur le terminal que par ce système de permissions ; dans le cas de TikTok, celui-ci est assez large, mais reste sous contrôle du système. Il n'est pas évident en tout cas, pour un développeur normal, de maintenir un accès alors que l'application a été désinstallée.

M. Claude Malhuret, rapporteur. - Les demandes de permission de TikTok à l'utilisateur sont-elles aujourd'hui présentées de façon claire et compréhensible ? Ou ne le sont-elles pas assez ? Ou bien, s'agissant de certaines, ne le sont-elles pas du tout et se font-elles à l'insu de l'utilisateur ?

M. Louis Dutheillet de Lamothe. - N'étant pas compétents sur le sujet, nous ne pouvons pas nous prononcer sur l'excessivité des permissions, de même que sur celle de la collecte des données, comme le fait l'Anssi tchèque. Nous pouvons dire que l'information fait partie des éléments sur lesquels nous avions spécifiquement demandé à l'autorité irlandaise d'enquêter. Nous n'avions pas qualifié un manquement, mais nous avions un doute qu'il s'agissait de lever.

Nous avons été interrompus au bout de quelques mois d'enquête par la création d'un établissement principal. Nous avons arrêté d'investiguer. Chaque année, nous recevons 14 000 plaintes et nous n'établissons pas beaucoup de constats sur des opérateurs pour lesquels nous ne sommes pas compétents. Comme l'a rappelé Karin Kiefer, nous avons des contacts informels réguliers avec la DPC et nous actionnons les mécanismes du RGPD pour le suivi des procédures.

M. Claude Malhuret, rapporteur. - Un autre organisme est-il susceptible de travailler sur ce sujet précis ? Ou tout est-il transféré en Irlande ?

M. Louis Dutheillet de Lamothe. - Au regard du RGPD, aucune autre institution en France n'a la possibilité de qualifier le manquement de TikTok. Les personnes nous adressent des plaintes ; nous déclenchons des demandes de notre propre initiative et nous les transmettons à l'autorité irlandaise.

En revanche, la littérature s'intéresse à cela. Ce que vous dites de l'Anssi tchèque, une partie de la littérature spécialisée le dit aussi. Par ailleurs, nous avons lancé un plan général - non spécifique à TikTok - pour nous occuper des applications mobiles. L'aspect cookies et la directive ePrivacy peuvent être des portes d'entrée, car la Cnil est compétente sur tous les acteurs pour les utilisateurs français. Nous comptons bien, dans cet exercice doctrinal, préciser la position de la Cnil, notamment sur les autorisations - accès à la géolocalisation, accès aux contacts, etc. - et sur l'information à donner à ce moment-là. Cela permettra également de qualifier un éventuel décalage avec ces prescriptions pour les opérateurs et les réseaux sociaux, dont TikTok. Les travaux sont en cours.

Concernant la question chinoise, je ne peux pas vous dire que la protection des données n'est pas assurée. Par contre, la Cnil ne considère pas la loi chinoise conforme aux standards de la CJUE dans l'arrêt Schrems II. Ce que la CJUE a indiqué pour la loi américaine, nous estimons que les autorités de protection doivent le dire également pour la loi chinoise. Nous nous appuyons sur une étude demandée par le CEPD ; il ne s'agit pas des conclusions du CEPD, mais d'un document qu'il a mis à disposition. Nous nous appuyons également sur ce que nous avons pu constater nous-mêmes.

Il s'agit également de voir si les protections sont jugées suffisantes ou non ; je pense aux mesures techniques et juridiques mises en place pour essayer d'« anonymiser » les données, pour prévoir des bastions de sécurité ou encore pour avoir tel ou tel type de protection contractuelle. C'est à la DPC qu'il appartient de trancher, et c'est une des procédures sur lesquelles nous l'avons régulièrement relancée ; nous espérons un projet de décision d'ici à l'été.

M. Bertrand Pailhès. - Nous n'avons pas de position sur la publication des algorithmes. Sans être un spécialiste du droit de la propriété intellectuelle, on peut considérer que cela relève du secret industriel. Dans le cas du secteur public, il y a des obligations de publication qui font partie des mesures pour garantir la transparence de certaines décisions. Dans le secteur privé, à ma connaissance, cela n'est pas exigé. Il faut avoir en tête que la publication d'un algorithme peut révéler des problèmes de sécurité ; cette opération demande des précautions.

M. Mickaël Vallet, président. - Les données collectées par TikTok parviennent encore à vous impressionner. Vous avez estimé que pouvoir s'assurer de l'emplacement des données ne suffisait pas et qu'il faudrait des mesures plus radicales. Auxquelles pensez-vous ?

Avez-vous été interrogés par le Gouvernement pour savoir s'il était opportun de prohiber l'installation TikTok et les installations récréatives sur les téléphones professionnels des fonctionnaires ? Avez-vous une explication sur la concomitance des interdictions de TikTok un peu partout ?

Nous conseilleriez-vous d'auditionner l'autorité irlandaise ? Puisque vous déclarez que vous êtes dessaisis de certains éléments, obtiendrions-nous plus d'informations en l'entendant ?

Dans quelle langue travaillez-vous avec l'autorité irlandaise ? Leur imposez-vous de travailler en français ?

Êtes-vous capable de répondre à la question de la suppression pour d'autres applications ? N'avez-vous jamais pris la main dans le sac une application pour laquelle le système en bac à sable n'a pas complètement fonctionné après la suppression ?

M. Louis Dutheillet de Lamothe. - Je maintiens que les données collectées par TikTok sont impressionnantes de finesse, de rapidité, de fréquence. J'ajoute qu'il n'y va pas que de TikTok : chaque fois que nous regardons un réseau social dans le détail, nous sommes impressionnés par le type de données qui sont recueillies et par ce que l'on donne aux applications sans s'en préoccuper.

La Cnil a effectivement défini rapidement sa position sur l'emplacement, l'hébergement des données, notamment autour des débats sur le Health Data Hub, la création d'un entrepôt des données de santé, comprenant celles du système national des données de santé, pour pouvoir améliorer notamment la recherche. Si son objectif est pleinement partagé par la Cnil, celle-ci a demandé un hébergement « souverain » ou de confiance qui soit immunisé au regard de l'application de lois extraterritoriales. De ce point de vue, elle a considéré que, alors même que les garanties contractuelles obtenues par le Health Data Hub sont assez remarquables, avec un hébergement uniquement en Europe - même l'administration et la mise à jour du système ne sont opérées qu'en Europe -, le seul fait que le serveur soit entre les mains d'un opérateur qui est également soumis à la loi américaine le place dans une situation de conflit de législation. Il est soumis au RGPD et aux lois européennes puisque le serveur est en Europe - le RGPD lui interdit de communiquer les données, mais il est aussi soumis à la loi de son siège, la loi américaine, qui, elle, prévoit des possibilités de communication de données, comme cela existe dans tous les pays du monde. Cependant, la loi américaine, dans l'arrêt Schrems II, a été jugée non conforme aux standards européens- un décret ou Executive Order signé par le président américain Joe Biden, sur lequel la commission est en train de se pencher, a changé la situation depuis quelques mois.

Il faut apprécier de façon réaliste l'application de la loi extraterritoriale à laquelle est par ailleurs soumise l'entreprise qui opère en Europe. Les protections à obtenir sont alors assez radicales : soit les données sont entièrement chiffrées et manipulées uniquement en étant chiffrées, ce qui devient très difficile, voire impossible, dès que l'on fait des choses un peu délicates ; soit il faut avoir un opérateur qui est immunisé, qui n'est pas soumis à ce type de loi - soit parce qu'il est entièrement européen, soit parce que des partenariats, notamment avec de grandes sociétés américaines, se sont montés pour que s'ajoute, à l'opérateur européen qui manipule les données, une couche logicielle qui appartient à un opérateur extra-européen. C'est ce type de protection que nous avons eu à rencontrer ou à envisager jusqu'ici.

Le Gouvernement n'a pas saisi officiellement la Cnil avant de prendre la circulaire interdisant l'utilisation de certaines applications récréatives sur les téléphones professionnels. En revanche, j'ai reçu un appel informel de quelqu'un pour savoir s'il y avait une objection particulière du côté de la Cnil ou un besoin particulier de la saisir. Nous considérons que cette décision doit véritablement être prise par chaque gouvernement - ou entreprise -, en fonction de la sécurité de ses matériels. La Cnil n'avait pas à prendre position. D'ailleurs, les choses se sont passées de la même manière dans les autres pays ou au niveau de la Commission européenne.

Je n'ai pas d'explication sur la concomitance des interdictions de par le monde. Si je la comprends bien, l'approche du gouvernement français est centrée non pas seulement sur TikTok, mais sur des classes d'applications qui présentent plusieurs particularités : être récréatives - et non professionnelles - : avoir besoin de consommer beaucoup de données, ce qui expose à plus de risques ; être conçues avec des niveaux de sécurité qui sont ceux d'applications récréatives, et pas forcément de matériels professionnels. Je pense c'est une bonne chose que de ne pas s'être focalisé sur TikTok, mais je constate, effectivement, qu'un mouvement spécifique autour de cette application a eu lieu dans le monde.

Je pense qu'il serait logique que vous auditionniez l'autorité irlandaise - j'ignore ce que ses représentants estimeraient être en droit de vous dire -, dans la mesure où nous ne sommes plus compétents sur un certain nombre de sujets depuis mi-2020.

Oui, nous travaillons en anglais avec la DPC et au CEPD.

Mme Karin Kiefer. - Effectivement, nous travaillons en anglais avec l'autorité irlandaise ainsi que dans les groupes de travail du CEPD. Quand on reçoit des plaintes en français, on les fait traduire en anglais pour les envoyer à notre homologue.

M. Louis Dutheillet de Lamothe. - Je crois que toutes les grandes applications - Facebook, Twitter, etc. - ont également leur établissement principal en Irlande. Cela ne veut pas dire qu'on ne peut pas intervenir pour d'autres applications, mais cela donne la mesure du fait que, pour ces grandes applications, la compétence est vraiment concentrée en Irlande, par l'application du RGPD.

M. Bertrand Pailhès. - Sur ce qui reste de l'application une fois qu'elle a été désinstallée, je vous ferai la même réponse que pour les autres applications. À ce stade, je ne peux pas vous dire que l'on a tout vérifié pour Facebook. Comme l'a dit le secrétaire général, nous sommes en train de préparer une recommandation qui précisera ce que l'on attend des applications mobiles, notamment des briques logiciels qui s'appellent les « SDK ». Nous pourrons ensuite conduire des investigations qui permettront de voir des choses, mais pas forcément tout. La situation de TikTok n'est donc pas spécifique, au regard de ce qui relève de ma direction.

Par ailleurs, je veux rappeler que la suppression de l'application ne supprime évidemment pas ce qui est associé à votre compte sur les serveurs de TikTok, ce qui est une manière pour l'éditeur du logiciel de conserver des informations que vous aviez pu lui transmettre quand l'application était active.

M. Claude Malhuret, rapporteur. - TikTok est une société par actions simplifiée (SAS) enregistrée en France, mais c'est une filiale de ByteDance, qui est enregistrée aux îles Caïmans. Considérez-vous que TikTok est soumise à cette double législation, ou que TikTok est en France, un point c'est tout, et qu'elle ne peut donc exciper de la législation des îles Caïmans, qui, sur ce plan, doit être assez particulière ?

M. Louis Dutheillet de Lamothe. - Je dirais : les deux à la fois. Si la partie de TikTok qui est en France ne s'occupe que de la commercialisation, et a donc une activité très périphérique par rapport à ce qui nous occupe aujourd'hui, nous considérons que cette société est en France et qu'elle est soumise à la législation française, un point c'est tout.

En revanche, sur la question de la protection des données et de la possibilité pour des entités, quelque part ailleurs sur la planète, de se les faire communiquer, ce qui n'est pas forcément interdit, mais doit être proportionné et fait sous le contrôle d'un juge, la Cnil a une approche réaliste. La création d'une filiale au sein de l'Union européenne ne suffit pas à dire qu'il n'y a plus de problème : si la filiale est entièrement contrôlée par une maison-mère qui est aux îles Caïmans, aux États-Unis ou encore en Chine, on regarde si les législations de ces pays peuvent obliger cette maison-mère à répondre à une demande de communication ou à une autre forme d'injonction qu'elle serait obligée de répercuter à la filiale qu'elle contrôle, avec, généralement, d'ailleurs, une obligation de confidentialité. Dans ces cas, oui, nous tenons compte de la possibilité d'une soumission indirecte, via la maison-mère, à une législation extra- européenne.

M. André Gattolin. - Certes, la Cnil est destinataire de plaintes, mais ce n'est pas non plus la plateforme Pharos. Vous recueillez la crème de la crème des plaintes. Quel est le volume des plaintes ? Quelle en est la nature ? On a bien compris qu'elles ne portaient pas sur les contenus. Quel volume des plaintes relatives aux réseaux concerne TikTok ?

Vous avez évoqué la règle de durée de stockage des données. Où en sommes-nous ? TikTok est un réseau social qui vise des publics jeunes, amenés à grandir, à être peut-être un peu moins transgressifs, à avoir, un jour, une position sociale, susceptible de les rendre victimes de pressions... Il y a un risque réputationnel si l'on stocke des données au-delà de cinq ou dix ans. Qu'est-ce qui régit la durée de conservation des données ?

Il est heureux que la Cnil n'ait pas été formellement consultée sur les décisions prises par le Gouvernement ! Je ne comprends pas le choix qui a été fait. Quand on va au PEReN, on nous explique que Netflix n'est pas un réseau social, mais qu'Amazon, qui réalise du traitement, l'est. La mesure est le bosquet qui essaie de cacher le séquoia : on vise TikTok sans oser le dire aux autorités chinoises. J'exprime là un point de vue personnel.

J'ai été corapporteur du Sénat sur le projet de règlement européen sur l'intelligence artificielle (IA). Nous ne sommes pas certains que la législation telle qu'elle est écrite préserve les règles du RGPD. Alors que TikTok devient le champion de l'utilisation de l'intelligence artificielle dans les réseaux sociaux, ne faudrait-il pas penser, avant même que l'on édicte définitivement ce règlement, à renforcer sa soumission directe au RGPD ?

TikTok développe beaucoup de nouvelles applications dérivées. S'agit-il de créations ex nihilo ou y a-t-il potentiellement utilisation de données recueillies via le navire amiral qu'est TikTok ? Aujourd'hui, cinq ou six applications dérivées sont lancées tous azimuts, notamment sur le marché américain. Elles devraient débarquer très bientôt dans l'Union européenne. Avez-vous des informations à ce sujet ?

Mme Annick Billon. - En matière de conflit de législation, pourriez-vous nous donner des pistes d'évolution de la législation actuelle qui permettraient de s'adapter au changement permanent des nouvelles applications ? Est-on suffisamment paré ?

Estimez-vous que la Cnil dispose de suffisamment de moyens d'investigation, de moyens humains et de prérogatives pour pouvoir répondre à tous les enjeux de sécurité et de protection de données qui sont au coeur de nos préoccupations ? Est-il question d'assermenter plus de personnel ? Quels outils juridiques pourriez-vous imaginer pour s'adapter à cet écosystème en mouvement permanent ?

Mme Toine Bourrat. - Nous sommes tous d'accord pour dire que les données collectées sont impressionnantes. Cette collecte s'opère avec l'accord des utilisateurs.

L'application TikTok cible un public jeune, voire très jeune, donc vulnérable, et est addictive. La Cnil considère-t-elle que la collecte des données des mineurs, appelés à valider les nouvelles conditions d'utilisation consécutives aux mises à jour régulières, est légale ?

M. Louis Dutheillet de Lamothe. - Le RGPD est passé d'un système ex ante, qui représentait 100 000 déclarations ou autorisations à instruire par la Cnil, à un système de plaintes ex post. On en enregistre entre 12 000 et 14 000 par an. Notre premier défi est d'arriver à répondre à toutes ces plaintes, qui sont d'une variété extraordinaire. S'il est vrai que les volumes ne sont pas du tout les mêmes que ceux de Pharos, ce n'est pas non plus la crème de la crème ! Si des plaintes sont faites par des avocats ou pour le compte d'une association, d'autres le sont par des individus qui n'y connaissent rien... La législation est très abstraite. Parfois, les plaintes ne sont pas du tout du ressort de la Cnil et relèvent du juge.

Mme Karin Kiefer. - Je ne dispose malheureusement pas des chiffres pour tous les réseaux sociaux. Ce que je peux vous dire, c'est que TikTok représente vraiment très peu de plaintes, puisqu'il y en a 6 en cours en ce moment. Par comparaison, Meta, c'est à peu près une centaine de plaintes chaque année... Cela s'explique sans doute par le fait que TikTok est utilisé principalement par des mineurs, et que nous avons globalement, tous secteurs confondus, très peu de plaintes de mineurs : à peine 1 % des plaintes que nous recevons viennent de mineurs.

La Cnil est d'ailleurs en train de réfléchir à notre parcours de plainte en ligne, pour voir si une meilleure présentation de l'autorité et du parcours de plaintes pourrait encourager les adolescents à nous saisir davantage. Un important travail est aussi réalisé dans les écoles et les collèges pour sensibiliser à ces questions. Pour que les élèves nous saisissent, encore faut-il qu'ils connaissent la Cnil, qu'ils viennent sur notre site et trouvent l'information sur nos pouvoirs et nos compétences !

Sur les 6 plaintes, 5 sont parties à la DPC irlandaise. Nous en traitons directement une seule, en application de la loi Informatique et Libertés, qui comporte une disposition particulière - l'article 51 - pour les demandes d'effacement des données collectées lorsque la personne était mineure. Dans ce cas précis, c'est la Cnil qui intervient directement ; elle peut obtenir l'effacement des données sous trois semaines.

M. André Gattolin. - Est-ce l'âge déclaré ou l'âge réel qui est pris en compte ? On sait que, sur TikTok, les adolescents, voire les enfants, se déclarent beaucoup plus vieux qu'ils ne sont... TikTok pourrait s'en prévaloir.

Mme Karin Kiefer. - La loi ne le précise pas ; il est dit qu'il faut que la personne soit mineure au moment de la collecte. Nous sommes en train de regarder la plainte unique que nous avons à traiter.

Cependant, la question que vous soulevez est importante. Il y a effectivement des enfants qui peuvent mentir sur leur âge. Nous avons toutefois constaté quelque chose de positif lors des contrôles : après avoir été bloqués parce que nous avions indiqué que nous avions douze ans, nous avons ensuite entré une date de naissance en 1978, année de création de la Cnil, et nous avons encore été bloqués. En effet, TikTok vous bloque si vous rentrez deux dates de naissance différentes dans la même heure. C'est une précaution qui a été prise par le réseau social.

M. Louis Dutheillet de Lamothe. - Vous m'interrogez sur la règle de la durée de conservation, notamment pour le stockage des données par les réseaux sociaux. Pour le coup, ce sont des raisonnements assez classiques que nous avons l'habitude de tenir sur la base de la loi Informatique et liberté ou du RGPD. La durée de conservation se regarde par finalités. Tant que le compte est actif, la durée de conservation est assez largement admise, parce que le contrat, le service sont en cours. En revanche, le jour où vous supprimez votre compte ou vous vous désinscrivez du réseau social, la plupart des données, notamment toutes les données de profilage utilisées, par exemple pour présenter des vidéos, devraient à mon sens être supprimées. Or toutes les données ne le sont pas. Généralement, tous les opérateurs qui ont des contrats avec des tiers conservent un certain nombre de données, pour diverses finalités. Certaines, d'ailleurs, sont des obligations légales : il est ainsi nécessaire de garder, pendant un certain temps, la trace du contrat avec telle ou telle personne, avec des durées généralement calées sur les durées de prescription ou un peu augmentées, s'il existe des causes d'interruption possibles. Ce sont des choses assez classiques.

Nous recommandons et, parfois, nous exigeons que, quand les données vont être gardées un certain nombre d'années et présentent encore une certaine sensibilité, elles soient placées dans ce que l'on appelle une « archive intermédiaire », pour qu'elles soient structurellement, fonctionnellement, séparées des autres serveurs.

Sur le règlement IA et son articulation avec le RGPD, je laisse la parole à Bertrand Pailhès.

M. Bertrand Pailhès. - Sur ce point, nous avons constaté une complémentarité entre les deux règlements, puisque le règlement RGPD concerne les responsables de traitement, donc des entreprises qui mettent en place des algorithmes ou des systèmes informatiques, quand le règlement IA concerne les fournisseurs de solutions. Le règlement IA permettra d'imposer des obligations directes sur les données d'apprentissage ou les mesures de biais, ce que le RGPD ne permet pas forcément d'imposer directement aujourd'hui.

Nous sommes en train de travailler sur cette question des obligations dérivées du RGPD. Nous pensons que cela pourra « compléter » la réglementation, tout en reconnaissant que, dans l'architecture à risque du règlement IA, les applications récréatives ne sont pas forcément identifiées comme des applications à haut risque soumises à des obligations renforcées, le souhait étant évidemment de ne pas empêcher des innovations fondées sur des algorithmes de ce type.

M. Louis Dutheillet de Lamothe. - Les nouvelles applications de TikTok sont-elles faites en utilisant des données de TikTok ? Bien évidemment, je ne peux pas répondre sur ce que fait exactement TikTok, mais je peux vous dire comment nous aborderions cette question.

On constate, dans les politiques de confidentialité - à savoir la notice avec les informations sur ce que l'on va faire des données -, des formules très vagues sur le fait que les données sont utilisées pour améliorer l'expérience utilisateur, donner plus de confort, etc. Puis, à un moment donné, se glisse le souci d'« améliorer les services » - pas « le service », mais « les services ». Nous savons que, derrière cette finalité, se cache le souhait d'utiliser les données que les sociétés obtiennent dans le cadre des relations commerciales avec leurs clients pour faire de la recherche et développement (R&D), avoir de nouveaux dispositifs... Je ne parle pas là que de TikTok : toutes les sociétés souhaitent faire cela. C'est d'ailleurs, dans une certaine mesure, légitime. Nous abordons d'abord la question de l'information du point de vue de règles de protection des données. Ce n'est pas uniquement pour le confort de l'utilisateur que la donnée est utilisée, mais c'est aussi pour la R&D de la société. Ce n'est pas interdit, mais cela doit être dit.

Nous estimons généralement que le traitement repose sur le consentement. Quand l'utilisation des données de R&D est intimement, indissociablement liée à ce que fait la société, par exemple pour repérer des bugs de sécurité - je prends un cas un peu caricatural -, nous estimons que ce traitement peut parfois se fonder sur l'intérêt légitime de la société. Cela se traduira, dans le texte du RGPD, par l'absence de consentement : je suis légitime à le faire sans demander votre accord. En revanche, si c'est pour faire quelque chose de complètement différent, nous estimons, dans un certain nombre de cas, qu'il est obligatoire de recueillir le consentement de la personne.

C'est donc de cette façon que nous aborderions la question de l'utilisation éventuelle par TikTok des données pour les autres applications. En principe, les consentements doivent pouvoir se donner de façon libre, donc distincte sinon par finalité, au moins par ensemble de finalités connexes.

Nous sommes assez souvent confrontés à la question du conflit de législation. Ce n'est pas un problème en soi : c'est aussi le revers de la dimension extraterritoriale du RGPD. Nous pensons que cette dimension est une bonne chose : il faut effectivement que des opérateurs qui sont à l'autre bout du monde, qui n'ont pas d'établissement en Europe, donc dont l'activité n'y est pas territorialisable, soient tout de même soumis au RGPD s'ils sont en train de traiter des données de citoyens européens d'une manière qui les relie à la vie privée de ces derniers. Évidemment, tout est dans « d'une manière qui »...

La Cnil a récemment pris, dans le sillage d'autres autorités, une décision sur une société, Clearview, qui a utilisé toutes les photographies publiquement disponibles sur le web pour créer des gabarits biométriques, permettant à un système de reconnaissance faciale de procéder à des identifications de façon extrêmement efficace, avec un taux d'erreur qui peut être vraiment très faible, évidemment sans consentement. La société n'ayant aucun lien avec l'Europe, elle se retrouve dans une situation de conflit de législation : soumise à une législation américaine, elle l'est aussi au RGPD... Bien évidemment, la société argue qu'il lui est très difficile de distinguer sur internet si la personne photographiée vient du Texas ou d'Italie. Il faut donc, à un moment, assumer le conflit de législation et le fait que le RGPD va déborder du territoire.

À l'inverse, il faut évidemment gérer ce conflit quand des législations étrangères, hors l'Union européenne, viennent s'appliquer à des situations qui se passent sur le territoire français. Je pense que, en en tirant des conséquences, la Cnil a été vraiment dans la lignée de l'arrêt Schrems II. Dès lors, la réponse réside moins dans des modifications de la législation, pour essayer de minimiser, voire de supprimer tout recoupement entre les extraterritorialités, parce que les législations de pays en dehors de l'Union européenne demeureront, par certains aspects, extraterritoriales - nous ne ferions que renoncer, d'une certaine manière, à ce que le RGPD a commencé à faire. En revanche, je pense qu'il faut proportionner la réponse : il est très difficile pour les acteurs de gérer ces recoupements de législation. Il faut faire jouer le conflit jusqu'au bout quand c'est proportionné, c'est-à-dire quand les données en jeu en valent le coup.

La Cnil a-t-elle suffisamment de moyens ? Merci de poser la question ! Je répondrai non. La Cnil demande, depuis trois ou quatre ans, énormément de moyens. Il y a trois ans, nous avons tiré la sonnette d'alarme. Le taux de croissance des plaintes d'une année sur l'autre était de 30 % - il est désormais un peu stabilisé -, ce qui est absolument ingérable. Dans le même temps, ce système de plaintes n'a pas du tout déchargé la Cnil de la nécessité d'anticiper, de faire des recommandations, des lignes directrices, de regarder, de fouiller. Des milliers de plaintes concernent l'impossibilité d'accéder aux données ou à les effacer. En revanche, pas une plainte ne concernait le maintien des données malgré la suppression de l'application - j'imagine qu'il est extraordinairement subtil de capter les indices en ce sens.

Il faut donc à la fois que nous traitions les plaintes, que nous ayons la capacité de sécuriser les acteurs par des lignes directrices et des recommandations. Or les fédérations professionnelles nous en demandent toujours plus. Elles nous demandent comment le RGPD s'applique à tel ou tel type de situations. Il est donc difficile pour nous de satisfaire tout le monde et de garder une capacité d'enquête et de veille.

Nous avons obtenu des moyens, et nous en remercions le Parlement. La Cnil a nettement grossi : ses effectifs se rapprocheront des 300 agents à la fin de cette année, ce qui nous a vraiment permis de faire des choses. Ils devraient normalement, dans les quatre années prochaines, continuer à croître, sur une tendance plus faible.

L'accord pour la mise à jour des conditions d'utilisation est-il légal ? C'est une question à laquelle nous sommes confrontés assez fréquemment.

Mme Karin Kiefer. - Selon TikTok, la base légale du traitement des données des mineurs est le contrat. TikTok laisse les mineurs à partir de 13 ans - l'âge minimum autorisé pour s'inscrire - signer ses conditions générales, considérant que c'est le contrat qui est la base légale du traitement des données.

Ce point fait partie des sujets qui ont été vérifiés lors de nos contrôles, comme le fait que les données concernant les mineurs étaient rendues publiques par défaut quand ils s'inscrivaient. Ces questions de protection de mineurs ont été transférées à la DPC, et soulèvent véritablement la question de la capacité du mineur de 13 ans à accepter ces conditions générales.

M. Louis Dutheillet de Lamothe. - Il y a souvent un problème d'articulation, en cas de contrat, entre le droit de la protection des données personnelles et le droit contractuel. Puisque le mineur signe un contrat, il faut qu'il ait la capacité contractuelle. À partir de quand l'a-t-il ? La mise à jour des conditions générales est une question très classique en droit contractuel. Ce n'est pas interdit par principe, mais ce n'est pas toujours permis non plus. Bien évidemment, le fait que ce soit la Cnil irlandaise qui est compétente, avec une loi du contrat irlandaise, est une difficulté. Quelle est la loi du contrat qui s'applique ? On tombe sur des questions contractuelles peu résolues, peu détaillées par le RGPD, sur lesquelles on n'a pas encore de jurisprudence, pas de position très claire des juridictions, et qui sont évidemment assez délicates.

M. Claude Malhuret. - On a parlé des moyens de la Cnil. Pour ma part, je m'interroge sur ceux de la DPC. La DPC dispose-t-elle de moyens suffisants dans la mesure où elle s'est vu confier une bonne partie des compétences des Cnil de toute l'Europe ? Même si vous le pensez, je pense que vous ne me direz pas que la DPC n'a pas les moyens suffisant. C'est pourquoi je vous pose plutôt la question : connaissez-vous l'effectif de la DPC pour gérer une bonne partie des dossiers européens ?

Un recours devant le Conseil d'État a-t-il été formé contre la décision de la Cnil du 29 décembre 2022 ? TikTok a-t-il, depuis, changé ses pratiques dans le domaine des cookies ?

M. Louis Dutheillet de Lamothe. - Nous vous enverrons l'information sur le nombre d'agents de la DPC. Je ne saurais vous la donner au débotté, mais je sais que nous l'avons. Il a nettement augmenté. Les moyens de la DPC ont été renforcés. Nous vous laisserons apprécier s'ils sont suffisants ou pas...

À ma connaissance, la décision TikTok n'est pas attaquée devant le Conseil d'État. Elle n'est pas encore définitive, puisqu'elle a été notifiée début janvier et qu'il y a un délai de distance de quatre mois.

Est-ce que TikTok a changé ses pratiques ? L'enquête portait sur le site web. Oui, les pratiques ont changé, avant même la fin de la procédure d'ailleurs.

Mme Karin Kiefer. - En effet : au moment de la décision, les pratiques avaient déjà été améliorées.

M. Mickaël Vallet, président. - Merci beaucoup, messieurs, madame, du temps que vous nous avez consacré.

Audition de M. Grégoire Borst, professeur de psychologie du développement et de neurosciences cognitives de l'éducation (université Paris Cité) et directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant (LaPsyDÉ - CNRS), le 3 avril 2023

M. Mickaël Vallet, président. - Nous poursuivons nos travaux avec l'audition de M. Grégoire Borst, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant (LaPsyDÉ) au Centre national de la recherche scientifique (CNRS).

Monsieur Borst, après vos années de doctorat à l'université Paris-Sud et de post-doctorat à l'université d'Harvard, vous vous êtes spécialisé en psychologie du développement et en neurosciences cognitives de l'éducation. Vous étudiez notamment la manière dont le cerveau se développe au cours du temps, avec des périodes, selon l'âge, de stabilisation ou au contraire de reconfiguration, étant alors plus ou moins sensible à son environnement. Cela vous permet notamment d'analyser les conséquences de l'utilisation des réseaux sociaux sur nos fonctions cognitives en tenant compte de cette complexité liée à l'âge.

Nous sommes curieux de bénéficier de vos éclairages sur ce point, notamment au regard de l'usage qui est fait par les enfants et les adolescents de TikTok, un usage relativement important puisqu'il se situe autour d'une heure et demie à une heure quarante-cinq par jour ou de dix heures par semaine pour les 4-18 ans, durée qui doit être ajoutée au temps passé sur les autres applications. Nous aimerions notamment savoir si vous avez pu établir des rapports de cause à effet entre une exposition forte à des écrans et, par exemple, un retard de développement cognitif, et si oui pour quels âges.

Vous menez également un projet de recherche novateur sur la capacité des adolescents à identifier les fausses informations auxquelles ils sont exposés sur les réseaux sociaux et sur leur capacité à « résister » à leurs premières intuitions en matière de traitement de l'information ou à les inhiber. Là encore, nous sommes impatients d'en apprendre davantage sur vos premiers résultats.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête. Je rappelle qu'un faux témoignage devant notre commission d'enquête serait passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal. Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, M. Grégoire Borst prête serment.

M. Grégoire Borst, professeur de psychologie du développement et de neurosciences cognitives de l'éducation (Université Paris Cité) et directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant (LaPsyDÉ - CNRS). - Je suis heureux de pouvoir vous parler de l'adolescence ; on a parfois une représentation négative de cette période, mais je vais tâcher de vous montrer également ses aspects positifs. Je vais surtout m'attacher à présenter les enjeux de l'exposition aux écrans et à l'utilisation des réseaux sociaux.

Mon premier commentaire consistera à souligner que, finalement, on sait peu de choses sur ce sujet, on a peu de données, ce qui crée une difficulté particulière. D'ailleurs, vous le verrez, même quand on aboutit aux mêmes conclusions statistiques à partir de données identiques, l'interprétation de ces conclusions peut être très différente.

Vous pourrez ensuite me poser des questions sur TikTok, mais aussi sur les autres réseaux sociaux, parce que la littérature scientifique sur TikTok est très mince, voire inexistante : on dispose de très peu de données relatives aux effets de ce réseau social sur le cerveau en développement et sur les compétences cognitives et socio-émotionnelles de l'enfant et d'adolescent.

Le LaPsyDÉ est un laboratoire du CNRS rattaché à la Sorbonne ; c'est le premier laboratoire français de psychologie scientifique, il a été créé il y a cent vingt-huit ans. Il compte aujourd'hui 60 personnes, qui essaient de comprendre le développement et les apprentissages de l'enfant et de l'adolescent dans le cadre d'un tissu biologique en pleine maturation.

Depuis une vingtaine d'années, nous pouvons visualiser le cerveau en développement, pour comprendre la dynamique du développement cognitif et socio-émotionnel au regard du développement cérébral. Or, on le sait désormais, le développement cérébral n'est pas linéaire, il s'opère de façon dynamique, de façon asynchrone - à différents rythmes dans les différentes régions cérébrales -, ce qui implique de ne pas considérer la problématique des écrans à travers le seul prisme de la toute petite enfance, des 0-3 ans. Certes, c'est une période de sensibilité très forte du cerveau à l'environnement, mais il y a une autre période de développement cérébral dans laquelle le cerveau est particulièrement sensible à son environnement : l'adolescence, qui se définit comme une période neurobiologique spécifique. On retrouve cette période dans d'autres espèces animales, elle n'est pas une particularité de l'espèce humaine.

L'adolescence est caractérisée par une asynchronie du développement cérébral entre deux grands systèmes du cerveau humain : d'une part, le système limbique, enfoui au coeur de notre cerveau et impliqué notamment dans ce qui relève de notre réactivité émotionnelle, dans notre recherche et le traitement de la récompense et dans la sensation de plaisir et, d'autre part, le système préfrontal, dont le siège se situe juste derrière notre front et qui traite tous les mécanismes de régulation cognitive, comportementale - impulsivité - et émotionnelle. Cette asynchronie entre un système limbique, qui finit sa maturation très tôt, et un système préfrontal, qui finit la sienne beaucoup plus tard, crée la période de la vie qu'est l'adolescence, qui se définit par un certain nombre de comportements associés que vous connaissez peut-être, pour ceux qui ont la joie d'avoir des adolescents chez eux.

On oublie parfois que cette période de maturation cérébrale dure très longtemps, jusqu'à 20 ou 25 ans ; du point de vue du développement cérébral, on reste adolescent jusqu'à 20 ou 25 ans. Cela ouvre nombre de questions comme celle de la responsabilité juridique ou de la santé des adolescents. En tout cas, du point de vue cérébral, on n'est pas adulte à 18 ans, on l'est beaucoup plus tard.

Par ailleurs, le développement cérébral est également façonné par l'environnement. Il ne faudrait pas caricaturer les neurosciences : quand nous nous intéressons au développement cérébral, nous étudions évidemment aussi l'environnement dans lequel se développe l'enfant. En effet, puisque le cerveau se développe pendant 20 à 25 ans ex utero, il est évidemment très fortement influencé par l'environnement. On pense notamment à l'environnement social - on sait que, dès 4 mois, la maturation du cerveau diffère en fonction de l'environnement social -, mais également, évidemment, à l'exposition aux écrans et à ce que font les enfants sur ces écrans.

Cela dit, il y a des mécanismes de compensation d'environnements non optimaux pour la maturation cérébrale, très tôt ou plus tardivement. Il existe, dans le cerveau humain, des mécanismes de neuroplasticité qui permettent de compenser des environnements non optimaux pour le développement cérébral. Ces mécanismes permettent au cerveau de se transformer et donc d'apprendre, car l'apprentissage est sous-tendu par des transformations de notre cerveau, tant pendant la période de la maturation du cerveau, de 0 à 25 ans, qu'en dehors de ces périodes : à tous les âges de la vie, la neuroplasticité nous permet d'acquérir de nouvelles compétences. On peut toujours apprendre, compenser.

Toutes ces nouvelles connaissances sur le cerveau nous invitent à remettre en cause les modèles de développement cognitif et socio-émotionnel. Notre discipline a été longtemps influencée par un modèle prévalant, le modèle de Jean Piaget ou piagétien, selon lequel l'intelligence de l'enfant se développait par grands stades cumulatifs et qui affirmait que l'on passe, en gros, d'un bébé ayant essentiellement accès à une intelligence relativement concrète, sensori-motrice, à un adolescent ayant enfin accès à une pensée hypothético-éducative, lui permettant de penser de façon abstraite. On sait depuis à peu près soixante ans que ce modèle du développement cognitif et socio-émotionnel de l'enfant et de l'adolescent est erroné. En réalité, très tôt, le bébé est capable de pensées abstraites et, inversement, il ne vous aura pas échappé que, en tant qu'adultes, il nous arrive encore d'être sujets à des biais de raisonnement ou de prise de décision.

Ce modèle ne fonctionnait pas parce qu'il pensait le développement cognitif comme une marche en avant, du bébé ayant très peu de compétences à l'adulte les ayant toutes. D'où une représentation du développement cognitif selon laquelle il y avait une norme, avec des stades de l'intelligence à passer à certains âges. Ce n'est pas du tout ce que l'on observe : la norme du développement cognitif et socio-émotionnel, c'est l'hétérogénéité. Toutes les trajectoires développementales et d'apprentissage sont différentes.

Cela engendre des difficultés quand on s'intéresse aux effets de l'exposition aux écrans sur les trajectoires développementales et d'apprentissage, puisque celles-ci sont différentes d'un individu à l'autre. Cela exige en outre de se défaire de la conception selon laquelle c'est forcément quand on est jeune que l'exposition aux écrans est négative et qu'elle l'est moins quand on est plus âgé. Cela n'est pas conforme à ce que l'on sait du développement cérébral et du développement cognitif et socio-émotionnel.

Le fait de dire qu'il n'y a que de l'hétérogénéité ne signifie pas que l'on ne puisse pas identifier les mécanismes produisant le changement au cours du temps ou au cours des apprentissages. Toutes les marées sont différentes, pourtant elles sont toutes régies par le même principe physique. Il en va de même pareil pour le développement et les apprentissages : toutes les courbes sont différentes, mais elles sont régies par des mécanismes similaires et notamment par les mécanismes du système 3 - troisième système de pensée dans le cerveau humain -, qui relèvent de tous les mécanismes de régulation : émotionnelle, cognitive et comportementale.

Ainsi, si c'est un mécanisme qui produit le développement cognitif, socio-émotionnel et qui définit notre capacité à maîtriser notre impulsivité, c'est probablement sur celui-ci qu'il faut fonder l'éducation aux médias, parce que cela contribue à nos capacités de régulation face aux médias. J'y reviendrai.

Ces mécanismes nous semblent fondamentaux pour le développement cognitif et socio-émotionnel et pour la régulation des comportements. En effet, des études longitudinales indiquent que, quand on s'intéresse aux prédicteurs de la réussite éducative future - non pas nécessairement la réussite scolaire, il s'agit de comprendre non pas comment obtenir de bons résultats au Programme international pour le suivi des acquis des élèves (Programme for International Student Assessment ou Pisa), mais comment, une fois sorti du système éducatif, on a les compétences nécessaires pour être en bonne santé, avoir un bien-être important, une bonne réussite professionnelle et une bonne réussite de vie -, on retombe sur la capacité de maîtrise de soi.

Quand on mesure la maîtrise de soi entre 4 et 11 ans et qu'on la rapporte au quotient intellectuel et au milieu socio-économique, on observe que ce qui explique en grande partie la réussite éducative est la capacité à se maîtriser, à réguler son comportement. Ainsi, cette capacité de maîtrise de soi est un enjeu important de la réussite éducative, via la régulation de l'utilisation des écrans.

Cette étude longitudinale a commencé en 1975 et s'est terminée en 2005. Cela montre incidemment la difficulté à laquelle nous sommes confrontés : nous cherchons à connaître les effets de l'utilisation des réseaux sociaux sur le développement cognitif et socio-émotionnel avec un temps de recul extrêmement faible. Il nous faudrait ce type d'études, menées sur trente ans.

M. Mickaël Vallet, président. - Pouvez-vous expliquer le test de la guimauve ?

M. Grégoire Borst. - Il s'agit d'une façon d'évaluer la maîtrise de soi. Ce n'est pas le procédé utilisé dans cette étude, qui repose sur des observations au sein de la cellule familiale, à l'école ou sur des questionnaires.

Pour évaluer la capacité de maîtrise de soi, on propose à un enfant une guimauve ou toute friandise dont il est friand et on lui dit qu'il peut soit manger la friandise immédiatement soit la laisser intacte, auquel cas, quand on revient, il en aura une seconde. L'adulte sort alors de la pièce, l'enfant ne sait pas pour combien de temps, et on mesure le temps entre le moment où on lui donne la friandise et celui auquel il la mange. Le temps est limité à quinze minutes, ce qui est relativement long quand on a 3 ans. L'enjeu est d'évaluer la capacité à résister à la récompense immédiate, au plaisir associé au fait de manger la guimauve immédiatement, pour obtenir une gratification plus importante différée. On voit bien pourquoi cela peut être un prédicateur de la réussite éducative future, parce que se fixer des objectifs de long terme - professionnels, personnels, relatifs à la santé - exige un engagement dans cette activité. La capacité à résister à un troisième verre de vin, par exemple, permet de diminuer à long terme les risques d'avoir un cancer. C'est exactement la même chose. D'où le caractère prédictif de ce type de compétence.

C'est ce qu'étudie le LaPsyDÉ, en combinant des approches comportementales, la génétique et des approches contextualisées : on étudie ce que ces compétences produisent dans une salle de classe et quelles sont les compétences qui permettent de prédire la réussite éducative future des enfants. Nous travaillons à tous les âges de l'enfance et de l'adolescence : des bébés jusqu'à la fin de l'adolescence, à 20-25 ans.

Nous travaillons sur beaucoup de domaines : sur l'exposition à l'information et la résistance aux fausses informations, mais également sur la lecture, sur les mathématiques, sur la prise de décision, sur le raisonnement humain, sur la créativité. Et nous croisons ces approches méthodologiques pour comprendre les mécanismes produisant le développement cognitif et la régulation émotionnelle chez les adolescents.

Nous travaillons également sur les inégalités éducatives : non seulement comment les observer, mais encore comment les combattre. Nous cherchons à définir ce qui explique les difficultés en mathématiques et en français parmi les élèves scolarisés dans les réseaux d'éducation prioritaire et quel type d'intervention concevoir en fonction du profil cognitif de chaque élève, parce que les difficultés dans ces disciplines peuvent s'expliquer par différentes raisons selon les individus.

Nous travaillons enfin à un projet de recherche, en partenariat avec Nathan et Ipsos, visant à comprendre la dynamique de la capacité à discerner les vraies informations des fausses chez les adolescents. Il s'agit, à notre connaissance, de la seule étude au monde sur cette question. Nous présentons aux jeunes des posts Instagram, Twitter ou Facebook - plutôt Instagram, parce que leur réseau social de prédilection pour s'« informer », après YouTube -, et on leur demande de déterminer, sur une échelle de 1 à 4, à quel point cette information leur semble vraie ou fausse, et on en tire des moyennes. On mène l'expérience en classe de sixième, de cinquième, de quatrième, de troisième et à l'âge adulte. En sixième, il n'y a pas de différence de score entre les vraies et les fausses informations ; ensuite, la capacité à les distinguer se développe progressivement.

C'est une étude transversale, c'est-à-dire synchronique sur plusieurs classes, et nous menons par ailleurs deux études longitudinales, sur deux cohortes que nous suivons dans différents pays - en France, au Maroc, au Brésil et en Inde -, afin d'observer la dynamique et les prédicteurs de la capacité à discerner les vraies informations des fausses, en mesurant par ailleurs le temps passé sur les écrans et sur les réseaux sociaux.

En parallèle, nous étudions les pistes pédagogiques pour améliorer la capacité à discerner les vraies informations des fausses. Nous conduisons ces recherches dans une démarche participative et collaborative, en co-créant les interventions et les évaluations avec les enseignants. Ensuite, un deuxième groupe d'enseignants procède dans leur classe à l'évaluation avant et après intervention, sachant qu'il y a deux interventions possibles. C'est une démarche expérimentale classique. Qu'est-ce qui distingue les deux interventions ? La première repose sur l'éducation traditionnelle aux médias et à l'information : comment sourcer une information, à quel type de document on est confronté, quel est le média dont émane l'information, etc. La seconde consiste à expliquer, avant cette éducation classique aux médias, les biais de pensée auxquels on est soumis quand on confronté à une information : nous avons un cerveau qui a des biais, qui aura tendance, par exemple, à penser qu'une information est vraie parce qu'elle est plus émotionnelle ou plus surprenante.

Nous comparons ensuite l'efficacité des deux types d'interventions. On observe d'abord que le score de l'infox diminue après intervention, mais plus significativement quand on a fait précéder l'éducation aux médias d'une présentation des biais cognitifs. En revanche, quand on s'est contenté de l'éducation traditionnelle aux médias et à l'information, les scores attribués aux vraies informations n'augmentent pas. Il y a donc un effet négatif sur la capacité à discriminer les informations, on a rendu les adolescents sceptiques face à toute information. C'est un véritable problème quand on sait que le degré de scepticisme vis-à-vis de l'information véhiculée par les grands médias est prédicateur de l'adhésion aux thèses complotistes.

Il faut donc tenir compte de cela quand on conçoit les interventions d'éducation aux médias et à l'information ; on ne peut pas se borner à faire de l'éducation aux médias d'information en adoptant toujours la position de ceux qui produisent l'information. Nous avons un cerveau qui réceptionne l'information et il faut développer ses connaissances sur nos biais cognitifs. Cela vaut aussi pour l'éducation aux réseaux sociaux.

La particularité du cerveau adolescent est qu'il est très focalisé sur les récompenses. Son système limbique répond fortement à une récompense espérée, ce qui explique pourquoi les adolescents s'engagent plus dans des situations de prise de risque : leur cerveau répond beaucoup plus fortement à une récompense espérée. Leur noyau accumbens, l'une des structures du système limbique impliquées dans les comportements d'addiction, s'active beaucoup plus en situation d'espérance de récompense. Cela explique pourquoi ils sont orientés vers des comportements répétitifs donnant lieu à récompense.

Je vous ai parlé de la tâche de la guimauve, de la capacité à réguler son comportement et son impulsivité ; or, tout au long de l'adolescence, on a plus de difficultés à réguler son impulsivité. C'est donc une période propice à l'engagement dans des conduites répétitives donnant lieu à récompense. C'est encore plus vrai dans un contexte social, dans lequel les adolescents sont encore plus orientés vers la récompense immédiate, vers le plaisir immédiat, par rapport à un plaisir plus important, mais différé.

J'en viens aux écrans. Vous me posiez la question de la causalité. Celle-ci est très difficile à établir. C'est la difficulté à laquelle nous sommes aujourd'hui confrontés. La plupart des études sont corrélationnelles : on ne sait pas si c'est le temps d'écran qui agit sur le développement cognitif et socio-émotionnel, si c'est le développement cognitif et socio-émotionnel qui explique un temps accru passé devant les écrans ou encore si les variables latentes, comme le statut socio-économique des familles, expliquent le temps passé devant les écrans et le développement cognitif et socio-émotionnel. On sait que les enfants vivant dans des milieux socio-économiques moins favorisés passent plus de temps devant les écrans, du fait des conditions de vie de ces familles : familles monoparentales, horaires décalés, etc. La corrélation que l'on observe peut donc être due à une troisième variable.

En ce qui concerne le lien entre réseaux sociaux et bien-être, je veux évoquer deux études intéressantes. Elles sont tirées de la même base de données américaines et anglaises, comportant 500 000 données sur le temps passé par des adolescents sur les réseaux sociaux et leur bien-être ressenti. Ces deux études aboutissent à la même conclusion : il y a un lien significatif entre les deux paramètres, de l'ordre de 0,4 % de variation du bien-être s'explique par le temps passé devant les réseaux sociaux. Or l'une des deux études en déduit qu'il n'y a pas d'urgence à agir du point de vue de la santé publique, quand l'autre affirme qu'il y a urgence à agir. Voilà où nous en sommes : les deux études ont la même conclusion statistique, mais en tirent des recommandations opposées. Je vous laisse vous faire votre opinion...

Par ailleurs, contrairement à ce qu'affirment certains collectifs que je ne nommerai pas, on n'observe pas, entre 1990 et 2017, quand on s'appuie sur de très grosses bases de données, d'explosion des difficultés psychologiques sur le bien-être des adolescents. Il ne semble pas y avoir de variation du bien-être des adolescents concomitante de l'émergence du numérique dans leur vie quotidienne.

M. André Gattolin. - Mais c'est une absence de corrélation à une échelle globale.

M. Grégoire Borst. - C'est vrai. On peut donc étudier, dans un échantillon restreint, sur plusieurs semaines, la variation du bien-être des adolescents en fonction du temps qu'ils passent sur les réseaux sociaux. On trouve des corrélations, mais on observe des informations différentes selon que l'on s'intéresse à l'intra-individuel et à l'interindividuel.

Pour un individu donné, plus le temps passé sur les écrans augmente, plus son bien-être diminue de quelques points de pourcentage, mais, paradoxalement, au-delà de trois ou quatre heures par jour passées sur les réseaux sociaux, le bien-être augmente. La corrélation n'est donc pas linéaire, c'est une courbe en U. Pour les 1 % des individus qui passent le plus de temps sur les réseaux sociaux, chaque heure supplémentaire passée sur les réseaux sociaux augmente le bien-être associé.

Par ailleurs, quand on examine les données interindividuelles, pour les 95 % de la population qui regardent les écrans, chaque heure passée entre zéro et deux heures sur les écrans est plutôt associée à une augmentation de bien-être.

Par conséquent, on ne peut pas conclure de façon absolue dans un sens ou dans un autre, on ne peut pas dire qu'il y a des effets extrêmement négatifs ou extrêmement positifs des réseaux sociaux sur le bien-être. Ce n'est ni l'un ni l'autre et, en tout état de cause, les effets sont extrêmement faibles et ils dépendent fondamentalement des prédispositions psychologiques des adolescents. Si l'on considère les adolescents comme une population homogène, on se trompe, parce que les réseaux sociaux sont des amplificateurs de difficultés psychologiques préexistantes. Par exemple, si l'on a une bonne estime de soi, s'abonner à un réseau social, donc entrer dans une situation de comparaison sociale, aura plutôt un effet positif sur son estime de soi ; si l'on a une mauvaise estime de soi, cette comparaison sociale conduira à une diminution de son estime de soi.

Toutes les études que j'ai présentées sont extrêmement récentes - 2019 à 2022 - et celle de 2020 qui s'intéresse, en transversal, aux associations existant entre la satisfaction dans la vie, qui diffère du bien-être, et le temps passé sur les réseaux sociaux, montre des résultats différents selon le sexe. Entre 10 et 13 ans, il y a une corrélation négative pour les filles entre la satisfaction dans la vie et le temps passé sur les réseaux sociaux ; pour les garçons, on observe ce résultat entre 13 et 15 ans, puis il y a un autre pic vers 19 ans. Les associations entre satisfaction dans la vie et temps passé sur les réseaux sociaux diffèrent donc en fonction des sexes et des périodes de l'adolescence.

M. Claude Malhuret, rapporteur. - Vous avez annoncé qu'il n'existait pas de publication scientifique sur TikTok en particulier. Or notre commission d'enquête porte surtout sur ce réseau social. C'est une limite à notre entretien.

Le sujet est-il celui du bien-être ? Si les réseaux sociaux rendent idiot, un adolescent passant cinq heures par jour sur les réseaux sociaux peut tout à fait avoir un bien-être supérieur à son voisin qui y passe peu de temps, mais je m'intéresse aussi au développement cognitif et à l'acquisition des connaissances. Je reste sur ma faim de ce point de vue. Mon impression est que celui qui passe trois ou quatre heures par jour sur TikTok hypothèque le temps passé à acquérir des connaissances plus importantes. Avez-vous des mesures de ce phénomène ? La Chine a limité à quarante minutes le temps quotidien autorisé sur TikTok et les principaux acteurs de la Silicon Valley limitent fortement ou interdisent l'usage des écrans à leurs enfants. Bref, le bien-être est une chose, mais il y a aussi l'acquisition de connaissances et la réussite scolaire.

Par ailleurs, vous paraît-il souhaitable, du point de vue du développement cognitif, d'imposer des restrictions ? Que pensez-vous, par exemple, de la proposition de loi de l'Assemblée nationale consistant à instaurer une majorité numérique à 15 ans ?

Ma dernière question porte sur l'addiction. Avez-vous des informations attestant de l'existence de comportements addictifs ? L'algorithme de TikTok, plus rapide, semble plus addictif que ceux des autres réseaux sociaux.

Mme Céline Boulay-Espéronnier. - Les adolescents sont, semble-t-il, plus déprimés à cause de l'avènement des réseaux sociaux. Votre conclusion est plus optimiste.

Quelles sont la part de plaisir et la part de volonté d'apprentissage dans l'abonnement des adolescents à un réseau social ?

Vous n'avez pas parlé des problèmes de concentration. Le modèle de TikTok me semble néfaste de ce point de vue.

Enfin, l'usage de TikTok ou d'un autre réseau social ne creuse-t-il pas un fossé entre l'adulte et l'enfant ?

M. Pierre Ouzoulias. - Le journal La Croix vient de publier un article indiquant que 16 % des jeunes pensent que la terre est plate, contre 3 % chez les adultes, et que ce pourcentage s'élève à 21 % parmi ceux qui s'informent sur YouTube et à 29 % parmi ceux qui consultent TikTok. Cette application rend-elle plus perméable aux fausses informations ?

Avez-vous communiqué vos résultats aux services de l'éducation nationale ? On sent bien que l'école ne peut plus se contenter d'apprendre à lire-écrire-compter, elle doit également enseigner l'esprit critique et le plus tôt possible.

M. Mickaël Vallet, président. - Vous nous expliquez que le fait d'aller sur les réseaux sociaux ne détermine pas les capacités d'apprentissage d'un adolescent, mais que ce serait plutôt la structure de ses capacités d'inhibition et de résistance qui conditionnerait son rapport au réseau social. Mais on ne connaît pas le profil des adolescents qui vont sur TikTok, ni leurs capacités de résistance... Qu'est-ce qui explique qu'on peut y passer trois heures en croyant y passer cinq minutes ? Y passer trois heures, est-ce grave ? Votre présentation nous laisse penser que si les adolescents sont suffisamment équipés pour parvenir à se reconcentrer par la suite, cela ne serait pas grave. Mais des enseignants nous expliquent que leurs élèves, même s'ils ne semblent pas trop mal équipés en début d'année, restent sur YouTube ou TikTok jusqu'à une heure du matin...

Mme Toine Bourrat. - J'aimerais avoir votre avis concernant le fait que TikTok semble amener des mineurs à ne plus avoir aucun discernement, au point que certains commettent des gestes abrutissants, en mettant, par exemple, un animal dans un sèche-linge pour gagner un défi en ligne.

Mme Céline Boulay-Espéronnier. - Dans la vie d'un adolescent, d'un point de vue sociologique, sait-on si les deux ou trois heures passées sur TikTok sont prises plutôt sur un temps d'apprentissage scolaire, sur un temps de vie de famille, ou sur des loisirs avec des amis ?

M. André Gattolin. - On oppose souvent conformité et transgression, mais ce type de réseaux sociaux ne provoquerait-il pas une sorte de conformité dans la transgression ? Ce phénomène est-il propre à l'âge adolescent ?

M. Grégoire Borst. - J'ai très peu abordé la question cognitive, c'est vrai, car les données sont encore moins convaincantes. J'entends les craintes qui semblent légitimes, mais pour autant, avec toutes les limites dues au fait que nous ne nous intéressons qu'au temps d'écran ou au temps passé sur les réseaux sociaux, il n'y a pas de lien négatif systématiquement avéré entre l'exposition aux écrans et le développement cognitif de l'enfant, au-delà de trois ou quatre ans. Pour les enfants de moins de trois ou quatre ans, des données cohérentes convergent pour suggérer que l'exposition aux écrans entraîne non des troubles, mais des retards concernant l'acquisition du langage, la reconnaissance des émotions ou la motricité fine. Il n'est pas impossible de rattraper ces retards, qui peuvent s'expliquer par un temps passé devant des écrans, et non, dans cette période de construction, en interaction avec des êtres humains et les parents.

Pour l'enfant et l'adolescent, très peu de données suggèrent un effondrement massif du développement cognitif à cause du temps passé devant les écrans. Je modère tout de suite cette affirmation : des données convergent fortement pour suggérer que le temps passé sur les réseaux sociaux a un effet sur la qualité du sommeil, notamment lorsqu'on a du mal à déterminer ce temps. Toutes les études sont fondées sur des déclarations, et il y a une sous-évaluation du temps que les adolescents déclarent passer sur les réseaux sociaux : la corrélation entre le temps déclaré et le temps réellement passé derrière les écrans est de l'ordre de 20 %. Mais on sait que cet usage a un effet sur la qualité du sommeil, tant pour les adolescents que pour les adultes.

Or l'adolescence est une période ou différentes problématiques convergent. Du fait même de la structuration de nos sociétés, les adolescents connaissent un déficit de sommeil beaucoup plus important qu'à n'importe quelle autre période de la vie. Leur cycle de sommeil se décale de plus de deux heures, mais l'institution n'a pas modifié son temps scolaire. Décaler de deux heures la première heure de cours au collège aurait pourtant des effets massifs sur la qualité des apprentissages, et coûterait peu cher à l'institution. Le temps physiologique de l'adolescent serait enfin respecté. De toute façon, il se couche à onze heures parce que son pic de sécrétion de mélatonine se décale de deux heures. Si vous y rajoutez l'écran, cela va encore décaler le sommeil et jouer sur sa qualité. Le sommeil joue sur deux aspects extrêmement importants des apprentissages : la neuroplasticité, c'est-à-dire la capacité du cerveau à se transformer, et les capacités de mémorisation. Mais il faut bien comprendre que ce n'est pas en soi l'écran ou le réseau social qui jouent sur les apprentissages : ils produisent un effet sur le sommeil, qui a des effets en cascade sur les apprentissages. L'effet n'est pas direct, il est indirect. En matière de politique éducative, il faut se demander comment faire une éducation au sommeil, pour améliorer la qualité du sommeil chez les adolescents.

Bien sûr, le temps passé sur les écrans n'est pas utilisé pour faire autre chose. Mais que fait-on réellement sur un écran ? Les écrans ne restent qu'un média ; quelles activités sont réalisées, quels contenus sont visionnés ? Y a-t-il une situation de création ? Sur TikTok, des adolescents créent. Nous pouvons regarder ces activités d'un oeil adulte et les considérer comme totalement futiles, mais ces adolescents créent et ne sont pas engagés uniquement dans un visionnage passif. Il est très différent d'être engagé dans la création de contenu et d'être simplement passif, observateur. Nous ne disposons pas de données sur ces questions : la granularité des usages des écrans est difficile à établir.

La majorité numérique à 15 ans prévue dans la proposition de loi adoptée à l'Assemblée nationale est-elle une bonne chose ? Oui, mais déjà devrions-nous nous assurer que les enfants n'aient pas de compte TikTok avant 13 ans - je rappelle que c'est interdit. Il y a là un premier problème : comment s'assure-t-on que les adolescents respectent les limites d'âge d'utilisation de ces réseaux sociaux ? J'étais dans un collège il y a quelques semaines : tous les élèves de sixième avaient un compte sur les réseaux sociaux, en sachant pertinemment que c'est interdit, et en disant qu'il suffit de renseigner une autre date de naissance. On en revient à la problématique de l'éducation des parents à ces questions : pour accompagner l'usage des réseaux sociaux, il faut penser une forme de coéducation. Il n'est absolument pas normal de laisser des enfants utiliser ces réseaux sociaux, qui peuvent aussi les exposer à des contenus non appropriés. C'est là un autre problème, qui peut avoir des conséquences, notamment sur leur bien-être, alors qu'accompagnés par leurs parents, ils peuvent réévaluer ce à quoi ils ont été exposés.

Repousser la majorité numérique de deux ans va dans le bon sens, mais comment faire pour garantir qu'avant 15 ans les adolescents ne puissent pas avoir accès aux réseaux sociaux ? Sans cette garantie, cela ne changerait rien, et c'est bien le problème. Cela relève de la responsabilité des réseaux sociaux et de ces plateformes. La discussion entre YouTube et les membres de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) était surréaliste. Lorsqu'on leur demandait pourquoi ne pas diffuser l'ensemble du contenu jeunesse sur YouTube Kids, les représentants de YouTube répondaient que des adultes aimaient bien regarder du contenu jeunesse... Il faut respecter le droit des enfants à ne pas être exposés à certains contenus. Il y a là des mesures à prendre avant de repousser la majorité numérique à 15 ans.

Sur l'addiction, la réponse est complexe. En l'état actuel de nos connaissances, il n'y a pas d'addiction aux écrans ou aux réseaux sociaux du même ordre que celle engendrée par la prise de substances psychoactives ou la consommation d'alcool. Pour l'instant, nous ne disposons pas de données suggérant une modification de la concentration de certains récepteurs à la dopamine, qui est l'un des neurotransmetteurs impliqués dans l'addiction et la recherche du plaisir. Cela ne veut pas dire qu'il n'y a pas d'addiction comportementale, c'est-à-dire des comportements d'ordre addictif sur ces réseaux. Mais il faut dissocier ces comportements de ce qui relève d'une addiction à la drogue ou à l'alcool, aux effets strictement similaires sur des cerveaux adolescents. La question reste très débattue.

Concernant les effets de la période du covid, et pour savoir si les observations sur la santé mentale des adolescents relèvent soit d'une utilisation excessive des réseaux sociaux, soit des conséquences de la période du covid, il est très difficile de trancher. Il y a une covariation : pendant les confinements, davantage de temps a été passé derrière les écrans, et il y a une dégradation globale de la santé mentale des adolescents après le covid. Si le temps passé devant les écrans produit une variation de 0,4 % par rapport au bien-être ressenti des adolescents, et donc par rapport aux difficultés qu'ils peuvent avoir en matière de symptômes dépressifs, et quand on regarde ce que l'exposition au stress chronique peut produire en matière d'anxiété et de risque de dépression, on peut se dire que la jauge indique plutôt le fait que la période du covid a été très particulière. Je rappelle que le discours adressé aux adolescents était tout de même particulièrement anxiogène : vos comportements vont entraîner un risque accru d'attraper le covid pour vos familles, entendait-on ; nous n'étions pas très loin de les accuser d'être responsables de la mort de leurs grands-parents... La question n'a pas été davantage abordée lors de leur retour à l'école, en raison du manque de psychologues scolaires. Il n'y a pas eu alors de discussion sur la période très particulière qu'ils avaient vécue, avec leur cerveau très particulier : à l'adolescence, on passe d'un lien d'attachement dans la cellule familiale à un lien d'attachement qui se fait au sein d'un groupe social extérieur. Les adolescents ont besoin des interactions sociales avec les autres, et les réseaux sociaux n'ont pas que des aspects négatifs : ils ont permis, pendant le temps de fermeture des écoles, aux adolescents de maintenir du lien social - car les réseaux sociaux sont utilisés pour maintenir du lien social, même si, pour TikTok, c'est un peu différent.

Il faut dissocier les capacités attentionnelles des enfants et des adolescents, qui ne se sont pas effondrées ces dernières années, et le monde qui a radicalement changé. Les tests classiques, que l'on utilisait il y a une trentaine d'années, indiquent que les capacités attentionnelles des enfants n'ont pas évolué. C'est le monde qui a radicalement changé : les ressources attentionnelles sont en permanence captées par de multiples terminaux et interférences. Les enfants distribuent beaucoup plus que nous leurs ressources attentionnelles, ce qui crée des difficultés de concentration, mais ils ont tout à fait les capacités de se concentrer et d'engager des ressources attentionnelles. Ceux qui jouent beaucoup aux jeux vidéo développent sans doute de meilleures ressources attentionnelles que nous, car les jeux vidéo - et notamment ceux que l'on n'aime pas, les jeux de tir à la première personne - peuvent avoir des conséquences positives sur le développement des ressources attentionnelles, en maintenant leurs effets jusqu'à deux ans après l'arrêt de leur utilisation. Même si je ne suis pas du tout en train de recommander à tous les adolescents de jouer aux jeux vidéo, on aimerait des effets à deux ans pour tous les apprentissages !

Les capacités de concentration sont aussi en rapport avec la motivation. Il faut prendre en compte la motivation d'un adolescent à s'engager dans une situation d'apprentissage - on en revient à la notion de plaisir. Un adolescent d'aujourd'hui perçoit un décalage de plus en plus fort entre ce qu'on lui apprend à l'école et la réalité dans laquelle il vit. Il n'y a jamais eu un tel décalage entre le système éducatif et la réalité du quotidien de ces adolescents. Ne croyez pas qu'ils ne soient pas capables d'analyser cela de manière très précise : ils voient bien qu'il y a un hiatus entre ce qu'on leur demande de faire à l'école et le monde dans lequel, toutes et tous, en quinze millisecondes, nous avons accès à toutes les connaissances produites par l'humanité. Et on continue à leur demander d'apprendre des connaissances... Je ne dis pas qu'il ne faut pas apprendre de connaissances : je dis que si on ne passe pas par une explication de la raison pour laquelle il faut apprendre des connaissances, on se retrouve dans une situation très complexe. Il faut aller aussi loin, quand on parle d'éducation aux médias. Aujourd'hui, on a besoin de connaissances pour juger l'information à laquelle on est exposé. Avant, on n'avait pas besoin d'expliquer : l'élève respectait l'interaction de tutelle avec l'enseignant, et ne pouvait acquérir des connaissances que par le savoir prodigué par l'enseignant. C'est terminé ! Cette révolution, elle a eu lieu. Quand on parle de l'attention ou de la concentration, ce que l'on pointe en réalité, c'est ce manque de motivation des élèves à s'engager dans la situation d'apprentissage. On le voit bien : à partir du moment où les enfants sont intéressés, quelle persévérance n'ont-ils pas ! Regardez le temps passé pour passer un niveau dans un jeu vidéo ! On aimerait bien une telle persévérance pour résoudre un problème mathématique... Il faut rendre la situation d'apprentissage intrinsèquement motivante pour lui.

Le fossé entre l'adulte et l'enfant est un point absolument fondamental. Chez les plus jeunes, pour que l'utilisation des écrans ait un effet positif, il faut une utilisation accompagnée par les parents. On ne peut pas laisser un enfant seul devant les écrans, c'est fondamental. En même temps, il y a une réalité sociologique, quotidienne, qui est difficile, et qui renvoie à une différence de milieux sociaux. Dans une famille monoparentale, il est beaucoup plus difficile d'être tout le temps en co-utilisation des écrans. Pour éviter ce fossé, il faut que les parents s'intéressent à ce que font les adolescents sur les réseaux sociaux. C'est aussi un moyen de pouvoir compenser certaines dérives, notamment pour les mécanismes de conformisme social que M. Gattolin évoquait. C'est aussi une problématique de l'adolescence : les adolescents sont beaucoup plus sujets au conformisme social, et à prendre la position dominante dans un groupe. Sur un réseau social, c'est ce qui peut se passer. Mais de tout temps, des adolescents ont martyrisé des animaux... La différence, c'est que maintenant, ces actes sont médiatisés.

M. André Gattolin. - Cela revient à se conformer à la transgression...

M. Grégoire Borst. - D'une certaine manière, c'est se conformer à une position transgressive dominante à un certain moment, qui est de tester les limites imposées par les adultes. Au moment de l'adolescence, on cherche le lien social, la récompense sociale. Le cerveau adolescent est orienté vers la récompense sociale : l'adolescent recherche un statut social dans son groupe d'appartenance, d'où les dérives que l'on peut observer sur les réseaux sociaux, que l'on peut également observer dans la vie réelle, mais que l'on perçoit un peu moins.

M. Mickaël Vallet, président. - Et pour les défis, les challenges ?

M. Grégoire Borst. - Les défis, c'est le quotidien d'un adolescent. Dans sa vie quotidienne, l'adolescent est dans une situation de défi permanent, en compétition avec les autres pour un statut dans un groupe social. Cela n'empêche pas certaines relations de coopération dans des groupes. Les adolescents ne sont pas individualistes, ils sont extrêmement prosociaux, s'orientent vers de grandes causes, et sont particulièrement sensibles aux injustices. Il faut prendre en compte le fait que les zones activées dans un cerveau adolescent face à une injustice sont les mêmes que celles qui sont impliquées dans la douleur physique : l'injustice, c'est pour lui une douleur physique, ce qui explique des réactions parfois excessives.

Pourquoi passe-t-on autant de temps sur les réseaux sociaux ? L'évaluation du temps passé est délicate pour des activités très courtes, avec des boucles de récompense rapides, comme celles de TikTok, dont l'algorithme nous présente une vidéo correspondant à ce que l'on aimerait voir. On retrouve des boucles de récompense dans toutes nos activités quotidiennes : aller manger un bon gâteau dans une pâtisserie active par exemple notre réseau de la récompense. Pour autant, ces réseaux sociaux jouent sur des boucles de récompense extrêmement rapides, qui entraînent une motivation à persévérer sur le réseau social. Pour cette raison, on a tendance à mal estimer le temps qu'on y passe. C'est pourquoi il faut un contrôle de ce temps. Je suis toujours un peu sceptique par rapport à l'idée que ce contrôle doit venir de l'extérieur. L'éducation doit avoir une certaine progressivité : dans un premier temps, les parents doivent définir un contrôle parental pour assurer le développement de l'enfant - imposer, sur tous les nouveaux terminaux numériques, la possibilité de définir un contrôle parental est une bonne chose. Mais le véritable enjeu est que l'enfant parvienne à s'autoréguler dans ses usages, parce que ses parents ne seront pas toujours derrière lui. S'ils n'arrivent pas à responsabiliser leurs enfants face à cela, les parents se retrouveront dans une situation difficile.

M. Mickaël Vallet, président. - Nous voilà rassurés : vous avez commencé en indiquant que la capacité de résistance ou d'inhibition fixe la capacité d'apprentissage ; puis vous terminez par l'idée que l'algorithme de TikTok nourrit un circuit de la récompense gratuite et facile, ce qui pose un problème pour l'appréhension du monde globale de l'adolescent.

M. Grégoire Borst. - La dernière chose que je voudrais indiquer, c'est que si l'on veut réellement apporter des réponses éducatives face à ce nouveau monde, à ces nouveaux outils et ces nouveaux usages, il faut enseigner non seulement la pensée critique, mais, de manière plus globale, la manière dont on fait des choix. À l'école, très peu de connaissances concernent notre propre psychologie ou le fonctionnement de notre cerveau ; dans notre système éducatif, la première fois qu'on étudie notre cerveau, c'est en classe de quatrième. Le défaut de connaissance sur le cerveau est gigantesque, ce qui nous place dans une situation paradoxale : ni l'élève, ni le responsable légal de l'enfant, ni l'enseignant n'ont aucune connaissance de leurs cerveaux respectifs, et on espère que de ce triangle va émerger de l'apprentissage... On peut améliorer l'apprentissage des élèves : il faut leur montrer très tôt comment leur cerveau fonctionne, notamment face à ces outils que sont les réseaux sociaux.

M. Mickaël Vallet, président. - Nous vous remercions de votre participation.

Audition de Mme Nathalie Loiseau, députée européenne et de M. Raphaël Glucksmann, député européen, le 13 avril 2023

Mme Laurence Rossignol, vice-présidente. - Chers collègues, nous avons le plaisir d'auditionner aujourd'hui Mme Nathalie Loiseau, ancienne Secrétaire d'État chargée des affaires européennes, désormais députée européenne et présidente de la sous-commission « défense et sécurité » du Parlement européen.

Nous auditionnons également M. Raphaël Glucksmann, député européen et président de la commission spéciale sur l'ingérence étrangère dans l'ensemble des processus démocratiques de l'Union européenne (UE), y compris la désinformation, et sur le renforcement de l'intégrité, de la transparence et de la responsabilité du Parlement européen.

Mme Loiseau, en tant que membre de la délégation du Parlement européen pour les relations avec la République populaire de Chine, nous nous demandons notamment si vous, ou vos collègues, ont déjà fait l'objet de pressions au regard des décisions prises par le Parlement européen et d'autres institutions européennes de bannir l'utilisation de l'application TikTok.

En tant que présidente de la sous-commission « défense et sécurité », avez-vous par ailleurs de bonnes raisons de penser que TikTok, ou d'autres applications similaires, présentent des risques pour certains aspects de la sécurité de l'UE ?

M. Glucksmann, lors de votre audition, le 4 avril dernier, devant la commission d'enquête de l'Assemblée nationale relative aux ingérences des puissances étrangères, vous avez dénoncé, je cite, « la naïveté, l'indolence et la légèreté » avec lesquelles les dirigeants ont abordé la question des ingérences étrangères ces dernières années. Vous pourrez ainsi évoquer les résultats des travaux de la commission spéciale sur l'ingérence étrangère du Parlement européen que vous présidez. Vous comprendrez que la stratégie qui nous intéresse plus particulièrement aujourd'hui en la matière est celle de la Chine, dont l'ingérence au sein de l'UE est souvent analysée sous l'angle de l'extra-territorialité du droit et de sa politique d'investissements étrangers dans des secteurs de souveraineté de nos démocraties.

Ainsi, au regard de vos compétences et connaissances respectives, ainsi que des informations et données auxquelles vous avez eu accès, nous aimerions être éclairés aujourd'hui sur les principaux modes opératoires de la Chine pour mener des campagnes d'influence, de désinformation, voire de déstabilisation au coeur de nos démocraties européennes. Quels seraient, selon vous, les principaux risques liés à l'utilisation de TikTok ? Enfin, comment pourrions-nous mieux nous prémunir collectivement contre ces menaces ?

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de laisser la parole à Mme Loiseau puis à M. Glucksmann pour deux exposés liminaires d'une dizaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

Mme Loiseau et M. Glucksmann lèvent la main droite et disent « Je le jure »

Vous avez la parole.

Mme Nathalie Loiseau, députée européenne, présidente de la sous-commission sécurité et défense. - Madame la présidente, mesdames et messieurs les sénateurs, je souhaiterais vous remercier pour votre invitation à témoigner devant votre commission.

Comme vous l'avez dit, j'interviens devant vous avec plusieurs casquettes. Je suis présidente de la sous-commission sécurité et défense, qui étudie l'ensemble des menaces au sein de l'UE et propose les manières d'y répondre. Ces sujets sont souvent directement militaires (guerre d'invasion russe en Ukraine, missions militaires de l'UE à l'étranger) mais concernent aussi les menaces hybrides. L'Ukraine est un bon exemple de pays d'abord ciblé par des menaces hybrides et qui fait face aujourd'hui à une guerre conventionnelle de haute intensité.

Je suis aussi coordinatrice de mon groupe Renew Europe au sein de la commission spéciale sur les ingérences, présidée par Raphaël Glucksmann. À ce titre, je suis actuellement co-rapporteure du rapport final de la commission spéciale, qui se penche plus particulièrement sur les menaces d'ingérence contre le Parlement européen lui-même. Vous avez tous entendu parler du Qatargate mais d'autres ingérences, en particulier en provenance de Russie et de Chine, sont sous notre radar depuis longtemps. Nous les avons exposées et nous formulons des recommandations pour nous en protéger.

Ces deux casquettes vont bien ensemble et ces deux commissions travaillent au quotidien main dans la main. J'ai d'ailleurs récemment publié un livre sur ces menaces hybrides pour les décrire et fournir des propositions. Par ailleurs, je suis également membre de la délégation aux relations avec la Chine au Parlement européen.

Je commencerai en rappelant qu'il est important de mesurer le rôle des plateformes en général comme outils d'ingérence de puissances étrangères. On l'a vu avec l'élection présidentielle américaine de 2016, au cours de laquelle Facebook a joué un rôle important d'ingérence. On l'a vu ensuite massivement avec la pandémie de Covid et depuis le début de la guerre d'Ukraine. Toutes les plateformes sont le relai d'opérations de manipulation de l'information. On risque de le voir encore davantage l'année prochaine puisque 2024 est une année d'élections dans beaucoup de pays. Taiwan « ouvrira le bal » avec des élections en janvier 2024. Suivront ensuite des élections au Royaume-Uni, en Ukraine, en Russie, puis auront lieu les élections européennes et enfin l'élection présidentielle américaine. Comme l'ont montré l'élection américaine de 2016 et le référendum sur le Brexit, les consultations électorales sont vulnérables à des influences étrangères.

La Chine s'est lancée dans les ingérences avec le poids que lui confère sa puissance économique en apprenant vite des méthodes russes. L'ingérence et la manipulation de l'information font partie de la doctrine militaire chinoise, qui distingue l'existence de trois types de guerre pouvant être menées par des moyens non militaires : la guerre de l'opinion, la guerre psychologique et le lawfare. Je me référerai aussi à un article de China Daily datant de décembre 2020 - on sait que ce journal n'écrit que ce que est autorisé par le pouvoir chinois. Cet article précise que « les médias numériques chinois et russes devraient combattre ensemble les attaques et les provocations des pays occidentaux et mettre en place un environnement international sain s'agissant de l'opinion publique ». Nous voilà donc prévenus !

Les ingérences de la Chine sont maintenant bien établies. Elles passent par diverses méthodes, qu'il s'agisse de la capture d'élites, de l'intrusion via des coopérations universitaires et scientifiques, du contrôle des diasporas chinoises à l'étranger, des cyberattaques ou du financement des activités de certains think tanks. J'y reviendrai bien sûr si vous avez des questions. Mais le monde de l'internet est aussi l'un des terrains de jeu des ingérences chinoises. Le paradoxe est que Pékin exerce un contrôle social total sur internet en Chine, que les plateformes occidentales y sont bannies mais qu'à l'étranger, l'activité des plateformes chinoises est débridée.

Pendant le Covid, la désinformation sur l'origine du virus ou sur l'efficacité des vaccins était souvent d'origine chinoise, avec des moyens considérables comme l'armée des 50 centimes, c'est-à-dire au moins 2 millions de personnes en Chine rémunérées pour intervenir sur les réseaux sociaux. On peut y ajouter 20 millions de trolls à temps partiel. Même les comptes officiels du ministère chinois des affaires étrangères (le Wàijiâobù) se sont faits le relai de sites complotistes douteux, comme The Grayzone.

Une intoxication prétendait ainsi que le virus du covid avait été créé en laboratoire aux États-Unis à Fort Detrick, démontrant un certain manque d'imagination puisque la même désinformation a été utilisée par la Russie des années auparavant pour accuser les États-Unis d'être à l'origine du virus du SIDA. Décidément, Fort Detrick intéresse beaucoup de monde. Si vous saisissez Fort Detrick sur un moteur de recherche, vous trouverez en priorité de la désinformation chinoise, grâce à l'usage des data void - c'est-à-dire la technique consistant à s'emparer d'un sujet peu traité et à le saturer avec de la désinformation. Je citerai aussi, toujours sur le covid, l'invention d'un biologiste suisse imaginaire, nommé Wilson Edwards, qui aurait fait des révélations sur l'épidémie. La Suisse a eu beau protester en affirmant que ce biologiste n'existait pas, ses propos ont été repris par des comptes officiels chinois.

Depuis le début de la guerre d'Ukraine, la désinformation d'origine chinoise ne s'est pas démentie ; elle reprend systématiquement le narratif de la Russie. Ce n'est pas une surprise compte tenu du « partenariat sans limites » que Xi Jinping et Vladimir Poutine ont conclu.

TikTok est un instrument permettant toute sorte de manipulation, comme d'autres plateformes. Il y a cependant quelques spécificités de cette application, qui doivent nous alerter. Tout d'abord, le format même des vidéos courtes de TikTok permet d'engranger très vite énormément de données personnelles sur les utilisateurs de la plateforme. Ces données sont rapatriées en Chine. On sait que des employés de TikTok y ont accès puisque même l'entreprise a dû le reconnaitre. Cela a notamment été le cas pour les données de journalistes enquêtant précisément sur TikTok. C'est possible et c'est même obligatoire, compte tenu de la loi de 2017 sur la cybersécurité en Chine.

Au-delà, TikTok est un outil d'influence, émanant d'un État autoritaire, qui ne nous laisse voir que ce qui est validé et pas ce qui ne l'est pas. C'est un outil de propagande d'une part et de censure d'autre part. Cette propagande est massive, avec des influenceurs répétant les mêmes éléments de langage sur la plateforme. Des contenus sont interdits quand ils risqueraient de déplaire aux autorités de Pékin, en particulier ceux concernant les droits de l'Homme en Chine. On sait aussi que des cellules du parti communiste sont présentes dans toutes les entreprises chinoises, y compris dans ByteDance, la maison-mère de TikTok. On se souvient par ailleurs des mésaventures de Jack Ma, ancien dirigeant d'Alibaba, qui prouvent bien qu'une entreprise de la Tech dite privée est soumise en Chine à de fortes pressions politiques.

C'est la raison pour laquelle l'Union européenne s'est dotée de réglementations couvrant toutes les plateformes, et pas seulement les plateformes chinoises, avec le Règlement général de protection des données (RGPD) et le Règlement sur les services numériques (DSA). Vous m'avez interrogée sur les pressions que notre délégation pour les relations avec la Chine aurait pu subir après l'interdiction du Parlement européen de l'utilisation de TikTok sur les téléphones professionnels de ses personnels. La Chine se fait en réalité peu d'illusion sur notre délégation, à tel point que notre président Reinhard Bütikofer fait partie des personnes sanctionnées par la Chine, au même titre que Raphaël Glucksmann. Je crains d'être l'une des rares personnes s'exprimant pour dénoncer le régime chinois à ne pas être sanctionnée. Je ne le réclame pas mais cela est presque vexant ! Peut-être est-ce parce que j'ai été membre du gouvernement d'Emmanuel Macron... Je ne fais cependant pas d'interprétation des pensées profondes du régime de Pékin.

Nous avons peu de dialogues avec l'ambassade de Chine. En revanche, je constate la montée en puissance du lobbying de TikTok - aux États-Unis comme on l'a vu lors de l'audition du PDG de TikTok devant le Congrès, mais aussi à Bruxelles. Mon groupe politique a d'ailleurs demandé au PDG de TikTok de venir être auditionné au Parlement européen. Nous n'avons pas encore eu de réponse.

S'agissant des dangers de sécurité de TikTok, rien ne permet aujourd'hui de s'assurer que les données personnelles des utilisateurs - et notamment ceux des politiques et des décideurs - soient protégées par la plateforme. TikTok nous assure n'avoir jamais rien transmis aux autorités chinoises. Ces dernières nous promettent qu'elles n'ont jamais rien demandé. Mais les promesses n'engagent que ceux qui les écoutent. L'autorité de contrôle irlandaise a déclenché deux enquêtes sur des violations possibles du RGPD par TikTok.

Concernant TikTok comme outil d'influence et de désinformation, je relèverai simplement que le groupe Wagner est présent sur TikTok et n'est pas sanctionné. Par ailleurs, tout ce qui risquerait de déplaire à la Chine en est absent. Cela suffit à le voir comme une arme d'influence de la Chine dans nos démocraties.

M. Raphaël Glucksmann, député européen, président de la commission spéciale sur l'ingérence étrangère dans l'ensemble des processus démocratiques de l'Union européenne. - Je vous remercie madame la présidente ainsi que toute la commission d'enquête pour votre invitation.

Je voudrais commencer par quelques mots sur la commission spéciale sur l'ingérence étrangère. Dès le début de notre mandature, j'ai demandé la constitution d'une telle commission parce qu'il me semblait que nous faisions preuve d'une naïveté confondante à l'égard de régimes autoritaires qui s'ingéraient dans nos élections et dans notre vie publique, sans faire jamais l'objet ni de sanctions ni même de confrontations. Pour être sérieux dans la défense de notre souveraineté et de la sécurité de nos démocraties, il est nécessaire d'établir un diagnostic général. Il faut déterminer qui nous attaque et comment, et quelles sont les failles de nos systèmes de défense. Sur la base de ce diagnostic général, nous devons émettre des recommandations pour mieux protéger nos démocraties. Cette commission a été créée en septembre 2020 et nous travaillons depuis main dans la main avec Nathalie Loiseau et avec la plupart des groupes politiques du Parlement européen. Notre fonctionnement est transpartisan car il en va de la défense de notre bien commun - la démocratie -, qui est le cadre d'expression de dissensus sur le reste.

Ces ingérences empruntent différentes méthodes. Cela passe d'abord par la capture des élites, notamment des élites politiques. La Chine et la Russie sont ainsi devenues au fil des années les pourvoyeurs des retraites dorées de nos élus, de nos gouvernants ou de nos responsables d'institution. Vous connaissez tous le cas de Gerhard Schröder, qui a rejoint la société russe Gazprom. Cela n'est pas anodin puisque l'ancien chancelier allemand avait piloté le revirement de la politique énergétique allemande, donc européenne, au service de Gazprom. Un terme a même été inventé en Russie, la schröderisazia, c'est-à-dire la transformation de la classe politique européenne en supermarché. Les Chinois s'en sont largement inspirés.

D'autres méthodes passent par la manipulation de l'information pour influencer le débat public (sur nos réseaux sociaux notamment mais pas uniquement), par les investissements dans nos secteurs stratégiques ou encore par le financement de mouvements politiques, d'ONG, de think tanks, qui reposent sur l'absence de transparence dans beaucoup d'États membres.

Cette panoplie d'outils est au service de deux finalités possibles. L'ingérence classique consiste pour un État étranger à utiliser des outils d'influence pour inciter à la prise de décisions qui lui sont favorables, pour s'assurer de l'absence de critiques, ou encore pour parvenir à la signature d'accords bénéfiques. Ce type d'ingérence a toujours existé et le Qatargate en est un exemple. On utilise la corruption pour obtenir une décision favorable ou une absence de critiques. Une autre forme d'ingérence existe, qui ne vise pas tant à pousser l'intérêt de l'État qui s'ingère qu'à déstabiliser nos démocraties. Cette autre forme d'ingérence a été façonnée par la Russie et vise au chaos. Cela ne consiste pas, par exemple, à faire la publicité de la Russie sur les réseaux sociaux mais à soutenir les pôles les plus extrêmes du débat public dans nos pays, dans le but de rendre notre débat public chaotique.

Nous avons disséqué des dizaines de campagnes d'ingérence russes. Les trolls russes de l'Internet Research Agency de Saint-Pétersbourg soutiennent ainsi à la fois les indépendantistes catalans et les ultras nationalistes castillans, c'est-à-dire les deux pôles les plus opposés du débat public en Espagne. Ils soutiennent à la fois Black Lives Matter et All Lives Matter, à la fois les personnes dénonçant les violences policières en France et les personnes réclamant qu'on tire dans la foule. Il n'y pas de principe de contradiction. Le but est la déstabilisation et la radicalisation permanente du débat public dans les démocraties occidentales.

Pendant longtemps, la Chine a adopté une forme d'ingérence classique, bien que massive. Il y a eu cependant des moments de bascule. Depuis la pandémie, il semble désormais évident que la Chine a adopté le modèle russe. Si l'on doute de la solidité de l'alliance entre Pékin et Moscou, il suffit de voir leurs attitudes sur le terrain de la guerre hybride pour s'en convaincre. Les narratifs russes sont repris par les agents chinois et il y a conjonction car il y a un objectif commun, qui est la déstabilisation de nos démocraties et l'affaiblissement de nos institutions européennes. C'est une évidence si l'on se base sur les actions et non pas sur les discours tenus.

Il existe une spécificité de l'ingérence chinoise par rapport à l'ingérence russe. Le gouvernement chinois n'a pas véritablement besoin d'embaucher des lobbyistes. Contrairement aux autres pays, la Chine peut compter sur le travail des entreprises européennes. Nous sommes devenus tellement dépendants du marché chinois et de l'appareil productif chinois que nos grands groupes deviennent des ambassades bis du gouvernement chinois. Quand on doit prendre une décision sur le marché intérieur, sur le bannissement des produits de l'esclavage, sur l'accord d'investissement entre l'UE et la Chine, les « lobbyistes » qui viennent dans nos bureaux sont des représentants de Volkswagen et non pas tant des représentants du gouvernement chinois. Les intérêts sont conjoints et il y a un pacte faustien entre ces grands groupes et le parti communiste chinois. L'ingérence chinoise se nourrit de la dépendance européenne vis-à-vis de la Chine.

C'est un véritable problème que d'anciens ministres français rejoignent l'entreprise Huawei car en Chine (comme en Russie) la notion de grande entreprise privée n'est pas du tout la même que chez nous. ByteDance n'est pas une entreprise privée comme on l'entend en France. Bien sûr, sur le papier, elle en est une. Mais en Chine comme en Russie, il est impossible pour une entreprise dépassant une taille critique d'échapper au contrôle du régime politique. Une grande entreprise comme ByteDance est soumise non seulement à la loi de 2017 qui soumet tous les acteurs institutionnels, privés y compris, aux exigences de sécurité nationale émises par le parti communiste chinois mais également aux diktats politiques fixés par le pouvoir. Par ailleurs, en vertu de la pratique des golden share du PCC, des représentants du parti sont présents dans les instances de décision des entreprises privées.

Je parle de naïveté européenne car pendant très longtemps la structure privée de ces entreprises a été mise en avant pour écarter le problème. Il fallait ainsi confier la 5G à Huawei. Si l'offre est la meilleure, il fallait laisser les logiques du marché décider. Le problème est que ces acteurs n'appliquent pas eux-mêmes dans leurs pays les logiques du marché. Appliquer les logiques pures du marché chez nous revient alors à mettre en péril la sécurité nationale et laisser la pénétration étrangère saper les bases de la souveraineté.

S'agissant plus spécifiquement de TikTok, les TikTok leaks ont montré à quel point l'accès aux données était non seulement possible par les services chinois mais également effectif. La question de la localisation des serveurs est importante. Mais, en réalité, installer les serveurs en Europe ne changera rien. La question n'est pas tant celle de la localisation des serveurs que de leur accès. Nous n'avons pas résolu la question de l'accès de la Chine aux serveurs installés en Europe.

Par ailleurs, nous ne savons pourquoi une application aussi perfectionnée technologiquement n'a pas d'identification multifacteurs. C'est une question posée par tous les services de sécurité, y compris ceux du Parlement. Nous avons laissé des facilités de pénétration, qui n'existent pas dans les autres applications.

Enfin, il y a un risque de désinformation sur TikTok. Des études ont été faites sur ce sujet. Lors des midterms aux Etats-Unis, TikTok était moins prompte à lutter contre les phénomènes de désinformation qui devenaient viraux que Meta ou YouTube - bien qu'aucune plateforme ne soit exemplaire en la matière.

Nous sommes donc avec TikTok face à une conjugaison de risques. Nous devons tirer la leçon de l'absence de prise en compte de ces risques. Nous avons ainsi cru pendant très longtemps que laisser à Gazprom des stocks stratégiques gaziers allemands sur le territoire allemand était possible. Mais au lendemain de l'invasion de l'Ukraine, M. Habeck, ministre allemand de l'économie et du climat, a découvert que les stocks gérés par Gazprom avaient été vidés pendant les six mois précédant la guerre. Cela nous a contraints, nous Européens, à augmenter en pleine guerre nos importations d'énergie en provenance de Russie. Nous avons été naïfs.

L'enjeu est donc aujourd'hui de ne plus prendre ce type de risques et de placer les considérations de sécurité et de souveraineté au-dessus des pures logiques de marché. Je vous invite à garder en tête dans vos travaux la spécificité des régimes. En Chine et en Russie, les régimes sont tout puissants et les structures privées sont contraints de leur obéir. Ce qui peut paraitre similaire sur le papier à ce que nous connaissons en Europe ne donne pas du tout les mêmes résultats en Chine.

M. Claude Malhuret. - Je vous remercie tous les deux pour vos intéressants exposés liminaires. Nous nous réjouissons de vous recevoir aujourd'hui. Je signale la parution de vos deux ouvrages, qui sont tout particulièrement liés avec le sujet qui nous occupe aujourd'hui.

Raphaël Glucksmann s'est exprimé sur le thème de la naïveté confondante, de l'indolence et de la légèreté des démocraties occidentales face aux régimes totalitaires. C'est une des raisons pour lesquelles j'avais demandé au Sénat d'instaurer cette commission. Je voudrais rapporter une anecdote, dont Catherine Morin-Dessailly se souviendra probablement. J'ai proposé en 2018 lors d'une audition de la commission de la culture du ministre Cédric O, d'interdire la chaine de télévision Russia Today (RT) et l'agence de presse Sputnik. Cédric O avait levé les yeux au ciel, arguant que la France n'était pas une dictature et que nous ne pouvions pas le faire pour des raisons de liberté d'expression. J'ai eu beau lui rappeler que la liberté d'expression s'applique aux médias et non aux officines de désinformation issues du FSB, je n'ai pour autant pas obtenu gain de cause. Le 24 février 2022, la naïveté s'est quelque peu érodé et nous avons enfin interdit ces organes de propagande.

La Commission européenne, le Parlement européen, puis un certain nombre de gouvernements européens à la suite des États-Unis et du Canada ont décidé d'interdire à leurs fonctionnaires le téléchargement sur leurs portables professionnels de l'application TikTok. C'est à la fois pas assez ou trop. Si l'on considère qu'il y a un danger avec TikTok, on l'interdit, comme RT ou Sputnik, pour des raisons d'espionnage et de transfert de données, etc., et on recommande aux gouvernements européens de l'interdire purement et simplement. S'il n'y a pas de raisons évidentes de l'interdire pour les fonctionnaires, alors il ne faut pas le faire. La Commission européenne et les différents gouvernements n'ont pas du tout expliqué, sinon de façon allusive, les raisons qui ont motivé leur choix d'interdiction. Au Parlement européen, la question des raisons de l'interdiction de téléchargement de l'application a-t-elle été posée ? Pourquoi ne dit-on pas pourquoi ce téléchargement a été interdit ? Y a-t-il eu des réponses de la part des responsables de la Commission européenne ou du Parlement européen ?

Je note par ailleurs que le gouvernement français ne s'est pas contenté d'interdire l'application TikTok sur les smartphones de ses fonctionnaires mais a interdit le téléchargement de plusieurs applications récréatives, dont Netflix. Je souhaiterais connaitre votre sentiment sur ce sujet. Pensez-vous que cette décision était justifiée ? A quelques jours de la visite du Président Macron en Chine, cette décision n'était-elle pas destinée à éviter de cibler plus particulièrement une application chinoise ?

TikTok assure n'avoir aucun lien avec le gouvernement chinois. Le capital serait d'ailleurs largement réparti et serait majoritairement non chinois. La preuve fournie est que le siège de l'entreprise serait aux îles Caïman. Si j'étais à leur place, je ne donnerais pas cette information comme preuve de transparence... La maison-mère ByteDance ne serait par ailleurs pas majoritaire dans le capital. Ces déclarations, répétées au Congrès américain par Shou Zi Chew lors de son audition, entrent en contradiction avec des déclarations du gouvernement chinois affirmant qu'il ne laisserait jamais TikTok être vendu aux Américains. Cela est bien la preuve que le gouvernement chinois mène le jeu. Quel est donc votre sentiment sur les rapports non pas entre la société ByteDance et l'État chinois mais entre la société TikTok et le gouvernement chinois ? Il est important pour nous d'établir le plus précisément possible le degré d'affiliation de cette société au gouvernement et au parti communiste chinois.

Vous avez également mentionné l'installation des serveurs aux États-Unis avec le projet Texas, et en Europe avec le projet Clover. Pour l'Europe, il est prévu d'installer ces serveurs dans deux pays particuliers : l'Irlande et la Norvège. L'Irlande ne joue pas systématiquement, pour des raisons fiscales, le jeu de l'ensemble des autre pays européens. La Norvège quant à elle n'est pas membre de l'Union européenne. Le choix de ces deux pays pose donc problème. Par ailleurs, techniquement parlant, il parait évident à la suite des auditions que nous avons eues qu'il n'est pas possible d'éviter les « portes dérobées ». De toute façon, certaines données devant être traitées en Chine par des ingénieurs chinois, on voit difficilement comment il pourrait en être autrement. Je ne vous poserai pas une question technique mais bien une question politique. Quelle est aujourd'hui au sein du Parlement européen et de la Commission européenne la sensibilité sur le projet Clover ? La Commission européenne est-elle susceptible d'accepter ce projet et de le recommander ? Il est aujourd'hui encore particulièrement opaque.

Mon interrogation suivante porte sur le débat entre régulation ou interdiction. Depuis que nous avons créé cette commission, beaucoup de journalistes nous demandent d'abord et avant tout si nous allons interdire TikTok. Nous ne nous posons pas la question dans ces termes. Nous voulons savoir ce qu'est TikTok, comprendre son fonctionnement et sa stratégie, et ensuite en tirer des conclusions. Il n'en demeure pas moins que deux sujets restent cruciaux.

Le premier concerne la réciprocité. Pensez-vous qu'il soit possible durablement que les plateformes occidentales soient interdites purement et simplement en Chine et qu'à l'inverse la Chine fait ce qu'elle le souhaite sur les plateformes occidentales et que l'occident laisse se développer les applications chinoises. Je songe notamment à WeChat, qui s'adresse à toutes les communautés chinoises dans le monde. Pour des raisons d'équilibre politique et commercial, cette situation vous parait-elle normale ?

Si la décision est prise de réguler et non pas d'interdire TikTok, pensez-vous que le Règlement sur les marchés numériques (DMA) et le DSA sont des outils suffisants pour encadrer les plateformes ? Le Parlement européen et la Commission européenne sont-ils d'ores et déjà en train de se pencher sur les futures nécessités de la régulation ?

Enfin, comme vous l'avez rappelé, aucune plateforme n'est exemplaire sur le plan des données et des algorithmes. Le Sénat a voté à l'unanimité il y a deux ans, contre l'avis du Gouvernement, un amendement à la loi contre le séparatisme. Il prévoyait que toute plateforme qui catégorise la diffusion d'information à partir d'algorithmes ou d'autres traitements informatiques analogues doit être considérée comme éditeur et non comme hébergeur. Comme le rappelle Thierry Breton, ce qui est interdit offline doit être interdit online et la modération doit se faire préalablement et non pas ex post. Cet amendement n'a pas été adopté à l'Assemblée nationale. Que pensez-vous de cette distinction entre éditeur et diffuseur ? Pouvons-nous continuer à laisser les plateformes diffuser à peu près ce qu'elles veulent, avec une insuffisance criante de modération ?

Mme Laurence Rossignol. - Avant de vous laisser la parole, je souhaiterai ajouter deux questions. Comment faire pour identifier la nationalité de TikTok ? Quel est l'accès des Chinois sur TikTok ? Qu'est-ce que les Chinois voient sur TikTok ?

J'appuie la question du président Malhuret sur la distinction entre hébergeur et éditeur. Pour avoir travaillé sur la diffusion des contenus pornographiques, je sais que nous avons exactement le même problème. Si vous avez un mot à nous dire sur TikTok et les contenus pornographiques, nous sommes preneurs.

M. Raphaël Glucksmann. - La véritable interrogation est en effet de savoir pourquoi les mesures d'interdiction prises ne sont pas explicitées. Au Parlement européen, nous avons reçu une note confidentielle, qui explique les risques de l'application. Elle n'a pas été communiquée publiquement. Il n'y a pas de volonté d'expliquer publiquement pourquoi l'on cible spécifiquement TikTok. Il s'agit d'une mesure de précaution, fondée sur des risques et non sur des preuves avérées d'espionnage, bien qu'il y en ait. Ces risques sont conséquents. À mon avis, le fait de ne pas les partager est problématique démocratiquement. Ce choix s'inscrit dans la politique européenne de refus de faire de la Chine un antagoniste.

Cette politique est portée à sa quintessence avec la décision du gouvernement français sur Netflix. Certes, il faut des critères objectifs et généraux et éviter - à la différence des Américains - de cibler spécifiquement le gouvernement chinois. Mais, comme le répète notre commission spéciale, il ne s'agit pas non plus de faire semblant que Netflix et TikTok posent les mêmes problèmes. Cette faille dans le raisonnement européen se retrouve à de nombreux niveaux. La volonté de ne pas dresser de listes d'entités problématiques pour notre souveraineté et notre sécurité conduit parfois à des réflexions lunaires, les mesures de l'UE s'imposant un caractère universel et indistinct dans les cibles.

Je voudrais prendre un exemple qui ne concerne pas les plateformes. Après le Qatargate, des réflexions se sont lancées pour savoir comment réglementer les activités après mandat ou après fonction des députés ou ministres. Est évoquée notamment la nécessité d'une cooling-off period, c'est-à-dire d'une période de « refroidissement » où chacun devra s'abstenir d'aller travailler pour tel ou tel intérêt privé. Le problème est que travailler pour Gazprom ou pour une entreprise norvégienne de bois n'est pas la même chose. Or, ces deux entreprises sont traitées de la même manière par l'Union européenne. Les services de sécurité nous avertissent sur Gazprom et non sur l'entreprise de bois norvégienne !

Si nous traitons tout de manière universelle, les discussions risquent de conduire à des apories. Si l'on interdit par exemple à tout officiel ou à tout serviteur de l'État d'aller travailler dans une entreprise privée toute sa vie, nous risquons d'avoir des difficultés de recrutement dans l'État. Je comprendrai qu'il y ait une insurrection morale à l'idée de payer toute leur vie des personnes parce qu'elles ont été ministres pendant un an... Il faut se décider à interdire à un ministre de la défense d'aller travailler pour la Chine ou la Russie. Il en est de même pour les plateformes. Il faut certes des mesures de précaution mais quand celles-ci sont étendues à Netflix, elles perdent à mon avis leur sens.

Quand le gouvernement chinois prévient qu'il ne laissera pas TikTok être vendu, cela veut bien dire que la structure officielle de propriété de TikTok ne reflète en rien le processus réel de décision. C'est tout le problème de ces régimes opaques. Si sur le papier la structure de propriété peut être majoritairement à l'extérieur de la Chine, il n'en demeure pas moins que c'est bien le parti communiste chinois qui décide des orientations prises. Le même constat ressort des 80 réunions ayant donné lieu aux TikTok Leaks de Buzzfeed. La pratique est la vérité. TikTok peut très bien devenir une entreprise européenne basée en Irlande, la question reste de savoir qui commande. Vous pouvez avoir toutes les garanties sur le papier, il y aura toujours la même suspicion car on ne refuse rien aux autorités politiques chinoises.

S'agissant des serveurs, j'insiste pour rappeler que le lieu des serveurs importe moins que la question de l'accès aux serveurs et aux data.

Le débat entre interdiction ou régulation est en effet la grande question. Je vous livre mon opinion personnelle. Je ne pense pas qu'on en soit aujourd'hui à devoir bannir TikTok de l'ensemble du continent européen. En revanche, il faut nous prononcer sur les enjeux de régulation et de réciprocité. Le fait est que nous risquons d'arriver au bannissement du fait du déséquilibre total de nos relations avec la Chine. Cela est vrai s'agissant du commerce et de l'information. Il y a un contrôle absolu en Chine de toute influence pouvant émaner de nos démocraties. Nous n'avons réciproquement pas du tout la même attitude. C'est tout à notre honneur mais cela ne doit pas devenir une naïveté.

S'agissant de votre amendement tendant à donner le statut d'éditeur et non plus d'hébergeur aux plateformes, je pense en effet que cela est fondamental. Les algorithmes des plateformes, qui constituent leur secret le mieux gardé, cherchent à maximiser votre présence sur l'application, à vous attirer, à vous exciter, à vous rendre dépendants... Les émoticônes de colère sur Facebook sont ainsi cinq fois plus mis en avant que l'approbation car la colère est plus addictive. Ces algorithmes sont les lois de notre nouvelle agora. Notre débat public a désormais lieu dans un espace privé ! Notre place publique est désormais devenue un espace privé, régi par des lois que le décideur public et le législateur ne connaissent pas. Or ces lois favorisent l'ébranlement de notre démocratie en avantageant les opinions les plus polarisantes et en nous rendant drogués aux points de vue de la colère. Il y a là une recette pour une catastrophe.

Le régime russe a parfaitement intégré ces opportunités. Le chef d'orchestre de la propagande poutinienne depuis le début des années 2000 est Vladislav Sorkov, dépeint dans Le Mage du Kremlin. Sorkov, alors responsable de la politique ukrainienne de Poutine, a théorisé l'expansion du chaos dans un article de 2021. Il explique que la seule façon pour le régime russe de continuer à exister passe par l'expansion du chaos, pour remédier au phénomène récurrent des tensions intérieures. Le but de la propagande russe n'est pas d'être crue mais d'ébranler notre rapport à la vérité, de ne plus croire en rien et d'être en état d'énervement permanent. Or, cette approche correspond magnifiquement aux algorithmes des plateformes. Nous sommes comme une équipe de football qui passerait son temps à jouer à l'extérieur. La Russie ou la Chine jouent chez nous à la maison grâce aux algorithmes.

Les pouvoirs publics ne peuvent pas autoriser des acteurs privés à saper les fondements sur lesquels ils reposent. La responsabilité des plateformes doit donc être imposée. En la matière, l'Union européenne est précurseur par rapport aux États-Unis. Certes, les États-Unis ciblent TikTok. Mais quand il s'agit de réguler de manière générale les plateformes, c'est bien l'Union européenne qui est en avance. Je suis souvent critique sur les positions de l'UE et sur les retards pris à l'allumage des institutions européennes. Mais je note que les autorités australiennes enquêtent et analysent à partir de ce que nous faisons en ce moment. L'objectif est de bâtir une coalition sans les États-Unis pour obliger les Américains à réfléchir réellement aux effets des plateformes. L'assaut du Capitole en 2021 est bien une conséquence des algorithmes des plateformes.

Mme Nathalie Loiseau. - L'Union européenne est à la fois un grand marché et une construction juridique. Elle est donc toujours extrêmement pointilleuse dans ce qu'elle livre publiquement. Cela explique sa réticence à fournir publiquement les raisons de l'interdiction du téléchargement de l'application sur les portables des fonctionnaires. L'UE n'est pas toujours très politique ; elle le devient cependant dans les crises et dans la douleur. L'organisme étant allé le plus loin dans les explications est l'organisme de régulation belge, qui a précisé clairement que « TikTok collecte une grande quantité de données auprès des utilisateurs et peut manipuler les flux d'informations et de contenus. La loi chinoise oblige TikTok à coopérer avec les services de renseignement chinois » (il s'agit de la traduction d'un communiqué en néerlandais). La justification est donc donnée de l'interdiction de téléchargement de l'application par les fonctionnaires belges. La Belgique y est allée plus frontalement quand d'autres sont restés plus généraux.

Paradoxalement, je ne suis pas sûre que mélanger TikTok avec d'autres applications soit un défaut. TikTok est un outil de propagande et d'influence de la Chine. Mais la Chine le fait également à travers d'autres plateformes, comme Twitter et Facebook. Pendant la pandémie de Covid, Twitter a tenté de lutter contre la désinformation. Les plateformes ont alors admis qu'elles avaient une responsabilité quand il était question de vie ou de mort. Elles ont reconnu qu'elles n'étaient pas seulement des tuyaux mais avaient bien une responsabilité. En 2019, Twitter bloquait environ 500 faux comptes chinois. En 2020, ce chiffre s'établit à environ 130 000. La manipulation de l'information passe à travers toutes les plateformes. Je considère donc que l'approche européenne consistant à vouloir réguler toutes les plateformes n'est pas une approche lâche, qui refuserait de voir les difficultés. Il s'agit d'une approche de précaution vis-à-vis de tous.

La présentation qui a été faite du projet Clover est pour le moment extrêmement floue. TikTok s'engagerait à disposer de centres de données en Irlande et en Norvège. Nous savons que le choix de l'Irlande est dicté par des raisons fiscales. Mais il est de moins en moins vrai que l'Irlande ferme davantage les yeux que d'autres pays. L'autorité de régulation irlandaise, armée du RGPD et du DSA et sans doute piquée au vif, fait son travail et a déclenché deux procédures d'enquête sur l'utilisation des données par TikTok. Par ailleurs, TikTok annonce qu'elle sera bientôt soumise à un audit d'une entreprise de cybersécurité. Mais nous n'en connaissons pas les détails. Ce n'est pas suffisant pour être rassuré.

S'agissant de la régulation, le RGPD puis le DSA ne sont pas l'alpha et l'oméga mais ce sont de premiers pas importants. Avec le DSA, nous ne sommes plus dans la naïveté. Nous mettons les plateformes devant leurs responsabilités. La Commission européenne et les autorités de régulation nationales doivent avoir accès aux algorithmes de recommandation. Les plateformes doivent faire en sorte d'atténuer les risques de contenus préjudiciables et illégaux. Nous avons ajouté d'autres règlementations, par exemple sur les contenus terroristes, pour leur confier des obligations spécifiques. Nous travaillons aussi à une réglementation sur les contenus pédopornographiques, en remplacement de la réglementation intérimaire en vigueur.

Le véritable défi aujourd'hui est d'arriver à faire respecter cette réglementation. Cela passe par le lancement d'enquêtes puis par l'imposition de sanctions, qui peuvent être très significatives puisqu'elles sont en proportion du chiffre d'affaires mondial de ces plateformes. Nous sommes aujourd'hui dans une phase de test : la Commission européenne sera-t-elle capable de taper du poing sur la table, alors que ce n'est pas dans son ADN ? Le premier test concernera Twitter et sa nouvelle version développée par Elon Musk. Compte tenu de l'effondrement de la modération sur Twitter et de ce que font ses algorithmes de recommandation, en présentant des éléments jamais sollicités, un dialogue ferme doit être engagé avec cette entreprise. Nous devons nous assurer que Twitter respecte le DSA. Cet outil de réglementation n'est probablement par le dernier, compte tenu de la rapidité de la technologie, mais il est aujourd'hui incontournable.

Les ingérences étrangères, notamment chinoises, passent par toutes les plateformes. Si l'on bannit TikTok, il renaitrait autrement et de toute façon la propagande et la désinformation prendront d'autres canaux.

Je partage tout à fait les positions du président Malhuret sur RT et Sputnik. Pour autant, si l'on regarde les chiffres sur la désinformation d'origine russe circulant par des moyens numériques en Europe depuis l'interdiction de ces deux entités, on constate que l'on a donné un coup de pied dans la fourmilière et que cela s'est répandu partout ailleurs. C'est extraordinairement compliqué. La mesure prise, aussi spectaculaire soit elle, n'est pas suffisante par rapport aux buts poursuivis.

La notion de réciprocité, que l'on brandit toujours à l'égard de la Chine et que l'on applique peu, devrait être au coeur de nos échanges avec ce pays. Accepter une plateforme comme TikTok alors que les plateformes occidentales ne sont pas acceptées en Chine est un vrai sujet. C'est avant tout un sujet pour les États-Unis car il n'y a pas de plateforme européenne. La réponse américaine pourrait être l'interdiction car il n'y pas de régulation américaine et qu'il y a une concurrence commerciale et économique entre les plateformes américaines et chinoises. Les États-Unis se sont mis dans une position où la légitimité de leur préoccupation est un peu ternie par leur souci de gain commercial.

Il y une version chinoise de TikTok avec Douyin, qui est encore plus verrouillée que la version internationale. TikTok est utilisé par des publics occidentaux surtout jeunes. C'est d'ailleurs la raison pour laquelle des mesures particulières de protection des mineurs figurent dans le DSA. S'agissant de la pornographie, l'UE travaille d'abord et avant tout sur les contenus pédopornographiques. Contrairement à ce que disent beaucoup de plateformes, cela est tout à fait possible techniquement. Mais cela coûte de l'argent. Nous leur disons que ne pas le faire leur coûte en réputation. Sur ce sujet, un certain nombre de plateformes ont mis au point des outils qu'il faut évidemment contrôler pour éviter qu'ils soient intrusifs sur notre vie privée. Un débat traverse le Parlement européen : certains sont tellement préoccupés par la protection de la vie privée qu'ils seraient prêts à protéger des pédocriminels.

Mme Laurence Rossignol. - Ils ne sont pas prêts à protéger des pédocriminels, ils le font !

Mme Nathalie Loiseau. - Les plateformes à l'inverse sont plutôt du côté de ceux qui veulent lutter contre la pédopornographie. Elles ont bien compris le risque réputationnel auquel elles sont exposées. Cela illustre toute l'ambiguïté du dialogue que nous pouvons avoir avec ces plateformes.

Mme Catherine Morin-Desailly. - Je vous remercie tous deux pour vos propos. Pour travailler depuis dix ans au sein de notre commission des affaires européennes sur ces sujets, qui sont en réalité des enjeux de souveraineté, je partage vos analyses. Nous avons péché par naïveté trop longtemps. Je me souviens qu'en pleine affaire Cambridge Analytica, l'Élysée a déroulé le tapis rouge à Mark Zuckerberg. Il aura fallu attendre la crise sanitaire puis la guerre aux portes de l'Europe pour vraiment se réveiller. Mieux vaut tard que jamais.

S'agissant du pantouflage, vous avez mentionné les ministres et les élus. Je voudrais signaler qu'il y a beaucoup de fonctionnaires et de haut-fonctionnaires qui pratiquent le pantouflage et le rétro pantouflage en France et en Europe. Nous aurions intérêt à trouver les moyens pour répondre à cette problématique.

Je vous remercie Mme Loiseau de prendre de la hauteur. Il y a la question de TikTok lié à l'État totalitaire chinois. Mais il y a aussi l'ensemble des autres plateformes. L'affaire Cambridge Analytica montre que les plateformes ont des failles et introduisent volontairement des « portes dérobées » dans la mesure où cela permet de faire du profit. Frances Haugen nous l'a bien dit devant le Sénat : le profit sera toujours préféré au détriment de la sécurité.

Je voudrais souligner que le règlement sur l'intelligence artificielle permettra aussi de réguler indirectement ces plateformes. Croyez-vous possible à l'heure actuelle de permettre une vraie responsabilité des plateformes, quelles que soient leurs origines ? Les notions de redevabilité et de responsabilité doivent être renforcées. La faiblesse du DSA est que l'on renvoie aux plateformes la capacité à se réguler elle-même. Cela est assez dangereux du point de vue de la liberté d'expression. On a vu les effets de l'interdiction du compte Twitter de Donald Trump.

M. André Gattolin. - Je vous remercie tous les deux. Je m'intéresse à l'entreprise TikTok dans sa structure et dans son business model. J'aimerais savoir à quoi sert TikTok au-delà de la production de divertissement, de l'abrutissement, ou de son rôle en faveur des extrêmes. Cela fait quelques temps que j'essaie d'obtenir des données sur TikTok et sur son fonctionnement. Heureusement nous en avons grâce aux États-Unis avec les données d'audience et quelques revenus publicitaires.

La conclusion à laquelle je suis arrivé est que TikTok n'est pas une entreprise rentable et n'a pas les bases de sa rentabilité. Les seules ressources dont elle dispose coté occidental sont les revenus de la publicité. La publicité marche assez mal sur TikTok. Il y a certes une progression des revenus publicitaires compte tenu de la progression exponentielle de l'audience. Mais les niveaux sont bien moindres que ceux de Whatsapp ou d'autres. Inclure des messages publicitaires dans des programmes extrêmement courts conduit à faire baisser l'audience.

J'ai du mal à comprendre les liens de TikTok avec ByteDance, qui emploie 150 000 personnes. Il ne semble pas y avoir de chiffre pour le nombre d'employés de TikTok. Mais il y en aurait 30 000, ce qui est assez peu. La version chinoise - Douyin - est celle qui rapporte de l'argent. Elle dispose d'un système de plateforme et de ventes en ligne, ce que n'a pas TikTok à l'international. J'en arrive à ma question : quelle est la richesse réelle de TikTok ? Si cela ne passe pas par les recettes publicitaires, cela passe donc par les données massives obtenues sur les personnes. Ces données peuvent se valoriser de façon publicitaire (y compris en termes de publicité ciblée, ce que ne fait pas TikTok), pour nourrir un algorithme (ce que fait TikTok) ou encore pour les revendre (ce que ne fait pas TikTok).

Comme nous l'ont confirmé les services de sécurité, la stratégie du gouvernement chinois passe par le pillage de données personnelles de nos services publics. Comment le gouvernement chinois pourrait-il se priver de données très précises concernant plus d'un milliard d'utilisateurs ? Je note que le régulateur italien a décidé de suspendre provisoirement ChatGPT, pour des raisons de respect du RGPD et des âges de consentement. ChatGPT a réagi en prévoyant de relancer la production en utilisant moins de données personnelles et avec moins d'historique sur les personnes. La question n'est donc pas seulement celle de la localisation du stockage et de l'analyse des données mais aussi celle de la durée de ce stockage.

Les rares données dont nous disposons - notamment les fameuses données Forbes sur la présence d'employés de l'État chinois dans ByteDance et TikTok - ont été obtenues grâce aux recherches menées sur les employés de ces entreprises inscrits sur LinkedIn. C'est la seule base dont nous disposons. Il y a un problème de transparence. Jusqu'à quel point pouvons-nous accepter qu'une entreprise ne publie pas ses comptes de résultats en matière de dépenses et de coûts ? Cela est un véritable problème, d'autant plus quand on sait que le capital est largement d'origine extérieure. On dit que pour lutter contre la mafia, il faut la prendre au porte-monnaie. Je n'accuse pas TikTok ou ByteDance d'être une mafia mais il y a une absence de transparence qui dépasse largement celle des autres grands groupes numériques internationaux.

M. Remi Cardon. - Nous devons aussi garder en tête qu'il ne faut pas se focaliser sur TikTok. Les plateformes américaines ont une plus grande ancienneté et leur business model est la recherche de volumétrie en termes d'utilisateurs pour influencer une société.

Le DSA entrera en vigueur en septembre 2023. Tout un travail sera fait dans les prochains mois au Parlement français sur le sujet, en particulier à travers la proposition de loi sur les influenceurs. Je m'interroge sur les moyens qui seront mis en place. Les équivalents temps plein (ETP) à l'ARCOM seront-ils à la hauteur de l'ampleur du sujet ? La Commission européenne fait essentiellement de la prévention. Or, elle n'avait pas imposé ce principe de précaution aux autres plateformes. Peut-être étais-je trop jeune mais je n'ai pas souvenir que cela ait été fait pour d'autres plateformes.

Notre connaissance fine des algorithmes est souvent beaucoup trop tardive. Pour avoir conduit un rapport sur la cybersécurité, je sais qu'il faut tout faire pour imposer à ces acteurs de gagner en visibilité.

Mme Nathalie Loiseau. - Je rejoins Mme Morin-Desailly sur le pantouflage des élus mais également des haut-fonctionnaires. Je ne suis pas à l'aise à l'idée de savoir que le président du conseil d'administration de Huawei France est l'ancien directeur de Polytechnique. La solution face à ces dérives doit passer par des engagements, en nommant bien les choses. Comme le rappelait Raphaël Glucksmann, ce n'est pas la même chose de travailler pour une entreprise norvégienne et travailler pour une entreprise chinoise. Cette piste mérite d'être creusée et figure dans le projet de rapport que je présente en ce moment devant le Parlement européen.

S'agissant de la responsabilisation des plateformes, le DSA est selon moi une étape. Avant le DSA n'existait qu'un code de bonnes pratiques, où l'on confiait entièrement aux plateformes, sur le principe de leur bonne foi, le rôle de s'autoréguler. Le DSA impose un certain nombre de contraintes aux plateformes, en leur fixant des obligations de moyens et aussi de résultats, et prévoit des sanctions si les résultats ne sont pas atteints. Cela n'est pas suffisant de mon point de vue. Mais ce n'est pas choquant selon moi que nous avancions pas à pas, dans la mesure où il s'agit de questions de liberté d'expression et qu'il faut veiller à ne pas se précipiter.

L'Europe est entre deux contre-modèles : le far west américain et sa loi de la jungle ; et l'hypercontrôle chinois. Nous inventons une troisième voie, qui a selon moi l'avantage de la raison et de la finesse. Évitons d'avoir la main trop lourde, sachant que même en Europe, des démocraties illibérales voudraient nous inciter à contrôler bien davantage Internet, avec souvent des arrière-pensées. Le DSA est donc une étape, sans être la dernière. Le vrai test sera la capacité de la commission à frapper du poing sur la table, à faire un exemple et à sanctionner financièrement massivement une plateforme qui n'aurait pas respecté ses obligations. La question des moyens est donc en effet capitale, en termes de nombre et de compétences, à la fois au niveau de la Commission européenne et au niveau des autorités nationales. Ces plateformes regorgent de juristes tous plus brillants les uns que les autres et très bien payés.

Je ne partage pas l'idée qu'il serait trop tard pour connaitre un algorithme. Nous pouvons toujours en demander la modification. Le fait que l'accès aux algorithmes soit possible et que les chercheurs puissent avoir accès aux données constitue une véritable révolution, contre quoi se sont battues les plateformes. Le lobbying des plateformes pendant les négociations du DSA a été intense mais celles-ci n'ont pas obtenu gain de cause, même si nous aurions pu aller encore plus loin.

S'agissant du business model, je partage votre point de vue. Les mêmes analyses avaient été faites pour Twitter, que beaucoup considéraient comme une entreprise non rentable. On le dit toujours pour les plateformes qui démarrent. Il arrive en réalité vite un moment où ces entreprises ne perdent plus d'argent. Le DMA sert précisément à traiter différemment les gate keepers, c'est-à-dire ceux qui empêchent d'autres d'arriver sur le marché des plateformes. On constate pour le moment que l'Europe est toujours absente de ce débat : aucune entreprise européenne ne fait le poids.

S'agissant du stockage des données, TikTok a commencé à réagir avant les décisions des institutions européennes, à l'occasion de la sortie des TikTok Leaks. Il y a eu une opération « damage control ». Le PDG de TikTok a fait le tour de la Commission à Bruxelles. Cela n'a pas fonctionné puisqu'il a suffi qu'il vienne pour que la Commission et le Parlement prennent leurs décisions d'interdiction pour les fonctionnaires. Il n'a pas dû être très convaincant...Le projet Clover n'est en réalité que l'application du RGPD. Le PDG de TikTok s'est fait expliquer par la Commission européenne toutes les violations de l'entreprise.

Nous devons avoir le courage de veiller à la mise en oeuvre des règles que nous avons fixées. Nous disposons d'un levier : la taille de notre population, soit 450 millions de consommateurs. TikTok a entre 125 et 150 millions d'utilisateurs en Europe, soit autant qu'aux États-Unis. Par définition, TikTok doit prendre en compte ce qui lui sera imposé par l'Union européenne. Bon courage aux Britanniques qui ont quitté l'UE !

M. Raphaël Glucksmann. - Le pantouflage pose des problèmes en termes d'utilisation des réseaux, des connaissances mais aussi compte tenu de la suspicion qui nait nécessairement dans l'opinion. On peut en effet se demander si, lorsqu'elles étaient en poste, ces personnes ne travaillaient pas déjà pour leurs futurs employeurs. C'est une question légitime et cela ne relève pas du complotisme. Ce type de bascule devient extrêmement fréquent et doit être combattu. J'ai l'impression que la leçon a été tirée pour la Russie - les anciens élus membres de grands groupes russes ont été poussés à démissionner - mais cela n'est pas encore le cas pour la Chine ou pour d'autres régimes.

Le DSA est en effet un premier pas et tout dépend de la manière dont nous appliquons ces obligations. Nous avons l'expérience en Europe de disposer de textes progressistes ouvrant de nouvelles voies mais dont l'application laisse à désirer. Il faudra veiller à la manière dont ces textes seront appliqués à l'échelle nationale et à l'échelle européenne.

Mme Laurence Rossignol. - Qui sera chargé d'enquêter ?

Mme Nathalie Loiseau. - Ce seront les autorités indépendantes des États et la Commission européenne.

M. Raphaël Glusksmann. - Je travaille actuellement sur la négociation pour le bannissement des produits de l'esclavage. Il y a un parallèle : le texte sera sûrement satisfaisant mais la difficulté est de garantir que le texte soit appliqué de manière harmonieuse à l'échelle de 27 États membres. La Commission a une responsabilité sur ce sujet. Au Parlement, nous demandons à la Commission de cesser d'être timide et d'accepter d'avoir une responsabilité plus forte que celle inscrite dans les textes. Le problème est que les services de la Commission sur ce sujet sont très limités en ressources humaines ; ils sont 5 pour contrôler l'ensemble des ports du continent européen.

Nous adoptons des textes très importants pour protéger l'espace européen mais l'UE est sous-dotée, contrairement à ce qu'affirme la propagande des nationalistes. Le budget européen est trop faible et les instances de contrôle à l'échelle de l'UE n'ont pas assez de moyens. Tout comme on ne peut pas interdire les produits des marchés de l'esclavage ou de la déforestation à l'échelle de la France seule, on ne peut pas protéger l'espace numérique à l'échelle de la France seule. Mais l'on confie de plus en plus de tâches à une administration européenne qui est celle d'un village. Dans ces conditions, cela sera compliqué de faire face aux armées de lobbyistes et d'avocats des grandes plateformes.

Toutes les plateformes ont pour but de se répandre et ensuite de valoriser leur place dominante. Nous sommes actuellement dans la phase de l'expansion et pas encore tout à fait dans celle de la valorisation. Pour reprendre les termes d'un éditorial de l'agence officielle russe RIA Novosti à propos de Gazprom, « l'argent n'est pas tout ». S'étendre signifie collecter le plus possible de données et occuper un espace dominant. Si ces plateformes sont dans le même temps au service d'un régime politique dont les intérêts et les principes nous sont fondamentalement hostiles, cela pose de nombreuses questions. Si la valorisation est d'essence politique et non pas seulement commerciale, les dangers sont plus grands pour la sécurité de nos nations.

Je vous remercie de nous avoir auditionnés et j'espère vous avoir aidés dans votre entreprise salutaire.

Mme Laurence Rossignol. - Nous vous remercions tous les deux pour votre présence à cette audition ainsi que pour la qualité et la précision de vos propos.

Audition de M. Pascal Rogard, directeur général de la Société des auteurs et compositeurs dramatiques (SACD), le 2 mai 2023

M. Mickaël Vallet, président. - Nous avons le plaisir d'auditionner M. Pascal Rogard, directeur général de la Société des auteurs et compositeurs dramatiques (SACD), accompagné de M. Patrick Raude, secrétaire général de la SACD.

Monsieur Rogard, après avoir débuté en créant une troupe de théâtre, vous avez présidé différentes fonctions au sein d'organismes professionnels du monde audiovisuel et cinématographique.

Vous dirigez la SACD depuis 2004. Fondée en 1777 par Beaumarchais, elle est la plus ancienne des sociétés françaises de gestion collective des droits d'auteur. La SACD protège, perçoit et répartit les droits de près de 60 000 auteurs membres, dans les domaines du spectacle vivant, de l'audiovisuel, du cinéma et du web. Ces droits d'auteur se sont élevés à plus de 250 millions d'euros en 2022, un chiffre record.

La montée en puissance des plateformes peut apporter de nouvelles ressources aux auteurs du secteur audiovisuel et du spectacle vivant, en leur offrant de nouveaux moyens de diffusion. Encore faut-il que ces plateformes respectent les droits d'auteur.

Votre société a signé en décembre 2022 un accord avec le groupe Meta, portant sur l'utilisation du répertoire de la SACD. Les utilisateurs de Facebook et d'Instagram peuvent regarder et partager librement les oeuvres de ce répertoire et les auteurs de ces oeuvres sont rémunérés en conséquence.

Si un accord a été passé avec Meta, aucun contrat similaire n'a été conclu avec TikTok. La SACD envisagerait même d'assigner l'entreprise pour non-respect du droit d'auteur. Vous nous direz où en sont vos relations avec cette entreprise et nous donnerez vos propositions pour assurer une application effective du droit d'auteur sur TikTok.

Je rappelle que cette audition est retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire, je vais procéder aux formalités d'usage pour les commissions d'enquête. Un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

MM. Pascal Rogard et Patrick Raude prêtent serment.

M. Pascal Rogard, président de la SACD. - La SACD est la plus ancienne société d'auteur du monde, puisqu'en fait, Beaumarchais a inventé le droit d'auteur créant la première société d'auteurs. Nous avons une expérience déjà longue de négociation avec les plateformes numériques, depuis celle avec YouTube qui a conduit à l'accord que nous avons passé en 2010. À l'époque, nous n'avions pas le droit de dire que YouTube avait accepté le principe, cher à Beaumarchais, de la rémunération proportionnelle, puisque les entreprises mondialisées n'aiment pas reconnaître qu'elles accordent plus de droits à un pays qu'aux autres. Ce principe s'est largement étendu depuis, puisqu'il a été, grâce à l'action volontaire de la France, inscrit dans la directive Droit d'auteur de 2019, qui a élevé le niveau de protection à un niveau jamais atteint, en particulier en France où le Premier ministre Jean Castex a décidé une transposition ambitieuse - et je l'en remercie. Après YouTube, nous avons négocié un accord avec Netflix et les choses se sont très bien passées également, les responsables de la plateforme étaient venus nous voir avant même d'ouvrir leur service en France et nous nous sommes mis d'accord trois ou quatre mois après cette ouverture ; cet accord est satisfaisant pour les auteurs et, contrairement à ce que l'on entend ici ou là, Netflix respecte le droit d'auteur. Nous avons également négocié avec Amazon, avec Disney, des plateformes comparables par leur objet avec Netflix. Nous avons négocié aussi avec Meta, une plateforme différente car issue d'un site communautaire, et nous sommes parvenus à un accord après 18 mois - les négociations sont parfois complexes avec les sociétés américaines du fait que nos interlocuteurs directs doivent en référer et négocier eux-mêmes avec leur hiérarchie qui est aux États-Unis et qui ne connait pas toujours le fonctionnement de notre droit d'auteur.

Avec TikTok la situation est inédite. Habituellement, nous passons un accord de confidentialité avant d'engager des négociations, où chaque partie s'engage à ne pas dévoiler le contenu précis de la transaction et de ses étapes ; or, TikTok a exigé que nous taisions, y compris à notre conseil d'administration, l'objet même de la négociation, ce qui nous a empêché d'aboutir à un accord de confidentialité - nous avons dû en passer par des discussions par l'intermédiaire d'avocats, ce qui garantit leur confidentialité. La première rencontre que nous avons eue avec TikTok, il y a un an, a eu lieu non pas avec un opérationnel de TikTok, mais avec le directeur des affaires publiques pour la France, Éric Garandeau, dont la fonction est en fait d'acheter de l'influence, pas d'organiser le service. Nous lui avons bien signifié que TikTok pose un problème pour les droits d'auteur, un sujet qu'il connait bien puisqu'il a été par le passé le conseiller du président Nicolas Sarkozy, lequel s'était engagé pour ces droits. Ces problèmes de droit d'auteur ont été constatés par l'Association de lutte contre la piraterie audiovisuelle (ALPA), qui a missionné un expert indépendant, lequel a établi que des oeuvres de notre répertoire étaient diffusées sur TikTok sans que leurs auteurs en soient rémunérés. C'est un motif pour assigner TikTok en justice, mais nous préférons la voie de l'accord, comme nous l'avons fait avec les autres plateformes, qui nous fournissent ensuite les données indispensables pour établir la rémunération des auteurs dont les oeuvres sont diffusées.

Ce qui nous choque avec TikTok, c'est que cette entreprise qui ne respecte pas le droit d'auteur, achète de l'influence culturelle et que de grandes institutions culturelles acceptent des partenariats et associent leur nom à une entreprise qui néglige le droit d'auteur. TikTok est allée chercher Éric Garandeau, ancien président du CNC, ancien conseiller culturel du président Sarkozy, pour acheter de l'influence culturelle - et de grands noms suivent, c'est le cas pour le Festival de Cannes, le Louvre, le Salon du livre, la Réunion des musées nationaux (RMN), l'École nationale supérieure Louis-Lumière, le Forum des Images... J'ai fait un courrier au Festival de Cannes pour déplorer ce partenariat avec une entreprise qui pratique de la piraterie audiovisuelle, les responsables du festival m'ont répondu qu'ils avaient besoin d'argent... L'an dernier, TikTok a même organisé un festival du court métrage, dont le jury était présidé par le grand cinéaste Rithy Panh, lequel a démissionné pour protester contre les pressions qu'il subissait pour le choix des lauréats ; il a eu ensuite une explication avec TikTok, qui l'a assuré de sa liberté de choix, et il a alors réintégré sa fonction.

Nous avons donc demandé à venir devant votre commission d'enquête pour faire passer ce message : TikTok fait de l'obstruction sur le droit d'auteur, mais nos institutions culturelles acceptent son argent, son influence, c'est choquant.

M. Patrick Raude, secrétaire général de la SACD. - Le droit d'auteur comporte une partie rémunération, mais aussi le droit moral sur l'oeuvre, qui est également atteint sur TikTok puisque des oeuvres y sont découpées, plagiées, utilisées comme fond sonore ou pour leur décor, sans que leurs auteurs en soient d'accord.

Je précise aussi que si la négociation avec Meta a été longue, nous avions établi, dès le début de la négociation, que l'accord auquel nous parviendrions serait applicable à la date de transposition de la directive européenne de 2019, donc en mai 2021 - le délai de négociation avec Meta ne désavantagerait donc pas les auteurs. Avec TikTok, nous ne sommes pas même parvenus à définir un accord de confidentialité, c'est dire...

M. Pascal Rogard. - J'ai été accusé de dénigrer TikTok parce que j'ai retweeté un message du Président de la République qui critiquait l'influence néfaste de cette plateforme sur les adolescents... Au passage, je vous suggère de lire les recommandations de TikTok à destination de ceux qui tirent des revenus de la plateforme : dans les faits, TikTok peut démonétiser tout contenu qui lui déplait, en le « débranchant » de toute publicité, donc de tout revenu : si mon oeuvre déplait à TikTok, la plateforme peut m'empêcher d'en retirer tout revenu, c'est une restriction de la liberté de création et d'expression. Le comportement de TikTok est inédit et, personnellement, je n'avais jamais fait l'objet de menaces si directes pour avoir retweeté...un message venu d'une personnalité publique aussi connue que le président de la République ! Et ce n'est pourtant pas faute de m'être déjà exprimé contre l'avis de gens très connus...

M. Mickaël Vallet, président. - Pour mener des négociations, vous avez nécessairement besoin de rendre compte à vos mandants, donc à votre conseil d'administration ; mais vous nous dites que TikTok imposerait que vous n'en parliez pas du tout, y compris à vos mandants : comment la chose est-elle possible ? Est-ce même envisageable ?

M. Pascal Rogard. - C'est nouveau, effectivement. S'il est normal de ne pas informer sur l'état des négociations à mesure qu'elles se déroulent, la demande de TikTok était différente, c'est pourquoi nous n'avons pas pu signer d'accord de confidentialité et que, pour contourner cette difficulté, nous discutons en présence d'avocats. Pour le dire plus simplement, je n'ai jamais rencontré des gens pareils dans ma vie professionnelle - il faut dire, aussi, que je n'ai jamais non plus rencontré de Secrétaire général du Parti communiste chinois...

M. Patrick Raude. - TikTok était d'accord qu'on fasse état de l'existence de négociations, mais pas pour qu'on dise quel en serait l'objet. Avec Meta, nous avions annoncé qu'on discutait des droits d'auteur, dans le double volet de la rémunération et du droit moral ; TikTok a refusé cette mention pourtant bien générale. Dans le même temps, TikTok ne nous donne aucun moyen pour mesurer quelles sont les oeuvres de notre répertoire diffusées sur sa plateforme. L'étude que l'ALPA a réalisée n'est qu'un échantillon, et pour connaitre la proportion réelle des oeuvres de notre répertoire diffusées sur la plateforme, nous avons besoin d'informations que seule la plateforme détient. YouTube, par exemple, nous communique un fichier très important, que nous traitons pour évaluer le poids des oeuvres de notre répertoire. TikTok, de son côté, nous renvoie la question, en nous demandant quelles sont « nos » oeuvres diffusées sur sa plateforme.

M. Pascal Rogard. - Le constat de l'ALPA résulte d'un travail manuel, sur un échantillon nécessairement petit. L'enquêteur souligne que TikTok n'identifie pas les oeuvres qui transitent sur sa plateforme, ce qui est déjà accablant. Si les négociations n'aboutissent pas, nous assignerons la plateforme et je n'ai aucun doute sur le fait que la justice nous donne raison.

M. Claude Malhuret, rapporteur. - Vous dites n'avoir jamais fait l'objet de telles menaces pour la diffusion d'un tweet : de quelles menaces parlez-vous, plus précisément ?

M. Pascal Rogard. - Une menace de poursuite en diffamation, ceci parce que je retweetais un message du président de la République... Cependant, je veux bien reconnaitre que le contenu que je diffuse dérange TikTok, quand je ne fais pourtant que reprendre les articles de journaux très nombreux sur le fait que cette plateforme ne respecte pas nos règles sur les données personnelles, ou sur les problèmes qu'elle pose aux adolescents, il y a eu encore très récemment une affaire en Grande-Bretagne, sans parler de ce qui se passe aux États-Unis, où s'ajoute une dimension politique indéniable. De fait, les articles contre TikTok ne manquent pas, alors que c'est l'application qui a le plus progressé ces derniers mois.

M. Claude Malhuret, rapporteur. - Vous dites devoir discuter en présence d'avocats, mais aussi que vous n'avez pu engager aucune négociation avec TikTok : est-ce parce que vous n'êtes pas même parvenus à vous entendre sur le préalable, l'accord de confidentialité, ou bien parce qu'il y a des blocages sur le fond ?

M. Patrick Raude. - La présence d'avocats permet de se passer de l'accord de confidentialité, mais nous n'avons pas pour autant d'échanges sur le fond de l'accord, puisque pour définir un accord il faut au préalable évaluer le poids des oeuvres de notre répertoire sur la plateforme, ce que TikTok prétend ne pas pouvoir faire, ni même nous communiquer un fichier qui nous permette de le faire, alors que cette plateforme ne manque évidemment pas d'outils numériques. Nous sommes donc allés à la pêche, manuellement, dans l'étude commandée par l'ALPA, mais cet échantillonnage, s'il établit le fait, n'en montre pas l'étendue précise - cela fait maintenant deux ans que nous attendons que TikTok communique les informations nécessaires à un accord, sachant que le prix des oeuvres dépend de leur part dans les contenus diffusés.

M. Pascal Rogard. - TikTok étant un concurrent de YouTube, les règles européennes obligent à une égalité de traitement, ce qui n'est pas le cas aujourd'hui puisque les créateurs de contenu paient des droits d'auteurs sur YouTube mais pas sur TikTok : il ne faudrait pas que cette différence de traitement fasse migrer une partie de la création vers la plateforme qui ne paie pas de droits d'auteur...

M. Claude Malhuret, rapporteur. - Vous dites que les discussions avec les sociétés américaines sont rendues plus compliquées par le fait que vos interlocuteurs doivent en référer à leur hiérarchie, on le comprend aisément ; mais vous dites qu'avec TikTok les choses sont plus compliquées encore, et vous illustrez la chose en disant que vous n'avez jamais discuté... avec le Secrétaire général du parti communiste chinois. Est-ce que vous suggérez-là que TikTok dépend directement du pouvoir chinois ? Quand vous discutez avec TikTok, quels sont vos interlocuteurs ? A qui en réfèrent-ils ? Avez-vous identifié un board européen ? Un board chinois ?

M. Patrick Raude. - Nous avons rencontré Éric Garandeau à titre individuel, parce que nous le connaissions antérieurement, son rôle consiste à distribuer des subsides, à acheter de l'influence, il n'est pas dans la négociation. Pour ce qui est de nos interlocuteurs à proprement parler, ils sont difficiles à identifier, j'en ai eu six ou sept différents, en visioconférence depuis Londres ou l'Irlande. De fait, nous ne connaissons pas en détail la gouvernance des plateformes, cela n'a jamais été un obstacle à la finalisation d'un accord. Les négociations avec les plateformes américaines sont certes longues, mais une fois un contrat signé, ces plateformes en facilitent l'exécution, ce qui n'est pas toujours le cas par exemple avec les entreprises françaises, où l'interprétation de l'accord donne bien davantage lieu à de nouvelles négociations... Avec les Américains, on discute longtemps, parce qu'ils cherchent à anticiper les problèmes qui peuvent se poser ; une fois l'accord obtenu, on peut compter sur leur coopération pour l'application.

M. Pascal Rogard. - La situation a été différente pour chaque plateforme. Les choses se sont passées très directement avec Netflix, qui avait alors à son conseil d'administration l'actuel président de TF1, ce qui a pu faciliter des choses. Les cas d'Amazon ou de Disney sont différents, mais la négociation s'est bien déroulée également - en réalité, nous avons eu de grandes difficultés surtout avec Canal +, que nous avons dû assigner, ce qui a eu l'effet magique de régler les choses, une semaine avant le passage devant le tribunal...

Or, avec TikTok, nous sommes face à un mur d'opacité que je n'ai jamais rencontré en deux décennies à la tête de la SACD...

M. Claude Malhuret, rapporteur. - Pourriez-vous nous communiquer la liste de vos interlocuteurs, ou bien êtes-vous tenus par la confidentialité ?

M. Patrick Raude. - Dès lors que nous n'avons pas d'accord de confidentialité, nous pourrons vous communiquer le nom de nos interlocuteurs, parfois les fonctions qu'ils occupent, quand nous les avons identifiées...

M. Claude Malhuret, rapporteur. - Nous comprenons que les pertes de recettes pour les auteurs soient difficiles à évaluer, mais en avez-vous une idée, cependant ?

M. Patrick Raude. - A ce stade non, la comparaison avec YouTube nous donne un ordre de grandeur, mais la perte reste difficile à établir puisque la rémunération passe par un pourcentage du chiffre d'affaires, lui-même fonction de la représentativité des oeuvres de notre répertoire dans les contenus diffusés. Or, nous ne connaissons ni le chiffre d'affaires de TikTok, ni cette représentativité.

M. Mickaël Vallet, président. - Que diriez-vous de la comparaison avec YouTube ?

M. Pascal Rogard. - Je dirais que notre présence sur TikTok est au moins égale à celle sur YouTube. Lorsque nous avons lancé la négociation avec YouTube, le responsable de la plateforme m'avait affirmé qu'il n'accepterait jamais de passer par un pourcentage des recettes d'exploitation, préférant une rémunération forfaitaire ; j'ai tenu bon, rappelant que ce principe de rémunération proportionnelle datait de 1791. Résultat : YouTube y est venu, et c'est la règle dans la directive européenne de 2019. Avec TikTok, il faut compter aussi avec la progression très rapide de la plateforme - je crois donc ne pas me tromper en affirmant que les auteurs de notre répertoire y sont au moins autant présents que sur YouTube.

M. Patrick Raude. - J'ajoute que nous n'avons pas la moindre idée du chiffre d'affaires de TikTok en France.

M. Claude Malhuret, rapporteur. - Vous parlez de piraterie audiovisuelle, quels sont vos liens avec l'ALPA ?

M. Pascal Rogard. - Nous sommes membres de l'ALPA, aux côtés de sociétés de producteurs, y compris américains, j'ai de très bonnes relations avec son président, Nicolas Seydoux, nous nous sommes rapprochés de Frédéric Delacroix, le Délégué général de l'ALPA, qui a fait établir le constat que je vous communiquerai. Ce constat est le résultat d'un travail manuel réalisé par un agent assermenté qui a listé les oeuvres du répertoire de la SACD présentes lors de son utilisation de TikTok. Si certaines oeuvres ont pu être autorisées de diffusion, les autres sont piratées - surtout, nous ne savons pas ce que TikTok fait pour les protéger. YouTube a mis en place un marquage des oeuvres, qui garantit à leurs auteurs une protection efficace : dès lors que l'auteur marque l'oeuvre, elle n'entre pas dans la diffusion, c'est simple et efficace. La protection contre la piraterie est donc possible sur les plateformes, dès lors que les ayants droit marquent les oeuvres et que la plateforme accepte de mettre en place les outils. C'est d'ailleurs la raison pour laquelle la piraterie audiovisuelle a baissé ces dernières années - par la combinaison de ces outils qui bloquent la diffusion des oeuvres protégées et d'un accès facilité aux oeuvres payantes.

M. Patrick Raude. - L'ALPA a développé des mécanismes opérationnels avec les plateformes, pour accélérer le retrait d'oeuvres. L'objectif de la SACD n'est pas d'interdire la diffusion des oeuvres, mais d'assurer qu'elle se fasse en respectant le droit d'auteur ; or, TikTok feint de ne pas le comprendre, en nous demandant seulement : « Quelles oeuvres voulez-vous retirer de notre plateforme ? ».

M. Claude Malhuret, rapporteur. - L'épisode que vous rapportez sur le festival de court métrage, avec la démission du président du jury pour raison de pressions sur le choix des lauréats, est-il documenté dans la presse ?

M. Pascal Rogard. - Largement, vous trouverez nombre d'articles sur internet. Rithy Panh s'est retiré de la présidence, avec deux autres membres du jury, estimant que le jury subissait des pressions, puis il a eu une discussion avec TikTok, qui lui a garanti toute liberté dans le choix - alors il est revenu sur sa décision de partir, en disant qu'il préférait rester pour promouvoir le cinéma auquel il croit. Au-delà de cet épisode, je trouve scandaleux que le Festival de Cannes fasse la promotion d'une entreprise pirate.

M. Claude Malhuret, rapporteur. - Le Digital Services Act (DSA) européen vous paraît-il en mesure de responsabiliser les plateformes numériques ? Quelles vous en paraissent les conséquences sur la protection des oeuvres ?

M. Pascal Rogard. - La protection des oeuvres est assurée par la directive sur le droit d'auteur, c'est avec cet outil que nous avons obtenu qu'un candidat à la présidentielle respecte le droit d'auteur dans l'un de ses clips de campagne - et je dois souligner que la justice est rapide en la matière, puisque nous avons obtenu que ce candidat renonce à l'utilisation d'images sans autorisation. Le DSA vise la protection des données personnelles, pas le droit d'auteur ; ce qui compte, cependant, c'est l'environnement global des plateformes, il est important que les données personnelles soient protégées et que les droits d'auteurs soient respectés, le tout se tient.

M. André Gattolin. - Je suis heureux que vous disiez les choses aussi clairement, car nous avons entendu des sommités du numérique affirmer que toutes les plateformes avaient le même comportement, TikTok comme les autres : vous démontrez bien que cette plateforme n'est pas comme les autres. Si je vous comprends bien, TikTok n'acquitte pas non plus des taxes sur les recettes publicitaires alors qu'elle le devrait ?

M. Pascal Rogard. - Je le crois, et vous pouvez le vérifier en interrogeant le CNC.

M. André Gattolin. - Je vous rejoins pour déplorer l'opacité de TikTok, on ne connait pas son chiffre d'affaires, ses liens précis avec le site chinois Douyin, qui est aussi une plateforme de vente en ligne, rien n'est clair. J'essaie d'en savoir plus, c'est très difficile. Les recettes publicitaires représenteraient moins de la moitié du chiffre d'affaires, mais en quoi consiste donc ce chiffre d'affaires, quand on sait que la plateforme rémunère les influenceurs et que la publicité est plus difficile à placer dans les séquences très courtes qui sont regardées sur TikTok ? Comment une telle opacité est-elle possible : une entreprise qui réalise une telle activité en France, n'a-t-elle pas l'obligation de déclarer ses comptes et de se soumettre à une forme de contrôle ?

M. Pascal Rogard. - La direction générale des finances publiques (DGFiP) est la mieux à même de vous renseigner sur le sujet. Le problème avec TikTok, c'est qu'on ne connait pas sa gouvernance. Avec les Américains, les entreprises dont on parle sont cotées en bourse, leurs comptes sont donc publics et épluchés par des analystes qui signalent le moindre changement. Ce n'est pas du tout le cas de TikTok, qui est entourée d'un halo d'opacité - ce qui justifie pleinement votre commission d'enquête. Avec les Américains, nous avons des discussions longues, âpres, pour parvenir à un accord, mais une fois l'accord obtenu, les entreprises américaines comme Amazon, Netflix et Disney les appliquent bien - ces entreprises étant aussi des producteurs de contenus, elles savent l'importance du droit d'auteur. Avec TikTok, c'est très différent, nous n'avons pas affaire aux mêmes personnes, ces gens sont différents et si nous nous heurtons à de telles difficultés, c'est qu'ils n'ont pas l'air de comprendre nos règles, ils ne sont pas dans notre monde classique. J'espère que votre commission d'enquête lèvera le voile sur cette entreprise, nous entendons des choses très curieuses, y compris sur des mouvements dans l'actionnariat de TikTok.

M. Patrick Raude. - L'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a conduit une enquête auprès des plateformes ; la seule qui n'a pas répondu à ses questions, c'est TikTok...

Mme Marie Mercier. - Je comprends que TikTok recherche de l'influence, mais l'intérêt des institutions culturelles, du Salon du Livre, de la RMN, est-il seulement financier ? Vous parlez de mur d'opacité, c'est effectivement le cas, on le voit dans l'application de la loi du 30 juillet 2020 qui protège les enfants contre la diffusion de contenus pornographiques : l'Arcom a assigné plusieurs plateformes en justice, mais le tribunal a nommé un médiateur, ce qui pose une question sur sa capacité à juger - et l'Arcom a quitté la médiation, estimant qu'elle ne pouvait pas régler le problème ; la décision du tribunal devrait intervenir en juillet, quelle est votre analyse sur ce sujet ?

M. Pascal Rogard. - L'intérêt du Salon du Livre à un partenariat avec TikTok est financier : quand quelqu'un vous propose un chèque et que vous avez besoin d'argent, il n'est pas toujours aisé de refuser. Lors d'une réunion avec les grands éditeurs français, je les ai informés des problèmes de droit d'auteur avec TikTok, les éditeurs sont concernés puisque des contenus audiovisuels sont directement tirés de livres qu'ils ont publiés ; certains n'avaient pas du tout conscience du problème, ils en ont été horrifiés - les choses vont peut-être changer avec la prise de conscience. Ce qu'on constate, en tout cas, c'est que TikTok déploie clairement une stratégie d'influence orientée vers les institutions culturelles.

Je ne connais pas bien le sujet de la diffusion des oeuvres pornographiques, je sais qu'il est difficile de bloquer l'accès aux plateformes car les procédures de certification sont considérées comme portant atteinte aux libertés publiques. C'est aussi aux parents d'utiliser les outils de blocage.

M. Mickaël Vallet, président. - Ce n'est pas satisfaisant de demander aux parents d'éviter que leurs enfants ne regardent ce qui est public - lorsqu'il y a un attentat à la pudeur, c'est celui qui le commet qui est incriminé...

M. Pierre Ouzoulias. - Merci pour la qualité de votre propos. J'espère que nous obtiendrons des informations précises sur les montants touchés par les organismes publics dans leur partenariat avec TikTok : ces données, au moins, devraient être accessibles. Par quels outils juridiques pourrait-on obliger TikTok à respecter nos règles ? Quelle articulation entre les outils nationaux et européens ? Faut-il agir devant la justice irlandaise, dont relève le siège européen de TikTok ? Peut-on obliger TikTok à changer son système - l'entreprise ne préfèrera-t-elle pas acquitter une amende ?

M. Pascal Rogard. - Nous privilégions la discussion, la négociation, d'autant que nous avons besoin de relation de confiance pour accéder aux données. Mais si nous n'arrivons pas à un accord, nous assignerons TikTok pour contrefaçon - et j'ai toute confiance sur le fait que les juges nous donneront raison, le droit d'auteur est protégé et bien défendu par notre justice, qui applique la directive européenne de 2019. Cette directive a été obtenue contre les plateformes, qui étaient parvenues dans un premier temps à ce que le Parlement européen vote contre ; il a fallu y revenir, la France a joué un rôle très actif, puis le gouvernement de Jean Castex a choisi une transposition très ambitieuse de cette directive, je tiens à l'en remercier. Nous disposons donc des outils judiciaires pour assigner TikTok - il y a aussi des possibilités au pénal, auxquelles nous n'avons pas recouru jusqu'à présent, mais rien ne l'interdit -, et je ne doute pas que nous gagnerons devant le tribunal. Compte tenu des problèmes que TikTok a déjà aux États-Unis et ailleurs, je pense qu'une telle perspective est de nature à faire réfléchir cette entreprise.

M. Patrick Raude. - Nous représentons aussi des auteurs établis en Belgique et au Canada, pas seulement en France. En pratique, nous n'avons pas besoin de nous présenter devant la justice irlandaise, puisqu'avec la transposition de la directive européenne, nous avons les moyens d'agir devant les tribunaux nationaux.

M. Mickaël Vallet, président. - A quoi attribuez-vous le fait qu'à la différence des autres plateformes, vous n'avez pas affaire, avec TikTok, à des négociateurs bien identifiés ? Quel est l'intérêt de TikTok à ne pas régler le problème et à laisser faire de la piraterie ? Pourquoi les représentants français de l'entreprise ne parviendraient pas à faire entendre nos règles : pensez-vous qu'il y a un décalage culturel ?

M. Pascal Rogard. - Je pense que cette entreprise est une énigme. Personne ne sait qui la contrôle : le patron du parti communiste chinois ? Des actionnaires ? On ne sait pas... Vous faites une commission d'enquête sur TikTok, pas sur Netflix ni sur Youtube... Des entreprises comme Amazon ou Disney sont obligées de présenter leur organigramme, leurs comptes, ces données sont publiques ; avec Tiktok, c'est tout autre chose, on est dans un autre monde. Quelle est, même, la finalité de TikTok : la récolte de données ? L'espionnage ? Personne ne peut répondre... J'ai entendu qu'un spécialiste de l'influence de la Chine, n'avait pas été capable de vous répondre précisément sur le sujet. Nous ne savons pas qui dirige cette entreprise, il n'y a aucune transparence sur sa hiérarchie. Notre interlocuteur français est cet inspecteur des finances - je trouve choquant, à ce propos, qu'il reste inspecteur des finances alors qu'il occupe un tel poste, mais c'est une autre affaire... Je ne fais que le répéter : je suis choqué que des institutions culturelles de notre pays signent des partenariats avec une entreprise qui laisse pirater des oeuvres et qui se moque de nous. Je l'ai écrit au Festival de Cannes, on m'y a répondu que c'était par besoin d'argent - je ne peux me satisfaire d'une telle réponse...

M. Claude Malhuret, rapporteur. - La Société des auteurs, compositeurs et éditeurs de musique (Sacem), elle, aurait signé un contrat avec TikTok : en connaissez-vous le contenu et envisageriez-vous de vous en inspirer ?

M. Pascal Rogard. - La Sacem est dans une autre position que la nôtre parce qu'elle regroupe aussi des éditeurs de musique, ce qui lui donne plus de pouvoir de négociation. Je n'ai pas d'information sur cet accord, la Sacem ne peut pas m'informer puisqu'elle est tenue à la confidentialité. Il me semble que les adhérents de la Sacem peuvent accéder à ces informations, comme c'est le cas avec nos auteurs - à la SACD, nos adhérents peuvent venir consulter les accords que nous avons avec les plateformes, dans les deux mois précédant notre assemblée générale, certains l'avaient fait pour l'accord avec Netflix.

M. Patrick Raude. - Les sociétés musicales ont toutes des accords avec les plateformes, mais ce n'est pas le cas avec les auteurs dramatiques, où nous sommes pionniers, car peu de pays protègent les auteurs comme nous le faisons : l'accord avec YouTube était une première, et nous passons beaucoup de temps à devoir expliquer le modèle français de protection des droits d'auteur.

M. Pascal Rogard. - Le droit à une rémunération proportionnelle des auteurs dramatiques n'a été reconnu que très récemment dans bien des pays européens, c'est une nouveauté pour eux, par exemple en Allemagne : ce changement est une conquête pour les auteurs, à l'échelle du continent. Les sociétés musicales, elles, sont dans une autre position puisqu'elles détiennent l'essentiel des catalogues de musique, les diffuseurs ne peuvent s'en passer et ils ont l'habitude de négocier avec elles, depuis longtemps.

M. Pierre Ouzoulias. - En 2019, le Sénat s'était déjà intéressé à ces questions, avec une commission d'enquête sur la souveraineté numérique, dont le rapporteur était Gérard Longuet. Je viens de le vérifier : TikTok n'est pas même mentionné dans le rapport de cette commission, c'est dire que les choses vont très vite et que nous devons sans cesse courir derrière les événements du numérique.

M. Mickaël Vallet, président. - Une partie des réponses vous parait-elle tenir, comme nous l'a suggéré un universitaire que nous avons auditionné, au fait que TikTok serait débordée par une croissance trop rapide ?

M. Pascal Rogard. - Je n'ai jamais connu de telles difficultés avec une entreprise, ni cette dichotomie entre la recherche d'une influence culturelle par une politique du carnet de chèque, et le refus de reconnaitre le droit d'auteur. TikTok a peut-être des difficultés liées à sa croissance très rapide, mais cela ne peut pas expliquer son comportement envers le droit d'auteur, c'est une question désormais classique et assez facile à traiter - mais l'entreprise ne fait rien dans cette direction, nos interlocuteurs changent, rien n'est décidé. Je ne comprends pas pourquoi, alors que TikTok a de telles difficultés en particulier aux États-Unis, l'entreprise ne cherche pas à résoudre ce problème de droit d'auteur en France et plus largement en Europe, pourquoi elle ne se met pas en conformité avec nos règles, comme l'ont fait les autres plateformes. YouTube a joué le jeu, la plateforme paie ce qu'elle doit au CNC, et en retour elle tire avantage de notre système puisque le CNC a créé un fonds pour les youtubeurs, il les aide dans leur activité.

M. Patrick Raude. - Je crois que c'est un choix stratégique de l'entreprise, de privilégier à tout prix la croissance, que ses buts soient commerciaux ou qu'ils aient d'autres fins. C'est pourquoi TikTok investit dans les affaires publiques, dans l'influence, et pas dans la rémunération du droit d'auteur - j'y vois donc un choix stratégique plutôt que le résultat de difficultés techniques, je ne crois pas que TikTok manque de moyens ni d'outils pour faire ce que nous lui demandons.

M. André Gattolin. - Comment fonctionne la responsabilité, dans la production des contenus sur TikTok, lorsqu'un créateur utilise des oeuvres déjà existantes ? Doit-on s'en prendre aux créateurs, ou bien à la plateforme ?

M. Pascal Rogard. - Les créateurs mettent à disposition leurs oeuvres sur les plateformes, elles sont alors considérées comme des créations originales. A la SACD, nous avons deux studios d'enregistrement à cet effet, je vous invite à venir les voir. Sur TikTok, des internautes utilisent les oeuvres sans autorisation, ils les détournent et quand le créateur original veut s'y opposer, on lui rétorque qu'il s'en prend à une oeuvre dont il n'est pas le créateur : sur TikTok, le pirate est protégé, au détriment du créateur. Ces difficultés peuvent être levées avec les outils de protection que YouTube, par exemple, a accepté de mettre en place, et qui permet de retirer rapidement une oeuvre dont l'utilisation n'a pas été autorisée. La meilleure façon de protéger une oeuvre, c'est de la marquer pour qu'elle ne soit pas utilisée sans autorisation, cela fonctionne très bien contre la piraterie.

M. Patrick Raude. - Le refus de tels équipements me semble relever d'un choix stratégique de TikTok.

M. Claude Malhuret, rapporteur. - TikTok ne participe pas au financement du CNC, alors qu'il y est tenu légalement : me le confirmez-vous ?

M. Pascal Rogard. - Oui, ce financement est obligatoire, heureusement d'ailleurs, car notre système ne pourrait pas dépendre de la seule bonne volonté des diffuseurs... Je rappelle que notre système, voulu par le législateur, taxe les recettes d'exploitation pour aider la production de contenus, mais aussi, par exemple, la modernisation des salles de cinéma. La taxe dite « YouTube » sur les plateformes numériques, a étendu ce système aux plateformes en les faisant contribuer au financement du CNC, et celui-ci a créé un fonds de soutien pour les youtubeurs : c'est bien le signe que les plateformes peuvent s'insérer dans notre système audiovisuel régulé, qui est unique au monde pour ses avantages de redistribution - et ces avantages expliquent la vitalité de la production audiovisuelle française. L'intégration des plateformes à notre système se justifie d'autant plus qu'elles ont gagné dans la pandémie. Nous avons aussi progressé avec la directive « Services de médias audiovisuels » (SMA) de 2018, qui oblige les multinationales à communiquer le chiffre d'affaire réalisé par pays, alors que la règle était jusqu'alors que l'impôt à payer était celui du pays d'origine, d'où le fait que les multinationales concernées ont toutes placé leur siège dans le pays européen où l'on paie le moins d'impôt sur les sociétés...

M. Claude Malhuret, rapporteur. - Vous confirmez que TikTok est censée payer cette taxe, mais qu'elle ne la paie pas ?

M. Patrick Raude. - Nous ne sommes pas en mesure de vous l'affirmer, c'est ce qui se dit : en réalité, seule la DGFiP peut vous dire ce qu'il en est.

M. Pascal Rogard. - Le CNC peut aussi vous donner cette information. En tout cas, il n'est pas juste que YouTube s'en acquitte, et pas TikTok.

M. Patrick Raude. - Nous avons des indices : les dépenses sur le fonds de soutien suivent celles du fonds de soutien YouTube, et il n'y a pas de fonds de soutien TikTok...

M. Mickaël Vallet, président. - Merci pour toutes ces précisions.

Audition de M. Tariq Krim, entrepreneur et spécialiste des questions du numérique, le 3 mai 2023

M. Mickaël Vallet, président. - Chers collègues, nous débutons notre après-midi de travail avec l'audition de M. Tariq Krim. Vous avez été l'un des pionniers de l'écosystème français du Web.

Vous êtes l'initiateur du mouvement Slow Web, qui prône un usage « apaisé » du numérique. Vous avez fondé plusieurs jeunes pousses, dont Netvibes et Jolicloud. Netvibes est une jeune pousse française qui a eu beaucoup d'influence en termes de « design produit » dans la Silicon Valley et qui a gagné de nombreux prix prestigieux. Jolicloud a lancé le jolibook, un ordinateur à moins de 250 euros développé en France et utilisant un service de cloud personnel respectueux de la vie privée.

Par ailleurs, depuis une vingtaine d'années, vous militez pour une véritable politique de souveraineté numérique en France. Vous intervenez ainsi régulièrement dans les médias en tant que « lanceur d'alerte numérique », spécialiste des questions de « géopolitique numérique », d'éthique, de militarisation du réseau et d'économie numérique. Vous avez enfin été vice-président du Conseil national du numérique, où vous avez une voix singulière.

Votre expérience, votre expertise et vos prises de position affirmées en faveur d'une plus grande souveraineté numérique française et européenne nous intéressent particulièrement. Aujourd'hui, nous ne savons toujours pas ce qu'est au juste TikTok : s'agit-il d'une entreprise commerciale dont la croissance et le succès dépassent désormais celui des autres réseaux sociaux ? Ou d'un outil au service d'un pouvoir à la recherche d'une plus grande autonomie numérique ?

Dans tous les cas, il ne vous aura pas échappé que les lignes bougent. Les représentants de TikTok en Europe disent désormais s'inscrire dans un dialogue plus coopératif avec les autorités, au gré des annonces d'interdiction d'utilisation de l'application qui ponctuent régulièrement l'actualité. Ainsi, le « projet Clover » est annoncé comme devant permettre une plus grande sécurisation des données des utilisateurs européens. Une telle annonce soulève incontestablement et de nouveau la question de l' « infonuage » souverain européen et de l'extra-territorialité des droits américain et chinois, soulignant, malheureusement, les fragilités de notre politique de souveraineté numérique.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

M. Tariq Krim lève la main droite et dit « Je le jure ».

Vous avez la parole.

M. Tariq Krim, entrepreneur et spécialiste des questions numériques. - Je vous remercie pour votre invitation. J'interviendrai devant vous avec trois fonctions différentes.

La première est celle d'entrepreneur ayant développé des produits aux États-Unis. À ce titre, je suis assez époustouflée par la performance de TikTok, qui a réussi à s'imposer dans un écosystème extrêmement compliqué en devenant à un moment l'application la plus téléchargée aux États-Unis. La deuxième fonction est celle de designer produit, spécialisé dans les questions d'éthique et de design. J'ai observé l'évolution des réseaux sociaux mais également la manière dont ces outils peuvent capter l'attention. La dernière fonction est celle de spécialiste de géopolitique, ayant lancé un think tank sur la géopolitique du numérique et sur la guerre autonome, pour analyser l'usage de l'intelligence artificielle et les nouveaux scénarios de désinformation synthétique.

Mon propos liminaire se déroulera en trois parties. Tout d'abord, je rappellerai que la grande partie des critiques que l'on peut émettre contre TikTok peuvent également être adressées aux autres applications. Ensuite, je soulignerai que TikTok a mis en place un service assez unique, créant une relation très différente avec les utilisateurs, ayant compris la toxicité des réseaux sociaux et ayant su en tirer les conséquences. Enfin, il n'est pas possible de comprendre TikTok et le projet de loi Restrict Act du Sénat américain, sans avoir à l'esprit la guerre froide technologique entre la Chine et les États-Unis. Il faut en comprendre les enjeux et les conséquences pour la France et pour l'Europe.

Pour comprendre ce qui se passe dans le monde de l'internet, il faut retenir la date de 2010, qui correspond au moment où une majorité de personnes s'équipent en smartphones. Il y a une différence fondamentale entre la numérisation permise par le smartphone et celle ayant eu lieu avec l'ordinateur. Je rappelle qu'en France nous avons eu la chance de disposer bien avant d'une autre forme de numérisation avec le minitel. On a tendance à l'oublier mais la population française a été massivement connectée dès les années 1980.

Les réseaux sociaux ne sont pas si nouveaux que cela. Ils se mettent en place dès 2003-2004, dans un environnement d'ordinateurs portables. Je m'appuierai ici sur les travaux de Jonathan Haidt, auteur de The Coddlling of the American Mind. À l'arrivée des réseaux sociaux, la période est techno utopiste. Les printemps arabes, le mouvement Occupy Wall Street laissent penser qu'Internet est un outil qui servira à propager la démocratie dans le monde entier. C'est l'acmé de l'ère Obama et de tout l'environnement Google.

Selon Jonathan Haidt, les choses commencent à se gâter à partir de 2010 car le smartphone est complètement différent dans son usage. L'ordinateur ne permet pas d'avoir la relation continue et ultra personnalisée que l'on a avec un mobile. Avec un ordinateur, quand je vais à table, je quitte la machine et je suis déconnecté. Le smartphone, à l'inverse, est souvent avec soi dans sa poche. Dès lors, la combinaison des réseaux sociaux et du mobile devient un cocktail extrêmement explosif. Cela a eu deux impacts, dont nous commençons seulement à mesurer les conséquences. Le premier de ces dégâts concerne la santé mentale des adolescents, et tout particulièrement des adolescentes. Le second est l'impact sur les démocraties.

Les médias sociaux, c'est-à-dire les blogs, rassemblaient des millions d'utilisateurs quand les réseaux sociaux en rassemblent des milliards. Beaucoup d'entre nous ont cru que le téléphone était un espace personnel, voire un espace intime pour ses messages, photos et contacts personnels. Or, l'accès à l'intimité des individus (c'est-à-dire l'intimité computationnelle) devient de la matière pour les algorithmes. La régulation s'est surtout attachée à encadrer ce qui était dit publiquement et n'a pas assez concerné la protection de l'intimité. Il a fallu attendre le début des années 2010 et la révélation d'abus d'une société qui avait utilisé l'accès à tous les contacts pour envoyer des messages non désirés pour qu'Apple décide de fixer des contraintes. L'installation d'une application s'accompagne depuis de demandes d'accès aux photos, aux contacts, à votre localisation... Il y a ainsi une granularité dans l'accès à la vie privée, qui n'existait pas auparavant.

Pour reprendre l'analyse de Jonathan Haidt, ces réseaux sociaux amplifient les micro-agressions, le sentiment de victimisation, la passivité, l'intolérance aux idées qui ne sont pas les siennes. Ils conduisent aussi à limiter la liberté d'expression puisque l'on se refuse à dire certaines choses par peur de s'exposer à des formes de trolling. Les réseaux sociaux ont donc contredit dans leur fonctionnement l'idée d'une émancipation par l'initiative individuelle. On va ainsi à l'encontre de ce que souhaitent les démocraties libérales. Dès lors, quand une puissance étrangère voit ce mouvement à l'oeuvre, il est évident qu'elle ne souhaitera pas le retenir mais plutôt l'amplifier.

Marshall McLuhan expliquait que notre vision du monde devenait tribale. Nous vivons en effet désormais dans un monde où l'on ne croit que ce que dit sa tribu et où l'on exclut tout ce qui vient d'une autre tribu. On l'a vu avec le Brexit, avec la vaccination. Les exemples sont nombreux. Cela s'est aussi traduit par une hausse de l'anxiété, tout particulièrement sur la génération Z et singulièrement sur les jeunes filles. Entre 2010 et 2015, il y a ainsi eu un doublement des cas d'automutilation sur les jeunes filles. Les réseaux sociaux ont donc eu un impact assez toxique, que l'on a du mal à mesurer puisque les études sur les années 2010 ne sont publiées que maintenant.

En quoi TikTok se différencie-t-elle des autres applications ? Pour résumer, il y a deux types de modèles de réseaux sociaux : les réseaux par social graph et les réseaux par interest graph. Les réseaux par graphe social nécessitent de suivre des utilisateurs (comme sur Twitter) ou d'ajouter des personnes comme amis (comme sur Facebook). Cela demande ainsi un travail de connexion. Je rappelle que Facebook s'est fortement inspiré d'un réseau sud-coréen du nom de Cyworld, qui le premier a connecté les gens avec leur véritable identité. Le problème de ce modèle est qu'il a besoin que les utilisateurs produisent des contenus. Il faut augmenter le nombre de connexions en suivant le maximum de personnes ou en ajoutant le plus d'amis et il faut que chacune de ces connexions produisent le plus de contenus. En 2004-2005, Facebook a eu l'idée de faire du changement de photo de profil un évènement pouvant être commenté. L'entreprise a alors découvert que le réseau social pouvait générer une forme d'addiction. Après les photos de profil ont suivi les posts, les photos, puis enfin les médias ; ce réseau a alors permis l'accès à toutes les informations possibles.

Le scientifique Robin Dunbar a identifié qu'au-delà de 120 à 150 relations il est très difficile de suivre tout ce qui est publié sur Facebook. C'est donc là qu'intervient l'algorithme d'organisation, le Edgerank chez Facebook. Il permet d'organiser et d'orchestrer pour chacun d'entre nous, souvent même à l'avance, son fil d'actualité. C'est aussi le cas chez Twitter, où sont organisées des situations de dominance. Je rappelle souvent, pour rigoler, que Twitter est le seul réseau où des personnes qui ne se connaissent pas se chamaillent à propos de quelque chose qu'ils ne connaissent pas vraiment. Le système a été construit pour créer ces entrechocs.

TikTok a voulu se différencier et a compris à mon avis que la logique d'applications comme Instagram où il faut toujours se présenter sous le meilleur jour peut être toxique à long terme. Il a alors choisi un modèle de graphe d'intérêt, comme y avait eu recours YouTube. Il s'agit de micro entertainment : on ne se compare plus à ses amis, on regarde des vidéos provenant du monde entier. Ce modèle implique tout un travail algorithmique puisqu'il faut apprendre ce que chaque utilisateur préfère pour ensuite lui proposer des contenus qui l'intéressent. Comme l'avait décrit la journaliste Zeynep Tufekci dans un article du New York Times qui avait fait grand bruit, le problème est que pour attirer l'attention ces vidéos doivent être de plus en plus engageantes, voire de plus en plus « hardcore ». Guillaume Chaslot, ancien salarié de Youtube qui est aujourd'hui au Pôle d'expertise de régulation du numérique (PEReN), a beaucoup travaillé sur ces questions et pourrait vous en dire plus que moi.

On dit souvent que la force de TikTok réside dans son algorithme, qui serait meilleur que celui des autres applications. En réalité, compte tenu du format beaucoup plus court des vidéos, le temps d'apprentissage de l'algorithme est beaucoup plus rapide. Si l'on arrête au bout de 10 minutes une vidéo d'une heure sur YouTube, il est difficile d'en connaitre la raison. Est-ce parce que la vidéo ne plait pas ? Est-ce parce que l'on souhaite la regarder plus tard ? Il y a certes un bouton « unlike » sur YouTube mais il est très peu utilisé. A l'inverse, sur TikTok, dès que l'on passe vite à la vidéo suivante, le message est envoyé qu'elle ne nous intéresse pas et le flux est alors réorganisé.

Par ailleurs l'espace sur TikTok étant contraint, un peu comme dans une pièce de théâtre, l'algorithme peut très facilement analyser le contenu. Il est ainsi très facile sur les vidéos de danse, qui sont très populaires, d'analyser les pas et d'identifier le type de danse pour ensuite proposer des vidéos du monde entier avec les mêmes pas de danse. Une activiste américaine m'avait confié que pour faire monter des vidéos sur le changement climatique, elle incorporait des danses aux messages de façon à faire remonter les vidéos dans l'algorithme. L'intelligence artificielle (IA) est capable d'analyser les vidéos et d'en retrouver des similaires parmi des milliards de vidéos. Par ailleurs, avec les technologies d'IA générative comme Midjourney, ChatGPT ou encore la société Runway ML qui permet de faire une vidéo de 6 à 10 secondes à partir d'un simple texte, nous ne sommes pas loin d'obtenir des contenus totalement synthétiques, à partir de simples demandes humaines et des archives de bases de données. Le catalogue est énorme, algorithmiquement accessible, et pourrait reconstruire à l'infini des vidéos. On pourrait dès lors construire des influenceurs artificiels.

Je terminerai en revenant sur la guerre technologique entre la Chine et les États-Unis. Il faut rappeler que la Chine se connecte à Internet en 1994 ; trois ans plus tard elle se déconnecte. Elle va ensuite empêcher l'ensemble des réseaux sociaux de fonctionner sur son territoire (le « splinternet »). Il y a eu des bras de fer intéressants entre la Chine et les États-Unis. Je vous en citerai deux. En 2019, un entraineur de la NBA a adressé sur Twitter, réseau américain, un message de sympathie aux manifestants de Hong-Kong. La Chine s'est tournée vers la NBA, qui a demandé à cet entraineur de présenter ses excuses. Il y a eu par ailleurs un boycott de son équipe, les Houston Rockets, en Chine. Il y avait à l'origine un contrôle fort de la Chine de tout ce qui venait de l'extérieur. On observe désormais un système où les valeurs chinoises cherchent à s'exporter.

Cette guerre technologique a commencé sous Obama, est sortie de l'ambiguïté sous Trump et se poursuit sous Biden. Le but pour les États-Unis est d'empêcher la Chine d'exporter des produits à forte valeur ajoutée : la 5G, Huawei, TikTok (passé de 4 à 12 milliards de dollars l'année dernière). Il s'agit d'empêcher la Chine d'avoir accès aux dernières technologies américaines mais aussi européennes. Toutes les puces de nos téléphones sont réalisées par la société anglaise ARM, dont la propriété intellectuelle est située en Hollande. Biden a décidé que plus aucune des technologies américaines ne serait accessible. Au-delà de l'enjeu d'influence, il s'agit pour les États-Unis d'empêcher la Chine de pouvoir exporter des produits à très forte valeur ajoutée.

Pour répondre à la question « Que penser de TikTok ? », trois points de vue peuvent être adoptées. Le premier est celui de la santé publique : si cette application pose de véritables problèmes de santé publique, que fait-on pour réglementer l'accès à l'intimité des personnes ? Le deuxième point de vue est politique : que dirait-on si Fox, CBS ou TF1 était contrôlé par un acteur chinois ? Que dirait-on de même si TikTok était contrôlé par un acteur qatari ou iranien ? Enfin, il y a la question économique de la réciprocité : TikTok a la possibilité de générer plus de 12 milliards de dollars de revenus dans le monde occidental mais aucun des acteurs, que ce soient les start ups françaises ou les entreprises américaines de la tech, ne peuvent générer de tels revenus en Chine.

M. Claude Malhuret, rapporteur. - Merci pour cet exposé introductif qui, bien que court, était particulièrement riche.

Ma première question porte sur la granularité des informations, c'est-à-dire l'accès aux données privées. Beaucoup de personnes auditionnées nous ont indiqué que le nombre de fonctions du smartphone auxquelles l'application demande à avoir accès est bien plus important que pour d'autres plateformes. Confirmez-vous ce constat ? Par ailleurs, le refus de l'accès à ces fonctions empêche-t-il le téléchargement de l'application ? Savez-vous quel est le pourcentage des utilisateurs adolescents qui refusent ces accès ? Mon sentiment est qu'il n'y en a pas un pour mille...

M. Tarik Krim. - Pour répondre à la question de la granularité des données, j'ai récemment réinstallé l'application TikTok sur mon téléphone. Par rapport aux permissions demandées par Facebook, celles demandées par TikTok sont bien moindres. Il n'y a plus accès aux photos ou à l'agenda. Cela ne veut pas dire pour autant que la possibilité de traquer ou de pister un utilisateur n'existe pas. J'ai le sentiment que de la collecte par TikTok des données privées sur le téléphone a diminué, et ce pour deux raisons. La première est que je ne pense pas que ce soit très important aujourd'hui pour leur modèle. TikTok est dans une logique de micro voire nano entertainment. Une enquête aux États-Unis a montré que les adolescents préfèrent avoir TikTok plutôt qu'un abonnement à l'ensemble des services de streaming. On se focalise trop sur la collecte de données privées du téléphone, dupliquées ensuite sur le cloud. Ou oublie que la grande valeur d'un produit comme TikTok est sa valeur d'usage. Plus vous utilisez le produit, plus la connaissance de vos intérêts - sans avoir besoin de connaitre votre identité - s'accroit. L'amélioration de la connaissance et des usages permettra l'amélioration de l'algorithme global. Les obsessions d'entreprises comme TikTok sont d'intégrer des systèmes fluides, pour intégrer de la publicité.

S'agissant des messages privés, les entreprises ont évidemment techniquement la capacité d'y accéder. Néanmoins, je ne me risquerai pas à affirmer qu'elles le font.

La question sur la désactivation avait été posée à Mark Zuckerberg lors de son audition au Sénat. Une fois l'application Tiktok retirée du téléphone, elle n'a a priori plus accès aux données. La question mériterait néanmoins d'être posée non pas à TikTok mais au système d'exploitation des téléphones. Sur le web, les services déposent des cookies, ce qui permet de créer des profils fantôme. Quand vous vous déconnectez de Facebook, un profil fantôme est créé, via un pixel installé sur le téléphone qui permet un traçage. Ce compte anonyme est alors de nouveau identifié quand vous vous reconnectez à Facebook. Si vous ne vous reconnectez pas à Facebook, ce profil fantôme perdure néanmoins et continue à être traité et analysé. Pour désactiver ces profils fantôme, le seul moyen semble être d'effacer ses cookies. Mais il est possible que même en effaçant ses cookies, le pistage continue.

Tous ces services numériques ont un customer circle, c'est à dire un cycle du consommateur. Il faut amener un consommateur sur un produit puis le rendre addict. Après avoir finalisé le profilage, le pic de rentabilité est atteint. Au cas où l'utilisateur souhaiterait quitter l'application, toute une pression sociale doit enfin conduire à le ramener sur l'application. Les sociétés de réseaux sociaux, comme les sociétés de l'internet en général, ont des stratégies pour gérer le départ des utilisateurs. Toutes les techniques possibles sont convoquées pour les faire revenir. Cela marche en général plutôt bien. Quand vous quittez Facebook, vous recevez des mails sur les posts de vos anciens contacts pour aiguiser votre curiosité et vous faire regretter votre départ...

M. Claude Malhuret. - La principale préoccupation des Américains est l'exportation des données à forte valeur ajoutée. Au-delà de ce problème économique, il y a un problème dont vous n'avez pas encore parlé : l'importation par TikTok, par sa société mère ByteDance et par le Parti communiste chinois, de données à forte valeur ajoutée - comme les données démographiques ou comportementales. Cette importation semble aujourd'hui permise pratiquement ad libitum, tant que les projets Texas aux États-Unis et Clover en Europe ne sont pas mises en place. Confirmez-vous cela ?

Les opposants aux projets Texas et Clover nous indiquent que les données auront beau être rapatriées sur des serveurs situées aux États-Unis et en Europe, il y aura toujours des portes dérobées. Je note d'ailleurs qu'il y a une grande opacité autour du projet Clover. Le président Vallet l'a rappelé dans son introduction. Ce mot d'opacité revient régulièrement dans nombre de nos auditions. Y aurait-il un moyen d'arriver à la certitude qu'il n'y ait pas de portes dérobées et donc d'exploitation des données remontant à Singapour, à Pékin et au Parti communiste chinois ? Si cela est possible, que faut-il exiger du projet Clover ?

M. Tarik Krim. - Vos questions sont pertinentes. Je n'ai pas d'information privilégié sur le sujet. Je m'informe, je me documente et je me laisse aussi aller à quelques scénarios. Votre propos pose d'abord la question de l'extraterritorialité du droit. Je me permettrai de souligner que tout touriste chinois venant à Paris peut prendre en photo des Français et ainsi les intégrer dans le crédit social chinois, si les techniques de scanning des visages existent. L'ensemble des plateformes chinoises ont la capacité de monétiser et d'accéder à l'ensemble des données. On parle des réseaux sociaux, mais c'est aussi le cas des data broker, qui permettent d'acheter les informations des consommateurs américains. Il y a d'ailleurs eu un scandale aux États-Unis avec le FBI, qui a acheté ainsi certaines données pour disposer d'informations. A l'inverse, il est très difficile d'accéder aux données chinoises.

Une des raisons pour lesquelles Google a quitté la Chine serait qu'une partie de son code source ait été visité. L'ancien PDG de Google Eric Schmidt était particulièrement hostile à l'idée de donner des avantages à la Chine dans le domaine numérique. La question est en effet de savoir si le droit chinois s'applique en Europe et aux États-Unis. La réponse est probablement oui. Cela vous a été, je crois, confirmé par la CNIL.

Si je comprends bien le projet Texas, l'idée est d'installer les data centers aux États-Unis. Cependant, quelle que soit la localisation des data centers, s'il n'y a pas d'accès aux codes sources et s'il n'y a pas d'audit, toute personne travaillant pour la compagnie peut accéder aux données. Cela pose bien évidemment des questions de sécurité. Un citoyen américain, du fait des risques pénaux, y réfléchira surement à deux fois. Mais pour un citoyen étranger, la question se pose différemment...

Techniquement, tout est possible. Des contraintes peuvent être fixées d'un point de vue légal. Mais si la technique l'emporte sur le légal, rien n'est garanti...

M. Claude Malhuret. - Pour prolonger ma question, pensez-vous que les directives contenues dans le DMA et le DSA sont aujourd'hui une réponse complète et satisfaisante aux problèmes de respect de la vie privée sur les plateformes en général, et sur TikTok en particulier ? Si oui, les pays européens et singulièrement la France disposent-ils des capacités humaines nécessaires en termes de techniciens pour les faire respecter ?

M. Tarik Krim. - Si le RGPD est une très bonne idée sur le papier, la résultante en est pour le consommateur la multiplication des pop ups. Nous n'avons pas travaillé de manière globale. L'idée était bonne et nous différenciait d'ailleurs des États-Unis sur la façon dont l'on traite la vie privée. Mais nous aurions dû réfléchir en matière de design et d'application sur ces produits.

Le problème du DMA et du DSA est qu'ils sont votés au moment où le sujet est déjà en train de changer. Entre temps, l'IA générative est devenue incontournable. On s'intéresse aux conséquences et très rarement aux causes. On explique aux entreprises ce qu'elles doivent fournir comme services vis-à-vis de l'extérieur. On oublie la manière dont on doit construire l'accès à l'intimité des utilisateurs. Une fois que les réseaux sociaux ont transformé les utilisateurs en pâte à modeler, on peut les mettre dans n'importe quelle moule. C'est ce qui est fait aujourd'hui en Europe et aux États-Unis. Nous avons assez peu travaillé sur l'aval. Alors que la sortie d'un produit médical exige tout un travail préalable sur les effets secondaires, nous sommes pour les réseaux sociaux face à une boite noire. Ceux-ci s'intègrent dans l'intimité des personnes sans aucune analyse des impacts. La même question se posera avec l'IA générative, qui risque de conduire à de la désinformation à une échelle encore plus importante.

On oublie trop souvent que santé mentale et santé démocratique sont liées. Si les gens sont mal dans leur peau à cause des réseaux sociaux, il n'y a pas de raison pour que leur vision de la politique soit soudain bien meilleure. Il n'y a pas de garde fous et très peu de réglementation du fait des volumes. On parle dans le cas de Facebook de milliards d'utilisateurs. La seule solution est de recourir à des algorithmes. La réponse de ces sociétés est toujours d'assurer que la prochaine génération d'algorithmes sera meilleure.

Le schéma est toujours le même : il faut un produit addictif, il faut ensuite le monétiser, il faut enfin assurer la gestion des potentiels effets de bord. Cette gestion intervient seulement en troisième étape. Or, les bonus des ingénieurs chargés de la monétisation sont fixés en fonction de leur capacité à rendre le produit le plus addictif possible et à assurer la croissance la plus rapide du produit. Les équipes de régulation interviennent après. Tous ces services ont été pensés d'abord pour optimiser la croissance des produits et pour maximiser leur monétisation. Il faudrait donc que les lois obligent à repenser la conception même de ces produits. On a su le faire dans le domaine médical et bioéthique. Mais dans le domaine des technologies, il y a une incapacité à vouloir réglementer en amont. Or, c'est ce qui à mon avis doit être le plus important.

Mme Catherine Morin-Desailly. - Je vous remercie d'avoir évoqué les textes des règlements européens en cours. Je pense aussi au Data Act, qui suit le règlement Intelligence artificielle. Tout cela fonctionne ensemble et il y a une logique inhérente à ces textes. D'après de ce que vous dites, ces textes semblent insuffisants. Cela rejoint le travail de la commission des affaires européennes, qui a étudié la question du « safety by design ». L'objectif est d'imposer des expérimentations et des évaluations avant de mettre sur le marché une application fonctionnant avec des algorithmes. Vous confortez donc bien l'idée que ces textes ne sont pas assez protecteurs des jeunes.

S'agissant de la guerre froide technologique entre la Chine et les États-Unis, j'ai noté que vous avez indiqué que TikTok a les mêmes effets négatifs - à peu de différences près - que les autres plateformes. Est-ce à dire que nous Européens devrions être équidistants entre les États-Unis et la Chine ? Observez-vous malgré tout que la plateforme chinoise est beaucoup plus toxique et dangereuse, ce qui justifierait les interdictions prises récemment ? Faut-il n'y voir qu'une stratégie des États-Unis pour ne pas se laisser dépasser par la Chine ? Cela procéderait de la même logique que la proposition de moratoire sur l'intelligence artificielle faite par Elon Musk, proposition qui n'est pas dénuée d'intérêt... Pouvez-vous nous dire précisément si nous devons porter une attention particulière à la plateforme chinoise ?

M. Tariq Krim. - Je clarifie mon propos : il est évident qu'entre les États-Unis et la Chine, notre attitude ne peut pas être la même.

Les États-Unis sont une démocratie et le Congrès américain est très actif sur ces questions. Le cas de la Chine est bien évidemment à part. TikTok est une plateforme ultra addictive, beaucoup plus que les autres. D'ailleurs, et YouTube et Facebook proposent désormais des systèmes similaires de vidéos à format court. Nous assistons à un nivellement vers le bas.

Par ailleurs, TikTok est un outil d'influence. A minima, c'est un outil qui rend passives les populations occidentales. Les jeunes générations ont désormais une capacité d'attention très faible. Je fais partie d'une génération qui a expérimenté pour la première fois les coupures publicités des émissions. On trouvait cela insupportable, alors que la coupure avait lieu au bout de 15 à 20 minutes. Aujourd'hui, sur les plateformes, les interruptions sont toutes les 50 secondes. Nous ne sommes plus très loin d'être des poissons rouges...

En Chine, les lois sur les réseaux sociaux sont très dures, tout comme le seront les lois sur l'intelligence artificielle. Nous n'avons pas cette dureté adoptée par le gouvernement chinois. Les jeunes utilisent intensivement les réseaux sociaux. Or, entre 13 et 16 ans, on sait qu'il s'agit d'un moment charnière pour le développement cognitif des adolescents. Au moment où l'on a le moins confiance en soi, le travail algorithmique de ces réseaux conduit à détruire cette confiance. C'était le cas avec Instagram, dans une logique sociale de compétition. Avec TikTok, c'est une logique de ramollissement. On se désintéresse des choses et l'on s'échappe de la réalité, suivant une stratégie de l'autruche. Nous n'avons pas encore bien étudié toutes ces conséquences sociales et politiques.

S'agissant du DSA, je suis évidemment favorable à une régulation. Cependant, je préfère une régulation moins volumineuse mais allant au fond du problème qu'un enchevêtrement de textes différents qui crée une bureaucratie dans le développement des applications. Le véritable problème est celui de la conception des applications. Songeons aux cas des médicaments ou même des publicités, qui sont beaucoup plus et mieux encadrés ! Si vous faites une publicité mensongère, vous pouvez être attaqué. Aujourd'hui, on ne règlemente qu'une fois l'application mise sur le marché et qu'elle a fait des dommages.

S'agissant de savoir s'il y a une spécificité de TikTok, je dirai que l'application, dans la course à l'attention, est allée encore plus loin que les autres plateformes. Facebook a tout un historique : d'un réseau social pour les universités, il est ensuite devenu le réseau social de l'ensemble de l'humanité, pour enfin se transformer en un réseau hybride entre site d'infos et réseau social, avec des équipes séparées ne fonctionnant pas toujours en très bonne harmonie. TikTok, lui, a été pensée pour créer de l'addiction instantanée et happer des heures d'attention par jour, prises sur la télévision ou sur les autres sources d'information. La télévision, la presse, la radio, les sites web étant délaissés par les jeunes, TikTok est bien leur outil d'information.

M. Claude Malhuret. - J'ai une question de politique fiction. C'est la question de l'apprenti-sorcier ou de la machine qui échappe à son maitre. L'audition du PDG de TikTok s'est assez mal déroulée. Le travail du Congrès devrait aboutir à une interdiction pure et simple de l'application. D'ailleurs, l'état du Montana a d'ores et déjà interdit l'application pour l'ensemble de la population, ce qui risque d'être difficile à faire appliquer... D'après les médias, Biden hésiterait beaucoup à interdire cette application aux 150 millions d'utilisateurs américains, du fait de l'impact possible de cette décision sur la prochaine élection présidentielle... C'est une véritable interrogation. Peut-on interdire un réseau social ou ces réseaux sont-ils devenus trop puissants ? Les plateformes sont-elles devenues plus fortes que les États ?

M. Tariq Krim. - Trump avait voulu que TikTok soit racheté par une entreprise américaine. La Chine accepterait-elle de vendre cette application ou bien faut-il prendre des mesures d'interdiction ? Personnellement, j'ai toujours été en faveur de la réciprocité. La question s'était posée au sujet de Russia Today et de Sputnik. Fallait-il prendre des mesures d'interdiction de médias comme la Russie en prend contre nous ? C'est un dilemme. À cela s'ajoute le fait que TikTok est prisé par la génération Z et donc probablement par un bon nombre d'électeurs de Biden. Côté Républicain, une décision d'interdiction de l'application rassemblerait davantage de soutiens. Il y a une différence entre les États-Unis et nous : dans le cas d'une décision d'interdiction prise par l'UE, il n'y aura pas un pays en particulier qui aurait à en subir les conséquences.

Biden est très agressif actuellement sur les enjeux d'accès aux puces et d'accès aux technologies essentielles car il y a bien un véritable bras de fer entre la Chine et les États-Unis, dont TikTok n'est qu'un des éléments. Taiwan, principal producteur de puces, reste également un sujet majeur. Reste à déterminer ce que l'Europe a à retirer de ce bras de fer. Des compromis risquent d'être faits entre les États-Unis et la Chine : l'Europe fera-t-elle partie de ces compromis ? Serons-nous les dindons de la farce ou pourrons-nous en tirer des avantages ?

Dans le cas où les États-Unis prendraient une décision d'interdiction, je reste persuadé que l'Europe suivra. Je tiens à rappeler que l'Inde l'a déjà fait et que d'autres pays étudient la question de près. Nous avons des atouts : les sociétés européennes ARM et ASML sont indispensables à l'écosystème numérique. Nous sommes par ailleurs un marché extrêmement rentable d'utilisateurs. La question de l'interdiction ne peut pas être vue sans aborder la question de façon globale.

M. Mickaël Vallet, président. - J'aurais encore de nombreuses questions mais nous sommes contraints par le temps. Nous vous remercions beaucoup pour votre éclairage, qui ouvre encore de nouvelles interrogations !

Audition de Mme Chine Labbé, NewsGuard, rédactrice en chef et vice-présidente en charge des partenariats, Europe et Canada, le 3 mai 2023

M. Mickaël Vallet, président. - Chers collègues, nous entendons à présent Chine Labbé, rédactrice en chef et vice-présidente en charge des partenariats Europe et Canada de NewsGuard, une société américaine créée par des journalistes pour évaluer la fiabilité des sites d'information et d'actualité.

En septembre dernier, Newsguard a mis en lumière que près de 20 % des vidéos qui apparaissent dans les résultats de recherches du réseau TikTok sur les principaux sujets d'actualité contiennent de la « mésinformation ».

Comment expliquez-vous cette surreprésentation de fausses informations sur le réseau TikTok ? Selon votre analyse, s'agit-il d'une jeune société débordée par son succès, d'une mise en avant délibérée de contenus susceptibles de retenir l'attention des utilisateurs ou encore, d'un outil de propagande ?

Connaissez-vous la manière dont TikTok organise sa modération ? Pensez-vous que TikTok, qui vient d'être désigné comme une des très grandes plateformes en ligne sous supervision directe de la Commission européenne sera en capacité de respecter les obligations qui lui seront imposées par le règlement DSA ?

Je vais vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes. Peut-être pourrez-vous nous préciser si Newsguard a des liens d'intérêts avec la plateforme TikTok qui fait appel à des prestataires, comme l'AFP, pour vérifier la véracité des informations ?

Avant de vous laisser la parole, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, Mme Chine Labbé prête serment.

Mme Chine Labbé. - Monsieur le président, monsieur le rapporteur, chers membres de la commission d'enquête, je vous remercie de me recevoir aujourd'hui et de vous pencher sur la présence de mésinformation et de désinformation sur TikTok. Je représente NewsGuard, société qui lutte contre la mésinformation et la désinformation en analysant la fiabilité des sources d'information et en produisant des rapports sur les tendances de la mésinformation et désinformation en ligne.

À l'origine, TikTok était surtout connu sa composante musicale. On y trouvait principalement des vidéos de karaoké et de danse. Certains représentants de cette société continuent d'en parler comme d'une application de divertissement et de joie. Si l'application chinoise est en effet un lieu de divertissement, elle est aujourd'hui bien plus que cela. C'est un endroit où les utilisateurs vont chercher des informations. Comme tous les réseaux sociaux où se partagent des informations, c'est un lieu où circulent de nombreuses infox, y compris sur des sujets politiques, sociaux et géopolitiques.

La raison de s'intéresser à cette application tient aussi à sa taille et à sa croissance exponentielle. Comme vous le savez, TikTok est une plateforme plébiscitée par les jeunes. Selon Bloomberg, 30  % de ses utilisateurs en France ont moins de 18 ans. Elle compte 1,7 milliard d'utilisateurs actifs dans le monde contre seulement 85 millions début 2018. Selon Cloudflare, TikTok est même passé en 2021 devant Google en termes de site le plus visité sur internet, même s'il a depuis perdu ce titre pour repasser en 3ème position.

Partant de ce constat, nous avons mené plusieurs expériences sur TikTok et publié plusieurs rapports. Je serai ravie de les décrire plus en détail, notamment s'agissant de la méthodologie. En propos liminaire, je voudrais insister sur deux observations principales. Il existe à mes yeux deux principaux problèmes liés à la mésinformation sur TikTok : le problème du scroll, où les utilisateurs se contentent de faire défiler des vidéos sur leur fil « For You » ; et le problème du moteur de recherche de TikTok. Dans ces deux cas, les utilisateurs sont confrontés à de fausses informations sur tous les grands sujets d'actualité, d'après nos analyses.

Je commence par le scroll, qui est l'utilisation principale sur TikTok pour accéder à du contenu. Nous avons tenté de répondre à la question suivante : combien de temps faut-il à un utilisateur pour tomber sur des contenus faux ou trompeurs sur des grands sujets d'actualité ? Nous avons fait le test à deux reprises, en septembre 2021 avec le covid-19 et en mars 2022 avec la guerre en Ukraine. Dans les deux cas, en faisant faire le test à plusieurs analystes, dans plusieurs pays et dans plusieurs langues, nous sommes arrivés à un temps inférieur à 40 minutes.

Par exemple, dans notre expérience sur les contenus liés au covid-19, un garçon francophone de 13 ans, ayant effectué le test sous surveillance parentale, s'est vu montrer une vidéo satirique sur ce sujet en 17 secondes seulement après s'être connecté à l'application. 20 minutes plus tard, une vidéo le mettant en garde contre un nouvel ordre mondial est apparue dans son flux, qui affirmait que la « rappeuse française Keny Arkana avait tout compris quand, 10 ans auparavant, elle chantait que les gouvernements étaient en train de préparer le terreau hors pair du plus grand génocide, juste pour businesser un tas de vaccins empoisonnés ». Après une demi-heure, ce jeune a été exposé quasi exclusivement à de la désinformation sur le covid-19, y compris des contenus antivax et des théories du complot anti-gouvernements.

Dans notre expérience sur la guerre en Ukraine, moins de 29 minutes après avoir rejoint TikTok, un analyste francophone s'est vu montrer une vidéo d'un discours de Vladimir Poutine, dans lequel celui-ci disait « ce n'est pas pour que le néonazis d'aujourd'hui prennent le pouvoir que vos pères, vos grands-pères, vos arrière-grands-pères se sont battus contre les nazis ». En moins de 36 minutes, le même analyste s'est vu montrer une vidéo affirmant que « toutes les images de cette pseudo-guerre sont fausses ».

La durée de 40 minutes peut paraitre longue. Mais si on la rapporte au temps quotidien passé en moyenne sur TikTok par les utilisateurs, c'est en réalité bien peu. Tous les utilisateurs peuvent être confrontés quotidiennement à de fausses informations. En effet, le temps moyen passé sur TikTok était de 95 minutes par utilisateur et par jour en 2022 selon Meltwater. Le temps est encore plus important si l'on se concentre sur les plus jeunes utilisateurs. Cela ne veut pas dire pour autant qu'un utilisateur de TikTok ne sera confronté qu'à de fausses informations sur la plateforme. Le mélange des genres est d'ailleurs assez détonnant sur TikTok. Une fausse information arrivera entre un mème amusant et des informations fiables. Cependant, le design de l'application, le fait de faire défiler les vidéos les unes derrières les autres, sans réelle mise en contexte ou hiérarchisation et avec très peu de labellisation des contenus fait qu'il est extrêmement difficile pour un utilisateur de faire le tri parmi les informations qui lui seront proposées.

J'en viens au second problème, celui de la recherche sur TikTok. L'application sert de plus en plus de moteur de recherche à de nombreux internautes. Ceux-ci viennent chercher tout type d'information : le dernier restaurant à la mode, la crème la plus efficace... mais aussi des informations sur l'actualité. Selon une étude du Pew Research Center, environ ¼ des utilisateurs américains de moins de 30 ans cherchent régulièrement des informations sur TikTok. Nous avons tenté quant à nous de répondre à la question suivante : quand un utilisateur effectue une recherche sur TikTok, quelle proportion de vidéos, dans les premières remontées à l'issue de la recherche, contiennent de fausses informations ?

Nous avons fait le test en septembre 2022, en effectuant des recherches liées à des sujets d'actualité variés : l'Ukraine, le covid-19, les vaccins anti-covid, les fusillades aux États-Unis. Près de 20 % des vidéos apparues dans les vingt premiers résultats de recherche sur TikTok contenaient de fausses informations. Par exemple, la recherche « l'élection américaine de 2020 a-t-elle été volée ? » renvoyait vers six vidéos contenant de fausses allégations sur l'élection de Joe Biden parmi les vingt premiers résultats. Au contraire, la plupart des résultats pour la même recherche sur Google étaient des articles démentant l'allégation selon laquelle l'élection de 2020 aurait été volée et aucun de ces résultats ne relayaient de fausses informations. Par ailleurs, lorsqu'ils ne contenaient pas de fausses informations, les résultats sur TikTok étaient souvent plus polémiques que sur Google.

Plus problématique encore, non seulement l'application met en avant de nombreuses vidéos contenant de fausses informations dans ses premiers résultats de recherche, mais elle suggère aussi des termes tendancieux pour compléter des recherches neutres. Ainsi, quand l'un de nos analystes a effectué une recherche pour le terme climate change, l'application lui a suggéré de rechercher climate change debunked (le changement climatique démystifié) et climate change doesn't exist (le changement climatique n'existe pas). C'est la même chose pour Boutcha, ville ukrainienne théâtre de massacres : l'application suggérait Bucha fake (faux), en référence aux faux récits selon lesquels ces massacres auraient en fait été mis en scène par l'Ukraine. Dans ces deux exemples, comme dans d'autres que nous avons étudiés, l'utilisateur est dirigé vers toujours plus de contenus faux.

Dans les deux cas - scroll ou moteur de recherche - ce sont les algorithmes de TikTok qui sont responsables de la présence sur TikTok de contenus faux puisque ce sont eux qui déterminent quelles vidéos vont apparaitre dans votre fil d'actualité et lesquelles vont remonter dans votre barre de recherche. Je ne suis pas une spécialiste des algorithmes et je sais que vous avez eu une audition très pertinente sur ce sujet avec Marc Faddoul. Je ne passerai donc pas beaucoup de temps sur cette question. Mais je voulais terminer mon intervention en disant que je partage son constat. Ces algorithmes sont véritablement les gardiens de l'information en ligne et le coeur du problème. Si l'on devait faire passer un examen de résistance à la mésinformation à l'application chinoise, il y a peu de doutes qu'elle échouerait. Sur ce sujet comme sur beaucoup d'autres, c'est la conception algorithmique qui en est la responsable.

Avant de rendre la parole, je précise que je n'ai pas parlé des contenus synthétiques ou manipulés par intelligence artificielle sur la plateforme. Les règles d'utilisation de TikTok imposent que ces contenus soient labellisés comme tels. Mais le fait est que ce n'est pas toujours le cas. De nombreuses vidéos manipulées circulent sans label sur l'application. Dans un monde où l'IA progresse rapidement, démocratisant la création de contenus altérés, il s'agit d'une problématique qui ne doit pas être négligée.

Enfin, pour répondre à votre question liminaire, nous n'avons pas de relation commerciale avec TikTok.

M. Mickaël Vallet. - Comment définissez-vous la mésinformation par rapport à la fausse information ? En bon français, le terme d'infox ne devrait-il pas être préféré à celui de fake news, qui a une connotation propre aux Américains ?

Mme Chine Labbé. - J'utilise le terme d'infox plutôt que celui de fake news car ce dernier terme est devenu très politique et peut être utilisé pour décrire des contenus tout à fait crédibles et valables.

Derrière la désinformation, il y a une volonté malveillante de diffusion de contenus faux. Cela peut s'expliquer pour des raisons politiques, géopolitiques, financières - c'est-à-dire par appât du gain car cela fait des clics. La mésinformation quant à elle consiste en la diffusion de fausses informations par manque de rigueur - journalistique par exemple. Nous précisons toujours que nous travaillons sur la désinformation et la mésinformation car les deux s'imbriquent très souvent. C'est souvent difficile de savoir comment une campagne a commencé. Si certaines campagnes de désinformation peuvent clairement être identifiées comme telles car elles sont relayées par des médias d'État étrangers, beaucoup de fausses informations circulent sans que l'on arrive à connaitre leur origine ni leur dessein.

M. Claude Malhuret. - Merci beaucoup de cette introduction qui va directement au coeur du sujet. Avant d'en venir à mes questions, je voudrais vous dire bravo ! Je ne sais pas si ces félicitations doivent s'adresser à vous en particulier mais je suis en tout cas très heureux qu'une entreprise comme NewsGuard existe. Il n'y en a pas assez et il en faudrait bien plus compte tenu de la disproportion entre les moyens des plateformes, l'ampleur de la désinformation/mésinformation et le nombre de fact checkers. Il s'agit là d'un problème démocratique majeur, engendré par la création des réseaux sociaux.

Avez-vous des partenariats avec des services comme Viginum ou le service européen d'action extérieure ? Travaillez-vous avec des régulateurs ou avec des organismes nationaux, européens ou américains ?

Mme Chine Labbé. - Nous sommes une entreprise commerciale et nous vendons des licences d'accès à nos données, à différents acteurs de différentes entreprises. Nous travaillons notamment avec des plateformes numériques, qui pourront les utiliser ou en donner accès elles-mêmes à leurs utilisateurs. Nous travaillons également avec des acteurs de l'industrie publicitaire, des chercheurs, des agrégateurs de contenus, des sociétés de gestion de la réputation etc. Nos clients sont donc très variés. Une petite portion de nos revenus vient d'entités gouvernementales de démocraties occidentales.

Nous vendons principalement des licences d'accès pour des bases de données sur la fiabilité des sites d'information. Nous avons analysé cette fiabilité dans 9 pays, pour plus de 8500 sites. Par ailleurs, nous disposons d'un catalogue des principales infox qui circulent en ligne, avec des mots clés associés. S'agissant de notre travail pour les entités gouvernementales, il ne consiste pas en l'évaluation de la fiabilité des sites mais en la fourniture de données spécifiques sur la désinformation provenant d'États étrangers.

Nous avons eu des échanges avec Viginum par le passé mais nous n'avons pas de relation active avec ce service du Gouvernement ni de partenariat commercial. Nous leur envoyons nos rapports, comme nous envoyons nos rapports à beaucoup d'autres représentants d'organismes étatiques, à des membres du Parlement européen, à des membres de la Commission européenne ou encore au service européen d'action extérieure.

Au niveau européen, nous sommes membres de l'IDMO, qui est l'observatoire italien des médias numériques, financé par l'Union européenne. Nous avons signé le code européen de bonnes pratiques contre la désinformation, aux côtés des autres plateformes et des entreprises de la société civile de fact checkers.

M. Claude Malhuret, rapporteur. - Merci pour votre proposition de nous communiquer certains rapports que vous avez publiés, et qui pourraient effectivement intéresser notre commission. Vous avez parlé de la confection algorithmique. Vous analysez des centaines de sites, dont les grandes plateformes. Il me semble que les applications des interfaces de programmation (API) des principales plateformes sont de nature et de qualité variables. Actuellement, des sites comme YouTube ou Facebook possèdent des API qui, si elles sont très loin d'être parfaites, sont néanmoins accessibles aux chercheurs ou aux sociétés telles que la vôtre. Or TikTok ne dispose pratiquement d'aucune API et par conséquent d'aucune entrée à l'intérieur du mécanisme, y compris pour les chercheurs. Confirmez-vous cela ? Par ailleurs, avez-vous les moyens de savoir où sont produits les différents algorithmes ? Quelle est la part des algorithmes produits en France, par la société TikTok France, et celle produite, par exemple, en Chine ou à Singapour ? Il est très difficile - pour ne pas dire impossible - d'accéder à ces algorithmes, mais peut-être est-il encore plus difficile d'accéder à l'origine de leur confection.

Mme Chine Labbé. - Nous n'étudions pas les algorithmes, mais uniquement la présence de fausses informations. Sur la question des API, je ne suis donc pas en mesure de vous fournir d'autres éléments que ceux que peuvent apporter les chercheurs. Nous avons posé de nombreuses questions à TikTok au sujet des algorithmes, notamment pour savoir si les algorithmes de recherche sont produits pour empêcher la promotion ou la valorisation de contenus faux. TikTok, comme c'est souvent le cas avec les grandes plateformes, n'a pas répondu dans le détail à nos questions, mais nous a envoyé un commentaire général sur leurs règles d'utilisation en rappelant le fait que les contenus faux, ou trompeurs, et la mésinformation dangereuse étaient interdits sur la plateforme. Lorsque nous publions un rapport, il arrive souvent que TikTok supprime ensuite les contenus ou les hashtags signalés dans notre rapport, mais nous n'avons pas de réponse sur la raison pour laquelle ces contenus ont été promus dans des résultats de recherche ou sur les fils « For You » des utilisateurs.

M. Claude Malhuret, rapporteur. - En dehors des algorithmes, avez-vous une vision de la façon dont TikTok organise sa modération ?

Mme Chine Labbé. - Je n'ai pas d'éléments précis sur la manière dont la modération est organisée, en dehors de ce qui figure dans les rapports de presse. En revanche, ce que l'on sait - en tout cas, ce que TikTok dit - c'est que la modération de la plateforme repose d'abord sur un examen des vidéos via l'intelligence artificielle (IA). Puis, si l'IA a détecté un problème, la vidéo va être soit supprimée, soit envoyée à un modérateur humain pour une deuxième analyse. Or, on le sait, l'IA est très efficace pour repérer les contenus haineux, les contenus violents et les contenus racistes, mais elle est beaucoup moins efficace pour repérer la mésinformation et la désinformation, parce que ces dernières ressemblent à de l'actualité crédible. Il y a là un problème fondamental.

Selon le rapport d'application des règles communautaires de TikTok, lors du premier trimestre de 2022, TikTok a retiré plus de 102 millions de vidéos allant à l'encontre de ces règles communautaires, mais sur ces 102 millions de vidéos, moins de 1 % ont été retirées parce qu'elles contrevenaient aux règles d'intégrité et d'authenticité, qui comprennent la mésinformation dangereuse. C'est très peu, sans doute parce que l'IA n'est pas la plus efficace pour repérer ces contenus. Malheureusement, aujourd'hui, les campagnes de désinformation efficaces ressemblent trait pour trait à de l'information crédible. Ce qui va différencier un contenu de propagande d'un contenu fiable, c'est tout simplement l'initiateur du contenu. Or, si vous ne savez pas qui a produit ce contenu et que cette personne se cache derrière un compte anonyme, l'IA sera incapable d'identifier ce contenu comme de la propagande.

M. Claude Malhuret, rapporteur. - Vous parliez de 1 % de vidéos retirées pour cause de mésinformation. Comment se répartissent les 99 autres pourcents ?

Mme Chine Labbé. - Je n'ai pas le détail, mais cela comprend les contenus violents et tous les contenus illicites interdits sur la plateforme. Les 1% mentionnés ne concernent pas uniquement la mésinformation dangereuse, mais l'ensemble des infractions aux règles d'intégrité et d'authenticité. Cela inclut donc les contenus générés par une intelligence artificielle, les contenus trompeurs et les contenus inauthentiques.

M. Claude Malhuret, rapporteur. - Vous avez dit que TikTok ne reconnaissait pas la labellisation de l'information. Qu'en est-il des autres plateformes ?

Mme Chine Labbé. - Les autres plateformes le font de manière partielle et assez inégale. Je ne pense pas que TikTok soit différent des autres plateformes à ce niveau-là. Généralement, les plateformes ont des partenariats avec des fact-checkers, comme l'AFP en France. Certains contenus vont donc être labellisés comme faux, ou bien, comme on l'a beaucoup vu sur les contenus traitant du Covid-19 sur TikTok, avoir un label appelant à aller chercher des sources fiables sur le sujet - ce qui est déjà est un premier pas. Le problème de la labellisation vient du fait que, souvent, certains contenus sont labellisés comme faux ou trompeurs alors que d'autres contenus, comportant la même fausse information, ne vont pas l'être car le vocabulaire utilisé est différent et aura donc échappé à la plateforme.

Sur toutes les plateformes, la labellisation est donc assez inégale. Le problème sur TikTok, c'est qu'il y a peu de labellisation. Il y en a, mais le design-même de l'application fait que lorsque vous scrollez d'une vidéo à une autre, il est beaucoup plus facile de passer à côté du label. En théorie, il est déjà obligatoire de labelliser un contenu afin d'indiquer qu'il est altéré. Mais, en pratique, on voit de nombreuses vidéos altérées - on l'a vu sur Joe Biden depuis l'annonce de sa candidature à la prochaine élection présidentielle - où le label n'apparaît qu'en milieu de vidéo, ce qui en limite l'efficacité, alors même qu'il ne serait pas plus coûteux de mettre ce label sur l'intégralité de la vidéo. Cela démontre un manque de volonté de la part des plateformes, mais aussi des créateurs de contenus eux-mêmes, qui peuvent choisir de mettre le label en milieu ou en fin de vidéo plutôt qu'au début. C'est une problématique très compliquée à laquelle toutes les plateformes, y compris TikTok, réfléchissent en ce moment.

M. Claude Malhuret, rapporteur. - Avez-vous des détails sur le programme de fact-checking initié par TikTok en Asie-Pacifique, qui s'appuie sur l'AFP ? Existe-t-il sur d'autres continents ?

Mme Chine Labbé. - Je n'ai pas du tout d'information à ce sujet. Nous ne sommes pas des fact-checkers en tant que tels, au sens où nous produisons nos propres fact-checking pour nourrir nos analyses de sites et la base de données des principales infox qui circulent en ligne, mais nous ne sommes pas du tout impliqués dans ce genre de partenariat et j'ignore donc ce que TikTok fait avec l'AFP par exemple. Les partenariats avec des fact-checkers sont certainement utiles, mais ils ne sont pas à même de pleinement résoudre le problème. Certains contenus problématiques peuvent être labellisés grâce à eux, d'autres vont leur échapper car la manière de présenter la fausse allégation est différente et n'est donc pas repérée par la plateforme.

M. Mickaël Vallet, président. - Nous essayons de distinguer les difficultés communes à l'ensemble des plateformes de celles plus spécifiques à des plateformes plus jeunes. Nous avons auditionné hier la Société des auteurs et compositeurs dramatiques, qui nous a indiqué que, grâce aux outils informatiques, une plateforme comme YouTube bloque très aisément la diffusion de contenus qui ne respecteraient pas le droit d'auteur. Les moyens techniques existent. Dans ce que vous avez évoqué sur le pourcentage de mésinformation, est-ce propre à TikTok ou cela est-il commun à toutes les plateformes sur lesquelles les gens s'informent beaucoup ?

Mme Chine Labbé. - Je pense tout d'abord qu'il faut être très clair sur le fait que le risque zéro n'existe pas lorsque l'on parle de la diffusion de fausses informations. L'objectif de zéro contenu faux est impossible à atteindre et on ne peut donc pas l'attendre des plateformes. En revanche, ce que l'on peut et doit demander, c'est davantage de transparence. Cela passe notamment par davantage de transparence algorithmique, ainsi que par une labellisation des sources et des contenus qui circulent, afin que les utilisateurs retrouvent du pouvoir là où les algorithmes décident aujourd'hui à leur place, car ils leur donnent à voir des contenus dont ils ignorent souvent l'origine.

S'agissant des comparaisons entre telle et telle plateforme en matière de fausses informations, même si l'on manque de données statistiques précises et même si l'on trouve de fausses informations sur toutes les plateformes, le fait est que l'on constate une forte présence de contenus faux sur TikTok. Je pense que cette différence est d'abord due à l'algorithme de TikTok, qui a tendance à valoriser le temps de rétention sur les contenus et l'engagement, c'est-à-dire les contenus faisant davantage réagir. Or, on le sait, les contenus faux font davantage réagir, parce qu'ils entraînent à la fois l'adhésion des personnes qui y croient, mais aussi des réactions de la part de personnes qui vont commenter ces contenus pour les rejeter. Les gens ne vont pas sur TikTok pour consulter le profil d'un ami, mais pour consommer de l'information soit en regardant ce que propose l'algorithme, qui apprend à nous connaître et nous propose des contenus en fonction de ce qui nous plaira probablement, soit en faisant des recherches sur le moteur de recherche où, là encore, les résultats sont proposés par l'algorithme. D'autre part, la modération sur TikTok repose d'abord sur un examen des vidéos par une intelligence artificielle qui, comme déjà évoqué, n'est pas très efficace sur ce sujet-là. Tout cela tend à promouvoir des contenus problématiques.

M. Mickaël Vallet, président. - Lorsque vous vous adressez à YouTube, Twitter ou une autre plateforme pour leur signaler un problème ou leur demander des informations, comment se déroulent les échanges ? Rencontrez-vous des représentants de ces plateformes en personne ou s'agit-il d'échanges de courriers très formels ?

Mme Chine Labbé. - Lorsque nous produisons un rapport sur une plateforme, comme nous l'avons fait sur Twitter ou sur Facebook, nous contactons d'abord les représentants presse de la plateforme concernée. Généralement, les plateformes nous répondent et prennent des mesures relatives aux contenus que nous avons signalés dans notre rapport. Nous sommes par ailleurs signataires du code de bonnes pratiques de l'Union européenne contre la désinformation. Dans ce cadre, nous avons des réunions avec différents acteurs, avec lesquels nous pouvons échanger. Nous produisons nous aussi des rapports de transparence. Il faudrait plus de lieux d'échange de ce type.

M. Mickaël Vallet, président. - Qui connaissez-vous chez TikTok ? Quels sont vos interlocuteurs au sein de cette entreprise ?

Mme Chine Labbé. - Il y a des représentants presse au sein de TikTok, présents pour répondre aux questions de la presse. Nous avons ainsi signalé cette semaine des contenus altérés et TikTok nous a répondu et a pris des mesures concernant ces comptes.

M. Mickaël Vallet, président. - Que répondent ces équipes aux questions sur la proportion plus importante d'infox sur TikTok?

Mme Chine Labbé. - Je ne peux pas m'engager en termes de proportion. Par ailleurs, il ne s'agit pas de dire qu'il y a à tout moment 20 % de vidéos sur TikTok contenant des fausses informations. Ce chiffre est issu d'une expérience, à un « moment t ». Peut-être les choses se sont-elles améliorées depuis. TikTok avait critiqué la méthodologie de notre étude. Sur le fond, nous n'avions pas eu de véritables réponses. Je ne prêterai pas de mauvaises intentions à TikTok dans les réponses qu'il nous a fournies. Nous avons toujours pu avoir des réponses à nos rapports. Ils ont pris des mesures quand cela était nécessaire. Le problème est que ces mesures sont prises a posteriori, c'est à dire après que nous leur ayons fait un signalement.

Mme Catherine Morin-Desailly. - Je voudrais d'abord féliciter notre intervenante, qui utilise le mot infox plutôt que fake news. Le mot est bien plus précis et offre toute la palette des problématiques entre mésinformation, désinformation, manipulation. Entre 2018, lors de l'examen de la loi visant à lutter contre la manipulation de l'information, le Sénat a tenu à donner des définitions à chacun de ces termes pour légiférer de manière appropriée.

Vos recherches permettent-elles d'établir ce qui relève de la mésinformation, comme utilisation naïve d'une expression par un utilisateur lambda, sans intention malveillante, et ce qui relève au contraire de profils anonymes qu'on chercherait à identifier ? Personnellement, je ne suis pas utilisatrice de TikTok et je ne l'ai volontairement pas téléchargé. J'ai donc du mal à voir ses différences avec les autres applications. Il me semble néanmoins qu'il y aussi sur TikTok des contenus provenant d'utilisateurs lambda.

Mme Chine Labbé. - Vous avez tout à fait raison. C'est la raison pour laquelle je rappelais en préambule que nous analysions à la fois la mésinformation et la désinformation. Parfois, il est très difficile de remonter à l'origine d'une infox virale et de déterminer s'il y avait un acteur derrière. Vous me demandiez dans votre questionnaire si nous arrivions à retrouver l'émetteur originel d'une fausse information. Il s'agit de l'étape la plus complexe et cela se révèle parfois impossible.

Qu'elles émanent de pays étrangers ou de colporteurs locaux, les infox s'entremêlent. Par exemple, une fausse information promue par des bots russes en anglais pourra ensuite être reprise par des colporteurs locaux en Italie. Il n'y a pas forcément d'organisation derrière ces personnes. De même, un État étranger pourra transformer en arme (weaponization en anglais) une infox provenant d'un compte d'un utilisateur lambda, qui peut avoir de bonne foi mésinterprété des données.

Lors d'une intervention devant le Parlement européen sur la désinformation d'État, tout mon propos avait consisté à alerter sur la nécessité de ne pas séparer comme deux choses différentes la désinformation étrangère et la mésinformation/désinformation pouvant provenir de colporteurs d'infox locaux dans différents pays d'Europe. Tous ces différents acteurs se lisent les uns les autres, se reprennent les uns les autres et s'utilisent les uns les autres à leur propre dessein. On l'a vu pour des campagnes qui semblaient étatiques et qui se servaient d'influenceurs locaux pour promouvoir des infox.

Les fausses informations sur TikTok ne relèvent donc pas nécessairement de propagande ou de désinformation. La qualification et l'attribution des récits faux sont très compliqués à établir. On arrive facilement à le faire quand l'information provient d'un média d'État étranger identifié mais cela reste souvent très compliqué dans les autres cas.

Mme Marie Mercier. - J'ai l'impression que vous exercez une mission de service public en effectuant cette surveillance des contenus. Quand vous repérez un contenu, vous le signalez et vous nous indiquez que vous êtes entendu.

Mme Chine Labbé. - Le fait est en effet que beaucoup des contenus que nous signalons sont retirés par TikTok. Un de nos rapports mettait ainsi en exergue la forte présence de contenus glorifiant les exactions du groupe Wagner. Ces contenus étaient très clairement en violation des règles d'utilisation de TikTok puisqu'ils appelaient à la violence. Quasiment tous les hashtags que nous avons signalés ont été supprimés à la suite de la publication de ce rapport.

Mme Marie Mercier. - Je voulais savoir si vous aviez des concurrents qui exerçaient dans ce domaine ? D'autres journalistes exercent-ils les mêmes types de mission ? Il faut espérer que vous êtes nombreux. L'ARCOM, gendarme de l'audiovisuel, n'a-t-il pas les mêmes missions que vous ? Comment êtes-vous rétribué ?

Mme Chine Labbé. - TikTok pourrait être un client et nous payer pour utiliser nos données. Mais il n'est pas notre client et nous n'avons pas de lien d'intérêt. Nous nous rétribuons en vendant des licences d'accès à différents acteurs, que ce soit les plateformes digitales, les réseaux sociaux, des agrégateurs de contenus. Ils peuvent intégrer nos analyses de la fiabilité des sites pour leurs utilisateurs pour leur donner un supplément d'information sur les sources. Nous fournissons aussi des briefings sur les tendances de la désinformation à nos clients. Parmi nos clients, nous avons de plus en plus des acteurs du monde de la publicité. Nous n'en avons pas parlé mais une grande partie des fausses informations sont aujourd'hui financés par la publicité programmatique.

Il existe beaucoup de fact checkers, qui travaillent pour un média et qui ont en général des partenariats et donc des liens d'intérêt avec des plateformes. Notre travail est différent puisque nous produisons des évaluations de la fiabilité des sites d'information journalistiques et apolitiques en fonction de critères journalistiques. Nous sommes les seuls à faire ce travail. En revanche, sur le fact checking, qui est une partie de notre travail, nous avons des concurrents. Par ailleurs, de plus en plus d'acteurs produisent des listes d'acteurs à risque désinformationnelle. Ils peuvent être considérés comme des compétiteurs, à la différence près que ceux-ci utilisent de l'intelligence artificielle, ce que nous ne faisons pas. Nous sommes une équipe de journalistes, réalisant des analyses manuelles. Nous contactons les sites pour demander des commentaires ; nous les invitons à progresser sur leurs pratiques pour obtenir de meilleurs scores ; nous mettons à jour en permanence nos analyses. Nous sommes pour l'instant uniques dans ce paysage mais tout un nouvel écosystème est en création, face à une menace beaucoup plus grande qu'elle ne l'était il y a quelques années.

Mme Annick Billon. - Ma question concernait votre modèle économique. Avez-vous vocation à ester en justice ? Disposez-vous d'un service juridique qui vous le permettrait ?

Le développement du réseau TikTok a-t-il été accompagné d'un changement d'algorithme pour lutter contre les fausses informations ? Classez-vous ces infox par rubriques (géopolitiques, santé...) ?

Mme Chine Labbé. - Nous sommes des journalistes et nous n'avons pas vocation à intenter des actions en justice. Notre sujet est celui des fausses informations, ce qui ne recoupe pas tout à fait le sujet des contenus illicites. Nos études ne portent pas sur la publication de contenus illicites, comme les contenus racistes par exemple. Nous travaillons sur la publication d'informations fausses. Dans le domaine de la vérification des faits, certains acteurs procèdent à des vérifications de faits exagérés ou insuffisamment fondées. Nous ne nous intéressons quant à nous qu'aux informations complétement fausses et complétement trompeuses, ou sans fondement aucun. Typiquement, le fait que le 11 septembre n'était pas un attentat mais un « inside job ». On ne peut pas prouver que c'est faux mais on peut montrer qu'il n'y pas d'éléments prouvant que cela est vrai. Notre exigence est assez haute ; nous n'irons pas vérifier des informations qui ne sont par exemple que des propos exagérés d'hommes politiques. Nous nous concentrons sur les allégations fausses, comme les accusations de mise en scène des exactions de Boutcha.

Je serais bien incapable de vous dire s'il y a eu un changement d'algorithme de la part de TikTok. Nous n'avons sur ce sujet qu'accès aux informations qui fuitent dans la presse.

Quand nous publions nos analyses des sites d'information, nous classons en effet les différents types de contenus problématiques. Il y a un classement avec contenus faux sur la santé, sur le covid 19, sur le changement climatique, sur la guerre en Ukraine, des contenus QAnon. Ces classifications internes nous permettent de trier les sites. Cela permet de simplifier le travail des chercheurs sur notre base de données.

Mme Toine Bourrat. - Vous nous avez dit que l'intelligence artificielle n'était pas en mesure de repérer les désinformations/mésinformations et que seul l'humain était capable de les détecter. Savez-vous comment est traité le signalement fait par un utilisateur ?

Mme Chine Labbé. - Ce n'est pas le cas et cela fait partie des nouvelles exigences imposées par la réglementation européenne DSA. Les plateformes vont devoir mettre en place des processus plus transparents pour les utilisateurs.

Mme Catherine Morin-Desailly. - J'aurais une dernière question. Il y a deux ans, Shoshana Zuboff, professeure à Harvard, établissait que le modèle économique des plateformes américaines était toxique et pervers (publicité, gratuité, clics rémunérateurs...), ce qui tendait à promouvoir les fausses nouvelles, la désinformation, la montée en puissance des contenus haineux et des radicalités. De vos observations, qu'y a-t-il de similaire et de différent dans le modèle économique d'une plateforme comme TikTok ?

Mme Chine Labbé. - Sur le modèle d'affaires de TikTok, je n'ai pas d'expertise particulière. J'ai lu l'excellent livre de Shoshana Zuboff mais qui évoque davantage la question de la captation des données et le ciblage publicitaire.

Mme Catherine Morin-Desailly. - C'est quand même ce qui contribue à faire monter en puissance la désinformation et la manipulation de l'information.

Mme Chine Labbé. - La question est pertinente et j'ai évidemment un avis sur la question. Mais n'ayant pas d'expertise sur le sujet, je ne préfère pas me prononcer.

M. Claude Malhuret. - Avez-vous une idée de la taille de l'équipe de modération humaine en langue française de TikTok et de sa localisation géographique ? La plateforme croissant sans arrêt, la croissance du nombre de modérateurs suit-elle ? Peut-on avoir une évaluation de cette équipe de modération et de ses résultats ?

Mme Chine Labbé. - Là encore, je n'ai pas de chiffre car je n'ai pas de connaissance particulière outre ce que j'ai pu lire dans la presse. En revanche, le DSA oblige à augmenter la taille des équipes de modération, en couvrant plus de langues. Nous sommes présents dans 9 pays et nous couvrons plusieurs langues : l'anglais, le français, l'italien et l'allemand. Nous observons - et ce constat vaut pour toutes les plateformes - que la modération est souvent bien plus existante et efficace en anglais que dans les autres langues. Nous savons que dans les pays d'Europe de l'Est, des problèmes se posent du fait de l'absence d'équipes de modération dans les langues de ces pays. Je n'ai pas de connaissance particulière liée à l'équipe de modération de TikTok ; mon commentaire est général à toutes les plateformes.

M. Claude Malhuret. - Cela m'amène à vous poser une question sur l'application du DSA dans le domaine de la désinformation. Les recommandations du DSA vous paraissent-elles adaptées, insuffisantes, trop bureaucratiques, trop difficiles à adapter ? Quel est votre jugement sur l'état du DSA tel qu'il va être proposé aux différents gouvernements et parlements ?

Mme Chine Labbé. - Notre position est singulière, nous ne sommes ni des militants ni des activistes, nous sommes des journalistes qui faisons des observations et produisons des données et des rapports. Je ne me prononcerai donc pas sur la validité du DSA dans son ensemble. Je peux néanmoins indiquer que davantage de transparence, notamment sur les algorithmes est toujours nécessaire et bienvenue et peut améliorer les capacités d'analyse des chercheurs et des groupes comme le nôtre.

M. Mickaël Vallet. - Travaillez-vous avec des neuroscientifiques sur l'éducation aux médias et sur la vigilance aux infos chez les plus jeunes ?

Mme Chine Labbé. - Nous ne travaillons pas avec des neuroscientifiques mais votre question est intéressante. De nombreuses actions sont aujourd'hui menées dans les écoles notamment par le Centre de liaison de l'enseignement et des médias d'information (CLEMI). Notre approche de l'éducation aux médias - modeste - passe par un travail avec les bibliothèques publiques. L'éducation aux médias ne doit pas se limiter aux jeunes, elle doit concerner tous les âges. Notre travail avec les bibliothèques vise précisément à atteindre plusieurs groupes d'âge. Nous offrons gratuitement l'accès à notre extension de navigateur pour permettre aux internautes de s'assurer de la fiabilité des sources quand ils naviguent sur internet.

Nous proposons aussi aux bibliothèques d'organiser des ateliers à la fois pour leurs bibliothécaires et pour les utilisateurs, où nous enseignons notre méthodologie d'évaluation de la fiabilité des sites. Notre extension de navigateur peut à la fois servir d'outil lors de navigation sur Internet mais aussi de « vaccin » contre la désinformation, en créant des réflexes. Nous sommes en partenariat avec 900 bibliothèques dans le monde.

M. Mickaël Vallet, président. - Merci beaucoup pour votre contribution à nos travaux.

Audition de M. Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique, le 4 mai 2023

M. Mickaël Vallet, président. - Mes chers collègues, nous débutons notre matinée de travail avec l'audition de M. Bernard Benhamou, aujourd'hui secrétaire général de l'Institut de la souveraineté numérique (ISN).

Monsieur, dans de précédentes fonctions, vous avez été délégué interministériel aux usages de l'internet auprès du ministère de la recherche et du ministère de l'économie numérique, ainsi que conseiller de la délégation française au sommet des Nations unies sur la société de l'information.

Vous le savez, le Sénat s'est positionné depuis maintenant plusieurs années en faveur d'une plus grande souveraineté numérique européenne. Je pense, par exemple, à la commission d'enquête sur la souveraineté numérique de 2019, ou encore au récent rapport de la commission des affaires économiques sur la souveraineté.

Aujourd'hui, c'est la question TikTok qui nous intéresse et les leçons que nous pourrions en tirer pour renforcer notre souveraineté numérique, que ce soit du point de vue du droit, des infrastructures ou encore des logiciels.

Ainsi, nous nous interrogeons sur la capacité de TikTok et de la Chine à transférer et à accéder aux informations des utilisateurs européens, même si ces données sont stockées dans des centres de données européens ou nord-américains. La Chine se dote, en effet, à l'image des États-Unis, d'un arsenal juridique extraterritorial de plus en plus offensif, qui constitue un défi sur le chemin de notre souveraineté.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, M. Bernard Benhamou prête serment.

M. Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique. - Au niveau international, ce sujet est majeur, dans ce contexte de début de guerre froide technologique sino-américaine.

Revenons sur l'objet lui-même. Les discussions sur la nature de TikTok sont nombreuses, mais l'important est de savoir comment ce réseau fonctionne. Twitter et Facebook reposent sur un graphe social, c'est-à-dire sur le fait d'associer des personnes, pour identifier les groupes de personnes avec lesquels interagir. Certains ont dit que TikTok ne reposait que sur un graphe d'intérêts. La communauté des chercheurs admet la dénomination de graphe social d'intérêts, ou Social Interest Graph, mêlant les deux approches, à la fois la dimension d'analyse des goûts personnels en fonction des vidéos que vous regardez, mais aussi les interactions avec les personnes. C'est un panachage de deux modèles.

Notre gouvernement a pu dire que TikTok n'est pas aussi toxique que les autres réseaux sociaux, mais ce n'est pas juste, du fait même de la structure d'analyse des données, et quelles que soient les précautions prises, à l'instar du projet Texas d'hébergement local aux États-Unis.

Ces données sont analysées de manière extrêmement fine. Elles s'intéressent au plus intime des détails de la personne. Un article du New York Times, en 2018, faisait état des brevets les plus « flippants » - « creepy » en anglais - déposés par Facebook : on y voyait toute une série de brevets sur l'analyse comportementale, le suivi en temps réel, l'analyse des goûts ou le rapprochement entre les personnes et leur consommation audiovisuelle.

Grâce à une forme de transparence, du fait des brevets déposés, on voyait bien les implications : il s'agit non pas simplement d'orienter vers une action de recommandation publicitaire, ce qui est de facto le métier de Facebook, mais bien de percevoir le plus intime trait de caractère, pour être en mesure d'interagir voire d'orienter, de manipuler diront certains. Voilà ce qui doit nous intéresser aujourd'hui.

Percevoir autant de données, y compris biométriques ou émotionnelles, n'est pas neutre. TikTok peut capter l'empreinte vocale et l'empreinte faciale. Les répercussions sur l'analyse comportementale sont importantes.

Kai-Fu Lee, grand spécialiste chinois des technologiques, a beaucoup travaillé sur les technologies d'intelligence artificielle (IA) ; il avait une formule amusante : « L'Ouest a développé ses innovations à partir de rien. Nous, nous allons les développer à partir de vous ». Pour la Chine, il est totalement normal de développer ses propres technologies, dans un cadre protectionniste, à partir de dérivés de modèles existants.

L'IA est l'actualité technologique du moment. Le piratage des serveurs Microsoft Exchange ne s'est pas fait à des fins d'espionnage des sociétés. Autorités américaines et chercheurs ont pu révéler que le but, depuis la Chine, était en fait d'alimenter les moteurs d'IA chinois, de manière à ce qu'ils deviennent meilleurs que leurs équivalents américains ou européens. L'IA se nourrit de données : disposer des données structurées de centaines de milliers, voire de millions d'entreprises était particulièrement stratégique pour développer des solutions alternatives. Qu'y a-t-il de plus intéressant pour une entreprise que d'extraire des données issues de l'ensemble des citoyens de la planète, en particulier dans les pays développés ?

En Chine, TikTok s'appelle Douyin, et est beaucoup plus orienté vers l'éducation, les sciences économiques et la formation que le loisir. Les données recueillies sont valorisables à plusieurs niveaux, publicitaire ou stratégique, pour développer d'autres technologies.

J'en viens à l'extraterritorialité du droit, en particulier chinois, mais aussi américain, avec la loi Foreign Intelligence Surveillance Act (FISA). Pour les sociétés chinoises, refuser d'extraire les données issues de TikTok est un leurre. Aux États-Unis, quand la National Aeronautics and Space Administration (Nasa) demande des données, aucune société ne peut refuser, sous peine de sanctions pénales très lourdes. Les promesses de non-intrusion des gouvernements ou des sociétés sont hypocrites.

Étant donné les intentions de la Chine, dans ce contexte de guerre froide sino-américaine, avec un embargo sur les technologies, l'enjeu est crucial : il y a va d'une dimension stratégique de contrôle politique des populations, avec une ultra précision des données. Par définition - je le confiais récemment à des journalistes -, ne pas utiliser ces données serait une forme faute professionnelle de la part des services chinois.

M. Mickaël Vallet, président. - Votre formule a fait mouche dans les milieux autorisés... Vous devriez réclamer des droits d'auteur !

M. Bernard Benhamou. - Cette formule me vient d'un ami qui travaillait en tant que cryptographe pour Google, et qui m'expliquait que si, dans la blockchain, qui décrypte en particulier les cryptomonnaies, la Nasa n'avait pas installé de porte dérobée, c'est qu'elle avait mal fait son travail. Par définition, ce qui est vrai à l'Est est vrai à l'Ouest. Ne prenons pas pour argent comptant les déclarations de bonne volonté des uns et des autres.

J'ai tenté de renvoyer dos à dos Amérique et Chine, mais les situations ne sont en rien comparables. Ici même, dans ces murs, à de très nombreuses reprises, je me suis prononcé contre les excès de complaisance vis-à-vis de certaines déclarations, de certaines technologies ou de certains acteurs, en particulier aux États-Unis. Cependant, ce qui se passe en Chine n'a rien à voir ; nos intérêts stratégiques sont totalement différents. Sont tout aussi différentes les valeurs que les autorités chinoises souhaitent faire prévaloir. Le document numéro 9, diffusé par le parti communiste chinois, émanant donc des plus hautes instances, rappelait le but suivant, de manière explicite : éradiquer la démocratie constitutionnelle, la séparation des pouvoirs, le principe universel des droits de l'homme et des libertés fondamentales, la promotion de la liberté civile, le néo-libéralisme économique et le nihilisme historique, c'est-à-dire toute pensée critique qui réfute la valeur scientifique de la pensée de Mao. Nous ne pouvons en aucun cas adopter une attitude symétrique.

Je reviens un instant sur le modèle économique de TikTok. Comme la plupart des réseaux sociaux, il repose sur l'analyse des données et sur un modèle data centric, c'est-à-dire centré sur l'utilisation des données des personnes, perspective amplifiée par la volonté des autorités chinoises d'en faire un outil de contrôle politique. Disposer de telles facultés permet d'éradiquer toute forme de contestation à l'intérieur d'un pays, c'est-à-dire de détecter au plus tôt toute forme de remise en cause de certaines positions ou de certaines politiques publiques.

Ce principe de détection, puis de sanction, s'appelle en Chine le « crédit social », forme de notation parfaitement effrayante, parfaitement orwellienne, et qui touche la totalité des 1,4 milliard de Chinois. Le but est de noter non seulement les comportements financiers, mais aussi les comportements personnels face aux politiques sociales. Dès que vous prenez la parole sur un réseau social pour dire des choses qui ne vont pas effectivement dans le sens édicté par le parti, la note de crédit social diminue, puis des sanctions sont prises : la personne n'a plus le droit de voyager en train ou en avion, n'a plus accès à des crédits financiers, n'a plus accès à des promotions professionnelles, et devient finalement un véritable paria. Les concepteurs de ce système, qui se sont beaucoup appuyés sur Alibaba, ont clairement affiché leur objectif : les personnes sanctionnées dans le cadre du crédit social doivent devenir des parias au sein de la société chinoise. Par définition, le modèle chinois est radicalement différent du nôtre.

Le dire n'est en rien être sinophobe, c'est simplement constater une orientation stratégique et politique. Que TikTok soit contraint dans tous les sens du terme par cette volonté politique est une évidence, si bien que le fait de ne pas se poser la question est dangereux.

Un article paru récemment dans Le Monde rappelle qu'en Chine même les robots conversationnels doivent être au diapason des valeurs socialistes. Toutes les sociétés concernées et les grandes entreprises disposent d'une antenne du parti communiste chinois dans leurs locaux. Elles doivent promouvoir par définition les orientations politiques, et non pas simplement économiques, du régime.

Quand elles ne le font pas, comme Alibaba, les dirigeants sont quasiment mis en résidence surveillée ou exilés. C'est le cas de Jack Ma, qui s'est réfugié au Japon, et qui a été dépossédé de la société qu'il avait créée : on l'a évincé de l'ensemble de ses activités.

Rappelons aussi l'opacité complète des algorithmes de TikTok. Héberger les données aux États-Unis ne permet en rien d'avoir accès au code - cela avait été évoqué pour Oracle, qui était censé travailler avec TikTok aux États-Unis. C'est un leurre. Les Européens et la Commission européenne l'ont constaté, au sein même du cadre européen : lorsqu'il a été question de Microsoft lors d'une action antitrust sur Windows et lors de la fusion avec Internet Explorer, Microsoft a systématiquement refusé de transférer ses codes sources à la Commission européenne, en invoquant un argument extraordinaire, consistant à dire qu'ils ne les avaient plus, tant les évolutions étaient grandes. Voilà qui est remarquable.

Réfléchir à TikTok implique de s'intéresser à des questions stratégiques, techniques, technologiques et politiques radicalement différentes.

L'application est capable d'analyser la manière dont vous interagissez avec elle et l'ensemble de vos habitudes. On peut reconnaître une personne à la manière dont elle tape sur un clavier ou à sa démarche, grâce aux capteurs d'accélération du téléphone. Cela va très loin. L'historien Yuval Harari disait, dans le New York Times, à propos du contrôle par les émotions, qu'il est important de se rappeler que colère, joie, ennui et amour sont aussi des phénomènes biologiques, comme la fièvre et la toux. La technologie, qui identifie tout, pourrait également identifier les rires, si entreprises et gouvernements commençaient à collecter nos données biométriques en masse ; la technologie pourrait mieux nous connaître que nous ne nous connaissons nous-mêmes, et elle pourrait non seulement prédire nos sentiments, mais aussi les manipuler et nous vendre tout ce qu'elle veut, qu'il s'agisse d'un produit ou d'un politicien.

La surveillance biométrique ferait passer le piratage des données de Cambridge Analytica pour des outils de l'âge de pierre.

De manière générale, nous avons sous-estimé l'usage qui pouvait être fait des données à des fins de contrôle des individus et des populations, alors que c'est l'obsession permanente de régimes autoritaires. Nous avons sous-estimé les conséquences de l'affaire Cambridge Analytica, dont certains pensent qu'elle a participé à l'élection de Donald Trump en 2016.

Il faut se poser la question de savoir si nous devons permettre d'extraire toujours plus de données sur les individus et si ces modèles ne sont pas devenus à ce point toxiques qu'ils doivent être remis en cause. Ces modèles économiques incitent à une forme de dissémination sauvage des données. En Europe, les affrontements à venir seront ceux entre différents types de valeurs, mais aussi entre différents types de modèles économiques. Concernant l'IA, on se demande s'il ne faut pas promouvoir des systèmes d'abonnement, et ne pas céder à une apparente gratuité qui viendrait alimenter des systèmes de recueil de données.

Ces modèles ne sont ni une évidence ni éternels : nous ne pouvons les tenir pour acquis. Ils nous exposent à des risques - voyez la quasi-tentative de coup d'État aux États-Unis. Les événements du 6 janvier ont été le fait de personnes structurées autour de réseaux sociaux comme Facebook. Les mouvements extrémistes n'existent que parce que des personnes ont pu se rassembler grâce à des affinités construites sur Facebook. C'est grâce au microciblage, au microtargeting, que tous les mouvements extrémistes ont pu s'étoffer.

Je terminerai en citant quelqu'un que je ne cite guère d'habitude, un certain Vladimir Poutine, qui disait que le pays qui sera leader dans le domaine de l'IA dominera le monde. Je pensais d'abord qu'il parlait d'armement ou d'économie ; il parlait en fait de contrôle politique, lui qui est un observateur acharné de ce qui se passe en Chine : il observe le crédit social, cette possibilité d'étouffer toute forme de contestation dans ce pays. Voilà ce qui l'intéresse pour rester au pouvoir.

Il existe donc un volet économique et technologique, mais aussi un volet stratégique et politique dans toutes les réflexions que nous avons à mener.

M. Mickaël Vallet, président. - Je vous remercie pour cette introduction très dense. Pour filer la métaphore russe, je dirais : « Que faire ? »

L'ISN a-t-il mené des travaux spécifiques sur TikTok, ou faites-vous un croisement entre la question culturelle du socialisme chinois, du comportement de l'État et du parti communiste chinois, et les nouvelles possibilités techniques ? C'est l'intentionnalité qui semble vous inquiéter. Des cas précis de manipulation ont-ils été identifiés ? Je pense à Ramón Mercader, qui a été préparé pendant des années afin de commettre son acte. Est-ce que TikTok scanne effectivement tout, ou est-ce que vous proposez une analyse globale ?

M. Bernard Benhamou. - Plusieurs cas de figure ont été révélés : des journalistes ont été suivis via la géolocalisation de TikTok, à des fins politiques, pour identifier des fuites - ce fut un cauchemar pour la communication institutionnelle de TikTok. D'autres cas ont été démontrés pour des fonctionnaires américains ou des fonctionnaires de la Commission européenne, expliquant les récentes interdictions de TikTok pour ces personnels.

Tout est lié au fait qu'un gouvernement puisse se saisir de ces technologies à des fins de pression. Pour les journalistes, il s'agit de savoir quels sont ses contacts et relations.

Nous n'avons pas mené d'études spécifiques sur TikTok, mais, lors d'un précédent rapport, sur les nouvelles technologies en Chine telles que celles utilisées par Alibaba et le crédit social. L'analyse fine, la transparence qualifiée, selon l'expression de Frank Pasquale, c'est-à-dire la possibilité d'analyser dans le détail le fonctionnement de l'algorithme, est totalement impossible pour TikTok, tout comme d'ailleurs pour Facebook - nous avons cependant accès aux brevets dans le cas de Facebook. Le degré de toxicité de TikTok est donc inconnu. Nous ne pouvons que la présager ou l'imaginer. Du fait du caractère de boîte noire - tel était le titre du livre de Frank Pasquale, La société boîte noire, ou Black Box Society, en anglais -, nous sommes très contraints.

Mme Catherine Morin-Desailly. - Nous assistons à un début de guerre technologique sino-américaine. La concurrence est féroce en matière de contrôle du devenir du monde, de la société de la connaissance et de l'économie, souvent dans une logique de profit. Si Elon Musk a d'ailleurs demandé un moratoire sur le développement de l'IA, c'est pour des considérations économiques, et non éthiques - personne n'a été dupe.

L'Union européenne s'est positionnée rapidement, avec un projet de règlement sur l'IA, articulé avec le Digital Services Act (DSA) et Digital Markets Act (DMA). En l'état, les mesures proposées protégeront-elles correctement les citoyens européens utilisateurs de ces plateformes ?

Vous parlez de boîte noire. Avons-nous suffisamment accès aux algorithmes pour évaluer leur toxicité et leur dangerosité ?

Vous avez dit que nous ne pouvons pas avoir d'attitude symétrique entre la Chine et les États-Unis. Nous savons qui sont nos pays amis, mais, au demeurant, nous parlons de sociétés, non seulement des pays. Mme Nathalie Loiseau rappelait, la semaine dernière, devant notre commission d'enquête, que les plateformes américaines disposaient de failles, parfois volontairement constituées, pour autoriser l'ingérence d'États étrangers. Notre attitude ne devrait-elle pas aussi être exigeante à cet égard ?

M. Bernard Benhamou. - Oui, nous devons être exigeants avec tous les acteurs, sans donner l'impression d'une complaisance collective, ce qui serait la pire des réponses possible. En diplomatie, on parle de double endiguement, de dual containment ; cependant, le risque n'est pas le même des deux côtés.

Concernant les textes européens, je m'inspirerai de la sagesse chinoise : le diable sera dans le détail, c'est-à-dire dans l'exécution. Le projet de règlement sur l'IA doit encore être précisé, des efforts sont faits pour y intégrer l'intelligence conversationnelle. Les États-Unis freinent des quatre fers, en invoquant le refrain bien connu du frein à l'innovation.

Je relisais récemment des textes du début des années 2000 qui disaient qu'il serait inacceptable, au nom de l'innovation, de réguler ces plateformes. Or l'on sait que la régulation aurait dû avoir lieu depuis longtemps - la haute administration américaine le dit elle-même. Cependant, le lobbying forcené au Congrès a empêché toute régulation. Il fallait une loi fédérale sur les données personnelles depuis au moins dix ans.

Au-delà de l'expression de nos valeurs européennes, nous ne pouvons être uniquement défensifs. Pour beaucoup de pays, l'Europe, notamment la France, est le lieu de la régulation, mais cette régulation n'est pas suffisante. Il nous faut une politique industrielle, à l'échelle nationale comme européenne, pour développer des acteurs qui seront en accord avec nos valeurs, dans tous les domaines, dans la santé par exemple ou la transition énergétique. Sinon, toute volonté politique et juridique sera contournée. Il nous faut créer les conditions économiques de l'existence d'une Europe qui ne soient pas simplement une communauté de consommateurs.

Malgré nos licornes, nous n'avons pas d'acteurs économiques capables de faire face aux acteurs chinois ou américains. Notre volonté stratégique politique doit s'ancrer dans une politique industrielle, et je me réjouis que notre excellent commissaire Thierry Breton se soit emparé de la question. Il ne faut pas être naïf face au protectionnisme des Chinois et des Américains. La politique industrielle n'est pas un terme du passé ; elle est indispensable pour accompagner les secteurs clefs comme l'intelligence artificielle et exister sur la scène mondiale. Nous avons un handicap majeur : nous n'existons que par la régulation.

M. Pierre Ouzoulias. - Je vous remercie pour la clarté de votre propos. Votre institut a un nom qui est en lui-même un programme politique auquel j'adhère, notamment dans sa dimension industrielle, qui est fondamentale.

Vous avez répondu à ma première question sur la législation européenne : il faudra être vigilant quant à la mise en oeuvre des directives. Les États devront faire appliquer les mesures auprès de toutes les sociétés. Napoléon disait : « La guerre est un art simple et tout d'exécution ». Telle est aussi la politique.

Finalement, la réponse juridique et politique n'est-elle pas toujours en retard par rapport à l'évolution des technologies ? Avons-nous la possibilité de nous préparer et d'avoir un coup d'avance ?

M. Bernard Benhamou. - L'occasion qui nous réunit aujourd'hui démontre notre capacité à traiter cette question quasiment en temps réel ! L'idée que les États seraient nécessairement en retard par rapport aux technologies est commode pour certains ; cependant, je crois que nous pouvons établir des limites sans brider l'innovation. Les États, en particulier les États européens, doivent effectuer des choix stratégiques : certains grands secteurs sont essentiels pour nous, tels que la santé connectée, qui est fondamentale à tous les points de vue, la maîtrise environnementale, l'énergie, les transports, l'économie, la finance et les technologies financières, etc. Il est important d'avoir le courage d'affirmer que certaines filières sont stratégiques pour nous et que nous devons les aider tout particulièrement plutôt que de saupoudrer nos efforts sur de nombreuses filières industrielles. La décision récente de la Commission européenne sur les technologies zéro carbone est un exemple à ce titre.

De plus, cette guerre froide technologique sino-américaine prend place dans un climat de sécurité internationale très différent de celui qui régnait il y a encore deux ans. Je maintiens, à ce titre, que l'opportunité de renforcer les budgets militaires est cruciale pour les développements technologiques. L'économiste italo-américaine Mariana Mazzucato a relevé que toutes les technologies clés de l'iPhone ont été développées par la commande fédérale américaine, en particulier militaire à travers le Defense Advanced Research Projects Agency (Darpa) : internet, le GPS, l'intelligence artificielle, la réalité augmentée, la réalité virtuelle, etc. La loi de programmation militaire se situe encore en amont de cela, mais il est nécessaire de donner la capacité à ces technologies militaires de participer au développement de technologies civiles, encore plus qu'elles ne l'ont fait jusqu'à présent. J'ai récemment publié un texte, cosigné par de nombreux sénateurs, plaidant pour une nouvelle ambition numérique et indiquant qu'il est essentiel de développer un Small Business Act français et européen dans ces domaines pour aider nos entreprises à se développer par le biais de la commande publique, ce qui a été négligé pour des raisons idéologiques de respect d'un marché libre et non faussé. Il nous faut suivre l'exemple américain et soutenir nos entreprises par des clientèles plutôt que saupoudrer de l'argent. La main prescriptrice de l'État doit se mettre au service de nos activités économiques dans ces domaines.

M. Mickaël Vallet, président. - Que pensez-vous de la vague d'interdiction d'installation de TikTok sur les téléphones professionnels des fonctionnaires fédéraux, de l'Union européenne et nationaux ? Est-ce cosmétique et purement politique, ou s'agit-il d'une mesure d'hygiène minimale pour les fonctionnaires ? Pourquoi cette réaction arrive-t-elle maintenant, après l'Inde, et est-ce utile d'une manière ou d'une autre, techniquement ou politiquement ?

M. Bernard Benhamou. - Cette tendance est corrélée à une montée en tension entre les États-Unis et la Chine sur les technologies et les actions menées par les États-Unis en matière d'embargo sur les technologies sont liées à cette situation. Il existe cependant un risque réel en matière de secret : on s'espionne entre alliés, et encore plus entre adversaires. Il est donc normal que les fonctionnaires de sécurité et les personnels militaires, puis les fonctionnaires dans leur ensemble soient concernés par une telle mesure. Il est naturel de se soucier de la sécurité de l'État - c'est bien le minimum. Quant à savoir si cela sera efficace et si les gens suivront ces directives, c'est une autre question. Cependant, le manque de transparence concernant la collecte et l'utilisation des données me conduit à considérer que ce n'est que le début.

M. Mickaël Vallet, président. - Vous évoquez le contrôle des populations, mais il y a environ 30 000 fonctionnaires à Bruxelles. Cette mesure est-elle inutile ou s'agit-il d'un signal à envoyer ? Qu'en est-il des grandes entreprises et des employés de sous-traitants en armement, qui n'ont pas conscience de l'importance des données de leurs téléphones et qui ne sont pas soumis à une telle interdiction ?

M. Bernard Benhamou. - On connaît la paranoïa de l'Union soviétique face aux actions de l'Occident, ou encore la vigilance des États-Unis vis-à-vis de Facebook. Les États, mais aussi les entreprises, sont extrêmement vigilants quant à l'image qu'ils projettent. Il y a quelques années, Facebook était considéré comme invulnérable en raison de sa richesse, mais les scandales comme Cambridge Analytica et les événements du 6 janvier aux États-Unis ont montré que de mauvaises décisions et une mauvaise réputation pouvaient avoir un impact sur les investisseurs. Or il ne faut pas oublier que, parmi les grands investisseurs des sociétés chinoises, il y a beaucoup d'Américains : Ali Baba a été fondé initialement avec des fonds américains ; l'un des premiers actionnaires du plus grand constructeur automobile chinois, BYD, est Warren Buffett. Les Chinois craignent la peur des investisseurs, avec la tension qui se crée autour de ces questions : les piqûres répétées d'un insecte peuvent parfois être plus mortelles qu'une seule morsure de serpent. Selon moi, cela a vraiment un impact sur l'image et sur la réputation des entreprises concernées. À terme, les investisseurs pourraient se tourner vers d'autres entreprises émergentes plutôt que de continuer à faire confiance à TikTok.

M. Mickaël Vallet, président. - Il est bon de s'assurer qu'un commissaire européen ou son directeur de cabinet ne puissent pas être menacés un jour par une puissance qui ferait du chantage sur des informations de leur téléphone, mais la force symbolique de ces mesures est donc peut-être encore plus importante.

Mme Catherine Morin-Desailly. - J'aimerais aborder les textes européens, le Digital Services Act et le projet de Artificial Intelligence Act (AIA). Leur efficacité dépendra, certes, de leur application, mais aussi de leur contenu. Ils doivent proposer des dispositifs adéquats pour encadrer les plateformes et protéger les utilisateurs. Un intervenant a mentionné devant nous hier le principe de Safety by Design, qui implique de réaliser des expérimentations pour mesurer les effets négatifs ou indésirables avant la mise sur le marché d'une application ou lors d'un changement d'algorithmes. Cette proposition pourrait-elle, selon vous, améliorer sensiblement la protection des utilisateurs, quelle que soit la plateforme, en particulier chinoise ?

M. Bernard Benhamou. - À l'évidence, oui : il est important de disposer d'études d'impact et des analyses concernant ces technologies. Un reproche souvent fait au projet d'AIA est la difficulté de réguler efficacement des systèmes dont même les scientifiques qui les développent ne peuvent prévoir les réponses. C'est complexe, mais il faut essayer. Il y a quelques années, Microsoft avait tenté de mettre en place un système équivalent à ChatGPT, qui avait dû être interrompu parce que l'on avait pu le détourner pour lui faire dire des horreurs racistes et misogynes. Les équipes de développement de OpenAI ont fait très attention pour éviter que cela ne se reproduise, bien qu'il subsiste des moyens de contournement. Ainsi, jusqu'à récemment, il était possible de faire dire à ChatGPT comment fabriquer du napalm, en maquillant la requête en souvenir d'enfance, mais cela a été corrigé. Notre capacité à éviter que les systèmes deviennent toxiques dépend de la montée en puissance de l'expertise et de l'imposition d'une transparence qualifiée du code. Il faudra que l'État développe des compétences internes et collabore avec des acteurs tiers dans ces domaines.

Toutefois, il ne faut pas se focaliser uniquement sur les dérives potentielles et oublier le paysage général. Plutôt que de limiter les dérives toxiques de certains systèmes d'intelligence artificielle, nous devrions développer les nôtres, pour ne pas être dépendants. En nous focalisant sur certaines questions, nous avons trop souvent négligé d'autres aspects importants. Les technologies ne sont pas naturelles : elles sont ce que nous en faisons ou n'en faisons pas. Nous avons laissé ces entreprises se développer sans régulation des données pendant deux décennies, et il est temps de nous demander si leurs technologies ne représentent pas un risque démocratique, d'instabilité et de polarisation, un risque pour nos vérités communes, comme le craint Yuval Harari. L'intelligence artificielle contribue à la création de systèmes tellement toxiques que l'on ne sait pas ce qui apparaîtra comme étant la vérité aux populations à l'avenir. Il se produit une démocratisation, dans le mauvais sens du terme, des outils de manipulation de masse. Je rappelle que Prigojine, souvent associé à Wagner, est non seulement lié à une armée privée, mais aussi à une ferme de trolls, c'est-à-dire à des outils de désinformation de masse, comme l'Internet Research Agency (IRA).

Nous devons absolument combattre ces outils de manipulation et de désinformation. Si nous laissons ces technologies s'installer, elles pourraient se substituer à la formation des opinions et des cultures. Comme l'a expliqué M. Harari dans un article récent, l'IA pourrait pirater le code de nos civilisations, c'est-à-dire se substituer à la formation des opinions et des cultures dans les temps à venir. Cela serait profondément inquiétant : une poignée d'individus détiendrait alors un pouvoir infini sur des centaines de millions, voire des milliards de personnes. Nous devons donc nous consacrer à cette tâche.

M. Claude Malhuret, rapporteur. - Nous sommes en guerre. Ce n'est pas de notre fait, et nous défendons le contraire, mais nous vivons un véritable affrontement entre les sociétés démocratiques et les régimes autoritaires ou totalitaires. Prétendant que nous ne sommes pas en guerre, nous avons tendance à moins nous préparer, en particulier aux attaques cybernétiques, dont des événements majeurs, tels que l'élection de Trump ou le Brexit, témoignent de la réalité. C'est le cas aussi avec la situation qui règne en Afrique. Ainsi, une armée de trolls a participé à faire chasser les Français du Burkina Faso, du Mali, etc., dans lesquels ils sont présents depuis des années. De manière surprenante, nous n'avons pas réagi avec les mêmes outils. Nous commençons seulement à le comprendre, alors que ces techniques existent de l'autre côté depuis des années. Nous avons donc le sentiment d'un retard considérable. Comment analysez-vous cette situation et quelles sont les solutions pour y remédier ?

Ma seconde question va dans le même sens. Les plateformes occidentales sont interdites en Chine et en Russie, alors que ces deux États ne se privent pas d'intervenir dessus et commencent à mettre en place des plateformes comme Tiktok, ce qui constitue, à terme, une manière de déstabiliser les démocraties. Il semble que nous n'ayons pas de réaction sur ce point et que nous ne préoccupions pas de cette absence de symétrie. Comment pourrions-nous réagir ?

M. Bernard Benhamou. - Le problème des plateformes de réseaux sociaux tient au fait que l'on y favorise la confrontation plutôt que la réflexion. Le format de Twitter est, par nature, clastique, au sens psychiatrique du terme, de sorte que la raison, qui demande plus de temps, n'y a pas sa place. Considérer que le fact checking suffira à contredire les manipulations auxquelles donnent lieu les réseaux sociaux est une illusion. D'autant que chaque trimestre, Facebook efface 1,5 milliard de faux comptes, soit plus de 6 milliards l'an dernier ! La création de faux comptes peut se faire à l'échelle industrielle, avec quelques développeurs et des équipes réduites. Cela permet de donner l'impression d'un phénomène de masse là où il n'y a rien, ce que l'on désigne par le terme d'« astroturfing ».

Aujourd'hui, le sacro-saint principe du 1er amendement de la Constitution américaine - celui de freedom of speech - tend à être remplacé par le principe de freedom of reach : ce qui relevait du propos de comptoir devient audible et visible par des centaines, voire des milliards d'individus, ce qui est inacceptable. Or, sur des plateformes opaques, la capacité d'amplification de propos à des fins de propagande est infinie.

Il me semble que c'est sur cette capacité d'amplification des messages de haine et des messages politiques de propagande que nous devons nous concentrer. La réponse qui consiste à opposer bloc à bloc la raison et la haine ne fonctionne pas.

Les réseaux sociaux peuvent désormais être entièrement gérés par des systèmes d'intelligence artificielle qui donnent l'impression de répondre aux gens de manière parfaitement articulée, même s'il n'y a personne en face. Ainsi, Snapchat vient d'intégrer un système de réponse à ses abonnés par l'intelligence artificielle.

Il faut comprendre comment ces mécanismes se diversifient. Du fait de l'absence de barrage à l'entrée, il y a une automatisation de la parole de propagande, ainsi qu'une industrialisation et une démocratisation, dans le plus mauvais sens du terme, de ces systèmes de propagande, comme jamais auparavant.

Dès lors que nous sommes confrontés à une intelligence artificielle, suivre un mécanisme de logique ne fonctionnera pas. Nous devrons inéluctablement nous interroger sur le fondement de ces plateformes et revenir sur l'exploitation forcenée des données à des fins commerciales, mais aussi à des fins de propagande et d'ingérence.

Les manipulations existent partout. Notre porosité est liée non seulement au principe démocratique d'ouverture, mais aussi à une forme de naïveté technologique, et c'est sur cela que nous devons nous interroger.

M. Mickaël Vallet, président. - Nous vous remercions pour la précision et la densité de vos propos.

Audition de M. Alain Bazot, président de l'UFC-Que Choisir, le 4 mai 2023

Mme Toine Bourrat, présidente. - Nous avons le plaisir d'entendre en audition M. Alain Bazot, président de l'UFC-Que choisir ?, accompagné de M. Raphaël Bartlomé, responsable du service juridique.

Monsieur Bazot, vous êtes à la tête de cette association depuis 2003 et vous êtes également membre de l'exécutif du Bureau européen des unions de consommateurs (Beuc).

En février 2021, l'UFC-Que choisir ? et le Beuc ont porté plainte contre TikTok devant la Commission européenne et le réseau des autorités de protection des consommateurs. Dénonçant de multiples infractions aux droits des utilisateurs, vous réclamiez une « enquête à l'échelle européenne et nationale sur les pratiques de TikTok » et demandiez qu'une « décision contraignante soit prise par les autorités de protection des consommateurs concernées pour mieux informer les consommateurs sur sa politique et son modèle économique ».

Parmi vos principales critiques, vous insistiez notamment sur les techniques publicitaires agressives ciblant les mineurs et sur certaines clauses contractuelles de TikTok pouvant être considérées comme trompeuses pour les consommateurs.

En juin 2022, TikTok s'est engagé auprès de la Commission européenne à mettre ses pratiques en conformité avec les règles de l'Union européenne en matière de publicité et de protection des consommateurs. Les autorités nationales de protection des consommateurs sont chargées de suivre la mise en oeuvre effective de ces engagements. Des procédures sont en cours dans plusieurs pays européens, notamment en Italie où une enquête a été lancée en mars 2023. Vous pourrez sans doute nous en dire davantage.

Ayant décortiqué le fonctionnement de TikTok du point de vue de l'utilisateur, vous pourrez nous détailler les manquements que vous avez observés en matière de contrôle de l'âge, de politique de confidentialité, de publicité ciblée ou encore de contenus dangereux et de fraudes.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal et je vous invite à prêter successivement serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, M. Alain Bazot et M. Raphaël Bartlomé prêtent serment.

M. Alain Bazot, président de l'UFC-Que Choisir ? - L'organisation UFC-Que Choisir ? travaille en effet sur la problématique des réseaux sociaux et plus spécifiquement sur TikTok, qui a des pratiques et un profil particuliers par rapport aux autres réseaux sociaux.

Parmi les questions que vous nous avez fait parvenir, certaines sont très techniques et juridiques, de sorte que j'ai souhaité être accompagné de notre responsable juridique Raphaël Bartlomé. Je précise également que l'UFC-Que Choisir ? n'a pas nécessairement réponse à tout.

En tant qu'association de défense des consommateurs, l'approche que nous privilégions est celle des utilisateurs de plateformes. En ce qui concerne TikTok, nous avons constaté que dès le téléchargement de l'application dans le Google Play Store ou dans l'Apple Store on pouvait déceler des manquements. Par exemple, tout récemment encore, il était annoncé dans le Google Play Store que cette application ne partageait pas ses données avec des tiers, ce qui est faux. Notre service juridique est donc intervenu auprès de l'annonceur, car cela relève de sa responsabilité et non de celle de Google. Pour qu'il efface cet élément de rassurance tout à fait faux, nous avons dû envoyer un courrier avec toutes les menaces qu'il pouvait y avoir derrière. En effet, les professionnels savent que l'UFC-Que Choisir mobilisent toujours les outils du droit en tant que de besoin. Nous avons ainsi obtenu la suppression de cette fausse mention, à l'étape du téléchargement.

Nous avons ensuite examiné les différents documents, dont les conditions générales d'utilisation de la plateforme et nous nous sommes intéressés à son mode de fonctionnement, par le biais de tests dans le cadre desquels nous nous faisions passer pour des usagers de différents âges. Nous avons pu ainsi étudier les contenus proposés par TikTok en fonction de ce que regardent ou pas les utilisateurs. Notre analyse dure ainsi depuis trois ans.

Compte tenu de l'ampleur du phénomène, nous avons décidé de travailler avec le Beuc, qui regroupe plus de 40 associations de consommateurs en Europe, dont 18 ont souhaité s'investir sur le sujet.

En introduction, il faut signaler la singularité de TikTok et tout d'abord son caractère extrêmement addictif. En effet, l'application fonctionne grâce à une hyperpersonnalisation et à un tracking très fin du comportement de ses utilisateurs. Très rapidement, TikTok parviendra à savoir ce que l'utilisateur aime ou n'aime pas, de manière à pouvoir l'alimenter en événements ou en documents correspondant à ses centres d'intérêt. Les vidéos sont de format court de sorte que l'utilisateur ne peut pas se lasser, car leur visionnage est très rapide.

Une autre particularité tient à la facilité d'utilisation. Les utilisateurs n'ont pas besoin de faire de recherches sur TikTok, mais l'application leur donne pour ainsi dire la becquée, en leur soumettant immédiatement un tas de documents et de vidéos. Il n'y a plus qu'à scroller en s'arrêtant dix à vingt secondes sur certains sujets. Tout cela est analysé et sert à définir le profil des personnalités. L'application s'alimente donc automatiquement, les usagers restant dans la passivité. C'est la raison pour laquelle j'ose le parallèle avec le gavage des canards ou des oies, qui finissent par y prendre plaisir, de sorte que si on ne les gave plus ils sont en manque. Le caractère addictif de l'application est lié à une sensation de facilité créée grâce au portrait-robot extrêmement fin qu'elle dresse de chaque utilisateur pour lui fournir des contenus.

TikTok se caractérise aussi par sa viralité. Dans la mesure où l'application propose aux utilisateurs ce qu'ils aiment, ceux-ci finissent par vouloir rester sur TikTok. On est là dans l'économie de l'attention, le principe étant de capter l'attention le plus longtemps possible. L'application sert donc à ses utilisateurs ce qu'ils sont censés aimer et vouloir, mais elle suit aussi une logique de viralité en leur montrant des vidéos qui commencent à faire le buzz et dont on veut élargir l'audience. Il s'agit donc de faire en sorte que les utilisateurs viennent alimenter la communauté de ceux qui regardent déjà ces vidéos avec pour contrepartie qu'ils bénéficient d'une application distrayante.

En effet, l'une des forces de TikTok tient à ce qu'elle est une application de divertissement. Son succès se traduit par le fait qu'elle rassemble près de 15 millions d'utilisateurs actifs par mois en France, dont 72 % ont moins de 24 ans. Divertir ses utilisateurs en les enfermant : la formule est extrêmement facile. Telle est la clé du succès considérable de TikTok.

Tout cela nous a conduits avec nos collègues européens à vouloir dénoncer les principaux manquements que nous avions constatés et nous l'avons fait au niveau européen.

Parmi les quatre motifs de récrimination que nous avions définis, le premier portait sur les clauses abusives, sujet classique que nous connaissons bien puisque l'UFC-Que Choisir ? fait partie de la commission des clauses abusives. Nous avons donc dénoncé certaines clauses floues, un droit à réutiliser les contenus alors que cela est formellement interdit et un déséquilibre entre les droits et les obligations.

Le deuxième volet porte sur les pratiques commerciales trompeuses (PCT) et les pratiques commerciales déloyales (PCD), en particulier tout ce qui a trait au processus d'achat d'articles virtuels. Certaines indications étaient en réalité trompeuses : les pratiques relevaient implicitement du marketing caché, du placement de produits.

Ces pratiques déloyales ou trompeuses étaient d'autant plus graves qu'elles concernaient parfois des enfants, ce qui constitue de fait une « circonstance aggravante » - même si, juridiquement, ce n'est peut-être pas le bon terme.

Le troisième volet concerne un autre bloc de la législation, à savoir le règlement général sur la protection des données (RGPD). On relevait notamment une certaine opacité dans la collecte des données personnelles et leur finalité. Se posait donc la question de la pertinence du consentement et de la manière dont il était recueilli.

Le quatrième axe a trait, plus spécifiquement, à la protection des enfants contre les vidéos suggestives, essentiellement de nature érotique, pour ne pas dire plus.

Voilà pour l'essentiel des reproches et de leurs fondements juridiques.

Un certain nombre d'engagements ont été pris par TikTok. Globalement, on peut estimer que ces engagements, par rapport au droit de la consommation stricto sensu, ont été respectés. Les conditions générales d'utilisation de la plateforme ont été expurgées des clauses les plus critiquables.

On a aussi observé une amélioration des pratiques considérées comme trompeuses, même si, en réalité, le dossier est, selon nous, loin d'être clos, notamment pour ce qui est du respect des dispositions du RGPD.

Certes, TikTok produit des documents lisibles, bien écrits, fluides, mais ceux-ci ne reflètent pas les pratiques de la plateforme, en particulier pour ce qui est de l'ampleur de la collecte des données. À l'opposé du principe de base du RGPD, TikTok recueille un maximum de données personnelles, quand il ne devrait récupérer que celles que l'utilisateur est conscient de donner.

Se pose ensuite la question du signalement des contenus critiquables, qu'il faudrait supprimer après leur publication. On s'aperçoit que, pour l'utilisateur, il est assez malcommode de réagir. La faculté qui lui est offerte de dénoncer un contenu, de faire un signalement n'est pas du tout mise en avant, sauf à être un spécialiste, un redresseur de torts, un procureur.

À cet égard, comme vous le savez sans doute, le rapport de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) dresse un constat assez net du manque d'efficience de ce mécanisme de signalement.

Surtout, la protection des mineurs n'est toujours pas garantie. C'est d'ailleurs parce que cet objectif n'est toujours pas atteint que l'autorité de régulation italienne a récemment rouvert - au mois de mars dernier - une enquête sur le fonctionnement de la plateforme et la non-application des mesures pourtant censées protéger les mineurs. L'Italie est en pointe dans ce domaine et se fait fort de déclencher des procédures pour arriver à ses fins. À l'heure actuelle, je ne dispose pas d'informations plus précises sur l'état d'avancement de cette action en justice.

Nous espérons par ailleurs que le Digital Services Act (DSA) permettra de traiter ce volet important.

Autre point essentiel : il convient de se demander si le cadre légal et le corpus réglementaire sont satisfaisants ou non. Comme vous le savez, les règles sont très nombreuses. Mais, dans ce domaine comme pour les autres volets du droit de la consommation, le problème est non pas que le droit n'existe pas, mais qu'il n'est pas appliqué. L'enjeu est donc celui de son efficacité.

Le respect des textes, qui relèvent du droit de la consommation pur, du DSA ou du RGPD, est assuré par une multitude d'autorités qui exercent, chacune séparément, leurs missions spécifiques, à l'échelon aussi bien national qu'européen. Hélas, on observe en la matière un phénomène de cloisonnement préjudiciable, sans compter que l'action de ces organes de contrôle obéit à des temporalités différentes, certains d'entre eux étant capables de régler une question en seulement six mois quand d'autres, souvent parce qu'ils ont la tête sous l'eau - je pense notamment à l'équivalent irlandais de la Cnil (Commission nationale de l'informatique et des libertés) -, mettent parfois deux ans à traiter un dossier.

Le réseau CPC (Consumer Protection Cooperation Network) est le réseau de coopération en matière de protection des consommateurs qui rassemble les autorités nationales, le DSA relève de la Commission européenne, et le RGPD relève des Cnil du pays où se trouve le siège de l'entreprise considérée. Les Cnil de chaque État membre tentent bien d'exister, parfois même dans des secteurs de compétence qui ne sont pas les leurs a priori. Je citerai l'exemple de la Cnil française, qui a étendu son champ de compétence aux cookies. Je n'oublie pas les autorités de la concurrence - en Italie, par exemple, l'autorité de la concurrence et de la consommation est régulièrement saisie de ces dossiers - et l'Arcom qui, elle aussi, a pour mission de contrôler les contenus.

Du fait de son manque d'efficacité, la législation, bien qu'elle ait le mérite d'exister, permet aux professionnels les moins vertueux de faire prospérer très longtemps des pratiques qui ne sont pas conformes aux règles applicables.

Il faut également citer l'existence du Comité européen de la protection des données (CEPD), sorte de réunion des Cnil nationales. Cette instance de coordination technique n'a pas de rôle opérationnel : il s'agit de mettre les États d'accord sur les terminologies à retenir, ainsi que sur une certaine doctrine. Il ne s'agit en revanche pas à proprement parler d'une instance de régulation ou de contrôle, et en aucun cas d'une « super-Cnil ». On peut d'ailleurs le regretter, tant l'action des Cnil nationales est entravée, on le sait, par le phénomène d'implantation systématique des sièges sociaux des sociétés en Irlande, qui surcharge la seule CNIL irlandaise de travail et ne lui permet pas d'agir efficacement.

Je souhaite désormais aborder la question du contrôle de l'âge des utilisateurs de TikTok et du temps qu'ils passent devant l'écran.

Au lancement de TikTok, on ne demande aux futurs usagers que quelques informations : les nom et prénom, une adresse mail, et l'âge. Tout le contenu accessible par la suite découle de ces informations : il s'agit de facto d'un maillon faible, puisque chacun est libre de renseigner l'âge qu'il souhaite, en particulier les enfants de moins de 13 ans, qui ne sont pourtant pas autorisés à télécharger l'application.

Les modalités de contrôle, les filtres sont dès lors inopérants. Je pense aux live qui ne sont théoriquement accessibles qu'aux majeurs, ou à certaines fonctionnalités, comme les messages directs ou la monnaie virtuelle, destinées aux plus de 16 ans.

Très étonnamment, tout le système repose sur la responsabilité de celui qui s'inscrit, responsabilité qui - c'est ironique - ne peut d'ailleurs pas être engagée si l'utilisateur est mineur, a fortiori s'il est âgé de moins de 13 ans.

Et pourtant, TikTok affirme, dans ses conditions générales, que son système est capable de détecter l'âge de ses utilisateurs. Aussi, il me semble que l'on devrait présupposer un principe de responsabilité de la plateforme. Elle devrait être par défaut être considérée comme responsable lorsqu'elle continue à alimenter un usager qui a menti sur son âge. C'est d'ailleurs sur ce fondement que l'Italie a rouvert son enquête : l'autorité italienne s'est rendu compte que les filtres mis en avant par TikTok ne fonctionnaient pas.

En ce qui concerne le temps d'écran des mineurs, on se moque du monde, si je puis dire. TikTok a mis en place, à destination des mineurs, une alerte qui se déclenche au bout d'une heure : l'utilisateur est appelé à confirmer qu'il souhaite continuer son visionnage, procédé parfaitement inopérant quand on connaît le phénomène d'addiction qui touche les jeunes aujourd'hui. Tout cela est totalement surréaliste : le système ne peut fonctionner que pour des individus très raisonnables, qui ne sont pas dépendants des écrans : autrement dit, ce n'est pas le public visé. Il s'agit donc, on le voit bien, d'une protection de façade, illusoire. J'ajoute que cette protection, à supposer qu'elle ait une quelconque vertu, est totalement chimérique, puisqu'un mineur qui aurait menti sur son âge n'est de toute façon pas détecté par l'application et qu'il ne recevra pas l'alerte...

Le mécanisme de responsabilité, et par suite, de sanction est, je l'ai dit, complètement biaisé.

L'UFC-Que choisir ne prétend pas avoir de solutions toutes faites, mais nous pensons tout de même que, pour régler ces difficultés, il faudrait agir très en amont, au niveau de la régulation du temps d'accès à internet. Plutôt que d'essayer de réguler le temps passé sur TikTok, il conviendrait de donner la main aux parents des mineurs qui détiennent légalement une autorité vis-à-vis d'eux. J'estime en effet que la régulation serait beaucoup plus efficace si elle passait par l'autorité parentale.

Par ailleurs, l'UFC-Que choisir ? ne dispose pas de l'expertise pour trancher la question de l'opportunité d'instaurer une majorité numérique.

La politique de confidentialité de TikTok n'est pas compréhensible quant à l'ampleur de la collecte, si bien que le consentement n'est pas éclairé. De plus, TikTok estime que l'ensemble des données relèvent de l'intérêt légitime, ce qui implique que leur collecte ne requiert pas le consentement exprès du consommateur. La seule exception est la publicité ciblée, parce que TikTok y a été obligé par l'équivalent italien de la Cnil.

M. Claude Malhuret, rapporteur. - L'examen de l'ensemble des plaintes déposées par des associations de consommateurs a été suspendu en raison des engagements pris par TikTok en juin 2022. Quel crédit accordez-vous à ces engagements ? Dans quelle mesure ont-ils été tenus ? Sont-ils assortis d'un délai ? Si oui, correspond-il à la mise en place du DSA ?

M. Raphaël Bartlomé, responsable du service juridique de l'UFC-Que choisir ? - Les conditions générales d'utilisation, qui ont été réécrites, ne comportent plus rien d'abusif. La politique de confidentialité a également été actualisée, mais la version qui est entrée en vigueur ce matin même est totalement incompréhensible pour un non-technicien.

En revanche, aucun progrès n'a été fait en matière de transparence sur les contrôles. De même, si les pratiques commerciales relatives à la monnaie et aux objets virtuels ont été encadrées par des bornes d'âge, ces dernières ne sont au fond que des paravents, puisqu'il suffit de donner une fausse date de naissance pour les contourner.

Si l'on a le sentiment que depuis l'intervention du CPC (Consumer Protection Cooperation Network), tout est plus lisse, ce n'est en réalité que de l'affichage.

En 2022, à la suite de la publication d'un rapport de l'Arcom sur la suppression des contenus illicites, TikTok a indiqué qu'il allait intervenir plus en amont. À ce jour, l'Arcom ne dispose pourtant d'aucun élément à ce sujet. Les documents ont certes été mis à jour, mais non les pratiques, qui demeurent. Nous espérons que le DSA pourra changer les choses, notamment en matière de surveillance proactive.

M. Claude Malhuret, rapporteur. - Je suppose que l'Union européenne fait le même constat. A-t-elle réagi ? Quels sont ses moyens d'agir ?

M. Raphaël Bartlomé. - En février 2023, nous avons transmis un rapport à la Commission européenne pour l'alerter de la situation. Pour l'instant, elle ne peut que menacer, car elle ne disposera d'un véritable pouvoir de sanction que lorsque le DSA sera entré en vigueur.

M. Claude Malhuret, rapporteur. - Une date précise est-elle fixée pour l'entrée en vigueur du DSA ?

M. Raphaël Bartlomé. - Cela devrait intervenir mi-2023.

M. Claude Malhuret, rapporteur. - Pourriez-vous communiquer l'ensemble des plaintes que vous avez déposées à l'époque ?

M. Raphaël Bartlomé. - Bien sûr.

M. Claude Malhuret, rapporteur. - À quelle société avez-vous affaire lorsque vous échangez avec TikTok ?

M. Raphaël Bartlomé. - Le Beuc a mis en cause la structure TikTok Limited, mais il y a quinze jours, lorsque nous sommes intervenus pour signaler que des informations totalement fausses étaient mentionnées sur GooglePlay, nous avons sollicité TikTok France, qui a été bien plus réactive.

M. Claude Malhuret, rapporteur. - Quelles sont les personnes physiques de TikTok que vous avez rencontrées ?

M. Raphaël Bartlomé. - Aucune. Nos échanges se font uniquement par écrit.

M. Claude Malhuret, rapporteur. - Pourriez-vous nous communiquer la liste des personnes avec lesquelles vous avez échangé par mail ?

M. Raphaël Bartlomé. - Volontiers.

M. Claude Malhuret, rapporteur. - Le DSA imposera aux plateformes d'effectuer des contrôles d'âge, mais pour l'heure, aucun mécanisme n'a été validé. Des start-up, notamment françaises, proposent pourtant d'ores et déjà des solutions efficaces fondées sur la double anonymisation. Les autorités européennes envisagent-elles d'édicter un certain nombre d'exigences en la matière, voire d'imposer un prestataire ?

M. Alain Bazot. - Nous préférerions que les mécanismes de contrôle d'âge ne soient pas laissés à la main des plateformes, et qu'un dispositif harmonisé soit imposé. S'il est techniquement possible de créer un clone numérique de la personne permettant de vérifier son âge sans l'identifier, je pense que l'UFC-Que choisir soutiendra une telle solution.

M. Claude Malhuret, rapporteur. - L'utilisation qui est faite des données par TikTok est-elle aussi difficile à comprendre que les conditions d'utilisation de la plateforme ? TikTok se distingue-t-il des autres plateformes en la matière ?

M. Alain Bazot. - Oui, TikTok se singularise par une opacité plus forte.

M. Raphaël Bartlomé. - La singularité de TikTok est l'opacité de son algorithme. On ignore en effet comment les données sont utilisées pour personnaliser les contenus. L'argument invoqué pour justifier la collecte massive de données et leur recoupement est « l'amélioration de l'expérience utilisateur », ce qui ne veut rien dire.

M. Claude Malhuret, rapporteur. - Lors de l'installation de Tiktok, l'accès par défaut aux contenus des appareils sur lesquels l'application est installée est-il beaucoup plus large que pour d'autres applications - agenda, géolocalisation, etc. ? Est-il possible de décocher ces options et, si oui, le fonctionnement de l'application s'en trouve-t-il dégradé ?

M. Raphaël Bartlomé. -TikTok collecte et recoupe par défaut de très nombreuses informations telles que la géolocalisation et le carnet d'adresses, de manière à faire votre « portrait-robot ». Il n'est pas possible de décocher quoique ce soit, car TikTok considère que la collecte de données relève de l'intérêt légitime, ce qui contrevient au RGPD. Quand on télécharge l'application, aucune autorisation n'est demandée, à l'exception du consentement à la publicité ciblée, qui est demandé au bout de quelques heures d'utilisation.

Sur le site internet, les conditions générales sont consultables en bas de page, mais il est quasiment impossible de scroller jusqu'au footer d'une page TikTok.

Mme Annick Billon. - À l'issue de nos travaux sur l'accès des mineurs à la pornographie, nous avions plaidé, auprès des différents ministères concernés, pour la systématisation des contrôles d'âge, avec un système de double anonymat tel que proposé par la Cnil et le pôle d'expertise de la régulation numérique (Peren). Quel regard portez-vous sur cette proposition ?

Vous proposez un outil gratuit qui permet aux internautes de savoir lesquelles de leurs données personnelles ont été collectées. Cet outil est-il utilisé ? Par qui ? A-t-il entraîné des changements de comportement ?

Quels échos rencontre votre campagne intitulée #JeNeSuisPasUneData ?

J'ai pu lire que la plateforme Instagram collectait autant de données que TikTok. Comment classeriez-vous les principaux réseaux sociaux sur une échelle de dangerosité ?

M. Alain Bazot. - Nous n'avons pas encore fait de point d'étape sur l'opération #JeNeSuisPasUneData. Nous travaillons dans ce cadre avec notre réseau d'associations locales, dont nous attendons les retours, mais je vous enverrai nos observations ultérieurement si vous le souhaitez.

Par ailleurs, comme nous n'avons pas, pour l'heure, travaillé sur le contrôle parental, je ne peux pas répondre à votre première question.

M. Raphaël Bartlomé. - La campagne #JeNeSuisPasUneData vise à sensibiliser les utilisateurs sur le fait que la collecte de données n'est pas une fatalité.

Nous préparons une note sur les outils développés par notre association et leur audience, mais nous ne collectons pas, volontairement, de données sur les utilisateurs de notre site internet. Le contraire serait pour le moins paradoxal !

Nous avons développé un outil qui permet de montrer l'invisible, puisqu'il permet d'obtenir l'ensemble des données personnelles qui ont été collectées sur un utilisateur donné - je précise que le résultat est un fichier technique, totalement incompréhensible -, ainsi qu'un générateur de demandes visant à faciliter l'exercice des droits RGPD par les utilisateurs. Nous proposons ensuite d'effectuer le suivi de la demande adressée à une plateforme.

Il est complexe d'établir une échelle de dangerosité. Nous préférons sensibiliser les utilisateurs sur le fait que la collecte de leurs données n'est pas une fatalité, et qu'ils peuvent être acteurs sans voir leur expérience d'utilisateur dégradée plutôt que de parler de dangerosité.

Pour autant, une application qui enregistre votre position 363 fois par jour sait où vous habitez, où vous travaillez et connaît toutes vos habitudes. Et le tracking ne cesse pas quand vous quittez l'application. Nous savons aussi que les applications qui comportent le plus de trackers sont les applications destinées aux enfants, et que de manière générale, seulement 3 % des applications sollicitent le consentement des utilisateurs avant de collecter leurs données personnelles.

Notre objectif est de faire comprendre aux utilisateurs qu'ils peuvent se faire oublier.

M. Alain Bazot. - Si nous avons une certaine notoriété dans l'univers physique, nous devons encore nous faire une place dans l'univers numérique. Le bilan de la campagne #JeNeSuisPasUneData ne sera de ce fait sans doute pas à la hauteur de nos attentes.

Dans ces conditions, il ne serait pas responsable de ma part d'improviser un classement des réseaux sociaux. Notre crédibilité repose sur notre expertise, et si l'UFC-Que choisir attribue souvent des notes, celles-ci sont toujours adossées à un protocole.

M. Claude Malhuret, rapporteur. - La monétisation des lives conduit-elle à des arnaques ? Si oui, TikTok se donne-t-il les moyens d'y remédier ?

Par ailleurs, l'accroissement du nombre de challenges est-il selon vous plus rapide sur TikTok que sur d'autres plateformes ?

M. Alain Bazot. - Nous n'avons pas mis en place de dispositif de surveillance relatif aux challenges - le service juridique de l'UFC-Que choisir ne compte que cinq personnes ! -, mais nous savons que ce phénomène a pris beaucoup d'ampleur sur TikTok du fait du fonctionnement même de la plateforme. Par ailleurs, en la matière, celle-ci se défausse de toute responsabilité et renvoie à celle des parents.

M. Raphaël Bartlomé. - Sur TikTok, les emojis sont transformés en « diamants », puis en euros ou en dollars réels. Certains usent de leur influence pour promettre des cadeaux ou, par exemple, une vidéo promouvant le compte de celui leur aura donné le plus d'emojis.

En ce moment, c'est l'échange de pièces gratuites qui a le vent en poupe. De manière générale, les arnaques naissent et disparaissent rapidement, pour renaître sous une autre forme. Du fait de leur jeune âge, les utilisateurs n'ont pas les filtres cognitifs qui leur permettraient de déceler le caractère grossier de la promesse qui leur est faite.

TikTok limite le nombre de cadeaux virtuels qu'un utilisateur peut acheter ou recevoir et en interdit la revente en dehors de l'application. Les règles de la communauté ont été un peu étoffées sur ce point afin, selon TikTok, de sensibiliser les utilisateurs à ces pratiques.

En tout état de cause, tant que les cadeaux virtuels pourront être transformés en diamants qui pourront eux-mêmes être transformés en euros, ces pratiques perdureront, même si l'on encadre leur nombre. La seule solution consisterait à supprimer la possibilité de transformer les diamants en dollars ou en euros.

M. Alain Bazot. - Il y a aussi arnaque dans la mesure où la valeur d'un cadeau peut grandement varier entre le moment où il est fait et celui de sa conversion en monnaie réelle.

Mme Toine Bourrat, présidente. - Je vous remercie pour ces échanges nourris.

Audition de M. Thomas Rohmer, directeur-fondateur de l'Observatoire de la parentalité et de l'éducation numérique (Open),
de Mmes Angélique Gozlan, docteur en psychopathologie, psychologue clinicienne, et Milan Hung, psychologue clinicienne spécialisée dans les problématiques du numérique et des usages du jeu vidéo, le 11 mai 2023

M. Mickaël Vallet, président. - Nous avons le plaisir d'auditionner ce matin l'Observatoire de la parentalité et de l'éducation numérique (Open), représenté par son directeur-fondateur, M. Thomas Rohmer, accompagné de Mmes Angélique Gozlan, docteure en psychopathologie, psychologue clinicienne, et Milan Hung, psychologue spécialisée dans les problématiques du numérique et des usages du jeu vidéo.

Grâce à son réseau d'experts, l'association Open dispense des formations à l'éducation numérique à destination des parents et des professionnels au contact d'enfants. Comme vous le rappelez, « entre naïveté quant à l'impact des applications et panique morale, être un parent ou un adulte au contact d'enfants ou d'adolescents demeure compliqué : où mettre le curseur, quel cadre, à partir de quel âge, quels risques, comment les accompagner ? ».

Ces questionnements s'appliquent tout particulièrement à TikTok, une application massivement plébiscitée par les adolescents. Je citerai trois chiffres particulièrement impressionnants : 70 % des utilisateurs de TikTok en France ont moins de 24 ans ; 40 % des 16-25 ans utilisent TikTok quotidiennement ; enfin, les 4-18 ans passent en moyenne près de deux heures par jour sur l'application. Ce succès chez les adolescents - et même chez les très jeunes enfants, puisqu'un tiers des 5-7 ans l'utilisent - pose de nombreuses questions. Nous nous interrogeons sur les conséquences de cette utilisation intensive sur la santé mentale, le développement cognitif ou encore la réussite scolaire des jeunes.

Au-delà des effets déjà connus des autres réseaux sociaux, nous souhaiterions savoir si TikTok amplifie ces effets et s'il y a bien une spécificité propre à cette application, liée d'une part à son algorithme, très efficace, mais aussi à l'utilisation intensive et à la jeunesse des utilisateurs. Outre le diagnostic, nous aimerions aussi connaître vos propositions afin, soit d'encadrer cet usage, soit de donner des clefs aux parents pour le faire, et ainsi limiter au maximum ses effets négatifs potentiels.

Je rappelle que cette audition fait l'objet d'une captation et qu'elle est retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.

Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, M. Thomas Rohmer, Mme Angélique Gozlan et Mme Milan Hung prêtent serment.

M. Thomas Rohmer, directeur-fondateur de l'Observatoire de la parentalité et de l'éducation numérique (Open). - Merci beaucoup pour votre invitation.

Nous ne nous contentons pas de mener des études, nous allons également à la rencontre des parents et des professionnels pour les aider : nous tâcherons de vous apporter quelques éclairages sur les questions d'éducation, grâce à nos observations issues du terrain.

Mme Angélique Gozlan, docteure en psychopathologie, psychologue clinicienne. - Je vous remercie pour votre invitation.

Nous intervenons devant vous en tant qu'experts de l'Open, mais aussi en tant que psychologues cliniciens travaillant auprès d'enfants, d'adolescents et de familles. Nos propos s'appuient à la fois sur les observations réalisées sur le terrain et sur les études que nous menons dans nos recherches. Nous apportons un savoir expérientiel à teneur non pas quantitative, mais qualitative. Comme l'a souligné notre collègue Grégoire Borst lors de son audition, il n'existe pas d'étude scientifique sur les effets psychiques de TikTok sur les enfants et les adolescents.

Pour les adolescents, le réseau social est un objet culturel, qui ne peut se détacher du quotidien - famille, amis, école, loisirs... Les usages des réseaux sociaux numériques doivent être rattachés au fonctionnement global des adolescents et des familles. L'utilisation d'un réseau social - TikTok en est un - est le reflet d'une personne.

En 2023, nombre d'adolescents utilisent quotidiennement les réseaux sociaux, tels que Snapchat, YouTube, TikTok ou Instagram. En 2022, on remarque une forte augmentation de l'utilisation de TikTok, mais les jeunes utilisent aussi les autres réseaux sociaux. Les adolescents ont des usages pluriels et différenciés selon les plateformes. Ils utilisent Snapchat pour communiquer avec leur cercle d'amis proches, notamment par le biais de la messagerie instantanée. Ils se rendent sur Instagram pour suivre les influenceurs et pour travailler leur mise en image de soi. Enfin, ils privilégient TikTok pour le divertissement, mais aussi pour consommer de l'information, qui peut être facilement réutilisée à l'occasion d'un montage vidéo.

On ne peut se focaliser sur un seul réseau social numérique : nous devons prendre en compte un ensemble de pratiques numériques. C'est là un point essentiel.

Mme Milan Hung, psychologue clinicienne spécialisée dans les problématiques du numérique et des usages du jeu vidéo. - La question est de savoir si TikTok présente des spécificités par rapport aux autres réseaux sociaux. Ce réseau social est un flux continu de vidéos de format court. Il est impossible de faire un arrêt sur image, ce qui implique une lecture passive. L'application ne propose pas de page d'accueil et ne permet pas de communication directe pour les utilisateurs âgés de moins de 16 ans. Elle offre une connexion en mode famille et compte privé. Ce dernier s'applique par défaut aux comptes des jeunes de 13 à 15 ans.

Les enfants seraient plus nombreux sur TikTok, en comparaison avec les autres réseaux sociaux numériques. YouTube et Instagram partagent certaines de ces spécificités.

Conduite en août 2022, une étude du Pew Research Center intitulée Teens, social media and technology 2022, avait pour objectif d'analyser les pratiques de 1 502 adolescents de 13 à 17 ans sur les réseaux sociaux. Elle a conclu à un accroissement entre 2014 et 2022 de l'utilisation de certains d'entre eux, notamment Instagram et Snapchat. Quelque 67 % des jeunes sondés utilisent TikTok en 2022. Un cinquième des jeunes utilisent YouTube et TikTok très régulièrement, alors qu'ils délaissent Facebook. YouTube reste de loin le réseau social numérique le plus fréquenté par les adolescents aujourd'hui.

Selon Common Sense Media, TikTok est le deuxième réseau social le plus utilisé et le troisième dont les jeunes disent ne pas pouvoir se passer. Là encore, YouTube reste le réseau social le plus utilisé et le plus populaire.

Mme Angélique Gozlan. - L'utilisation des réseaux sociaux relève du pharmakon, qui peut aussi bien être toxique que curatif : le poison peut se transformer en remède, et vice versa. Les réseaux sociaux ou les jeux vidéo peuvent répondre aux attentes de l'adolescent, tout en créant de nouvelles attentes. C'est bien le dosage et la quantité qui peuvent transformer le remède en poison. L'utilisation des réseaux sociaux numériques présente des aspects positifs et négatifs : cela dépend de la fragilité de l'adolescent, de son environnement et de la qualité de sa communauté numérique. C'est bien l'ensemble de ces éléments qui doivent être pris en compte.

Premièrement, les réseaux sociaux répondent à un besoin fondamental de l'adolescence : la socialisation. Sur les plateformes, les jeunes retrouvent leurs amis de la « vraie » vie et s'en créent d'autres. Cela leur permet d'expérimenter le sentiment d'appartenance à un groupe de pairs et de vivre des expériences en dehors du milieu familial ; c'est très important à cet âge-là. Les réseaux sociaux sont des terrains numériques d'expérience. Les adolescents se retrouvent entre eux et partagent des activités et des langages communs : c'est un processus de séparation nécessaire vis-à-vis de leurs parents, qui leur permet de se construire. Ils peuvent expérimenter la relation à l'autre, que celle-ci soit amoureuse ou amicale. Utiliser TikTok revient à se sentir intégré à une sphère sociale.

Deuxièmement, les réseaux sociaux répondent au besoin de quête identitaire des adolescents. Par la mise en image de soi, l'appel du regard de l'autre, la réflexivité inhérente au retour que les autres ont sur le sujet adolescent, ils participent de leur quête identitaire. Ils fournissent des réponses aux questions existentielles et valident l'identité de l'adulte en devenir.

Bien évidemment, l'utilisation des réseaux sociaux numériques comporte des risques, liés à la vulnérabilité propre de l'adolescent et à son environnement, aux paramètres des comptes et à la qualité de son entourage. Ceux-ci sont nombreux : le cyberharcèlement, très présent dans les discours, mais qui n'est pas le cas le plus fréquent ; la radicalisation de la pensée, avec un mode de pensée unique au sein d'une communauté, renforcé par l'algorithme ; les conduites à risque, avec, par exemple, l'identification à certains influenceurs prônant le recours à la chirurgie esthétique ; les challenges, qui peuvent parfois pousser à une alcoolisation excessive, notamment lors des necknominations - expression issue de l'anglais neck your drink et signifiant vider son verre d'un trait ; le choc des images visualisées, pouvant induire une anxiété modérée, des troubles du sommeil et des complexes physiques, surtout avec les images pornographiques ; enfin, des mouvements dépressifs, associés à des troubles du comportement alimentaire et du cycle nycthéméral.

Toutefois, il n'existe pas toujours de causalité directe entre ces risques et les réseaux sociaux : la souffrance des jeunes intervient parfois préalablement à leur usage. Certains les utilisent d'ailleurs parce qu'ils ressentent un mal-être profond : les réseaux sociaux leur offrent une connexion directe et immédiate avec les autres ; c'est aussi une façon d'occuper son temps et son esprit. Ils deviennent alors un refuge.

Dans ce contexte d'impossible corrélation entre souffrance psychique et réseaux sociaux numériques, les adultes doivent prendre garde aux captations : temps disproportionné passé sur les réseaux, attention disproportionnée aux images retouchées, attente vitale des commentaires et des like, etc.

La façon dont un adolescent utilise un réseau social numérique est susceptible de révéler une souffrance psychique, qui doit toutefois toujours être recontextualisée. Un adolescent appartient à un contexte familial, social et psychologique. Pour paraphraser Donald Winnicott, selon qui « un bébé seul, ça n'existe pas », un adolescent seul, ça n'existe pas : l'adolescent reste un enfant de ses parents, même si cette période de construction est difficile.

Les pratiques des adolescents sur les réseaux sociaux ne peuvent se penser sans examiner celles des parents. Selon une étude de l'Open, 53 % des parents ont déjà publié une photo ou une vidéo de leur enfant sur les réseaux sociaux, parfois contre rémunération. Seuls 44 % des parents influenceurs ont demandé leur consentement à leurs enfants, qui sont donc présents parfois très tôt sur les réseaux sociaux numériques, par le biais des comptes des parents.

En l'absence d'étude scientifique et de recul sur ces pratiques, quelle sera l'attitude de ces enfants sur les réseaux sociaux, une fois devenus adultes, si leur image est exposée dès leur plus jeune âge sur les espaces numériques ?

Mme Milan Hung. - Dans ce contexte, l'éducation numérique est primordiale.

Les parents d'aujourd'hui sont les premiers à se confronter aux questions posées par l'utilisation des réseaux sociaux numériques. Ils sont nés avec les réseaux sociaux. Pourtant, il n'existe pas d'antériorité à une éducation numérique, contrairement à d'autres aspects de l'éducation.

L'utilisation des réseaux sociaux par les adolescents diffère de celle des adultes, qui apparaissent comme figure d'autorité en matière d'éducation numérique. Ces derniers auront tendance à plaquer leur propre perception sur ces usages. Les parents utilisent eux aussi les réseaux sociaux pour pallier ce manque d'éducation numérique.

Cette méconnaissance des parents relève de plusieurs facteurs : un manque d'information fiable pour se forger leur propre opinion ; le questionnement sur les pratiques et les comportements constatés sur les réseaux sociaux, comme la publication de photos de mineurs ; enfin, la difficulté de mobiliser notre esprit critique et de protéger notre vie intime sur les espaces numériques. Les adultes sont parfois démunis, car ils ne peuvent se reporter ni à une éducation transmise par une figure de référence ni à leur propre éducation.

Dans ces conditions, les jeunes se replient sur les réseaux sociaux numériques pour se faire leur propre éducation. Ceux-ci sont des espaces où les connaissances sont librement accessibles. TikTok devient une source d'information continue, sous le filtre algorithmique. Les réseaux sociaux deviennent des lieux d'émancipation identitaire, de richesse culturelle, mais aussi de risques. Laisser les jeunes seuls sur les réseaux sociaux, sans accompagnement, est dangereux, car l'adolescent n'a pas toujours la maturité nécessaire pour faire preuve d'esprit critique contre des influences néfastes. Dès lors, l'éducation numérique consiste à encourager l'autonomie, la responsabilisation et la sécurité des usages.

Il faut valoriser les compétences parentales. Certes, la jeunesse a toujours un coup d'avance, mais le monde adulte possède d'autres compétences essentielles dont les jeunes ont besoin : l'expérience, le recul, la nostalgie du passé, la capacité à résoudre des conflits, entre autres. Tout n'est pas binaire : il faut toujours introduire de la nuance sur ces sujets complexes.

Mme Angélique Gozlan. - Certes, TikTok présente quelques spécificités, notamment en raison de son algorithme et de certaines de ses fonctionnalités, mais, pour les adolescents, il n'est ni plus ni moins qu'un réseau social numérique. Il ne faut donc pas se concentrer uniquement sur l'objet numérique qu'est le réseau social TikTok, mais prendre en considération l'environnement familial, éducatif, social et politique du jeune. Il faut développer une vision multifocale des usages numériques. Ainsi, l'éducation numérique doit devenir une priorité nationale, tant pour les enfants que pour les parents, mais elle ne doit pas se résumer à la prévention des risques encourus sur les réseaux sociaux : elle doit être pensée comme un accompagnement et un soutien à la parentalité, en valorisant les compétences des adultes et des enfants, dès leur plus jeune âge, en vue de développer leur esprit critique.

M. Claude Malhuret, rapporteur. - Merci pour cette présentation.

Selon vous, TikTok s'inscrit dans une pratique numérique multiple. Nous comprenons votre observation, mais notre commission d'enquête porte sur TikTok : nous cherchons à analyser ses spécificités par rapport aux autres réseaux sociaux.

Selon plusieurs psychologues et spécialistes de l'informatique, la première d'entre elles tiendrait au caractère addictif de son algorithme. Plusieurs adolescents alternent entre des phases de désinstallation de TikTok, lorsqu'ils estiment que cela leur prend trop de temps, puis réinstallent l'application. D'une certaine façon, cette pratique n'est pas sans rappeler le syndrome du fumeur. Il me semble que cet aspect est plus prégnant avec TikTok qu'avec les autres réseaux sociaux ; il ne s'agit pas simplement d'une question d'usage. Qu'en pensez-vous ?

Mme Milan Hung. - L'addiction comportementale se définit par son intensité, sa fréquence et sa durée, créant ainsi une espèce de tyrannie. Ces trois conditions doivent se cumuler. Lorsque l'on regarde une série à la télévision plusieurs heures d'affilée, une seule condition est réunie : en l'espèce, on ne peut pas parler d'addiction.

Généralement, la préoccupation se focalise sur la fréquence, mais la dimension la plus importante dans l'addiction comportementale est l'intensité, lorsque l'usage d'un objet domine les autres aspects de la vie de la personne, notamment ses besoins vitaux, mais aussi ses besoins scolaires ou familiaux. Une attention importante doit alors être accordée à la personne.

Évoquer le caractère addictif d'une application sous-entend que tout usage créerait des processus addictifs, ce qui n'est pas le cas : lorsque l'on utilise un objet présentant un caractère addictif, nous ne nous retrouvons pas forcément sous l'emprise d'une addiction. La personne victime d'une addiction pense y trouver son compte. Or ce n'est pas le comportement en soi qui présente un caractère addictif. Par exemple, la pratique sexuelle n'est pas en elle-même addictive, mais il existe bien sûr des cas d'addiction au sexe. Évoquer le caractère addictif d'un objet revient à vouloir le rapprocher des addictions aux substances : ainsi, en consommant des réseaux sociaux, on le tolérerait peu à peu avant d'en demander davantage. Je ne pense pas que l'on puisse aboutir à une telle conclusion.

Mme Angélique Gozlan. - Il n'existe pas de consensus scientifique sur le terme d'addiction en matière de jeux vidéo ou de réseaux sociaux numériques. Le manuel diagnostique et statistique des troubles mentaux, connu par son acronyme anglais DSM-5, a fait l'objet d'une polémique lorsqu'un trouble aux jeux vidéo y a été introduit : un tel trouble n'existe pas. La notion d'addiction ne fait pas l'objet de consensus.

En revanche, votre question est intéressante : quand on lie la technique à une addiction, cela met en lumière un comportement ; plutôt que d'addiction, on pourrait parler d'abrutissement des images et du flux vidéo, qui nous empêche parfois de voir ce qui nous entoure. Il ne faut pas psychiatriser l'usage d'un réseau social.

M. Claude Malhuret, rapporteur. - L'auteur de La Fabrique du crétin digital n'a pas les mêmes scrupules que vous ! Dans son ouvrage, il écrit : « Le message de la littérature scientifique disponible est cohérent et indiscutable : plus les élèves, lycéens, collégiens et étudiants consacrent de temps à leurs joujoux numériques et plus leur niveau scolaire baisse. Jamais sans doute dans l'histoire de l'humanité une telle expérience de décérébration n'avait été conduite à aussi grande échelle. » Ces propos vous paraissent-ils exagérés ?

M. Thomas Rohmer. - Sans vouloir présager du parti pris qui pourrait être celui de l'auteur cité, Michel Desmurget, sur l'usage des outils numériques par les enfants, je rappelle qu'il est également l'auteur d'un ouvrage intitulé TV Lobotomie.

De fait, des scientifiques ont souligné que l'analyse de M. Desmurget présentait un certain nombre de biais. Un effet de corrélation n'est pas un effet de causalité, et ne peut à ce titre être considéré comme une preuve scientifique.

Par ailleurs, les recherches de M. Desmurget s'appuient principalement sur des études relatives aux impacts de la télévision. En effet, le rapport du Haut Conseil de la santé publique (HCSP) indique clairement que, contrairement à ce que l'on entend souvent, la recherche scientifique n'étudie l'impact négatif des écrans que depuis 2018.

Mme Milan Hung. - Je souhaite à mon tour souligner l'importance de ne pas confondre effet de corrélation et effet de causalité. Un effet de causalité ne peut pas être établi sur le fondement d'une observation comme le fait M. Desmurget, a fortiori en l'absence de méta-étude.

Aux États-Unis, l'utilisation des réseaux sociaux, en particulier de TikTok, par les populations les plus pauvres, notamment les populations noires et hispaniques, est entre 10 % et 15 % supérieure à celle de la population générale. Pour autant, établir un lien de causalité entre la pauvreté et l'utilisation de TikTok relèverait d'une erreur scientifique, car ces habitudes peuvent aussi s'expliquer par des facteurs environnementaux, sociaux ou culturels.

M. Claude Malhuret, rapporteur. - Quelles sont vos recommandations en matière d'éducation à destination des parents et des enfants pour lutter contre tous les effets négatifs de ce pharmakon ?

M. Thomas Rohmer. - Une partie de la réponse est dans votre question !

Dans tous les milieux sociaux, la plupart des enfants sont équipés d'un smartphone en fin de CM1. Dans la très grande majorité des cas, les parents les équipent pour se rassurer. Cette angoisse parentale a d'ailleurs pour effet de resserrer le champ d'investigation des enfants, qui était autrefois de plusieurs kilomètres autour du domicile, à un périmètre de quelques centaines de mètres.

Ce besoin de réassurance pousse même certains parents à des comportements radicaux. Dans quatre familles françaises sur dix, un logiciel espion est installé sur le téléphone des enfants, et certains enseignants m'ont rapporté que des parents, parfois dès la fin de la maternelle, équipent leurs enfants de montres connectées, non seulement pour les géolocaliser, mais aussi pour écouter ce que dit l'enseignant à distance.

Nous sommes donc au coeur d'une énorme contradiction sociétale et éducative. Nous nous définissons comme une association de protection de l'enfance, mais aussi de soutien à la parentalité, et nous avons fait le choix de nous adresser, non pas aux enfants, mais aux adultes, parents et professionnels. Nous préconisons notamment d'apprendre aux enfants à bien utiliser les outils dont ils disposent sans se focaliser sur ce qui est interdit.

La logique d'évitement des risques mérite d'être questionnée. Les parents semblent vouloir jouer le rôle de super-héros capables d'empêcher que rien n'arrive à leur enfant. Il me semble que l'éducation ne peut pas être que cela, et que l'autonomisation des enfants est souvent sacrifiée sur l'autel de l'évitement des risques auxquels les enfants sont exposés dans les espaces numériques, qui, du reste, n'est pas un franc succès, puisqu'il n'y a par exemple jamais eu autant de cyberharcèlement.

Cela devrait à mes yeux nous amener à redéfinir complètement ce qu'est une éducation au numérique en 2023.

Mme Angélique Gozlan. - Lors d'une étude menée avec le ministère de la justice sur l'impact des images trash à l'adolescence, plusieurs jeunes adolescents d'un établissement pénitentiaire pour mineurs m'ont indiqué que, selon eux, c'était auprès des parents qu'il fallait intervenir pour aider les jeunes à se prémunir contre les risques sur les réseaux sociaux et internet.

M. Claude Malhuret, rapporteur. - Observez-vous des effets négatifs de l'usage des réseaux sociaux pour les adolescentes, notamment en matière d'incidence de la dysmorphophobie ou des troubles alimentaires ?

En février 2022, TikTok a indiqué que ses règles communautaires avaient été mises à jour et que les contenus encourageant des troubles de l'alimentation seraient désormais supprimés. Avez-vous constaté un changement depuis cette date ?

Mme Angélique Gozlan. - Je ne dispose pas d'éléments cliniques permettant de l'indiquer.

Du reste, les patients souffrant de troubles du comportement alimentaire (TCA) ne sont pas plus nombreux du fait des réseaux sociaux. Les blogs de Skyrock avaient été pointés du doigt car ils constituaient des espaces d'expression pour les pro-ana (pro-anorexia). S'il y a toujours eu des communautés pro-ana sur les réseaux sociaux, le risque est celui d'une radicalisation de la pensée chez des jeunes qui s'enferment dans une communauté. Pour autant, le TCA n'est pas induit par l'usage des réseaux sociaux : il résulte de difficultés sous-jacentes qui s'y déploient.

Encore une fois, j'alerte sur la tentation de psychiatrisation de l'usage des réseaux sociaux, qui doit nous interroger. Les enfants de moins de 18 mois constituent toutefois une exception, car leur exposition aux smartphones peut induire des troubles à caractère autistique, on le voit très bien.

Mme Céline Boulay-Espéronnier. -Vous avez indiqué qu'il n'y avait pas d'étude scientifique française sur les effets de TikTok. De telles études ont-elles été menées ailleurs dans le monde, et spécifiquement sur TikTok ?

Vous avez souligné que selon les études disponibles, YouTube était de loin le réseau le plus investi, puisque 64 % des jeunes l'utilisent et que 38 % ne pourraient pas s'en passer. Qu'adviendrait-il s'ils devaient s'en passer ? Selon vous, il n'y a pas de troubles addictifs liés aux réseaux, mais est-ce vrai du téléphone portable ?

Vous avez évoqué le sentiment d'appartenance, essentiel pour l'adolescent. S'agit-il d'une vraie ou d'une fausse appartenance ? Le contrôle parental s'oppose au besoin qu'a l'adolescent de s'extraire de la sphère familiale. Comment dépasser cette difficulté ?

Mme Valérie Boyer. - Cette semaine, le Sénat a examiné une proposition de loi visant à encadrer l'influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux et une proposition de loi visant à garantir le respect du droit à l'image des enfants. La semaine prochaine, nous examinerons une proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne. Nous avons également adopté une proposition de loi de notre collègue Catherine Morin-Desailly visant à lutter contre l'exposition précoce des enfants aux écrans.

Nous avons tous indiqué hier au ministre que nous regrettions l'absence d'un texte global qui permettrait une coordination et aurait des répercussions sur l'information des parents.

Estimez-vous qu'il serait opportun de réactualiser le carnet de santé, ce qui n'a pas été fait depuis 2018, en ajoutant des recommandations sur l'utilisation des réseaux sociaux et sur le temps d'exposition aux écrans, mais aussi sur la protection de la vie privée ?

Que pensez-vous de l'idée d'un programme scolaire de santé publique qui permettrait d'informer sur les bonnes pratiques et sur les dangers du numérique sur l'alimentation, le sommeil, le harcèlement, etc. ?

Enfin, vous paraitrait-il opportun qu'un nouveau livre soit ajouté au code de la santé publique sur l'usage du numérique et l'abrutissement ou l'addiction qui peut en résulter pour les enfants, mais aussi pour les adultes ?

Mme Catherine Morin-Desailly. - Vos études s'appuient-elles sur des échanges avec d'autres spécialistes comme les orthophonistes, les pédiatres et les pédopsychiatres ?

Je ne suis pas tout à fait d'accord avec l'affirmation selon laquelle les études scientifiques sur les réseaux sociaux sont récentes. Le psychanalyste Serge Tisseron, par exemple, a depuis longtemps théorisé l'approche des écrans et leur introduction dans la vie des enfants. Avez-vous eu des contacts avec lui ou avec d'autres experts ?

J'estime comme vous que les parents doivent prendre leurs responsabilités, mais que l'éducation nationale doit elle aussi jouer son rôle. En 2013, le Sénat a fait inscrire dans le code de l'éducation l'obligation d'une sensibilisation des enfants aux risques et aux potentialités d'internet. Plus récemment, dans la loi pour une école de la confiance, le Sénat a introduit des dispositions relatives à la formation des formateurs sur les écrans. Nous interrogeons chaque année le ministre de l'éducation sur la mise en oeuvre de ces dispositions, sans succès. Avez-vous des indicateurs à partager avec nous ?

Mme Laurence Rossignol. - Vous avez indiqué que les comptes des enfants de moins de 15 ans étaient considérés par TikTok comme des comptes privés. Comment TikTok vérifie-t-il l'âge des détenteurs de compte ?

En matière d'éducation, nous ne partons pas de zéro. Les Promeneurs du net, par exemple, est un dispositif qui fonctionne plutôt bien. Je m'interroge toutefois sur la possibilité de lutter contre la puissance de l'image. Qu'en pensez-vous ?

Par ailleurs, renvoyer la question des usages à celle de l'éducation, n'est-ce pas prendre le risque d'accroître les inégalités sociales et culturelles ? Les CSP+ et les classes les plus diplômés n'exposent pas un enfant de moins de 3 ans à un écran. De fait, l'éducation est liée aux conditions réelles de vie des gens. Il est sans doute plus compliqué pour une mère de famille monoparentale épuisée de ne jamais donner son téléphone à son enfant que pour une mère qui n'est pas dans cette situation. Ne faut-il pas plutôt en passer par des mesures coercitives, voire prohibitives pour éviter de creuser les inégalités ?

Enfin, si je partage votre souci de distinguer entre effet de corrélation et effet de causalité, j'estime que certaines corrélations méritent d'être prises au sérieux. L'augmentation du taux de suicide chez les adolescentes et la demande croissante des mêmes jeunes filles de recours à la chirurgie sont par exemple corrélées avec l'usage d'Instagram. Il me semble que cela doit nous préoccuper.

Mme Marie Mercier. - La manière de qualifier la dépendance diffère un peu de l'addiction, que vous avez décrite par le triptyque intensité, durée, fréquence. Une personne dépendante va augmenter la dose et, surtout, sa dépendance ne pourra être diagnostiquée qu'à l'arrêt de la pratique, en l'occurrence l'exposition à TikTok. Y a-t-il addiction ou dépendance aux réseaux ?

Mme Angélique Gozlan. - Sur la question des préconisations concrètes, qui me semble liée à celles qui portent sur l'éducation nationale, il faut effectivement agir au niveau des programmes scolaires. La recherche que j'ai menée avec la sociologue Sophie Jehel a montré que la formation des professeurs des écoles et des professeurs du secondaire comprenait 24 heures d'enseignement - c'est très peu - sur les pratiques numériques, et on leur demande, en plus, de partir de leurs propres connaissances !

Sur le terrain, les éducateurs sont assez démunis face à l'ampleur des sujets et du travail à accomplir. En effet, il ne s'agit pas seulement de repérer les enfants ou les adolescents concernés ; il faut aussi les évaluer et, le cas échéant, les former à la vie sociale. C'est beaucoup !

Ce que je préconise, c'est de prévoir dès l'entrée en maternelle, dès l'accès au livre et aux images, un programme scolaire d'éducation aux médias et à l'image, qui conduirait les enseignants à développer l'esprit critique des enfants à partir de trois ans. Si l'on parvient à mettre un tel programme en place, on aura donné certaines armes à nos enfants pour aborder ce contenu exponentiel des réseaux sociaux, contenu que l'on ne pourra pas limiter.

C'est une très bonne idée de partir du carnet de santé. Mais sur le terrain, hélas, tous les parents ne lisent pas les pages du carnet de santé, en tout cas dans les populations les plus précaires.

J'ai également corédigé, avec le ministère de la culture et de la communication, un rapport portant sur les effets des actions de médiation culturelle sur les enfants et les adolescents. Il y a là une autre approche possible, qui consisterait à déployer au sein de l'éducation nationale des approches culturelles et artistiques permettant aux adolescents de prendre de la distance avec les objets culturels que sont les réseaux sociaux.

Mme Milan Hung. - L'expression « ne pas pouvoir s'en passer » que j'ai utilisée en lien avec Youtube se rapportait à la question d'une étude, ainsi formulée : s'il fallait choisir une application de réseau social auquel on ne voudrait pas renoncer, quelle serait-elle ?

Je suis parfaitement d'accord sur la nécessité d'une investigation autour des effets de corrélation. Mais il faut, d'une part, qu'il y ait une reconnaissance publique de ces effets de corrélation et, d'autre part, que l'on consacre des moyens à la poursuite des recherches et la multiplication des actions éducatives.

L'identification des enfants de moins de quinze ans se fait de manière assez simple sur TikTok : il faut indiquer sa date de naissance à l'inscription. Cela ne signifie évidemment pas que les jeunes vont répondre fidèlement...

Je suis également en accord avec la remarque concernant la hausse des inégalités socioéconomiques. Cela accroît l'urgence à accompagner les familles les plus en difficultés, qui, statistiquement, peuvent avoir plus recours à des réseaux sociaux numériques.

M. Thomas Rohmer. - S'agissant du contrôle parental, nous constatons qu'il est insuffisamment utilisé en France : un peu moins de 4 familles sur dix installent un logiciel de contrôle parental. Mais on a aussi fait de fausses promesses aux parents lors des précédentes campagnes de déploiement de ces outils, en leur faisant croire qu'ils disposaient là d'une solution miracle. Il n'en est rien car, aujourd'hui, grâce aux tutoriels disponibles, il est extrêmement facile pour les enfants de désactiver le contrôle parental. Pour notre part, nous avons adopté un principe de réalité et expliquons aux parents que, dès lors que les enfants atteignent l'âge de 10 ou 11 ans, l'efficience du contrôle parental devient une sorte de mythe.

Nous connaissons évidemment très bien Serge Tisseron et travaillons avec lui. Pour autant, nous constatons sur le terrain que de nombreux parents rencontrent des difficultés dans l'application de la règle « 3-6-9-12 », qui fait encore référence et est largement déployée sur le territoire. Ils se sentent enfermés dans des balises et des règles, ne correspondant pas à leur vie quotidienne.

Vous avez raison, madame Rossignol, d'évoquer l'accompagnement des familles monoparentales, qui sont de plus en plus nombreuses. Il ne s'agit absolument pas de les culpabiliser - elles ont déjà beaucoup à porter - ; nous cherchons plutôt à trouver des solutions répondant à leurs besoins, sans extraire les écrans, mais en proposant des usages adéquats. Par exemple, nous allons conseiller d'enlever les images et d'utiliser le smartphone pour écouter des comptines. C'est ce que nous essayons de porter : une approche pragmatique, tenant compte des pratiques familiales, mais sans nier les questionnements que posent ces outils - en particulier, comme l'a redit Milan Hung, il faut engager des recherches sur les effets de corrélation.

Cela étant, on observe aussi, dans le débat public, que certaines personnes s'improvisant experts de ces sujets, et qui cherchent parfois à vendre des livres ou des conférences, entretiennent une sorte de panique morale sans apporter de solution à ces familles. Or, cela a été dit, il y a énormément de biais socioéconomiques sur ces questions, comme le démontre la cohorte Elfe de l'Institut national de la santé et de la recherche médicale (Inserm).

À ce propos, j'insiste sur le fait qu'il faut vraiment soutenir la recherche sur ces questions. Il y a ainsi un décalage de 7 à 8 ans entre les données publiées pour cette cohorte Elfe et le moment où celles-ci ont été collectées. Comment voulez-vous mettre en place des politiques publiques dignes de ce nom avec un délai aussi abyssal à l'échelle de l'écosystème du numérique ?

Il est donc essentiel de donner des moyens aux chercheurs pour pouvoir coller à la réalité des familles et, ainsi, éviter les supputations qui, le plus souvent, n'engendrent que de la panique morale sans apporter de solutions.

Mme Angélique Gozlan. - J'ajoute que les familles vont elles-mêmes chercher des informations sur les réseaux sociaux pour savoir comment être parents aujourd'hui. Or on y trouve des débats très houleux autour des modes de parentalité, qui tendent en outre à culpabiliser les parents.

M. Thomas Rohmer. - Bien sûr, il faut repenser certaines choses à l'éducation nationale, et ce sans montrer du doigt les enseignants. Le dispositif des Promeneurs du net est intéressant, malgré une application très hétérogène selon les endroits.

De manière générale, il faut renforcer les compétences des professionnels et des parents sur ces sujets. Les formations auprès des professionnels montrent que certaines personnes maîtrisent les outils techniques sans avoir les compétences psychosociales et d'autres ont les compétences psychosociales sans maîtriser les outils. L'urgence est donc de lier ces deux champs, afin que les adultes soient suffisamment équipés pour accompagner enfants et adolescents sur ces sujets.

M. Mickaël Vallet, président. - Je vous remercie pour ces réponses et profite de cette intervention pour confirmer l'explosion du nombre de « coachs en parentalité ». Les éléments que vous donnez conduisent à s'interroger sur une intervention des services publics et le bon moment pour le faire. Même si tout le monde n'est peut-être pas formé pour cela dans les centres de protection maternelle et infantile (PMI), l'idée qu'une information sur le sujet puisse y être délivrée, de manière obligatoire ou systématique, avant la naissance de l'enfant me semble une piste intéressante.

Mme Angélique Gozlan. - Ayant accouché voilà quatre mois, j'ai fait ce parcours de la maternité à la PMI : alors même que l'on délivre des cours de préparation à l'accouchement et au retour à la maison, strictement rien n'est prévu pour le domaine qui nous intéresse. Or, il serait possible d'intervenir sur ces questions dans ce cadre.

M. Thomas Rohmer. - On voit même l'inverse, c'est-à-dire des enfants sortant de la maternité sans avoir croisé le regard de leur maman - ils n'ont vu que la lentille du smartphone car il fallait alimenter le WhatsApp familial. Le besoin de sensibilisation se fait donc sentir, y compris dans des lieux comme les maternités, non pas, encore une fois, pour culpabiliser les parents, mais pour les amener à repenser leur pratique.

M. Mickaël Vallet, président. - Je vous remercie enfin d'avoir mis en exergue cette pratique consistant à venir donner des leçons et des recommandations sur le sujet en se faisant payer très cher. Le tri est probablement facile à opérer car nous connaissons tous de nombreux spécialistes acceptant de faire de l'éducation populaire de manière tout à fait désintéressée.

Audition de Mmes Sabine Duflo, psychologue clinicienne,
et Servane Mouton, neurologue, le 15 mai 2023

M. Mickaël Vallet, président. - Nous poursuivons cet après-midi nos auditions avec Mmes Sabine Duflo, psychologue clinicienne et Servane Mouton, neurologue.

Madame Servane Mouton, vous avez coordonné l'ouvrage Humanité et numérique - Les liaisons dangereuses, paru il y a un mois. Rassemblant les contributions de plusieurs experts partageant leurs connaissances et leurs expériences de terrain, vous insistez sur les effets délétères potentiels des réseaux sociaux : conséquences sur le neuro-développement et sur le fonctionnement cognitif de l'enfant et de l'adolescent, sur le sommeil, sur la sédentarité, sur la santé psychologique et sociale, entre autres.

Madame Duflo, vous travaillez en tant que psychologue clinicienne auprès d'enfants et de leurs familles au sein d'un centre médico-social. Vous dispensez des formations à l'usage raisonné des écrans chez l'enfant et l'adolescent. Vos conseils ont notamment pris la forme de la méthode des « 4 pas » : pas d'écran le matin, pas pendant les repas, pas dans la chambre de l'enfant et pas avant de se coucher.

Tout l'enjeu de cette audition est de déterminer si TikTok radicalise les effets déjà connus des autres réseaux. Y a-t-il une spécificité propre à cette application, qui serait liée, d'une part, au produit lui-même avec un algorithme très efficace, et, d'autre part, à l'utilisation intensive et à la jeunesse des utilisateurs ?

Nous aimerions aussi connaître vos recommandations en matière d'éducation au numérique, alors que les parents et les professionnels au contact d'enfants restent souvent démunis face au temps croissant passé par les adolescents sur les réseaux sociaux, en particulier sur TikTok.

Je rappelle que cette audition fait l'objet d'une captation et qu'elle est retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.

Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, Mme Sabinet Duflo et Mme Servane Mouton prêtent serment.

Mme Sabine Duflo, psychologue clinicienne. - Je suis psychologue pour enfants et adolescents et thérapeute familial systémique : je reçois toujours mon patient en le considérant comme le résultat des interactions avec son environnement. Le cas échéant, j'essaie de modifier cet environnement afin de produire un changement positif chez l'enfant ou l'adolescent.

Hier, l'environnement du jeune se résumait à sa famille et à son école ; aujourd'hui, ce sont les écrans, notamment son téléphone portable, qui peuplent son quotidien. Les chiffres de l'exposition aux écrans sont vertigineux. Selon une étude américaine publiée en 2020, les enfants âgés de 8 à 12 ans y passent quatre heures et quarante-quatre minutes par jour, contre plus de huit heures pour les 15-18 ans. Selon une étude de l'Ipsos, commandée par l'Union nationale des associations familiales (Unaf) et l'observatoire de la parentalité et de l'éducation numérique (Open), les 7-10 ans passent quatre heures et quarante-deux minutes par jour devant leurs écrans, contre dix heures et trente-huit minutes par jour pour les 15-17 ans. Ces chiffres impressionnants s'expliquent par le fait que les enfants regardent plusieurs écrans à la fois.

Je travaille comme psychologue dans la fonction publique hospitalière ; j'y ai fait toute ma carrière. Entre septembre 2020 et décembre 2022, j'ai exercé dans une unité accueillant des adolescents en situation de crise qui exigeait une hospitalisation à temps complet. La durée moyenne du séjour est de trois semaines ; les adolescents partent non pas parce qu'ils sont guéris, mais parce qu'il faut libérer la place pour en admettre un autre qui va plus mal encore. Telle est la réalité de la situation en psychiatrie et en pédopsychiatrie. L'unité pourra prochainement accueillir 12 adolescents : c'est largement insuffisant ; de plus, on ne trouve pas de médecins.

Durant cette période, j'ai reçu entre 80 et 100 adolescents âgés entre 11 et 17 ans, avec 7 filles pour 1 ou 2 garçons. Les motifs d'hospitalisation étaient les suivants : des troubles anxieux massifs et des troubles du comportement, prenant la forme d'une hétéroagressivité et, beaucoup plus fréquemment, d'une autoagression, c'est-à-dire des mutilations, des scarifications et des tentatives de suicide par médicaments, parfois par défenestration.

Durant cette période, j'ai observé une augmentation importante du flux des hospitalisations. Je ne dispose pas de chiffres exacts, mais, selon le dernier rapport du Haut Conseil de la famille, de l'enfance et de l'âge (HCFEA), on compte plus de 40 admissions pour tentatives de suicide par bimestre à l'hôpital Robert-Debré depuis 2021 ; c'est deux fois plus qu'avant l'année 2020 et quatre fois plus que durant la période 2011-2017. Selon le docteur Charles-Édouard Notredame du service de psychiatrie de l'enfant et de l'adolescent du centre hospitalier universitaire (CHU) de Lille, les chiffres ont littéralement explosé depuis 2019, avec une augmentation du passage aux urgences de plus de 126 % pour des idées suicidaires chez les 11-17 ans et une augmentation de 30 % des tentatives de suicide.

Trois jours par semaine, j'ai reçu dans mon bureau des adolescents et leurs familles. Certains avaient des parcours de vie chaotiques, mais d'autres menaient une vie normale jusqu'alors. J'ai cherché à comprendre les raisons pouvant expliquer de tels comportements. J'ai alors constaté que l'achat d'un téléphone portable connecté avait généralement précédé de six mois à un an l'arrivée des idées noires.

Je suis en mesure de dresser un portrait-robot d'une adolescente de cette unité ou plutôt d'établir la synthèse des rendez-vous avec plusieurs patientes, qui, auparavant, avaient un parcours de vie simple - je mets de côté les jeunes qui ont déjà vécu des traumatismes. J'appellerai cette adolescente Laura. Laura a toujours été une enfant solitaire et peu à l'aise avec les groupes. Elle est en classe de cinquième et vit seule avec sa mère et son grand frère Lucas. Sa mère, Manon, est aide-soignante et son père est chauffeur. Ils ont toujours limité le temps passé devant la télévision et sur internet - ce sont des règles utiles. Ses parents se sont séparés quand elle avait 9 ans.

En CM1, elle a commencé à se faire harceler par un groupe de filles, sous prétexte que sa mère était venue la chercher à l'école avec un nouveau compagnon. Ces filles, qui avaient déjà un téléphone portable, discutaient entre elles sur les réseaux sociaux. Laura avait peur à l'école, mais se sentait en sécurité chez elle. En CM2, elle s'est mise à penser très fort à la sixième, car elle entendait ce que les autres enfants racontaient du collège, fait de clans, de groupes et d'exclus, les « sans-amis ». Elle a commencé à stresser et a dit à ses parents qu'elle souhaitait avoir un portable, un objet qui permet d'être à peu près admis au collège. Sa mère n'est pas d'accord, mais son père lui a malgré tout acheté un téléphone.

En sixième, Laura découvre un monde nouveau, où les filles et les garçons sont encore plus séparés qu'avant et où les filles parlent entre elles des séries vues sur Netflix et des influenceurs suivis sur les réseaux sociaux. Laura se sent très seule : cet univers n'est pas le sien. Elle voudrait tellement pouvoir rentrer dans leur cercle. Elle se sent mal à l'aise dans son corps, elle a eu ses premières règles cet été. Les garçons lui font des remarques pesantes : elle se sent de plus en plus mal. Elle décide alors de télécharger plusieurs applications, Snapchat, Instagram et TikTok, qu'au départ elle consulte sans jamais rien publier - ce sont toujours les mêmes que l'on retrouve chez nos patients. Elle découvre alors des filles qui déclarent se sentir différentes des autres. Elle ressent un grand soulagement dans un premier temps. Elle s'abonne rapidement au compte d'une fille qu'elle trouve belle et qui affirme être harcelée au collège.

En cinquième, Laura commence à s'habiller en noir et à acheter des mitaines et des bas résille pour lui ressembler. Alors qu'elle pratique cette activité depuis six ans, elle refuse de s'inscrire aux cours de danse - l'abandon des activités extrascolaires est un signe très révélateur. Surprise, Manon cherche à comprendre, mais Laura lui répond chaque fois si sèchement qu'elle préfère ne rien dire.

Sur les réseaux, des filles présentent les scarifications comme une solution géniale pour diminuer le stress. Un soir de décembre, Laura rentre du collège encore plus mal que les fois précédentes, car un garçon lui a touché les seins en la traitant de pute. Elle se regarde dans le miroir et elle se dit que le garçon a raison. Vite, elle prend un cutter dans la boîte à outils. Elle s'entaille légèrement l'avant-bras, elle voit le sang couler et cela la soulage immédiatement : les filles sur les réseaux n'ont pas menti. Elle pense avoir trouvé la solution : désormais, pour moins souffrir de l'isolement et de sa détestation d'elle-même, elle aura recours au cutter. Après avoir créé son propre compte sur les réseaux sociaux, elle publie des photos d'elle-même, maquillée et vêtue de noir : elle danse tout en exhibant ses scarifications. Elle reçoit aussitôt de nombreux commentaires positifs et des like. Pour la première fois, elle est devenue quelqu'un d'intéressant : jamais elle ne s'est sentie aussi bien.

Un soir, en faisant la lessive, sa mère découvre des taches de sang sur les manches du pull de Laura. Jusqu'à présent, elle n'avait pas voulu y prêter attention. De plus, il est tellement difficile de parler à sa fille désormais. Pourtant, ce jour-là, elle décide de lui parler. Laura se braque immédiatement, Manon lui répond qu'elle est sa mère et qu'elle doit savoir. Alors, Laura lui rétorque qu'elle n'est que sa génitrice - un terme très fréquent sur les réseaux sociaux. Sa mère ne se laisse pas démonter, elle s'empare du téléphone de sa fille et lui dit qu'elle ne le lui rendra pas avant qu'elle lui ait montré son buste. Après de nombreux hurlements, Laura enlève son tee-shirt et Manon découvre alors de nombreuses scarifications.

Tels sont exactement les discours que j'ai entendus pendant un an. Ces jeunes n'appartiennent pas nécessairement à des familles aux histoires compliquées.

J'évoquerai dans un second temps des études montrant pourquoi les réseaux sociaux pouvaient constituer un vecteur de bascule pour les jeunes filles souffrant d'un grand mal-être.

Mme Servane Mouton, neurologue. - Je suis neurologue pour adultes et je m'intéresse à la question des écrans depuis plusieurs années.

Il est difficile d'individualiser l'utilisation des réseaux sociaux. Comme l'a souligné Mme Duflo, l'usage des écrans va au-delà de la simple utilisation des réseaux sociaux : il est difficile d'individualiser leur utilisation. On peut toutefois opérer une distinction entre les contenus que les adolescents trouveront sur leurs écrans et les outils numériques eux-mêmes, à l'origine de sédentarité, de risques cardiovasculaires et de troubles du sommeil, entre autres.

Les contenus sur les réseaux sociaux sont très variés. L'effort de régulation des plateformes doit être souligné, mais il n'est pas très efficace : par exemple, 87 % des jeunes âgés de 11 à 12 ans sont sur TikTok, alors que le réseau social est en principe interdit aux moins de 13 ans ; cette barrière n'est clairement pas respectée.

J'en viens au problème de fond des réseaux sociaux. Ce sont avant tout des plateformes qui doivent rapporter de l'argent à leurs gérants et à leurs fondateurs, sans se préoccuper du bien-être de leurs usagers. Tout est permis, y compris au détriment de la santé des utilisateurs, notamment les plus jeunes.

Les réseaux sociaux ont pour but de maintenir l'usager le plus longtemps possible sur leur application et de la faire venir le plus souvent possible. TikTok n'a pas fait l'objet d'une étude à part entière, mais on peut extrapoler à partir des constats opérés sur les autres réseaux sociaux : l'algorithme renvoie à l'usager un moi virtuel, un mini-moi, qui aboutit rapidement à la création d'une bulle de filtres, c'est-à-dire un prisme très focalisé sur certains sujets. Une gamine regardant des vidéos de scarification peut vite être enfermée dans une logique morbide, comme le décrivait Mme Duflo.

Comme sur d'autres applications, le défilement infini des contenus augmente la durée d'utilisation de l'usager. En outre, TikTok, dont les bénéfices ont explosé en seulement cinq années d'existence, a créé un système incroyable : on peut acheter des gratifications en ligne en vue de les attribuer à d'autres usagers. C'est un véritable commerce.

En outre, les influenceurs passent des contrats avec des marques, lorsqu'ils ont plus de 1 000 abonnés. Il en va de même sur Instagram : les ventes se font de façon subtile. Des sites internet expliquent comment faire de l'argent sur les réseaux sociaux. À cet égard, TikTok est efficace, car les vidéos qui y sont diffusées sont très brèves, avec une stimulation répétée très intense. Or le cerveau est avide de nouveauté : il est alors facile de capter l'attention. Telle est l'une des spécificités de TikTok.

De plus, nous avons tous besoin d'être liés aux autres, de ressentir que l'on fait partie d'un groupe et de disposer de sécurité affective - même si celle-ci est virtuelle. D'autres théories sont davantage liées à l'autodétermination et à l'influence sociale que l'on peut exercer sur autrui : il est valorisant de constater que d'autres apprécient nos vidéos.

En outre, l'effet de groupe peut avoir une influence importante sur l'individu. Les jeunes filles qui se scarifient ou qui souffrent d'anorexie sont heureuses de se retrouver dans un groupe de personnes aux pratiques semblables : cela leur apporte du bien-être.

Les contenus publicitaires - déguisés ou non - représentent un autre volet des problèmes liés aux écrans : les mineurs sont exposés à des produits néfastes pour la santé, notamment les aliments gras, l'alcool, le tabac, les e-cigarettes, entre autres. Il est très difficile de réguler leur présence sur les applications, si tant est que les gestionnaires de plateforme aient réellement la volonté d'agir.

M. Claude Malhuret, rapporteur. - Merci pour vos exposés précis et clairs.

Madame Duflo, à quoi attribuer la responsabilité des troubles anxieux dont souffrent les adolescents que vous rencontrez ? S'agit-il d'une addiction aux réseaux sociaux ? Pensez-vous que ces jeunes viendraient vous consulter en l'absence de ces applications ? Des enfants souffraient de mal-être bien avant l'irruption des réseaux sociaux. Quel est leur effet spécifique ? Quelle est la proportion d'adolescents souffrant de troubles graves parmi les 15 millions d'utilisateurs de ces réseaux ?

Nous avons auditionné d'autres spécialistes : ils n'ont pas un jugement aussi tranché que le vôtre. La semaine dernière, une psychologue comparait les réseaux sociaux au pharmakon grec, qui pouvait avoir un effet positif ou négatif, selon les cas. Pouvez-vous nous citer les études allant à l'appui de votre témoignage ?

Mme Sabine Duflo. - Les jeunes dont je parle passent entre cinq et huit heures devant les écrans, la situation s'étant aggravée depuis la pandémie. L'adolescence est une période de transition et donc de fragilité, dont l'enjeu repose sur la construction d'un moi social et sur la reconnaissance par le groupe social. Autrefois, les jeunes se retrouvaient pour jouer au football, par exemple, et c'est dans ce cadre qu'ils construisaient leur moi social et recueillaient l'approbation de leurs pairs ; désormais, ils sortent peu, tout se passe sur les réseaux sociaux et la reconnaissance se fait sur leur image plutôt que sur des valeurs partagées.

Si vous interrogez certains de mes collègues sur le sujet, il est important de commencer par leur demander s'ils reçoivent régulièrement des enfants et des adolescents en consultation en leur faisant préciser leur âge. Ensuite, il faut qu'ils aient posé toutes les questions nécessaires pour se faire une idée précise du temps que les enfants ou les adolescents qu'ils reçoivent passent devant les écrans et des contenus qu'ils regardent. Si l'on prend en compte tous ces critères, on ne peut qu'aboutir aux chiffres que je vous ai donnés, à savoir qu'un adolescent passe aujourd'hui six à sept heures par jour devant les écrans.

Sur le terrain, on observe que les écrans ont un effet nocif sur le sommeil, qu'il s'agisse de difficultés à s'endormir ou de réveils nocturnes, d'où résultent des problèmes d'attention et des difficultés d'apprentissage.

M. Mickaël Vallet, président. - Toutes les études quantitatives - nous l'avons constaté lors des auditions de la semaine dernière - arrivent à la conclusion que les écrans provoquent des problèmes de sommeil.

Mme Sabine Duflo. - Le deuxième trouble qui touche les adolescents qui regardent trop les écrans porte sur l'attention : ils n'arrivent plus à comprendre ce qu'on leur enseigne en classe. En effet, les contenus diffusés sur TikTok ou Youtube sont de format très court, car il s'agit de capter l'attention et de la relancer constamment. Or cela nuit à la mise en place d'une attention volontaire, c'est-à-dire la capacité à se concentrer sur quelque chose qui bouge peu - un livre ou un professeur qui enseigne -, indispensable aux apprentissages.

Un autre type de trouble que j'ai pu constater est lié à l'anxiété et prend la forme de comportements dépressifs, voire suicidaires. En effet, les contenus visionnés peuvent donner, en particulier aux jeunes filles, une mauvaise image ou une mauvaise estime d'elles-mêmes. En outre, à force de regarder les écrans, les jeunes finissent par prendre du retard dans leurs apprentissages, n'arrivent plus à se concentrer et ne comprennent plus rien à ce qu'on leur enseigne, de sorte qu'ils se sentent idiots. Chez les plus jeunes, on a pu observer un phénomène d'automutilation.

L'étude la plus complète qui existe à ce jour est celle de Jonathan Haidt, intitulée « Social Media and Mental Health : A Collaborative Review », dans laquelle il recense toutes les études qui existent sur les réseaux sociaux. Une autre étude est parue en mai 2023, dans la revue Psychiatry Research, qui vise spécifiquement TikTok : elle examine l'association entre l'utilisation d'applications de vidéos courtes et les facteurs psychosociaux chez les adolescents âgés de 15 ans. Les résultats montrent que les utilisateurs addictifs présentent des conditions de santé mentale plus mauvaises que les non-utilisateurs et que les utilisateurs modérés, avec des niveaux plus élevés de dépression, d'anxiété et de stress. Ils ont également davantage de problèmes d'attention et une qualité de sommeil plus faible. En plus de leurs moins bonnes performances académiques, ils sont soumis à une victimisation par le harcèlement plus fréquent, car dès lors que l'on possède un portable, on a deux fois plus de chances de se faire cyberharceler. Leurs relations avec leurs parents sont dégradées.

Ces résultats suggèrent donc que les utilisateurs addictifs de Tiktok connaissent une situation plus défavorable que les autres, en ce qui concerne la santé mentale, la famille et les conditions scolaires, tandis que les non-utilisateurs ont des environnements familiaux favorables. Une utilisation modérée n'est donc pas forcément associée à une mauvaise santé mentale ou à de mauvais résultats scolaires.

Toutefois, dès lors qu'un produit est addictif, il est très difficile de cerner le passage d'une utilisation modérée à addictive. La bascule se fait au fur et à mesure que l'environnement social est ressenti comme de plus en plus négatif et stressant, des événements comme l'épidémie de covid pouvant servir de déclencheur.

Dans le dernier numéro de la revue Nature Communications, une étude montre qu'il existe une relation entre l'utilisation des réseaux sociaux et le niveau de satisfaction que les adolescents ressentent par rapport à la vie. Dans certaines périodes charnières de la vie des jeunes, les réseaux sociaux ont une incidence plus forte ; c'est notamment le cas de la période allant de 11 à 13 ans chez les jeunes filles.

Enfin, depuis deux ans, un groupe de travail de l'Agence nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail (Anses) étudie les effets des réseaux sociaux ; il publiera un rapport d'ici à la fin de 2023.

M. Claude Malhuret, rapporteur. - Madame Mouton, vous avez mentionné les effets d'addiction induits par les contenus de certains forums ou vidéos à d'autres produits toxiques comme le tabac ou la e-cigarette. Pourriez-vous préciser les études qui existent sur ce sujet ?

Mme Servane Mouton. - De nombreuses études portent sur TikTok, mais rares sont celles qui concernent spécifiquement son mode de fonctionnement. En ce qui concerne la régulation des contenus, une étude s'est intéressée aux conséquences de l'interdiction de la promotion des e-cigarettes sur les réseaux sociaux, dont TikTok, par le Congrès américain. Tous les hashtags ont été retirés, mais la majorité des vidéos sont restées en ligne et leur taux de consultation a continué d'augmenter.

Une autre étude a porté sur l'image corporelle mise en avant sur les réseaux, à travers les conseils nutritionnels ou les publicités pour des produits d'alimentation. L'analyse des hashtags a montré que 97 % des vidéos étaient présentées par des jeunes filles blanches et minces, diffusant un message normatif concernant le poids. Or il s'agit là d'un sujet sur lequel les adolescentes sont fragiles.

Les études qui portent sur les effets de l'utilisation des réseaux sociaux sur la santé mentale ne sont pas tranchées. En effet, quand on parle d'usage excessif, cela ne concerne que 5 % des usagers. Mais lorsque l'on recense 4 milliards d'usagers, le taux de personnes concernées est considérable, d'autant qu'il s'agit souvent des plus fragiles, issues des milieux les plus défavorisés.

Les adolescents sont une catégorie particulièrement sensible parce que leur régulation émotionnelle est moins bonne que celle des adultes Les réseaux sociaux, tout comme les jeux vidéo, leur donnent l'illusion de contrôler leur image et leur offrent une évasion vers la virtualité qui leur évite de se confronter au réel. Cette protection n'en est évidemment pas une, d'autant qu'il faut aussi prendre en compte les dangers liés au droit à l'image. Il existe un lien évident entre la dysrégulation émotionnelle de l'adolescence et l'usage abusif des réseaux sociaux.

M. Claude Malhuret, rapporteur. - Comment limiter ces effets négatifs ? Faut-il réguler et comment ? Ou bien interdire les réseaux sociaux en deçà d'un certain âge ? Devrait-on s'inspirer des mécanismes de régulation prévus pour la version chinoise de l'application, c'est-à-dire le blocage automatique du temps d'écran après quarante minutes d'utilisation ?

Mme Sabine Duflo. - Les réseaux sociaux sont un produit addictif qui est mis dans les mains de mineurs. Jusqu'à présent, les politiques de santé concernant les produits addictifs ont toutes montré que la stratégie de sensibilisation ne suffisait pas : l'alcool en est la preuve, qui a été interdit aux moins de 14 ans dans les cantines en 1956, puis supprimé pour les lycéens en 1980. Désormais, très peu d'enfants souffrent d'alcoolisme chronique, alors que ce n'était pas le cas au début du siècle dernier. Par conséquent, à chaque fois qu'un produit est dangereux pour les mineurs, il faut les protéger et donc l'interdire.

Je considère que, pour les enfants de 0 à 10 ans, c'est aux parents d'être maîtres du jeu et de prendre les décisions qui s'imposent pour limiter le temps passé devant les écrans à une heure ou deux pendant le weekend, en surveillant les contenus. L'exemplarité a aussi son importance.

À partir de l'entrée en sixième, le problème vient davantage de l'école. En effet, les enseignants utilisent des applications pour communiquer avec les élèves, notamment pour leur transmettre les devoirs à faire. Pour faire un exposé, on utilise WhatsApp. Par conséquent, tout encourage les enfants à aller devant les écrans et à consulter les réseaux sociaux, les parents finissant par être dépossédés de leur rôle éducatif.

Mme Servane Mouton. - Éduquer ne suffit pas. Seules les mesures radicales d'interdiction fonctionnent.

Je ne crois pas que la comparaison des réseaux sociaux et des jeux vidéo avec des produits addictifs soit exagérée. Les conséquences sur la santé sont lourdes. Les temps d'exposition excessifs favorisent la sédentarité et ne sont pas bons pour la santé. Ils ont des effets délétères sur le sommeil et sur la vision - on constate déjà une « épidémie » de myopie. Il faut donc protéger les mineurs. La proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne doit être examinée au Sénat très prochainement, ce qui témoigne d'une préoccupation croissante quant à l'utilisation de ces réseaux. Il n'en reste pas moins que, pour l'instant, un mineur est protégé de la pédopornographie dans tous les cas de figure, sauf sur les écrans. En outre, tous les risques liés à la société de consommation sont décuplés sur les écrans.

La situation n'était pas la même lorsque l'ordinateur était dans la pièce commune du logement ; désormais les écrans sont partout. Il faudrait que les moins de 18 ans n'aient pas de smartphone ni d'ordinateur portable pour limiter leur accès aux écrans, du moins tant qu'on ne sera pas capable de réguler la pratique.

Le problème de l'enseignement avec les écrans place les parents dans une situation schizophrène. On donne aux enfants l'habitude d'utiliser un écran dans la vie courante, parfois dès la maternelle. En les exposant ainsi, on les empêche d'apprendre à se contrôler correctement ; comment pourraient-ils le faire une fois adultes, alors qu'ils n'auront jamais connu le monde sans écran ?

Nous traversons des crises écosystémiques et écologiques. N'oublions pas non plus que l'impact écologique, aussi bien direct que lié à la tendance consumériste que cela encourage, est considérable. Nous ne pouvons continuer à développer cette technologie sans réfléchir à sa bonne utilisation. La France doit être pionnière dans un numérique raisonné.

Mme Annick Billon. - Je suis d'accord : les réseaux sociaux sont la seule drogue gratuite disponible partout, 24 heures sur 24. La délégation aux droits des femmes du Sénat, durant six mois, a travaillé pour publier le rapport intitulé Porno : l'enfer du décor. Nous devrions pouvoir agir. L'éducation à la sexualité n'est pas dispensée : la loi doit s'appliquer. Il en va de même pour l'accès des mineurs aux films pornographiques, qui ne consiste qu'en un clic pour confirmer son âge. Nous devons trouver les moyens, au-delà du projet de loi numérique en cours d'élaboration, d'y mettre fin.

Nous parlons d'éducation. En tant que praticiennes, estimez-vous que le corps médical est suffisamment formé pour analyser les troubles de la santé - angoisse, troubles de l'attention, comportements à risque - dont souffrent les enfants ? Cela va jusqu'à l'estime de soi et la capacité d'empathie : avec les réseaux sociaux, la relation humaine perd en valeur et en quantité.

Ensuite, les réseaux sociaux, tout comme l'industrie de la pornographie depuis les années 2000, sont désormais gérés par des financiers plutôt que par des acteurs spécialisés. N'y a-t-il pas une responsabilité à trouver pour ces diffuseurs d'images, par exemple lorsqu'on laisse tourner en boucle des vidéos poussant des adolescents à l'anorexie ou à la scarification ? Ne manquons-nous pas de courage en laissant circuler ce qui serait inacceptable dans la sphère publique ?

Ensuite, y a-t-il un lien entre l'âge où commence l'exposition et la progression exponentielle observée entre les jeunes de 8 à 12 ans et ceux de 16 à 18 ans ? Les risques sont-ils les mêmes ? Nous nous estimons, en tant qu'adultes, préservés. Mais tout ce qui régulera les mineurs protégera aussi la société entière et ce qu'elle a d'empathique et d'humain. L'actualité montre, en effet, le potentiel de diffusion de fausses informations. Le risque est pour tout le monde.

Enfin, je délivrerai un message d'espoir : des réseaux d'adolescents, refusant les smartphones, reviennent au téléphone à clapet, même s'ils forment une communauté sur TikTok...

M. Claude Malhuret, rapporteur. - Leur sort sera-t-il celui des canuts ?

Mme Sabine Duflo. - Non, le corps médical n'est pas formé. Cela fait dix ans que je tire le signal d'alarme, notamment aux rencontres annuelles des lanceurs d'alerte, et j'ai publié un livre à ce sujet en 2018. Or c'est par la formation qu'on agira en profondeur. Rien ne sert, sans explication, de dire aux parents qu'il faut diminuer les écrans. En revanche, il faut poser la question du temps et discuter de l'effet sur le développement. En avoir conscience permet de tenir un engagement, avec les parents, mais aussi avec l'adolescent seul. Les résultats sont magiques : avec un tout petit, passer de 5 heures par jour à aucune relance son développement de manière considérable. Même avec des adolescents, qui sont conscients des addictions, on constate des effets très positifs au sevrage. Il faut donc former les médecins. Deux ou trois séances sont nécessaires pour diminuer la consommation d'un produit addictif.

Ensuite, plus l'enfant est jeune, plus les effets sont graves. C'est dans l'interaction continue qu'un petit être humain développe ses compétences les plus importantes : langage, attention volontaire, relations sociales, compréhension. Lorsqu'elle est parasitée par l'écran, en bruit de fond dans le salon par exemple, ou parce que l'adulte consulte son téléphone, on aboutit à une technoférence - interférence des écrans - et des comportements perturbés. Les bébés dont la mère consulte le portable lorsqu'elle s'occupe d'eux sont plus stressés et explorent moins leur environnement. En outre, les enfants exposés très tôt à l'écran ont une communication verbale et non verbale très retardée, qui n'est pas sans évoquer des signes d'autisme.

Tous ces troubles diminuent avec l'âge, mais un enfant très préservé jusqu'à douze ans et recevant soudainement des écrans, sans développer de grave retard, tombera tout aussi facilement dans l'addiction. Il aura cependant de meilleures facultés de récupération et pourra revenir à la lecture, parce qu'il l'aura apprise. Les enfants exposés très jeunes aux écrans ne développent ni savoir, ni savoir-faire, ni savoir-être.

Concernant la responsabilité, TikTok et les autres réseaux sociaux font de l'utilisateur un véritable panneau publicitaire. Les influenceurs sont payés à chaque abonné, mais les jeunes, même sans rémunération, sont vecteurs de publicité. L'adhésion à une société marchande de l'utilisateur et de celui qui poste ses vidéos est totale : par exemple une jeune fille se filmant en train de se maquiller les yeux montrera sa palette.

Mme Servane Mouton. - Il n'y a pas, à ma connaissance, de formation consacrée au numérique en neurologie. Nous avons récemment organisé une journée de conférence à l'ENS Lyon, mais ce n'est qu'une initiative locale. Des avancées ont lieu, avec un module de santé environnementale pour les étudiants en première année de médecine depuis cette dernière rentrée, mais cela reste très modeste et dépend d'initiatives individuelles.

Je ne sais pas à quel point le législateur français peut réguler les industriels, mais on ne peut imputer la responsabilité des mauvais usages à l'utilisateur. Il y a trop d'intérêts financiers pour innocenter les industriels, complètement coupables, qui agissent de manière délibérée. TikTok est une entreprise chinoise, mais les réseaux sociaux anglo-saxons fonctionnent de la même manière.

Cependant, au-delà de la régulation, les chercheurs sur ces produits addictifs ou addictifs-like - réseaux sociaux, pornographie, jeux vidéo notamment - demandent une transparence de ces industriels sur leurs algorithmes et processus de développement. Je suis en lien avec des chercheurs en Suisse, sur les jeux vidéo, et en Allemagne, sur les réseaux sociaux : le rétro engineering est un travail de fourmi soumis à des règles, légitimes, sur les cobayes humains, semblables à celle de la commission de protection des personnes.

Or un industriel n'y est pas soumis : développer le produit, avec des panels d'usagers, est bien plus rapide que de son examen par les chercheurs institutionnels. On court donc toujours après les produits en raison du deux poids, deux mesures en recherche humaine, industrielle d'un côté, scientifique de l'autre. Ce sont d'ailleurs aussi des neuropsychologues et des neuroscientifiques qui travaillent pour l'industrie.

La publicité n'a pas attendu 2023 pour démontrer son efficacité, mais nous atteignons un paroxysme de quantité, de qualité et de finesse d'analyse. Le temps d'écran, qui est la source de tant de problèmes de santé qui ressurgiront dans quelques décennies - troubles cardiovasculaires et métaboliques, entre autres - devrait nous inciter à nous arc-bouter collectivement contre cette économie de l'attention. Mon livre est issu de ce constat : j'étais incrédule face aux premières lectures que j'ai faites sur ces sujets, je pensais devenir complotiste... mais nous ne pouvons laisser faire. Vu la profondeur de la littérature et la qualité des personnes avec qui je me suis entretenue, force est de constater que c'est vrai. J'ai l'espoir que vous aurez le pouvoir de changer les choses. Je dis souvent que nous sommes David contre Goliath, mais n'oublions pas que David a gagné...

M. Claude Malhuret, rapporteur. - Madame Duflo, l'usage des réseaux sociaux, TikTok notamment, n'est-il pas de nature à creuser les inégalités, notamment scolaires, entre des familles plus aisées régulant davantage que celles qui le sont moins ?

Mme Sabine Duflo. - Toutes les études montrent - notamment la dernière étude longitudinale française depuis l'enfance (Elfe) - que l'exposition précoce aux écrans, souvent excessive et à des contenus inadaptés, touche davantage les familles dont la mère est jeune, dont les parents ont un faible niveau d'instruction, monoparentales ou issues de l'immigration. La connaissance, dans ces foyers, est transmise bien plus par les réseaux sociaux et l'audiovisuel que par le livre. De plus, les familles favorisées ont une attitude plus active dans la recherche d'information et ont plus confiance en leurs compétences parentales. Les enseignants repèrent rapidement les enfants ayant un usage important des écrans, rien qu'à leur expression.

Cependant, ces familles défavorisées, une fois informées, prennent les bonnes mesures. Toutes se demandent pourquoi elles n'ont pas été informées plus tôt. Elles s'imposent alors une discipline qui, puisqu'elle produit des effets positifs, perdure.

M. Mickaël Vallet, président. - Vous disiez que le cerveau aime la nouveauté. Mme Duflo mentionnait qu'il n'y avait pas d'arbitrage possible pour l'enfant, lorsque l'écran s'ouvre, entre Pronote et quelque chose de plus attractif. Il semble que, depuis le covid et faute d'instruction claire aux enseignants, le cahier de textes n'existe plus : on prend la photo des devoirs au tableau qu'on fait circuler sur Instagram. Certains élèves sont obligés de s'y abonner pour suivre. Cela dépend totalement de l'enseignant, mais c'est du vécu.

Certains jeunes ont une addiction alimentaire morbide, mais les barres chocolatées sont en vente libre. Quand doit-on apprendre aux parents et aux élèves comment fonctionne leur cerveau ? À l'école, contrairement à mes parents, j'ai appris la différence entre glucides et lipides. Mais personne n'apprend comment fonctionne le cerveau, pourtant utilisé par les enfants comme les enseignants toute la journée. Il reste des neuromythes : on croit encore que lire sa leçon avant de se coucher aide à l'apprendre, ce que les études démentent. Quand et comment faire cette éducation à la parentalité, numérique, mais aussi plus large ?

Madame Mouton, faut-il apprendre le fonctionnement du cerveau ? Cela serait-il utile ? Quand le faire ?

Mme Servane Mouton. - Je ne sais pas quand le système nerveux est abordé dans les programmes...

M. Mickaël Vallet, président. - Il y a un apprentissage sur la physiologie, mais pour ce qui est de décrypter les neuromythes et apprendre comment on apprend, c'est simple : cela n'existe pas.

Mme Servane Mouton. - J'ai confiance en l'humain. Si nous savions tous ce que nous risquons et comment notre cerveau fonctionne, nous agirions autrement. Interdire sans expliquer n'est pas productif. Il faut s'approprier les raisons des interdictions, par exemple, de l'écran avant 6 ans et du téléphone portable avant 18 ans.

Ces outils s'appuient sur le fonctionnement même du cerveau, qui est en gestation depuis des centaines de milliers d'années : nous ne sommes pas armés. C'est la même chose pour le sucre ; c'est presque problématique que les barres chocolatées soient en vente libre... Les écrans sont tellement globaux - en tirant la pelote, on se rend compte qu'ils nuisent au neurodéveloppement, mais aussi aux adultes, à l'ensemble du corps humain, aux capacités d'apprentissage - que c'est une véritable question sociétale.

Mme Sabine Duflo. - Le bon moment pour intervenir, c'est dans les maternités, quand les mères sont enceintes : les jeunes femmes adultes consultent leur portable six à sept heures par jour. Cette addiction, nous la subissons tous. Nous devons, pour bien nous occuper de l'enfant, quitter le téléphone et nous occuper de lui en continu. Je parle sans jugement : je suis contente d'avoir des enfants qui sont grands...

M. Mickaël Vallet, président. - Nous vous remercions du temps que vous nous avez consacré.

Audition de M. Romain Badouard, maître de conférences en sciences de l'information et de la communication à l'Université Panthéon-Assas, le 15 mai 2023

M. Mickaël Vallet, président. - Nous poursuivons nos auditions avec M. Romain Badouard, maître de conférences en sciences de l'information et de la communication à l'université Panthéon-Assas.

Vous avez publié en 2020 Les nouvelles lois du web, dans lequel vous détailliez vos pistes pour assurer une régulation démocratique des contenus en ligne. Selon vous, trois principes devraient guider cette régulation : la transparence des procédures, la reconnaissance d'un droit d'appel, et enfin la création d'une agence publique indépendante, chargée de contrôler l'action des plateformes en matière de régulation des contenus - ce point nous intéresse particulièrement, par rapport à la situation actuelle. Par ailleurs, alors que 19 plateformes dont TikTok doivent se conformer d'ici à la fin du mois d'août aux obligations imposées par le règlement européen sur les services numériques - le Digital Services Act (DSA) -, nous aimerions connaitre votre analyse sur ce règlement : ses exigences vous paraissent-elles suffisantes ? Seront-elles applicables ? Ceux qui sont chargés de l'appliquer en ont-ils les moyens ?

Enfin, plus globalement, nous souhaiterions vous entendre sur les spécificités de la politique de modération de TikTok et sur les cas de censure ou de « fantomisation » de contenus sur l'application. Comment est organisée cette modération, entre action des algorithmes et intervention humaine ? TikTok a-t-elle des stratégies pour stopper la viralité de certains contenus jugés indésirables ? Le fait-elle ?

Cette audition est captée et diffusée en direct sur le site du Sénat.

Je rappelle qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.

Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure. »

Conformément à la procédure applicable aux commissions d'enquête, M. Romain Badouard prête serment.

M. Romain Badouard, maître de conférences en sciences de l'information et de la communication à l'Université Panthéon-Assas. - Je vous remercie de votre invitation sur la régulation des plateformes et la modération.

J'ai travaillé comme chercheur en sciences sociales sur la modération sur les réseaux sociaux, sous l'angle des conditions d'exercice de la liberté d'expression sur internet. Dans ce cas, je me suis intéressé aux grandes plateformes, comme YouTube et Facebook particulièrement. Je ne suis pas un spécialiste à proprement parler de TikTok, mais pour préparer cette audition, je me suis plongé dans les documents de la firme et dans différents articles scientifiques. Je vais donc vous présenter mon regard sur la modération de TikTok, à partir de cette étude qui n'est pas exhaustive, et qui repose sur les données auxquelles j'ai pu accéder.

Lorsque je me suis intéressé à ce sujet, j'ai été frappé par les similarités qui existent entre la modération sur TikTok et celle sur Facebook. Ce n'est pas anodin, puisqu'à partir du printemps 2020, TikTok a entrepris une grande réforme de son dispositif de modération. Au même moment, l'entreprise a embauché d'anciens cadres de Facebook. On peut donc imaginer que ces embauches ont contribué, justement, à cette réforme, qui suit en bien des points les pas de Meta et de Facebook.

La période de cette réforme, au printemps 2020, n'est pas non plus anodine : c'était pendant le premier confinement, une période d'explosion des usages, mais aussi de controverse sur la désinformation sanitaire sur les réseaux sociaux en général, et sur TikTok en particulier.

De la même façon, Facebook avait entrepris au printemps 2017 une grande réforme de son dispositif de modération, liée cette fois aux auditions de Marck Zuckerberg devant le Congrès américain, à la suite de l'affaire russe. On voit bien que le regard que porte la société sur ces plateformes et les actions des régulateurs et des pouvoirs publics peuvent avoir des effets directs - nous reparlerons du DSA -, mais aussi indirects, en maintenant une pression sur ces acteurs économiques et en les poussant à se réformer.

Le dispositif de modération de TikTok est assez similaire à celui de Facebook, mais aussi à celui de Twitter et de YouTube. Actuellement, en règle générale, les grandes plateformes ont tendance à s'aligner sur une espace de standard, une norme commune de modération qui repose sur plusieurs éléments : d'abord, des règles de publication. Sur TikTok, elles sont appelées « règles communautaires » : elles déterminent ce qu'on a le droit de dire ou non, de montrer ou non, lorsqu'on utilise l'application. À l'origine, ces règles de modération étaient privées et opaques. Elles ont été rendues publiques en juillet 2020, et depuis elles sont régulièrement mises à jour et précisées.

À ces règles s'associent différents moyens de les appliquer. Le premier, c'est une procédure de signalement qui permet aux utilisateurs de l'application de pouvoir notifier des contenus qui leur sembleraient illégaux ou contraires aux règles de publication - toutes les plateformes ont ce type de procédure de signalement.

Autre élément central, les modérateurs humains vont revoir ces signalements pour décider de laisser en ligne ou de retirer la vidéo. TikTok ne communique pas sur le nombre de modérateurs qu'il emploie. Selon les différentes sources que j'ai pu consulter, ils seraient entre 10 000 et 20 000. TikTok évoque 40 000 personnes travaillant dans la modération, mais ce chiffre englobe tous les juristes et chercheurs en informatique qui développent des outils d'intelligence artificielle de modération ; ce ne sont donc pas des modérateurs à proprement parler qui passent en revue les contenus.

Facebook annonce 30 000 personnes travaillant dans la modération, mais en réalité ce sont 15 000 modérateurs qui passent en revue les contenus. Mais entre 10 et 20 000 modérateurs, cela reste un chiffre plutôt important par rapport aux autres entreprises du secteur.

La modération humaine ne suffit pas - et cela vaut pour toutes les plateformes. L'entreprise a atteint le nombre de deux milliards d'usagers actifs, donc le nombre de contenus est beaucoup trop important pour être traité uniquement humainement. Comme les autres plateformes, TikTok a parié sur l'intelligence artificielle pour automatiser la modération : elle entraîne des algorithmes à partir des bases de données constituées de vidéos retirées par les modérateurs humains pour que ces algorithmes apprennent à reconnaître des contenus illégaux ou qui contreviennent aux standards de publication.

Depuis 2019, TikTok publie des rapports de transparence chaque trimestre. Selon le dernier rapport, qui date du dernier trimestre 2022, 85 à 95 % des contenus retirés l'ont été automatiquement par l'intelligence artificielle. Cette tendance à l'automatisation, sur TikTok comme ailleurs, pose deux types de problèmes : d'une part, cette modération automatique est facilement contournable. On le voit dans le cadre de la lutte contre les discours de haine : les groupes racistes, misogynes, antisémites ou autres apprennent très rapidement à déjouer cette modération automatique, par exemple en utilisant un mot à la place d'un autre.

Deuxième problème, ce système génère des faux positifs, et aboutit à retirer des contenus légitimes. TikTok communique sur un taux de faux positif de 5 %, ce qui lui semble suffisamment bas pour généraliser l'automatisation ; mais à l'échelle des 85 millions de vidéos supprimées, cela en représente plusieurs millions durant le dernier trimestre.

Pour faire face au risque de censure abusive, TikTok a mis en place, comme les autres plateformes, des procédures d'appel, afin que les utilisateurs estimant avoir été victimes d'une censure abusive puissent demander un second examen de leur contenu par des modérateurs humains.

Dernier élément, la communication qui entoure cette modération : historiquement, les plateformes ne communiquaient pas sur leur modération. Mais, poussées par la société et les régulateurs, elles commencent à le faire. TikTok a suivi le même chemin que Facebook avec un centre de transparence via lequel on peut accéder à divers rapports sur les pratiques de modération. C'est une newsroom dans laquelle on trouve des actualités sur la politique de la firme, un centre d'aide aux usagers et des collaborations avec diverses organisations de la société civile. C'est très conforme aux évolutions de la modération sur les grandes plateformes de réseaux sociaux.

Pour autant, le système de modération comporte deux spécificités. D'abord, les contenus apparaissant dans la page d'actualité de l'application, « For You », ne sont pas forcément produits par les contacts que l'on suit. Cela paraît anodin, mais sur Facebook, Instagram ou Twitter, les contenus du fil d'actualité sont ceux qui sont postés par les gens qu'on a décidé de suivre ou avec lesquels on a noué un contact. Sur TikTok, l'exposition à l'information ne se fait donc pas via des liens d'affinité personnelle, mais en fonction des recommandations de l'application. Tout l'enjeu de la censure abusive ou de la promotion de contenus dangereux est donc lié aux recommandations sur cette page « For You » et aux conditions d'exclusion de ces recommandations, notamment le shadow banning - ou « fantomisation ». Celui-ci consiste non pas à supprimer un contenu, mais à le rendre invisible aux yeux des autres usagers ; les utilisateurs continuent à poster des vidéos, ils ont l'impression de s'exprimer normalement, mais en réalité, personne ne voit leurs contenus. On peut donc les couper de leur public.

Les contenus éligibles à la page d'accueil sont liés à des données d'usage - chacun a une page d'accueil différente, car les contenus sont diffusés en fonction de notre profil -, mais aussi de certaines thématiques. Et là, TikTok fixe une liste de thématiques exclues de ces recommandations : des vidéos abordant la santé mentale, qui montrent des scènes de sexe ou de violence explicite, qui propagent de la désinformation... C'est assez classique, mais ce que ne dit pas TikTok, mais qu'on retrouve dans différentes enquêtes journalistiques et des travaux de recherche, c'est que cette invisibilisation va plus loin, car elle exclut certaines thématiques politiques, notamment les contenus en lien avec les droits des minorités, dans des contextes divers : par exemple, en Chine, tous les contenus concernant les Ouïghours sont exclus du fil de recommandations. Aux États-Unis, il semble que des contenus concernant le mouvement Black Lives Matter aient été exclus, même lorsque ceux-ci étaient le fait d'utilisateurs très suivis sur ce réseau social. On observe aussi ce cas pour différents mouvements féministes dans des pays musulmans, notamment en Égypte, ou des cas concernant la communauté LGBT en Russie et dans beaucoup d'autres pays.

Deuxième spécificité de TikTok, son public est beaucoup plus jeune que celui des autres réseaux sociaux, ce qui pousse la plateforme à généraliser un certain nombre de restrictions à l'accès en fonction de l'âge et à calibrer les publics exposés à différentes informations selon un critère d'âge assez précis. Depuis l'été 2022, l'application a lancé un système de classification des contenus, donc des thèmes abordés sur TikTok, auquel est associé un score de maturité. En fonction du thème abordé dans votre vidéo, TikTok estime que ce thème est plus ou moins mature, et donc peut être rendu visible à certains types de public. C'est légitime notamment pour des contenus sexuellement explicites ou violents, mais cela peut aussi servir à exercer des formes de censure plus ou moins légitimes.

Autre point important, le rapport de TikTok au contexte local. Toutes les grandes plateformes ont mis en place des systèmes de modération à deux niveaux : il y a des règles communes de publication s'appliquant à tout le monde - les « règles communautaires » pour TikTok. Facebook, Twitter et YouTube ont la même chose. Ces règles internationales s'appliquent à tous les utilisateurs. Pour autant, ils essaient de s'adapter au contexte législatif dans lesquels ils exercent. En France, pendant longtemps, Facebook avait des règles de modération spécifiques liées aux lois relatives à la négation des génocides, qui n'étaient pas en vigueur aux États-Unis. TikTok adopte la même approche de modération à deux niveaux. Pour autant, alors que les autres plateformes ont une approche très légaliste de respect des lois nationales, TikTok a une approche plus culturelle. Voici ce qu'indiquent les documents de la firme : « Nous collaborons avec les experts régionaux et les communautés locales afin de garantir que notre approche mondiale reconnaisse les normes culturelles locales. Nous adaptons les applications régionales relatives à nos règles pour garantir que nous n'imposons pas les valeurs d'une région à une autre. » Cette vision de ne pas imposer les valeurs d'une région à une autre peut paraître légitime, mais elle peut aussi servir à des formes de censure, un peu moins avouables.

En septembre 2019, The Guardian a révélé des documents internes de la firme - depuis lors, il a affirmé que ces règles n'étaient plus en vigueur - qui mentionnaient que la firme interdisait de critiquer les lois et les règles d'un pays. On voit ce qu'on peut mettre derrière ce genre de règles : interdire d'évoquer les conflits religieux ou ethniques ou encore le séparatisme, avec des exemples touchant le Tibet et Taïwan pour la Chine, mais aussi le conflit nord-irlandais, la République de Tchétchénie en Russie, et aussi de manière générale « l'exagération de l'ampleur du conflit ethnique entre Blancs et Noirs », sans que l'on sache exactement ce que la firme met derrière.

Il est important d'avoir en tête que les chercheurs, les régulateurs ou les journalistes qui travaillent sur ces sujets sont dépendants des données qui sont fournies par les plateformes. Toutes les données chiffrées que j'ai pu vous communiquer sont issues des rapports de transparence de TikTok. Les grandes firmes nous donnent accès aux données auxquelles elles veulent bien donner accès. C'est une « opacité stratégique », comme l'appellent des chercheurs anglo-saxons : elles diffusent des rapports de transparence dans lesquelles elles montrent ce qu'elles veulent, elles noient les observateurs sous une grande masse de données et en profitent aussi pour garder secrètes des données bien plus stratégiques. Par exemple, aucun des rapports de transparence de TikTok, de Google pour YouTube ou de Meta pour Facebook ne nous donne d'informations concrètes sur la manière dont est opérée cette invisibilisation, et selon quels critères, et à quel type de sanction doivent faire face les usagers concernés.

C'est pourquoi l'entrée en vigueur du DSA suscite beaucoup d'espoir aussi bien du côté des régulateurs que des chercheurs, puisqu'il définit un certain nombre de données devant être rendues publiques. TikTok a initié en Europe des centres de transparence, lieux physiques dans lesquels des chercheurs indépendants de la firme peuvent avoir accès à un certain nombre de données. C'est une des pistes privilégiées par le DSA. Mais tout l'enjeu repose dans la mise en oeuvre de ces nouvelles obligations.

M. Mickaël Vallet, président. - Les données chiffrées sont issues des rapports de transparence des plateformes. Mais vous dites qu'il n'est pas possible d'évoquer la question ouïghoure en Chine, et que ce serait la même chose aux États-Unis pour Black Lives Matter. D'où tenez-vous ces informations ?

M. Romain Badouard. - Mes informations proviennent de travaux de journalistes ou de chercheurs, pour la plupart anglo-saxons. Certes, seules les grandes plateformes possèdent ces données sur la modération, mais une forme de contre-expertise de la société civile se met en place soit par des enquêtes journalistiques - les journalistes ayant accès à des rapports internes qui ne sont pas rendus publics -, soit par des organisations de la société civile, notamment les associations de défense des droits LGBT ou des mouvements féministes, qui réalisent des sortes d'audit des algorithmes via des tests pour voir comment ces derniers fonctionnent. Ils nous donnent ainsi accès à des données alternatives, produites contre les plateformes, ou en tout cas sans leur accord.

M. Mickaël Vallet, président. - Ce sont donc des données plutôt qualitatives, un peu comme quand SOS Racisme testait qui pouvait entrer dans les boîtes de nuit ?

M. Romain Badouard. - C'est un peu la même chose.

M. Claude Malhuret, rapporteur. - Vous proposez une instance de régulation des contenus et de surveillance de la modération ; le législateur se méfie toujours de la création de nouvelles agences. Actuellement, il existe la Commission nationale de l'informatique et des libertés (Cnil), l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) et l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) - certes, cette dernière n'est pas une organisation de régulation de contenus.

Estimez-vous que ces agences n'ont pas le périmètre nécessaire ni les moyens suffisants ? Qu'apporterait une nouvelle agence ?

M. Romain Badouard. - Effectivement, j'avais évoqué dans mon livre Les nouvelles lois du web une agence publique indépendance. À l'époque, l'Arcom n'existait pas encore, c'était encore le Conseil supérieur de l'audiovisuel (CSA) et la Haute Autorité pour la diffusion des oeuvres et la protection des droits sur internet (Hadopi). Aucune des deux agences n'avait la même couverture, et la Cnil, du fait de sa spécialisation sur la protection de la vie privée et des données personnelles, traitait des enjeux d'algorithmes, mais moins sous l'angle de la modération.

Aujourd'hui, il ne me semble pas nécessaire de créer une telle agence parce que l'Arcom joue ce rôle. Par contre, il est important de penser la manière dont les différents acteurs ont un rôle à jouer, à savoir que les plateformes doivent modérer les contenus, et exercent une sorte de police de l'expression. Cela me semble légitime parce que ce sont des entreprises privées, donc elles ont le droit de modérer. Elles sont encouragées à le faire, pour surveiller ce qui est dit lorsqu'on utilise leur service. C'est légitime.

Qu'un droit d'appel soit généralisé est important, pour faire face aux cas de censure abusive, et afin que les internautes puissent faire valoir leurs droits à la liberté d'expression ; c'est l'une des propositions du DSA.

Il me semble aussi nécessaire que l'Arcom ait le pouvoir de surveiller la manière dont les réseaux sociaux exercent leur modération, en ayant accès à un certain nombre de données qui figurent dans le DSA.

Enfin, quel est le rôle de la justice dans tout cela ? Dans le cadre de Meta, Facebook a mis en place il y a quelques années un conseil de surveillance - TikTok a une instance similaire - avec des personnalités de la société civile, sorte de « cour suprême » des contenus de Facebook pour rejuger les cas de retrait de vidéo. Est-il nécessaire de mettre en place ce genre de conseil en France ? Ce n'est pas évident. Mais comment la justice et le parquet numérique pourraient-ils se saisir des controverses autour de la modération ? C'est un point important à définir. On a eu des cas intéressants en France, avec des mouvements féministes qui ont porté plainte contre Instagram pour censure abusive, en demandant que ce réseau rende publique la manière dont les décisions de censure des contenus incriminés ont été prises.

Il faut donc de la modération, une agence publique observant sans contrôler trop fermement, et une justice pouvant prendre des décisions. Ce serait une articulation importante.

M. Claude Malhuret, rapporteur. - En définitive, vous dites que le DSA est en train de répondre à votre demande puisqu'il recommande des instances de régulation. À chaque pays de déterminer quelle instance doit s'en occuper - pour la France, l'Arcom ou une autre instance.

Je ne suis pas sûr que nous ayons quelque instance que ce soit qui satisfasse ce que vous demandez et ce que demande le DSA. La Cnil a condamné certaines plateformes, dont TikTok, à des amendes importantes, et fait son travail sur les données.

L'Arcom travaille sur les contenus : à moins que je sois mal informé, j'attends encore une intervention - dialogue, injonction ou sanction - de sa part. Or les contenus sont aussi importants que les données.

Une de ces instances peut-elle assurer ce que demain demandera le DSA ? L'expérience de ces instances est-elle suffisante, ou les souhaits du DSA devraient-ils être implémentés avec une agence spécifique ?

M. Romain Badouard. - Je pense que l'Arcom dispose des compétences et de l'expertise pour le faire - et elle est justement en train de muscler cette expertise. Elle collabore avec de nombreux chercheurs pour renforcer la régulation dans ce domaine.

Le DSA inclut de nouveaux pouvoirs de sanction. Pour les très grandes plateformes, dont les utilisateurs constituent plus de 10 % de la population européenne, c'est la Commission européenne qui sera chargée de la régulation, avec différentes échelles de sanctions et des amendes pouvant aller jusqu'à 4 % du chiffre d'affaires des plateformes. L'ultime nouvelle sanction serait la fermeture de l'accès au marché européen, même s'il reste peu probable qu'une telle sanction soit prise en Europe. Toutefois, l'impact potentiel sur les plateformes n'est pas négligeable, car Meta, Google ou Tiktok réalisent un chiffre d'affaires très important sur le continent européen. Les plateformes n'ont aucun intérêt à se voir restreindre cet accès, et ont donc tout intérêt à se conformer aux nouvelles règles en vigueur ; dans tous les cas, elles semblent s'y préparer. L'enjeu est de savoir quel type de données sera accessible au régulateur, et à quelles conditions. Plusieurs pistes sont en cours d'étude.

M. Claude Malhuret, rapporteur. - Vous dites que le DSA est un acte européen, et qu'il permettra de réguler les plateformes. Vous dites aussi que l'une des sanctions serait la fermeture du marché. Pour ce faire, il faudrait une décision européenne, et donc un régulateur européen. Est-ce une des pistes envisagées ?

M. Romain Badouard. - Le DSA prévoit une telle instance pour les très grandes plateformes : il s'agirait d'une agence européenne qui chapeauterait des régulateurs nationaux.

M. Claude Malhuret, rapporteur. - L'exemple de l'Irlande est proche : le régulateur irlandais, sans être le régulateur européen, est en lien avec les autres régulateurs nationaux.

Le DSA vous semble-t-il suffisant ? Faut-il y ajouter des prérogatives de modération et de contrôle des contenus ?

M. Romain Badouard. - Le DSA est très ambitieux. On a dit que les plateformes étaient plus fortes que les États; or un tournant est amorcé : la tentative de régulation est réelle par rapport à l'existant. Le DSA demande de la transparence aux plateformes, notamment en matière d'algorithmes. L'enjeu sera la mise en oeuvre et le type de données rendues publiques. En fait, la régulation des contenus peut se résumer par deux questions simples : qui est exposé à quoi et pourquoi ? Cela explique que deux usagers de TikTok voient des contenus très différents. Un nombre limité de données permettrait de répondre à la question des critères de sélection : telles sont les données auxquelles il faudrait avoir accès.

Le DSA s'attaque aussi au marché de la publicité. Les récentes controverses sur la désinformation ou la violence en ligne sont liées au modèle économique des plateformes, au fonctionnement de leur régime publicitaire, à l'absence de contrôle de ce régime publicitaire et au marketing ciblé. La régulation de la publicité en ligne a été un angle mort des plans de régulation. Le DSA prévoit d'interdire de cibler les adolescents et de cibler les utilisateurs en fonction de données personnelles telles que les opinions politiques, les préférences sexuelles ou les origines ethniques. Il faudra être vigilant sur la mise en oeuvre, mais cette interdiction, si elle est effective, serait une avancée intéressante. La transparence des recommandations et la possibilité donnée aux utilisateurs de choisir le contenu de ses recommandations, voilà aussi des pistes intéressantes exigées par le DSA. La mise en oeuvre sera ici aussi cruciale. Si tout cela est mis en place en 2024, le pouvoir donné aux usagers sera plus grand, les réseaux sociaux bien différents. Surveillons d'abord la mise en oeuvre avant de penser à de nouvelles règles.

M. Claude Malhuret, rapporteur. - Adolescents et enfants sont les principaux utilisateurs de Tiktok, et il n'y a aucun contrôle de l'âge. Or le DSA envisage la mise en place d'un tel système de contrôle. Les plateformes disent qu'il n'y a pas de solution satisfaisante aujourd'hui : le contrôle de l'État porterait atteinte aux libertés publiques et la double anonymisation n'est pas prête. Voyez-vous une issue ?

M. Romain Badouard. - La situation est complexe et emblématique de notre difficulté à réguler les plateformes, entre contrôle public du pouvoir de ces plateformes sur l'expression et défense de la liberté d'expression des citoyens, que servent aussi les plateformes. Pour le contrôle de l'âge, par exemple, n'imaginons pas une solution qui soit pire que le problème, à l'image du contrôle facial : nous donnerions un accès légal à des données biométriques. Le souhaitons-nous ?

Le système des tiers de confiance est un moindre mal : des associations pourraient vérifier l'âge de l'utilisateur des plateformes sans que l'utilisateur n'ait à communiquer ses données personnelles. Le Gouvernement a recommandé cette solution dans sa dernière loi. Étant donné le nombre d'utilisateurs de Tiktok, le défi technique semble de taille.

Concernant le DSA et son ambition, une nouvelle règle est que les très grandes plateformes doivent réaliser des audits indépendants. Ce serait un moyen efficace pour certifier que les données transmises soient bien authentiques.

M. Claude Malhuret, rapporteur. - Le contrôle des données et la modération n'impliquent-ils pas d'avoir accès à l'algorithme ?

M. Romain Badouard. - Pas forcément. Dans son dernier rapport de transparence, TikTok indique avoir retiré 100 millions de vidéos, dont 80 % de manière automatisée. Ils notent aussi le nombre de contenus retirés liés à la nudité ou aux discours de haine. En revanche, d'autres données manquent : type de vidéos invisibilisées, pourcentage de vidéos invisibilisées par rapport au volume total de vidéos, données sur les avertissements donnés aux utilisateurs en cas d'invisibilisation. Cependant, même parmi les données présentes, il est difficile de vérifier les chiffres. Un audit permettrait de certifier les données sans les rendre publiques, car les enjeux de secret industriel sont très importants.

M. Claude Malhuret, rapporteur. - Il faudrait donc que des acteurs aient accès à des données.

M. Romain Badouard. - Tout à fait, par exemple des agences indépendantes de data mining.

M. Claude Malhuret, rapporteur. - Le shadow banning est-il un problème grave ? Le DSA propose-t-il une solution ?

M. Romain Badouard. - L'enjeu est très important. C'est un nouveau régime d'exercice de la censure : on permet à quelqu'un de s'exprimer dans le vide, sans qu'il ne le sache.

M. Mickaël Vallet, président. - À l'image de nombreux scientifiques sur les plateaux de télévision, qui sont persuadés qu'on les écoute...

M. Romain Badouard. - Par exemple, un utilisateur Facebook suivi par 300 000 personnes constatera que, du jour au lendemain, ses vidéos ne sont vues que par 100 personnes. La raison semble alors inexplicable. Les plateformes, grâce à leur position d'intermédiaire, peuvent décider de paramétrer très précisément le public des contenus. Sur Youtube ou TikTok, les vidéos sont retirées des recommandations. Aux États-Unis, des influenceurs TikTok bons enfants, produisant des vidéos vues par des millions de personnes, ont constaté que des vidéos avec le hashtag #blm, pour Black Lives Matter, après la mort de George Floyd, n'étaient plus vues que par 1 000 ou 100 personnes. Ils ont par la même occasion constaté que seules les vidéos avec ce hashtag #blm étaient concernées, corroborant l'idée d'une forme de censure algorithmique.

Nous n'avons aucune information sur ce point dans les rapports de transparence : nous ne connaissons ni le nombre de personnes concernées ni les critères de sélection. Le flou est le plus total. Le DSA ne prend pas en charge cette question : s'il parle bien de « transparence de la recommandation », il faudrait aussi évoquer la transparence de la non-recommandation ou la transparence de l'invisibilisation ; or la pratique est généralisée, et nous ne disposons d'aucune information pour comprendre l'ampleur du phénomène.

M. Claude Malhuret, rapporteur. - Quant aux pousseurs, le flou règne tout autant.

M. Romain Badouard. - Effectivement, il n'y a pas de transparence non plus en la matière. On ne sait pas comment sont attribués les bonus à la visibilité.

Nous disposons d'informations seulement par l'intermédiaire des associations - les mouvements LGBT+ réalisent de nombreux tests -, mais TikTok a communiqué récemment en publiant les règles d'éligibilité à la recommandation, ou plutôt les contenus inéligibles. La liste est longue : montrer du sang humain ou animal, désinformation, théorie du complot, intégrité électorale, faux engagements, consommation de tabac ou nudité.

L'enjeu est de savoir comment est réalisé ce contrôle. Tiktok a travaillé avec des journalistes sur la désinformation, comme Facebook l'avait déjà fait. Les termes affichés sur la page concernant la désinformation sont très ambigus ; des lanceurs d'alerte pourraient être freinés. Le rapport de News Guard montre que, pour le covid ou la guerre en Ukraine, la désinformation reste très accessible. J'ai été très surpris de constater que, sur Tiktok, les vidéos de désinformation ou prorusses étaient très accessibles, sans savoir si ce résultat était lié à mes intérêts personnels - je suis ces questions sur les réseaux sociaux - ou s'il était lié à la présence de très nombreuses vidéos, ce que corrobore News Guard. Des règles sont mises en place pour exclure des contenus, mais on ne peut en connaître ni la porosité ni l'efficacité.

Mme Annick Billon. - L'Arcom est concernée par le projet de loi numérique à venir. La délégation aux droits des femmes avait produit un rapport sur l'industrie de la pornographie et avait proposé d'assermenter les agents de l'Arcom et de leur donner un pouvoir supérieur de sanction administrative, proposition reprise par ce projet de loi numérique. J'ai entendu vos réticences à l'égard du dispositif pérenne de la Cnil, du tiers de confiance et du contrôle d'accès par reconnaissance faciale : mais ne faut-il pas avancer pour réguler cette industrie ?

Sur les modérations humaine et algorithmique, dispose-t-on de données qualitatives, quantitatives et de données sur l'efficacité de l'une par rapport à l'autre ? En matière de modération, est-il normal que cette industrie s'autorégule ? Ne faut-il pas une régulation extérieure ? Vous avez déjà en partie répondu, par le biais des réponses au rapporteur.

Sur l'organisation du flux d'actualité, nous pourrions imaginer un système de détermination d'un algorithme personnel. Cependant, tous les utilisateurs sont-ils assez éclairés pour le faire, sans tomber dans le piège des réseaux sociaux ? Dès lors, quid d'un réseau social public, quid de son financement ? Quel rôle jouent les monopoles ? Voyez le cas de Google : comment réussir à inverser la tendance ?

M. Romain Badouard. - Je ne suis pas réticent à l'idée d'un système de tiers de confiance, meilleure solution disponible actuellement. Pour les sites pornographiques, cela me semble plus facile à mettre en place, en raison du nombre d'utilisateurs.

Mme Annick Billon. - L'idée de majorité numérique reste la porte d'entrée pour un grand nombre de sujets numériques.

M. Romain Badouard. - Ce n'est pas parce qu'une solution n'est pas parfaite qu'il ne faut pas avancer.

Entre 85 et 95 % des vidéos de TikTok sont modérées automatiquement par des algorithmes, qui sont très performants pour la nudité ou la violence. Pour les contenus haineux, a fortiori pour le cyber harcèlement, cela est plus difficile. Il est facile d'utiliser un mot pour un autre et le cyber harcèlement est lié à un contexte social. Ainsi, le domaine du cyber harcèlement est le lieu où il y a le plus de modération humaine, même si la modération algorithmique y reste majoritaire.

Vous avez raison concernant le paramétrage des algorithmes. Facebook donne déjà cette possibilité : en explorant les paramètres, on peut décider de l'organisation du fil d'actualité. Il y a fort à parier que très peu de personnes utilisent cette option.

S'il est important de rendre possible le paramétrage pour celles et ceux qui le souhaitent, la manière de présenter les paramètres compte tout autant. En effet, la procédure pour personnaliser son fil d'actualité peut être obscure : elle nécessite d'entrer dans les paramètres, de cliquer une dizaine de fois... On peut hésiter, pour l'affichage, entre un critère temporel, de ciblage du contenu, etc. De plus, la visibilité pour faciliter le paramétrage diverge selon les plateformes ; elle dépend de leur bonne volonté.

Puisqu'il existe des chaînes de télévision et de radio publiques, pourquoi n'en serait-il pas de même pour les réseaux sociaux ? Aux États-Unis, de nombreuses recherches sont menées pour déterminer à quoi ils pourraient ressembler. Il en ressort qu'un réseau social public n'impliquerait pas forcément que l'État le détienne ; il devrait être à but non lucratif, détenu par des organisations de la société civile ou par des instituts de recherche. Ses conditions d'indépendance par rapport à l'État devraient être garanties par la loi, comme pour les chaînes de radio et de télévision publiques. Les usagers pourraient également participer à sa gouvernance afin de se prononcer sur la manière dont la modération s'exerce. Pour financer de tels réseaux publics aux États-Unis, une taxe minime sur les bénéfices des grandes firmes de la tech a été proposée.

Ces réseaux fonctionneraient-ils ? Les usagers suivraient-ils ? Pour tout réseau social, la règle économique est celle de l'effet de réseau : on se rend sur l'application où sont tous nos amis et où se trouvent le plus les utilisateurs. Plus ces derniers sont nombreux sur une application et créent de contenus, plus cette application présente d'intérêt pour de nouveaux publics.

Un Instagram ou un TikTok public rencontreraient-ils le succès ? On peut en douter. Néanmoins, ne serait-ce pas une bonne idée de mener une telle expérimentation ? Essayer de créer une telle architecture publique d'information, transparente et participative me semble digne d'intérêt. Même s'il ne faudrait pas forcément la calquer sur TikTok ou sur Instagram, elle permettrait de partager du contenu entre internautes : vidéos, photos, texte... Quand bien même elle ne serait pas une réussite, nous apprendrions beaucoup d'une telle expérience. Nous déterminerions ainsi ce que nous voulons et ce que nous craignons.

Cette question est liée à celle de la situation de monopole. En l'absence de concurrence, les réseaux ont un pouvoir d'autant plus grand et ne sont pas incités à agir de manière plus transparente. En effet, même si les réseaux sociaux sont nombreux, TikTok, Instagram, Facebook, YouTube et Twitch ont chacun leurs spécificités : ils évoluent ainsi sur des marchés qui ne sont pas concurrentiels. Là aussi, la Commission européenne essaie d'instituer de nouvelles règles, car la situation ne sera jamais satisfaisante tant que cette situation perdurera, ce qui est malheureusement un risque pour encore un long moment.

M. André Gattolin. - Vous évoquiez les modérateurs humains de TikTok. Je ne suis pas sûr d'avoir compris : vous avez parlé de 40 000 personnes, puis de 10 000 à 20 000. Que représentent ces chiffres ? D'où provient la différence ?

M. Romain Badouard. - Dans sa documentation officielle, TikTok déclare, en anglais, avoir 40 000 employés qui travaillent à la modération. Cela laisse entendre qu'autant de personnes sont en train de modérer les contenus, mais on peut en douter. Pour prendre l'exemple de Facebook, qui utilise des formules similaires, sur les 30 000 personnes qui travaillent dans la modération, seulement une moitié d'entre elles sont des modérateurs qui passent en revue des contenus. L'autre moitié est composée d'ingénieurs, qui travaillent sur les algorithmes de détection automatique, de juristes, qui se penchent sur l'adaptation des règles, et de personnel administratif employé dans les branches politiques publiques (public policies).

M. André Gattolin. - Cette modération est-elle centralisée ou, en fonction des marchés et territoires nationaux et linguistiques, décentralisée ?

M. Romain Badouard. - Je n'ai pas trouvé l'information pour TikTok. Peut-être existe-t-elle.

M. Mickaël Vallet, président. - Quand vous dites que vous n'avez pas trouvé l'information, leur avez-vous posé la question ?

M. Romain Badouard. - Je n'ai pas eu de contacts directs avec ce réseau. Dans les rapports de transparence qu'elle publie, l'entreprise ne communique pas sur ces modérateurs.

En Chine, un lanceur d'alerte a fait connaître la pression exercée par le gouvernement chinois concernant la modération sur TikTok : selon lui, 20 000 employés seraient dédiés à cette tâche pour l'ensemble du marché international. Pourtant, quand on regarde le modèle des autres plateformes - on peut s'attendre à ce que TikTok dispose du même -, le schéma classique est de répartir les forces de modération partout dans le monde, non pas en employant directement des modérateurs, mais en payant des agences ou des cabinets de conseil qui en emploient dans des centres spécifiques. Par exemple, pour Facebook, il n'existe pas de centre de modération en France, ceux de Berlin et de Barcelone s'occupant des contrôles pour le marché français.

Que les modérateurs soient situés en Chine ou ailleurs, il est sûr qu'ils travaillent dans une grande diversité de langues. J'ai vu circuler - il faudrait le vérifier - le nombre de 60 langues différentes, mais, pour faire simple, on ne connaît pas leur quantité. Pourtant, il serait important de la connaître.

M. André Gattolin. - Je mène de nombreuses recherches sur les données de TikTok. Or, en parlant d'absence de transparence, nous n'arrivons même pas à savoir le nombre d'employés de cette société ! Aux États-Unis, il a été déclaré au début de l'an passé que TikTok comptait 5 800 salariés, et que l'objectif à l'horizon de dix-huit mois ou deux ans était d'en employer 10 000, sans compter le volume extrêmement important de modérateurs.

Quand je fais des extrapolations en matière de modérateurs et d'employés, à partir de quelques chiffres relatifs à l'Inde et à plusieurs autres pays, et à partir d'estimations concernant l'Europe, TikTok - hors Douyin - aurait au total à son service plus de 50 000 ou 60 000 personnes pour un chiffre d'affaires global estimé en 2022 à 9,4 milliards de dollars. Si l'on calcule la masse salariale, surtout que l'entreprise débauche, sans même parler des petites mains derrière la modération, des ingénieurs dans la Silicon Valley et dans les grands pays européens, on ne peut s'en sortir sans un coût d'au moins 7 milliards à 8 milliards d'euros. Je ne comprends donc pas comment cette société peut gagner de l'argent ! Comment fonctionne-t-elle ?

Nous disposons à peu près du volume de public et de revenus publicitaires, car, aux États-Unis et en Europe, nous bénéficions d'évaluations du marché de la publicité, mais nous ne savons pas vraiment ce qu'il en est du chiffre d'affaires réellement contrôlé. Nous ne connaissons pas non plus le nombre d'employés ni leurs fonctions...

Nous parlions des pousseurs et du reach. Quand l'on fait une recherche sur internet, dans toutes les langues, sur TikTok en tapant « marketing » et « business model », il est étonnant de tomber sur des pages de l'entreprise comme « TikTok for business » : il nous y est expliqué comment valoriser notre entreprise de taille moyenne par l'entremise d'agences liées au réseau social, qui, me semble-t-il, ne font pas cela gratuitement. Par conséquent, une partie de la ressource s'évapore, d'autant que la ressource publicitaire n'est pas très élevée sur TikTok, car les formats ne permettent pas de mettre trop de publicité au risque que le public décroche.

J'y vois du mystère et une absence totale de transparence. Aux États-Unis, un phénomène connaît une croissance très rapide : le développement du « me-too marketing », c'est-à-dire le développement par les entreprises d'un produit de secours pour préserver leurs arrières en cas d'interdiction. C'est ce que semble faire TikTok avec Lemon 8, réseau qui, malgré quelques différences, ressemble beaucoup à TikTok. L'objectif serait de prendre les influenceurs les plus célèbres du réseau original pour les transférer dans ce nouveau système.

La question de la réglementation et du suivi se posera à nouveau concernant TikTok. L'impression est celle d'une course de rapidité de la part de cette entreprise dans une logique dont je ne perçois pas la rentabilité commerciale et économique, au moins sur les premières années. J'ai l'impression que TikTok dépense plus d'argent qu'il n'en rapporte.

Concernant la modération, même si on utilise du net slave et de l'intelligence artificielle, cela représente du monde et donc des dépenses, sans même prendre en compte celles en lien avec la technologie.

M. Romain Badouard. - Il est vrai que les volumes sont importants, mais le fait que TikTok dépense plus d'argent qu'il n'en gagne est un modèle classique dans le monde de la tech. L'enjeu est d'atteindre la masse critique d'utilisateurs pour commencer ensuite à monétiser les contenus par la publicité, ce que l'entreprise fait désormais davantage : la publicité est plus importante sur TikTok qu'il y a deux ans ; les utilisateurs peuvent verser des pourboires aux créateurs qu'ils apprécient ; des partenariats avec des marques mettent en avant certains contenus ; certaines travaillent avec des influenceurs sur le réseau, ce dernier prélevant une marge. Il existe donc une vraie diversification du modèle économique, sans que je puisse affirmer si elle explique à elle seule les montants auxquels nous avons affaire. Nous n'avons accès à aucune donnée alors que les normes de transparence seraient bien plus importantes pour n'importe quelle entreprise qui compterait 1 milliard de clients.

Une chercheuse américaine a comparé le monde technologique actuel à l'industrie automobile du début du XXsiècle. Elle note que, lorsque l'industrie automobile a connu un développement fulgurant, les ceintures de sécurité, les airbags et le code de la route n'existaient pas : pour la société et ses représentants, il a fallu légiférer pour imposer ces règles nouvelles. L'histoire des réseaux sociaux en est à ce stade, selon elle : leur développement explose, or les informations manquent et aucune règle ne leur est imposée. Nous en sommes au moment historique où nous réglementons.

Pour TikTok, il paraît assez incongru de ne pas être capable de répondre à des questions basiques : comment l'entreprise gagne-t-elle de l'argent ? Qui sont ses employés ? Que font-ils ? N'importe quelle société communique un minimum sur ces sujets ; les réseaux devront bientôt en faire de même.

M. André Gattolin. - Au cours d'une de nos auditions concernant les sociétés d'auteur, il nous a été indiqué que TikTok ne s'acquittait pas des taxes sur les vidéos et sur la publicité, contrairement à Meta et YouTube. Ne pas payer ces taxes représente pourtant une économie infime au regard des dépenses réalisées. C'est une manière de faire comprendre que TikTok n'accepte pas cette forme de régulation. Elle se rend ainsi suspecte dans ses procédés.

Un des responsables de la SACD nous assurait qu'il savait négocier avec une entreprise, mais pas avec le parti communiste chinois ; il ne voyait pas la rationalité dans la conduite de cette entreprise d'un point de vue entrepreneurial. Je ne pense pas qu'il y ait 40 000 modérateurs chez TikTok, même si les utilisateurs se comptent par milliards et les vidéos par dizaines de milliards. Même si contrôler manuellement est une course à l'échalote, la systématisation de la modération me semble quasi totale.

M. Romain Badouard. - Je suis d'accord. Les journalistes qui enquêtent sur le sujet parlent de 10 000 à 20 000 modérateurs, un chiffre moindre, mais déjà important. Il serait intéressant de savoir qui sont ces gens, sur quels marchés ils travaillent, quelles langues ils maîtrisent, combien ils sont payés et à quels types de conséquences ils sont exposés à modérer les contenus sur TikTok : nous n'avons pas d'informations en la matière. J'aurais aimé pouvoir vous en dire plus.

M. Mickaël Vallet, président. - C'est en soi une réponse à nos interrogations. Nous vous remercions pour vos éclaircissements.

Audition de M. Eric Garandeau, directeur des affaires publiques
de TikTok SAS, le 8 juin 2023

M. Mickaël Vallet, président. - Chers collègues, nous entendons aujourd'hui Éric Garandeau, directeur des relations gouvernementales et des politiques publiques de TikTok pour la France.

Monsieur Garandeau, vous êtes inspecteur des finances. Vous avez notamment été conseiller auprès de Jean-Jacques Aillagon, ministre de la Culture et de la Communication, de 2002 à 2004, puis conseiller du président Nicolas Sarkozy chargé des dossiers de culture et de communication entre 2007 et 2010. Vous avez présidé le Centre national du cinéma et de l'image animée (CNC) de 2011 à 2013.

Vous êtes président de la société Garandeau Consulting, société de conseil en innovation et ingénierie de projets dans le domaine culturel, audiovisuel et de la transformation numérique. Enfin, vous avez été nommé directeur des affaires publiques de TikTok France en septembre 2020.

Comme vous le savez, notre commission d'enquête s'intéresse à TikTok sous plusieurs angles : celui de la protection des données, celui des sujets de désinformation et d'influence, mais aussi les questions relatives aux effets psychologiques et sanitaires éventuels de l'application, notamment chez les enfants. Nos travaux nous ont également donné l'occasion d'aborder les sujets relatifs aux droits d'auteur. Sur l'ensemble de ces thèmes, le rapporteur et les membres de la commission d'enquête qui le souhaiteront auront des questions à vous poser. Toutefois, je vais d'abord vous donner la parole pour un bref propos liminaire si vous le souhaitez, au cours duquel vous pourrez notamment nous préciser vos fonctions au sein de TikTok.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat. Avant de vous laisser la parole, je vais procéder aux formalités d'usage pour les commissions d'enquête. Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

M. Garandeau lève la main droite et dit « Je le jure ».

Vous avez la parole.

M. Eric Garandeau, directeur des affaires publiques de TikTok SAS. - Monsieur le président, monsieur le rapporteur, mesdames, et messieurs les sénateurs, je commence par me présenter. Je suis directeur des relations institutionnelles et des affaires publiques de TikTok en France. J'ai été recruté le 7 septembre 2020 après plus de 20 ans de carrière au service de la culture, de l'innovation et du numérique. J'ai rejoint TikTok car cette plateforme apporte une nouvelle culture, une nouvelle écriture audiovisuelle et une nouvelle génération de cinéastes avec des codes qui leur sont propres. C'est aussi une nouvelle manière de diffuser et de partager des oeuvres et des moments de vie au profit du plus grand nombre : musique, énergie, vitesse, joies du partage, dialogue des cultures sur la toile du monde. Au fond, TikTok nous renvoie aux années folles, au surréalisme, à l'invention du cinématographe. TikTok est « la minute Lumière » au format vertical.

Je vous remercie de cette opportunité qui nous est donnée d'intervenir devant votre commission. Nous avons mobilisé l'ensemble de nos équipes pour répondre avec la plus grande attention à tous les questionnaires qui nous ont été adressées. Cette audition permet de répondre plus directement à vos attentes et à vos légitimes interrogations.

TikTok a été créé il y a moins de six ans et appartient au groupe ByteDance limited fondée en 2012. Sa direction opérationnelle est partagée entre Singapour où réside notre CEO, et les États-Unis, à Los Angeles, où sont localisées les centres de décision sur les opérations. Enfin, c'est à Dublin, en Europe, que notre entité dénommée Trust and Safety (confiance et sûreté), dotée de 40 000 personnes, assure la sécurité et la protection des utilisateurs et de leurs données, sous le pilotage global d'un directeur de nationalité irlandaise.

Nos priorités n'ont jamais changé. La plus ardente est la sécurité et le bien-être de nos utilisateurs. Notre politique de traitement des données vise aux plus hauts standards de sécurité. Elle est fondée sur un principe clé, celui de la souveraineté numérique, qui passe par la localisation des données au plus près des utilisateurs, avec intervention d'un tiers de confiance et un recours aux technologies de protection les plus avancées. La protection des jeunes utilisateurs âgés de 13 ans et plus est aussi au coeur de nos préoccupations, ce qui passe par des fonctionnalités restreintes, des contenus adaptés, une limitation du temps d'écran. Tout cela est réalisé en étroite collaboration avec le monde académique et les associations spécialisées - je pense notamment à l'association e-enfance.

La deuxième priorité est d'oeuvrer au service de nos utilisateurs et de leur communauté, au plus près. C'est la raison pour laquelle TikTok développe des équipes locales dans les différents pays chargées d'accompagner les créateurs, les institutions, les marques. Marlène Masure pourra cet après-midi vous en dire davantage sur ce sujet. Pour ma part, je suis naturellement chargé de veiller à ce que TikTok respecte pleinement les lois et règlements en vigueur mais aussi l'écosystème propre à la France. Pour que le développement de l'entreprise soit le plus utile possible à la société française dans toutes ses composantes, de l'éducation à la santé publique en passant par l'emploi, le tourisme, le soutien aux petites et moyennes entreprises, la contribution à l'information et au débat public, ainsi qu'au rayonnement international de la France et de ses territoires.

Mesdames et messieurs, je suis à votre disposition.

M. Mickaël Vallet. - Merci monsieur le directeur. Nous commençons par les questions du rapporteur.

M. Claude Malhuret, rapporteur. - Merci monsieur le président, et merci M.  Garandeau d'avoir répondu à notre invitation. Je ne sais pas s'il en est de même pour vous mais nous étions quant à nous impatients et curieux de vous entendre.

Lorsqu'on lit les déclarations des responsables de TikTok - pas seulement en France -, ou qu'on se rend sur les sites de TikTok, il y a un mot qui revient sans cesse, c'est celui de transparence. Je me permets de citer la page d'accueil de votre site français : « Chez TikTok, notre mission est d'inspirer la créativité et d'apporter la joie. Nous sommes passionnés par le fait de gagner la confiance de notre communauté, en construisant celle-ci de manière responsable, équitable et ouverte ». Nous avons interrogé beaucoup de monde pour cette commission d'enquête, que ce soit des régulateurs, des journalistes, des ministres, des commissaires européens et bien d'autres. Le mot qui revient 99 fois sur 100 est celui d'opacité. On peut le résumer par ce passage d'un article du Monde que vous me permettrez de citer, du 16 janvier 2023 : « Le travail de l'équipe dirigeante de TikTok en France consiste en réalité à tenter de nettoyer l'image d'opacité, sans perdre en opacité. C'est ainsi qu'en 2020 l'entreprise a recruté Éric Garandeau, nommé directeur des affaires publiques. L'utile entremetteur joue le monsieur incendie, s'emploie à l'évangélisation des cabinets ministériels et agite ses réseaux en tous sens ». Je ne doute pas que vous ayez aujourd'hui à coeur de démontrer la pertinence de la devise de TikTok sur son site et de faire mentir cet article et l'impression plutôt mitigée qu'il donne de votre entreprise. Vous souhaitez sûrement nous faire ici une démonstration de transparence.

Je voudrais commencer, pour que tout le monde sache de quoi on parle, par l'organigramme de l'organisation de TikTok France. Vous nous l'avez fait parvenir ; il est même assez détaillé. Il manque juste une personne dans cet organigramme : la présidente de TikTok France. Cela nous a un peu surpris. C'est un peu comme si on demandait l'organigramme de Facebook et qu'il n'y avait pas M. Zuckerberg. Nous avons pris d'autres renseignements du côté de Bercy et du côté du tribunal de commerce. Nous nous sommes rendus compte que la présidente de TikTok France, c'est-à-dire celle qui a signé et a déposé les statuts au tribunal de commerce, s'appelle madame Zhao Tian. C'est une Chinoise de Chine, pas une Chinoise de France. Elle a fait ses études à la célèbre Académie diplomatique de Pékin, qui forme les diplomates et tout ce qui est « paradiplomatique. Je trouve un peu dommage de ne pas avoir joint à cet organigramme la personne qui dirige juridiquement TikTok France, Madame Zhao Tian.

M. Eric Garandeau. - Monsieur le rapporteur, vous avez cité Facebook et son président. Le président de TikTok est connu, il s'agit de monsieur Shou Chew. Il est tout à fait connu et il représente régulièrement l'entreprise. S'agissant de TikTok SAS, c'est-à-dire de TikTok France, nous vous avons transmis l'organigramme qui correspond à la réalité de l'activité et de l'organisation de TikTok en France. La plupart des entreprises de la tech, y compris certainement celle que vous citiez, ont des filiales dans tous les pays du monde. Compte tenu d'une croissance très rapide, il est nécessaire de créer des filiales dans le monde entier. Pour des raisons de facilité, la même personne est nommée à la tête d'un grand nombre de filiales. Pour des raisons juridiques, il est nécessaire d'avoir un président dans chaque filiale mais cette personne n'exerce pas de responsabilités opérationnelles, à telle enseigne que je ne l'ai jamais rencontrée. Je crois d'ailleurs qu'elle est de nationalité canadienne et qu'elle opère sur des sujets d'éthique et de déontologie, mais absolument pas en France. Nous ne l'avons jamais rencontrée.

La réalité de l'organisation de l'entreprise - c'est, je pense, cela qui vous intéresse - est que nous sommes organisés en différentes directions. Chaque responsable de pôle (les relations institutionnelles pour ce qui me concerne, la direction des opérations et des contenus pour Marlène Masure) répond à un supérieur hiérarchique qui se trouve à Londres puisque TikTok UK est notre maison mère européenne. De même que je réponds à Theo Bertram, vice-président en charge des affaires publiques au niveau européen, Marlène Masure répond à Rich Waterworth, directeur général en charge des contenus et des opérations pour toute l'Europe. C'est ainsi que nous fonctionnons. Nous avons un troisième pôle : le Global Business Services, qui travaille pour le compte d'une troisième division, également située à Londres, au sein de TikTok UK. La personne que vous citiez n'a absolument aucun rôle opérationnel dans l'entreprise et je ne l'ai jamais rencontrée.

M. Claude Malhuret, rapporteur. - J'apporte une précision. Vous avez indiqué que Madame Zhao Tian était canadienne. Comme beaucoup de Chinois - et pour des raisons diverses - elle a pris une autre nationalité, en plus de sa nationalité chinoise. C'est toujours plus prudent... Elle est Chinoise, en plus d'avoir la nationalité canadienne.

Lorsque nous vous avons envoyé le questionnaire, nous vous avons demandé un certain nombre de renseignements sur l'actionnariat, question à laquelle nous n'avons pas aujourd'hui de réponse. Ce qui est important pour nous est autant le juridique que l'opérationnel. Nous souhaitions avoir l'ensemble de l'organigramme de TikTok. Il a fallu le chercher ailleurs. Par ailleurs, nous avons été surpris de constater que TikTok France, dont le chiffre d'affaires était de 29 millions d'euros l'an dernier et a dû doubler ou tripler cette année, était une société simplifiée à actionnaire unique. Cela est assez peu fréquent pour une société avec un chiffre d'affaires de ce montant. Juridiquement, Mme Zhao Tian est la seule habilitée à pouvoir prendre toute décision telles que la vente de la société, l'acquisition d'autres sociétés ou encore des décisions de fusion. Elle n'est peut-être pas opérationnelle mais sur le plan du devenir de l'entreprise, elle joue un rôle majeur.

Nous avons invité Mme Zhao Tian, ainsi que trois autres dirigeants de TikTok : M. Shou Chew, M. Zhang Yiming et M. Liang Rubo. Ils ne nous ont pas répondu encore ; je ne sais pas s'ils auront le temps de venir nous voir. Je comprends que Mme Zhao Tian n'ait pas le temps de venir nous voir parce qu'elle fait beaucoup d'autres choses, ce que vous avez reconnu. C'est tout de même un peu dommage qu'elle ne vienne pas visiter la France, alors qu'elle est la présidente directrice générale de TikTok France...Elle est également présidente de TikTok UK. Elle est aussi au board de TikTok Australie. Enfin, elle est également vice-présidente de Toutiao, ce qui pose problème.

Vous essayez désespérément de répondre à l'accusation permanente selon laquelle TikTok est une société chinoise, ou en tout cas une société dont le centre de décision se situe en Chine, sous influence du parti communiste chinois dans ses instances dirigeantes. Comme tous les dirigeants de TikTok en Occident, vous assurez n'avoir rien à voir avec la Chine. Les entités seraient séparées, ByteDance et TikTok étant enregistrés aux îles Caïman. Vous n'auriez rien à voir avec Douyin, nouveau nom de ByteDance Chine. Toutiao est une filiale de Douyin. Vous nous expliquez qu'il n'y a aucun lien entre les TikTok occidentaux et les entités chinoises. Or, la présence de Mme Zhao Tian, vice-présidente de Toutiao, à la tête de TikTok France semble démontrer l'inverse. Elle a d'ailleurs récemment partagé sur son LinkedIn un post indiquant qu'elle était à ce poste depuis 8 ans et trois mois et qu'elle en était très fière. Dans ces conditions, comment peut-on affirmer que TikTok France n'a pas de lien avec ByteDance Chine ?

M. Eric Garandeau. - Monsieur le rapporteur, je pense qu'il est peut-être utile pour l'auditoire de rappeler l'organisation du groupe ByteDance, comme vous l'avez fait rapidement. En matière d'organisation juridique du groupe, il y a bien une séparation totale entre TikTok et d'autres entités opérant en Chine. ByteDance Limited, maison mère immatriculée dans un territoire britannique d'outre-mer, détient à 100 % TikTok limited. TikTok limited a quant à lui des filiales dans les différents territoires, aux États-Unis et en Europe. En Europe se trouvent TikTok UK et TikTok Irlande. TikTok Irlande est l'entité en charge d'opérer la plateforme, d'avoir des relations avec les utilisateurs et les autorités de régulation, pour tout ce qui concerne par exemple l'application du RGPD ou encore du DSA. TikTok UK, outre qu'elle opère la plateforme pour les citoyens britanniques, est aussi notre entité maison mère pour l'Europe, dont TikTok SAS France est aussi la filiale. En termes d'organisation verticale, du haut en bas, de Bytedance limited jusqu'à TikTok SAS, la chaîne est bien entièrement soumise à un droit qui n'est pas chinois, mais qui est conforme aux droits des pays dans lesquels ces entités opèrent. Il n'y a aucun lien avec la Chine. Le lien se fait, comme vous le disiez, au niveau de Douyin, filiale de ByteDance Limited. Les deux sont totalement détachés.

S'agissant de la présidente de TikTok SAS, comme c'est l'usage dans un grand nombre d'entreprises technologiques mondialisées (TikTok est présent dans plus de 80 pays), il est très usuel que des dizaines de filiales soient créées en même temps. Par facilité, c'est la même personne qui est présidente de chaque filiale mais cela n'entraine aucune responsabilité opérationnelle. Comme je vous l'ai indiqué, je n'ai jamais vu cette personne, ni à l'occasion de mon recrutement, ni par la suite. J'ai été recruté par M. Theo Bertram, par Rich Waterworth et par le CEO de TikTok de l'époque, Kevin Mayer. Mme Zhao Tian n'a jamais eu la moindre responsabilité dans TikTok SAS.

M. Claude Malhuret, rapporteur. - Je viens pourtant de vous indiquer qu'elle avait tout pouvoir sur l'avenir juridique de TikTok. Elle peut décider demain de vendre la société ou de la dissoudre puisqu'elle en est l'actionnaire unique. Je regrette que vous ne l'ayez jamais vue. Elle a des fonctions juridiquement extrêmement importantes sur le contrôle de la société. Vous m'avez parlé de l'enchainement vertical des sociétés. J'insiste quant à moi sur les relations horizontales. Vous essayez désespérément depuis trois ans - et encore plus depuis les décisions d'interdiction aux États-Unis et en Europe - de réfuter les liens entre les deux entités. Or, Mme Zhao Tian a bien des responsabilités juridiques, aussi bien en Chine qu'en France et dans d'autres pays. Vous comprenez bien que ça pose un problème. Le discours qui consiste à dire qu'il n'y a pas de lien est quand même difficile à tenir.

M. Eric Garandeau. - TikTok SAS est détenue par TikTok UK, qui est lui- même détenu par TikTok limited, détenu par ByteDance limited. M. Shou Chew est le CEO de TikTok. Suivent des chaînes opérationnelles composées des relations publiques, du marketing et des fonctions commerciales. Voilà la chaîne hiérarchique de notre groupe. La fonction de présidente est une fonction purement formelle, elle n'a aucune conséquence opérationnelle.

M. Claude Malhuret, rapporteur. - Mais elle a des conséquences juridiques, nous sommes d'accord ?

M. Eric Garandeau. - Elle n'a pas de conséquences dans la manière dont le groupe est dirigé. Par ailleurs, indépendamment de cette organisation juridique, nous avons évidemment mis en place toute une série de contrôles. Votre préoccupation légitime porte sur la sécurité des données des utilisateurs européens. Sachez que nous avons aussi mis en place de manière technique des systèmes qui permettent d'éviter toute forme d'intrusion et d'ingérence. Cela passe notamment par le projet Clover, que vous connaissez, qui consiste à créer en Europe des centres de données sécurisés par une entité tierce qui ne sera pas TikTok mais une entité européenne, de manière à ce que les données des utilisateurs européens soient pleinement protégées. Il s'agit d'un investissement d'1,2 milliard d'euros par an visant précisément à éviter non seulement toute critique, mais tout risque d'intrusion non désirée. Nous mettons aussi en place des contrôles de sécurité, de manière à ce qu'un nombre limité de personnes ait accès à ces centres de données. Tout accès extérieur doit être minimisé, c'est-à-dire ramené au minimum nécessaire pour assurer le fonctionnement de la plateforme. Nous recourons aussi, comme je le disais dans l'introduction, aux technologies de protection les plus avancés en matière d'encryption, d'anonymisation et de pseudonymisation des données d'agrégation pour éviter tout risque.

Dans l'organisation du groupe, nous n'avons - je le répète - que des entités de droit international, qui ne sont jamais soumises au droit chinois. Notre entité Trust and Safety est dirigée par un Irlandais et comprend 40 000 personnes, réparties aussi dans plusieurs pays, notamment à Singapour et aux États-Unis. Cette entité est en charge de faire respecter les règles communautaires de TikTok, ces règles interdisant toute tentative de désinformation, de manipulation de l'opinion et d'atteinte à l'intégrité d'une élection. Outre l'intervention d'un très grand nombre de modérateurs, des tiers de confiance comme l'AFP agissent également pour prévenir ces risques. Quelle que soit la nationalité des personnes, nous veillons à ce que le système soit suffisamment robuste et sophistiqué pour empêcher toute intrusion, toute ingérence et toute manipulation de l'information.

M. Claude Malhuret, rapporteur. - Je crois que nous ne parlons pas exactement la même langue. Je vous parle juridique et vous me répondez opérationnel. Je suis tout à fait prêt à entendre des éléments sur l'opérationnel et c'est ce que nous allons voir tout à l'heure. Mais pour le moment je commence par le juridique et par l'organisation des sociétés TikTok et ByteDance.

Vous nous dites qu'aucune de ces entités n'est jamais soumise au droit chinois. Or, il se trouve que la présidente de TikTok UK comme de TikTok France est Mme Zhao Tian, qui est une ressortissante chinoise. Elle peut donc prendre les décisions juridiques essentielles pour votre société. Depuis les deux lois chinoises de 2017 et 2019, tout citoyen chinois et toute société chinoise sont tenus de collaborer avec les autorités. Cela était déjà le cas dans les faits mais cela est désormais inscrit dans le droit. M. Jack Ma et M. Zhang Yiming pourraient nous parler des désagréables conséquences de ces lois...

En même temps que le gouvernement chinois a fait passer ces deux lois, il a pris également la décision que son droit s'appliquerait de façon extraterritoriale. Cela signifie que tous les Chinois non seulement en Chine, mais même à l'extérieur de la Chine, sont tenus d'en référer au gouvernement chinois. La société TikTok SAS France et la société TikTok UK limited sont dirigées par une présidente chinoise, dont on a rappelé les pouvoirs. Du fait de l'extraterritorialité du droit chinois, elle est obligée - si le gouvernement chinois le décide -, d'obéir aux injonctions gouvernementales. Dans ce contexte, j'ai du mal à comprendre pourquoi vous avez décidé de nommer une présidente chinoise, dont vous dites qu'elle n'a strictement aucun rôle opérationnel. Vous auriez pu aussi bien prendre M. Dupont, cela aurait été moins ennuyeux pour vous...Aujourd'hui, nous nous retrouvons avec cette interrogation légitime.

Il quand même difficile d'expliquer que cette dame, même si vous ne l'avez jamais vuee et qu'elle n'a jamais mis les pieds en France, ne pourrait pas prendre des décisions inspirés ou suggérées - c'est une litote - par le gouvernement chinois.

M. Eric Garandeau. - En termes de droit des sociétés, il y a, comme je l'ai rappelé, un empilement de sociétés : TikTok SAS, TikTok UK, TikTok limited et ByteDance. Le pouvoir descend jusqu'en bas depuis le conseil d'administration de la maison mère ByteDance limited, non soumis au droit chinois. Parmi les membres du conseil d'administration de ByteDance et parmi les apporteurs de capital, se trouvent Bill Ford, qui représente General Atlantic, un fonds d'investissements institutionnel américain, Arthur Dantchik, de Susquehanna, autre fonds d'investissements institutionnel américain, Philippe Laffont, qui est français - c'est intéressant de le mentionner - et qui intervient au nom du fonds d'investissement Coatue Management, Neil Shen, au nom de Sequoia China et enfin Rubo Liang, président de ByteDance. C'est là qu'est le pouvoir de ByteDance.

Ces personnes et ces entités, qui représentent 60% du capital de ByteDance, exercent le véritable pouvoir. Pour être exhaustif, 20% du capital appartient au fondateur, Zhang Yiming, et les 20% restants appartiennent aux salariés du groupe ainsi qu'à des petits actionnaires. Le fait qu'il y ait telle ou telle personne à la tête des filiales est une pratique courante dans la plupart des entreprises multinationales. Pour des raisons de facilité et parce que le droit l'oblige, c'est souvent la même personne qui est à la tête des différentes filiales des pays, sans que cette personne n'ait un rôle opérationnel.

M. Claude Malhuret, rapporteur. - Merci de cette de cette réponse, qui à mon avis ne correspond pas vraiment à la question.

M. Eric Garandeau. Pour répondre aux questions sur la nationalité et sur l'extraterritorialité des lois chinoises, tout ce que nous avons mis en place vise précisément à éviter le moindre risque, quelle que soit la nationalité des personnes et quel que soit le gouvernement. Par l'intégrité et la robustesse de notre système, par l'existence de tiers de confiance assurant la cybersécurité des centres de données, par l'engagement de très grandes équipes de modérateurs des contenus intervenant dans toutes les langues (plus de 70 langues, 600 modérateurs de langue française), nous faisons en sorte qu'il n'y ait pas d'atteinte à l'intégrité de la plateforme. Pour nous, cela est vraiment important et nous sommes une des entreprises, je pense, les plus avancées en la matière.

Investir 1,5 milliard de dollars aux États-Unis pour construire des centres de données sécurisées via Oracle - ces données étant mêmes opérées dans l'entité dédiée US DS, avec l'intervention de 1000 personnes de nationalité américaine - permet d'assurer l'impossibilité pour quiconque, quelle que soit sa nationalité, fût-elle chinoise, de pouvoir porter atteinte à ce dispositif. Nous disposons par ailleurs d'un tiers de confiance supplémentaire qui valide chaque modification du code source. Chaque actualisation du code de TikTok, lorsqu'elle est envoyée dans les magasins d'applications, est vérifiée à la fois par Oracle et par ce deuxième tiers de confiance. Je souligne que les utilisateurs européens bénéficient de ce système, puisque c'est le même code source qui est injecté aux États-Unis et qui permet à tout un chacun de télécharger TikTok dans le monde entier.

Nous sommes en train également d'appliquer cette démarche en Europe, à travers le projet Clover. Nous avons construit un premier data center à Dublin, nous en construisons un deuxième.

M. Claude Malhuret, rapporteur. - Vous nous l'avez déjà dit et ce n'était pas vraiment ma question.

M. Eric Garandeau. - Je comprends mais j'essaie de répondre à votre légitime interrogation en montrant que la robustesse du système et le fait de passer par des tiers de confiance qui ne sont pas TikTok pourront justement vous apporter des assurances. La construction de centres de données en Europe, sécurisés par un tiers de confiance européen, ainsi que la possibilité d'un audit du dispositif par l'ANSSI sont - je pense - la meilleure façon de répondre à votre légitime préoccupation.

Vous parlez de la Chine mais on peut parler d'autres pays. La Chine n'est pas le seul pays qui peut avoir envie de réaliser des intrusions. Au déclenchement de la guerre en Ukraine, nous avons pris des mesures très fortes, nous avons recruté des modérateurs dans les langues ukrainienne et russe pour pouvoir nous assurer que personne ne porterait atteinte à l'intégrité de la plateforme ou ne diffuserait des fausses informations. Nous avons d'ailleurs été le la première plateforme à interdire l'accès à Sputnik et à Russia Today. Nous avons même labellisé les comptes de médias détenus par des États, qu'ils soient chinois, russes ou de toutes nationalité, pour la bonne information de nos utilisateurs. Nous faisons un travail permanent pour nous améliorer.

M. Mickaël Vallet, président. - Nous aborderons plus tard les questions liées au contrôle de l'information. Monsieur le rapporteur poursuit ses questions sur le domaine juridique.

M. Claude Malhuret, rapporteur. - Si à chaque fois que nous parlons actionnariat juridique, vous nous parlez opérationnel, l'audition risque d'être un peu longue.

Je reviens à ce que vous disiez sur l'actionnariat de ByteDance Caïmans. Les îles Caïmans sont classés deuxième au classement 2021 des paradis fiscaux du réseau international pour la justice. Elles sont l'un des grands paradis fiscaux du monde, abritant de nombreuses sociétés offshore en tant que sociétés écrans. Se déclarer transparent en établissant son siège dans le paradis des sociétés écrans, n'est-ce pas une sorte d'oxymore ?

M. Eric Garandeau. - Il me semble que votre souci, encore une fois légitime, est qu'il n'y ait pas de pression exercée par un État sur TikTok. De ce point de vue, le fait d'être établi ni en Chine, ni d'ailleurs aux États-Unis, est plutôt une sécurité. Les îles Caïmans sont un territoire britannique d'outre-mer soumis au système de Westminster. Je n'ai pas d'autre commentaire à faire.

M. Mickaël Vallet, président. - Il n'y a en tout cas pas de pression fiscale...

M. Eric Garandeau. - Il me semble que vous intéressez aux pressions politiques.

M. Mickaël Vallet, président. - Non, notre commission d'enquête s'intéresse à tous les sujets liés à TikTok, nous sommes multicartes.

M. Eric Garandeau. - S'agissant de la fiscalité, je peux en parler même si je serai un peu limité par le secret fiscal. Mais je serais ravi d'échanger à ce sujet.

M. Claude Malhuret, rapporteur. - Vous avez d'ailleurs également pris des précautions aux États-Unis puisque TikTok États-Unis est enregistré au Delaware, qui comme chacun sait est à peu près le même paradis fiscal que les îles Caïmans.

Je reviens à l'actionnariat. ByteDance brandit cet actionnariat sur son site, en indiquant tous les grands fonds d'investissements ayant investi des milliards de dollars dans l'entreprise. Vous nous avez cité les membres du board et notamment M. Rubo Liang et M. Neil Shen qui comme Mme Zhao Tian sont chinois. Du fait de l'extraterritorialité, ils risquent un jour ou l'autre d'avoir quelques contacts de la part du gouvernement chinois. Le président de ByteDance est un chinois.

M. Eric Garandeau. - Si vous me le permettez, il est résident singapourien.

M. Claude Malhuret. - Mais il a la nationalité chinoise et est donc sujet au droit chinois. Ce qui m'intéresse dans l'actionnariat, ce n'est pas le pourcentage des parts détenues par chacun des actionnaires, ce sont les droits de vote. Comme disait Staline, « ce qui compte ce n'est pas les votes ; c'est qui compte les votes ». ByteDance est une VIE (Valuable Interest Entity), c'est-à-dire que les droits de vote ne correspondent pas aux parts détenues par les différents actionnaires. Vous avez indiqué que les fondateurs avaient 20% du capital. En France, M. Zhang Yiming est bénéficiaire à 26% ; c'est ce qui est inscrit au tribunal de commerce. Il est le seul à apparaitre auprès du tribunal de commerce car les bénéficiaires ne doivent y être inscrits qu'à partir de 25%. J'imagine, en remontant la chaîne, que si M. Zhang Yiming est bénéficiaire à 26% de TikTok SAS France, il est également actionnaire à 26% de ByteDance Caïmans, mais je peux me tromper. Quelle est la part des fonds d'investissement, des fondateurs et des salariés (éventuellement le nom des salariés car il ne s'agit pas de développeur de base) ? Deuxièmement, quelle est la répartition des droits de vote au sein de ByteDance Caïmans ?

M. Eric Garandeau. - ByteDance est une société non cotée. Cela explique qu'elle ne publie pas toutes les données que publient des sociétés cotées, soumises quant à elles à des obligations de publication plus importantes. Par ailleurs, ce sont des données que je n'ai pas en ma possession. Je ne suis pas sûr qu'on puisse les partager publiquement dans cette audition. Je me permettrais en tout cas de revenir vers vous sur ce sujet sous forme probablement écrite.

M. Claude Malhuret, rapporteur. - Nous vous l'avions déjà demandé dans les questions écrites. Si c'est possible, vous auriez eu le temps de les demander.

Je voulais vous poser quelques questions sur M. Zhang Yiming, le fondateur de ByteDance et de TikTok. À ma connaissance, il est actionnaire à 26% de Bytedance. Je ne connais cependant pas ses droits de vote, ni ceux de M. Rubo Liang. M. Zhang Yiming était l'actionnaire quasi unique de ByteDance Chine. A 36 ans, il a brusquement quitté toutes ses fonctions de direction à ByteDance Chine qui est devenu ensuite Douyin, au moment même où Jack Ma et un certain nombre d'autres prenaient le même type de décisions, visiblement directement inspirées par le gouvernement chinois. En ce qui concerne Zhang Yiming, je n'en sais rien. En janvier 2022, M. Zhang Yiming a cédé toutes ses parts d'un seul coup - 99 % de l'entreprise - à la société XXQT.

Cette entreprise avait été créée 15 jours auparavant et a racheté une entreprise qui vaut aujourd'hui quelques centaines de milliards. Elle est détenue à 50-50 par deux personnes : M. Yin Ping et M. Li Ying. En général, les personnalités de la tech ont une grande visibilité, via leurs sites personnels ou leurs LinkedIn. Ces deux personnes sont pourtant absolument introuvables sur Internet. Tout ce qu'on en sait c'est que M. Li Ying est un cadre local du PC à Xiamen. Or, Xiamen est la ville dans le Fujian dont M. Xi Jinping a été le maire et où il a démarré sa carrière politique dans les années 1988-1990.

Cette société avait un capital, je crois, d'environ 150 000 euros. Elle a racheté une société qui avait un capital se comptant en centaines de millions ou en milliards de de dollars. Qu'est-ce que cela vous inspire ?

M. Eric Garandeau. - Je n'ai pas connaissance de ce que vous indiquez. Je n'ai pas à commenter ce qui me semble très loin à la fois de mon rôle de directeur des relations institutionnelles de TikTok France et assez loin de TikTok en réalité. Le fondateur de ByteDance a en effet quitté ses fonctions opérationnelles. Je crois même que nous vous avons transmis le message qu'il avait envoyé à tous les salariés du groupe à cette occasion. Il y indiquait qu'il souhaitait quitter ses fonctions opérationnelles, qui étaient extrêmement prenantes, souhaitant consacrer son temps à réfléchir à la stratégie du groupe. Il est un entrepreneur visionnaire, qui pense au long terme. Il voulait se dégager de la gestion quotidienne de ce groupe. Si vous le souhaitez, nous pourrons vous apporter plus de précisions par écrit.

M. Claude Malhuret, rapporteur. - Cela m'intéresse car M. Zhang Yiming est aujourd'hui actionnaire à 26% apparemment de ByteDance Caïmans. Il a peut-être même la majorité des droits de vote ; je n'en sais rien puisque cette VIE a l'air très difficile à ausculter. C'est la raison pour laquelle j'aimerais connaitre la répartition des droits de vote et la part de M. Zhang Yiming.

M. Zhang Yiming avait eu quelques problèmes avec le Parti communiste chinois lorsqu'il était PDG de ByteDance Chine devenue Douyin. Il était également PDG de Toutiao dont Madame Zhao Tian est vice-présidente. Il a eu le malheur de faire un site parodique, du type Canard enchaîné, ce qui pose assez peu de problèmes en France mais peut évidemment conduire à quelques difficultés en Chine... Il s'est fait taper sur les doigts. Voilà ce qu'il dit dans une autocritique, qui évidemment lui a été dictée, dans le plus pur style maoïste, auquel on est en train de revenir en Chine : «  J'exprime mes plus sincères excuses aux autorités à nos usagers et à mes collègues. Depuis que j'ai reçu hier la note des autorités de régulation, je suis plein de remords et de culpabilité qui m'ont empêché de dormir. Toutiao fermera définitivement son application Neihan Duanzi et tous ses comptes. Notre produit a pris un mauvais chemin et à proposé un contenu incompatible avec les valeurs de base du socialisme. Nous n'avons pas été assez attentifs et n'avons pas assez mis l'accent sur la responsabilité sociale de l'entreprise dans la promotion d'une énergie positive et la compréhension des principes corrects qui doivent guider l'opinion publique. En tant que start-up en développement rapide dans le sillage du 18ème congrès national du parti communiste chinois, nous sommes pleinement conscients que ce développement a été permis par cette ère glorieuse. J'exprime mes remerciements pour cette ère, j'exprime ma gratitude pour cette occasion historique de réformes économiques et d'ouverture et envers ce gouvernement qui a permis le développement de l'industrie technologique ». Il conclut en prenant des engagements : « Premièrement renforcer le travail de construction du parti au sein de l'entreprise, réussir l'éducation de toute notre équipe quant aux quatre consciences, aux valeurs de base du socialisme, aux principes qui guident l'opinion publique, aux lois et règlements pour agir vraiment dans le sens de la responsabilité sociale de l'entreprise. Approfondir la coopération avec les médias officiels, augmenter la diffusion des contenus officiels et s'assurer que la voix des média officiel soit relayée avec force.Renforcer le système de responsabilité de la rédaction en chef. Corriger entièrement les déficiences dans le contrôle des algorithmes et des ordinateurs » Notons cet engagement à renforcer le contrôle des algorithmes et des ordinateurs. «  Enfin, renforcer les opérations et les contrôles humains ».

Monsieur Zhang Yiming est aujourd'hui actionnaire à 26% de ByteDance Caïmans, et il est peut-être décisionnaire en matière de de droits de vote. Avec M. Rubo Linag, ils doivent avoir sans doute la majorité des droits de vote. Ils sont soumis à l'extraterritorialité du droit chinois et ils ont, par cette autocritique de 2018, exprimé leur volonté de se conformer très strictement à la loi chinoise et à ce que leur demanderait le parti communiste chinois. Cela fait un peu tâche dans une société mondiale comme Bytedance, établi aux Caïmans et qui est censé n'avoir aucun rapport avec la Chine.

M. Eric Garandeau. - Il me semble que vous évoquez des faits qui se sont passés en Chine et qui correspondent à l'activité de filiales et même de sous-filiale du groupe ByteDance en Chine. Il me semble que les préoccupations encore une fois légitimes de votre commission portent sur TikTok et sur l'activité de TikTok en France. Du point de vue du droit des sociétés, il me semble avoir démontré que ByteDance étant immatriculée effectivement aux îles Caïmans et étant actionnaire à 100% de TikTok Limited, lui-même immatriculée dans les îles Caïmans, il n'y a juridiquement absolument aucune possibilité d'avoir des pressions ou des demandes d'interventions de la part du gouvernement chinois ou de toute entité chinoise. Il n'y a aucun pourcentage du capital de ByteDance ou de TikTok qui est détenu par une entité émanant de la Chine.

Par ailleurs, nous publions dans un rapport de transparence trimestriel l'ensemble des demandes des autorités administratives de tous les pays du monde qui sont effectués auprès de TikTok. Dès qu'un gouvernement s'adresse à TikTok dans le cadre de procédures administrative et judiciaire, nous publions cette demande. Nous savons ainsi qu'il y a eu 228 demandes effectuées par la France au 1er semestre 2022, 1150 en Allemagne. 0 émane de la Chine pour une raison simple : TikTok n'opère pas en Chine. Cette étanchéité est bien assurée à la fois dans le droit des sociétés et par des outils de transparence. Je ne reviens pas sur tout le dispositif technique que nous avons évoqué avec la création de data centers protégés, avec ces tiers parties, ces systèmes de lutte contre les cyber intrusions. C'est d'ailleurs un Irlandais basé en Irlande qui dirige l'entité Trust and Safety. Même dans le cas d'une demande adressée à une importante personnalité travaillant dans le groupe, ce système de sécurité, avec ses droits d'accès, permet que ce soit impossible.

M. Claude Malhuret. - Vous nous dites depuis le début de cette audition que TikTok n'est pas disponible en Chine continentale, tandis que Douyin n'est pas disponible en dehors de la Chine continentale. Mais vous omettez de dire pourquoi TikTok n'opère pas en Chine continentale. TikTok n'opère pas an Chine continentale parce qu'il y est interdit par le gouvernement, comme les Gafam. Pourquoi ne protestez-vous pas, comme les Gafam, contre cette interdiction d'un gouvernement totalitaire et contre cette censure qui empêche les plateformes qui ne sont pas chinoises d'intervenir en Chine ? Si vous êtes totalement indépendant, cela ne devrait pas vous poser de problème.

M. Eric Garandeau. - TikTok est une application communautaire, c'est-à-dire qu'il ne produit pas de contenu ; ce sont les utilisateurs qui créent des contenus. Vous pouvez constater en vous rendant sur l'application qu'un mot-dièse comme « ouïghours » a été visionné plus de 400 millions de fois. Des vidéos défendant ces communautés sont en accès libre sur l'application TikTok. La liberté d'expression est totale y compris pour critiquer tel ou tel gouvernement.

M. Claude Malhuret. - Sauf en Chine.

M. Eric Garandeau. - TikTok est présent dans un très grand nombre de pays et elle est utilisée par des communautés, y compris les communautés ouïghoures. Je sais que vous êtes très attaché à ce sujet. Elles peuvent s'exprimer librement sur TikTok pour défendre leurs droits. Vous avez auditionné Raphaël Glucksmann qui fait état sur TikTok de tous ses discours très critiques sur le gouvernement chinois. Il fait d'ailleurs de très beaux scores d'audience. Le rôle de TikTok est d'être cet espace de liberté d'expression totale dans le respect évidemment de la tolérance d'autrui, où chacun peut exprimer ses idées sans aucune forme de censure.

M. Claude Malhuret, rapporteur. - Vous êtes directeur des affaires publiques d'une société dont la maison mère est ByteDance Caïmans, qui publie 400 millions de messages ou de vidéos sur les Ouïgours chinois. Les seuls qui ne peuvent pas voir ces vidéos de soutien, ce sont les Chinois. Par ailleurs, dans le même groupe ByteDance Caïmans se trouve la société Douyin, qui est chinoise et qui bien évidemment est totalement censurée. Trouvez-vous normal d'appartenir à un groupe au sein duquel la société qui permet de s'exprimer librement n'est pas accessible en Chine ? Trouvez-vous normal d'appartenir à un groupe au sein duquel la société Douyin, avec un algorithme qui est resté pratiquement identique à celui de TikTok, est totalement censurée par le gouvernement chinois ? Vous ne protestez pas ?

M. Eric Garandeau. - Je suis fier d'appartenir à une entreprise comme TikTok, qui promeut le dialogue de toutes les cultures, où la liberté d'expression est totale. J'aurais été évidemment très mal à l'aise dans le cas contraire, et je ne serais pas à ce poste. À chaque fois, nous avons défendu la liberté d'expression. TikTok a d'ailleurs publié un engagement en faveur des droits de l'homme. Dans la mesure du possible, à chaque fois qu'il y a une difficulté, nous défendons la liberté d'expression. On peut parler de tout sujet sur TikTok, y compris de la Chine.

M. Claude Malhuret, rapporteur. - À titre personnel, que pensez-vous de la politique du gouvernement chinois envers les Ouïgours ?

M. Eric Garandeau. - Si vous m'interrogez à titre personnel, je condamne bien entendu toutes les atteintes qu'il peut y avoir aux droits de l'homme, pas seulement en Chine mais dans le monde entier.

M. Claude Malhuret, rapporteur. - Et envers les Tibétains ?

M. Eric Garandeau. - Je les condamne également envers les Tibétains. Comme je vous le disais, il y a hélas des atteintes aux droits de l'homme dans bien d'autres pays. TikTok est cette plateforme où toutes les ONG peuvent s'exprimer en toute liberté. Les comptes de Médecins sans frontières réalisent des vidéos ayant un très beau succès, comme la Croix-Rouge. Ces vidéos permettent d'être les voix de ces peuples qui aspirent à la liberté.

M. Claude Malhuret, rapporteur. - Quelle est votre opinion personnelle sur la censure massive exercée par le gouvernement chinois sur le contenu de Douyin, société de votre groupe ?

M. Eric Garandeau. - Il me semble que je viens avant tout devant votre commission comme directeur des relations institutionnelles de TikTok en France pour ce qui concerne la France. Mais à titre personnel, je considère qu'il faut bien sûr défendre la liberté partout dans le monde. C'est justement l'intérêt de la plateforme TikTok, qui permet ce dialogue des cultures, cette meilleure compréhension qui est si nécessaire aujourd'hui au moment où les tensions grandissent entre les peuples et les continents.

M. Claude Malhuret, rapporteur. - Quelle est la part de TikTok France dans les bénéfices de TikTok Caïmans ?

M. Eric Garandeau. -TikTok n'étant pas une entreprise cotée, il nous semble préférable d'échanger par écrit, ou en tout cas dans un cadre confidentiel, sur ces données économiques ou fiscales.

M. Mickaël Vallet, président. - Je propose de passer aux questions de nos collègues. J'aurai au préalable deux questions courtes. Je ne suis pas spécialiste du positionnement politique des îles Caïmans en faveur du développement du numérique. Je mesure donc mal la raison de la domiciliation de ByteDance aux Caïmans. S'agissant de l'Irlande, pourquoi ce choix ? Nous aurions été ravis en France d'avoir cette équipe de 40 000 personnes.

M. Eric Garandeau. - Je n'ai pas de commentaire particulier à faire, sinon que l'Irlande est choisie comme lieu d'établissement par un grand nombre d'entreprises de technologie. Je souligne qu'il y a un bureau en France, avec plus de 200 salariés aujourd'hui. Il a grandi très vite. Au moment de mes entretiens de recrutement, nous étions quatre puis nous sommes passés à 20 et nous sommes aujourd'hui plus de 200. Il y a un intérêt fort à développer une présence en France.

M. Mickaël Vallet, président. - Peut-être y-t-il aussi des enjeux de fiscalité, sans faire de procès d'intention, et de degré d'exigence de la « CNIL » irlandaise. Chacun pourra se faire son idée.

Vous êtes haut-fonctionnaire. Il est important pour nous de comprendre comment sont utilisées les compétences et les ressources de la fonction publique française par TikTok. À quel moment avez-vous eu votre premier contact avec ByteDance ?

M. Eric Garandeau. - Je suis haut-fonctionnaire en disponibilité. J'ai eu mon premier contact avec ByteDance en mars ou avril 2020, je pense.

M. Mickaël Vallet, président. - Dans vos fonctions antérieures, vous n'avez pas eu l'occasion de traiter avec ByteDance.

M. Eric Garandeau. - Jamais, non.

M. Mickaël Vallet, président. - En tant que directeur des affaires publiques, êtes-vous salarié de TikTok SAS ou en êtes-vous prestataire ? Vous êtes en effet également le patron d'une entreprise de conseil.

M. Eric Garandeau. - Je suis salarié à plein temps de TikTok.

M. Mickaël Vallet, président. - Votre entreprise de conseil n'est pas prestataire de TikTok ?

M. Eric Garandeau. - Absolument pas.

M. Mickaël Vallet, président. - Vous n'êtes pas prestataire non plus pour d'autres entités TikTok dans d'autres pays européens ?

M. Eric Garandeau. - Absolument pas, j'exerce la totalité de mon activité pour TikTok.

Mme Laurence Rossignol. - J'ai quatre questions.

Je connais les règles de TikTok concernant la lutte contre la pornographie et contre les nudes. Je crois savoir que vos outils pour tenir vos engagements sont en plus grande proportion des algorithmes que des ressources humaines. La preuve en est qu'il vous arrive de passer complètement à côté d'un certain nombre de diffusions. Vous avez ainsi eu une affaire il y a quelques mois avec des dick pics, qui se sont propagées sur TikTok pendant plusieurs jours et ce malgré des signalements. Cela a, a minima, révélé que certaines choses pouvaient échapper à vos algorithmes. Je sais que vous avez aussi signé la charte européenne contre le développement de la haine en ligne. Avez-vous l'intention de recruter de nouveaux moyens humains ? Si oui, dans quelle proportion ? Ou comptez-vous continuer à faire confiance aux algorithmes pour lutter contre la haine en ligne ou encore contre l'apologie de la maigreur, les mutilations, etc ?

Ma deuxième question est liée à la première. Quels sont les moyens que vous entendez mettre en place (ou que vous mettez déjà en place) pour lutter contre le grooming pédopornographique ? Cette pratique consiste à utiliser les réseaux sociaux pour entrer en contact avec des mineurs et les attirer sur d'autres sites.

Vous avez été au service de l'État ; vous avez été président du CNC. J'imagine que vous aviez donc une certaine idée des politiques culturelles, de leurs fonctions, et de l'accès à la culture. Considérez-vous aujourd'hui, en tant que chargé des affaires publiques de TikTok, que votre activité est cohérente avec ce que vous avez pu promouvoir par le passé ? Vous êtes directeur des affaires publiques d'une société dont tout le monde connaît la toxicité par la méthode des algorithmes, qui contribuent à enfermer les jeunes dans une consommation d'un volume inégalé de vidéos. Pensez-vous que c'est ainsi que vous contribuez à former des citoyens ? Ou avez-vous renoncé à former des citoyens ?

Enfin, vous nous avez indiqué être en disponibilité de la haute fonction publique. Pourquoi ne démissionnez-vous pas ? Pensez-vous que les fonctions que vous occupez actuellement sont compatibles avec un retour un jour dans la fonction publique, au service de l'État ?

M. Eric Garandeau. - S'agissant des ressources humaines, il est important, compte tenu des flux, de combiner au mieux l'intelligence artificielle (ou machine learning) avec la modération humaine. Les algorithmes réalisent déjà une grosse partie du travail. 97% des contenus qui sont retirés sur TikTok le sont de manière proactive, c'est-à-dire sans aucun signalement. C'est aussi la raison pour laquelle 88% de ces contenus sont retirés avant 24  heures. Cette démarche se perfectionne évidemment avec des ressources d'intelligence artificielle. Récemment, un lanceur d'alerte signalait que c'est la manière dont sont conçus ces algorithmes qui permet de s'assurer que ces contenus seront retirés très rapidement et qu'ils ne reviendront pas sur la plateforme.

Il y a ensuite le travail humain. Quand vous avez une vidéo avec une croix gammée, ce peut être une vidéo du Mémorial de la Shoah, que nous sommes très heureux d'avoir accueilli sur la plateforme pour faire de la pédagogie sur la Shoah et sur la lutte contre le néonazisme. C'est la raison pour laquelle que nous avons des modérateurs humains. Je citais le chiffre de 40 000 personnes, soit l'équivalent de la population de la ville d'Angoulême. C'est massif. Nous en avons à peu près 600 en langue française, qui ne seront chargés que de regarder des contenus en langue française.

Le sujet est plus difficile en matière de harcèlement car nous avons besoin de disposer du contexte. Certaines vidéos qui paraissent anodines sont en réalité des vidéos de harcèlement. C'est la raison pour laquelle nous avons des signaleurs de confiance : e-enfance, StopFisha, Point de contact. Ce sont des organisations spécialisées dans la détection de ces contenus. Nous sommes même en train d'insérer dans TikTok le 30 18, le numéro d'e-enfance, puisque beaucoup de jeunes préfèrent échanger textuellement pour parler de leurs problèmes. L'objectif est de faire de la prévention, ce qui est extrêmement important. Nous disposons d'une chaîne de signalements avec des tiers de confiance qui permet d'être encore plus rapide.

Sur la lutte contre la pédopornographie, nous sommes membres d'un grand nombre d'associations. Nous sommes ainsi membre de WeProtect, qui est la plus grande alliance multisectorielle pour lutter contre l'exploitation sexuelle des enfants en ligne. Je souligne que les mineurs de 13 à 15 ans n'ont pas de messagerie et leur compte est privé par défaut. Ils ne peuvent pas télécharger de vidéos et ne peuvent pas profiter de certaines fonctionnalités comme les duos ou les stitchs. Nous encourageons par ailleurs très fortement au contrôle parental, qui permet de fixer le temps d'écran. Nous savons que c'est un sujet de préoccupation. D'ailleurs, depuis maintenant quelques mois, le temps d'écran est limité à 60 minutes par défaut. Nous veillons aussi à ce que des fonctionnalités soient aussi restreintes pour les mineurs entre 16 et 18 ans. La messagerie sera aussi désactivée par défaut. Même si la messagerie est activée, le jeune ne pourra pas envoyer de pièces jointes puisque cette fonctionnalité n'existe pas sur TikTok. Cela permet d'éviter les chantages aux nudes ou autres.

J'ai souhaité rejoindre TikTok car je suis passionné de culture et de transmission culturelle. Je retrouve chez TikTok une nouvelle génération de créateurs, qui utilisent ces outils très nouveaux et très perfectionnés (filtres, effets en réalité augmentée...). De véritables cinéastes émergent sur la plateforme ; ce n'est pas pour rien d'ailleurs que nous avons organisé une compétition internationale de films TikTok. Le format vertical conduit à une nouvelle écriture, ce qui est intéressant d'un point de vue artistique. Or, on sait que le médium est souvent le message.

Vous parliez de toxicité. Nous avons engagé des travaux importants pour que les algorithmes soient source de découvertes. Nous n'enfermons jamais les gens dans des bulles, ce qui serait très mauvais. L'algorithme vise au contraire à stimuler l'utilisateur, en lui proposant des choses qui ne sont pas forcément dans ses préférences exprimées ou dans son historique de parcours sur l'application. Il y a une fonction de tests de contenus nouveaux. Si vous avez aimé la gastronomie coréenne, vous seront proposés des extraits de séries coréennes. Parfois, les associations sont encore moins évidentes. L'algorithme, avec les informations qu'il a pu générer, teste de nouveaux contenus pour voir si vous allez y adhérer. Nous veillons à ce que n'apparaissent jamais dans le fil « Pour toi » deux vidéos du même créateur ou deux vidéos du même son. Nous veillons aussi à ce que les contenus qui sont autorisés mais dont la consommation excessive peut entraîner des problèmes (régimes amincissants, vidéos de fitness...) ne soient pas fournies en trop grande quantité dans un même flux. Nous veillons à ce que les personnes ayant tendance à aller vers des pratiques un peu extrêmes ne soient pas encouragées à le faire.

Nous proposons même des ressources pour aider ces personnes. Si vous tapez le mot suicide sur TikTok, non seulement l'application ne vous suggérera pas des vidéos de suicide mais elle vous emmènera vers une page pour vous aider à prendre soin de vous et donnera éventuellement l'alerte.

M. Mickaël Vallet, président. - Avez-vous des tiers de confiance qui peuvent évaluer ces bonnes pratiques et publier des rapports sur ces sujets ?

M. Eric Garandeau. - Nous avons de nombreux partenariats. J'ai cité ceux en matière de protection de l'enfance. Mais nous en avons aussi en matière de lutte contre les fausses informations : Génération Numérique, Conspiracy Watch, et d'autres. Nous avons tout un panel d'ONG et d'associations que nous associons à nos travaux. Nous avons même un conseil consultatif européen.

M. Mickaël Vallet, président. - Envisagez-vous la publication par des tiers indépendants de rapports réguliers pour vérifier vos engagements en la matière ? Par exemple, en tant que maire, je peux assurer que les jeux du parc pour enfants sont sécurisés. Cela a néanmoins plus de poids si une société indépendante le certifie.

M. Eric Garandeau. - Vous avez tout à fait raison. Nous souhaitons aussi employer cette logique de tiers de confiance, qu'on utilise pour la sécurisation des centres de données, afin d'auditer nos algorithmes de recommandation, nos algorithmes de modération ou même ce que nous faisons en matière commerciale. Le DSA nous oblige d'ailleurs à le faire. Nous créons des API ; une est déjà développée aux États-Unis. Elles permettent aux chercheurs, aux universités et aux experts extérieurs de pouvoir interroger les algorithmes et tester la plateforme.

M. Mickaël Vallet, président. - Avez-vous des rapports d'évaluation de ce type ?

M. Eric Garandeau. - Nous sommes en train de déployer ces outils. Mais il y a un rapport aux États-Unis, où l'API a déjà été créée. La Georgia Tech University a ainsi publié une étude montrant qu'il n'y a pas de censure ou de propagande de la Chine ou d'autres pays sur TikTok. Cette université est totalement indépendante et travaille même pour le Pentagone. Nous vous enverrons bien entendu ce rapport.

S'agissant de la déontologie, quand j'ai quitté le service public pour créer ma société puis pour rejoindre TikTok, j'ai demandé bien entendu l'avis de la commission de déontologie. J'ai deux avis positifs de cette commission de déontologie, que je peux d'ailleurs vous remettre si vous le souhaitez. Quand j'ai rejoint TikTok, le déontologue de l'inspection des finances m'a conseillé de saisir la Haute autorité pour la transparence de la vie publique. Je l'ai saisie. Elle a estimé que je n'avais pas à la saisir dans ce cas de figure. J'ai fait toutes les démarches pour m'assurer que je ne prenais pas de risques et que je ne faisais pas prendre de risque à mon administration. Je n'ai pas démissionné car la règle est de se mettre en disponibilité avant d'« être » démissionné au bout d'un certain temps. C'est ce qui s'applique à ma connaissance à l'ensemble de mes collègues. Par ailleurs, à chaque fois que l'administration m'a demandé de m'intéresser à un problème public, j'ai tendance spontanément à essayer de répondre favorablement car je suis un passionné de la cause publique. Il me semble que travailler dans une entreprise particulièrement innovante et disruptive est une façon aussi de servir son pays. Ce savoir que j'accumule peut être utile à mon pays. Je pense d'ailleurs que les salariés de TikTok SAS en France - très jeunes pour la plupart - sont convaincus de travailler aussi pour leur pays, via les partenariats avec les musées, avec Pôle emploi...

Mme Catherine Morin-Desailly. - De nombreux anciens hauts-fonctionnaires ont rejoint quantité d'entreprises extra-européennes du domaine du numérique. C'est un vaste sujet !

J'ai deux questions. La première est dans le prolongement des questions de Mme Rossignol concernant les algorithmes. Ceux-ci sont conçus pour enfermer et capter l'attention de nos jeunes, à des âges critiques d'apprentissage et de découverte du monde. Vous savez que d'ici 3 mois le DSA s'appliquera. Pour ma part, ayant été rapporteur de ce projet de règlement pour la commission des affaires européennes, je pense que nous ne sommes pas allés assez loin, notamment concernant le contrôle et l'évaluation des algorithmes. Dans le cas de l'application du DSA et peut-être pour aller plus loin pour rassurer les utilisateurs, la plateforme TikTok est-elle prête à se laisser auditer par des chercheurs indépendants tout type confondu ? Est-elle est prête aussi à rapprocher ses dates d'évaluation ? Comptez-vous recruter davantage de ressources humaines, la modération et la veille étant les sujets les plus importants pour être compatible avec l'exécution de ce règlement ? Opposerez-vous forcément le secret des affaires à ces audits des algorithmes ?

J'insiste sur ces sujets car il y a quelques jours, Elon Musk s'est retiré du code des bonnes pratiques en ligne et a laissé entendre que Twitter n'appliquerait pas forcément le DSA. Il a d'ailleurs été repris sur ce sujet par le commissaire européen Thierry Breton. TikTok s'engage-t-il clairement à entrer pleinement dans l'application du DSA ?

M. Eric Garandeau. - La question est fondamentale et je vous remercie de l'avoir posée. Bien entendu, nous appliquerons le DSA et nous serons au rendez-vous en août prochain. Sur un certain nombre de dispositifs, nous sommes déjà au rendez-vous. Nous avons eu le plaisir d'accueillir l'ARCOM à Dublin dans notre centre de transparence. Elle a pu échanger avec des cadres de très haut niveau de l'entité Trust and Safety. Nous voulons être le plus transparent possible sur les algorithmes de recommandation et de modération. Nous développons les API demandées par le DSA. Nous avons travaillé avec le MédiaLab de Sciences Po en bêta test sur l'API qui concernait les bibliothèques de vidéos commerciales. Cette coopération s'est très bien passée de part et d'autre. Nous travaillons aussi avec Viginum sur les risques d'ingérence. Nous travaillons avec le PEReN à Bercy. Enfin, nous sommes ouverts à travailler avec des universitaires. Il faut juste évidemment que ce soit fait correctement, dans des bonnes conditions de sécurité. Ces ouvertures peuvent en effet susciter des problèmes puisqu'elles peuvent permettre à des personnes malveillantes d'utiliser ces informations. Nous voulons faire un exercice de transparence maximale en direction des chercheurs et des autorités de régulation.

Mme Catherine Morin-Desailly. - Vous avez parlé des ingérences étrangères. À la différence de Facebook, dont les backdoors ont été révélés par l'affaire Cambridge Analytica, pouvez-vous garantir que TikTok ne dispose d'aucune faille ?

M. Eric Garandeau. - Nous publions dans nos rapports de transparence les tentatives d'intrusion, d'ingérence et les comportements inauthentiques coordonnés. Dès que nous détectons ces tentatives, nous intervenons tout de suite pour retirer ces comptes et nous publions les résultats. En France, tout s'est bien passé lors des dernières élections. Non seulement nous avons fait un très bon travail d'information mais nous n'avons pas repéré de tentatives d'ingérence dans les élections françaises. Au Kenya, nous avons détecté des tentatives, qui ont été déjouées. Nous veillons à mettre en place des équipes de veille renforcée lorsqu'il y a des élections et à communiquer sur les résultats de cette action de veille.

Mme Catherine Morin-Desailly. - Ma dernière question porte sur la sécurisation de nos données. Vous avez parlé de data centers en construction en Europe. Mais il n'y a pas que la question de l'hébergement des données, il y a aussi celles de leur traitement et de l'application des lois extraterritoriales. Ces lois font que nous sommes bien démunis. Vous avez dit que vous disposez des meilleurs outils technologiques pour empêcher ces données de nous échapper. Comment pouvez-vous l'affirmer alors que l'on sait bien que ces données sont tout à fait captables par ces pays étrangers ? Comment pouvez-vous être aussi affirmatif ?

M. Eric Garandeau. - Nous nous plaçons toujours dans le pire des cas, celui où un individu essaierait de pénétrer le système. Pour éviter ce risque, nous travaillons à localiser les centres des données au plus près des pays dans lesquels nous opérons. C'est la raison pour laquelle nous développons ces trois data centers à Dublin et en Norvège. Nous utilisons par ailleurs nos protections internes et un tiers de confiance européen pour effectuer des tests et assurer cette sécurisation. En outre, nous diminuons au maximum les besoins d'accès aux données. Nous sommes une plateforme de communication internationale et il est donc normal que les vidéos circulent. On ne peut donc pas dire qu'il n'y aura pas de circulation de données. Par ailleurs, les data analysts doivent pouvoir analyser l'efficacité des fonctionnalités. Dans ce cas-là cependant, nous anonymisons les données. Pour résumer, nous réduisons le nombre d'accès aux données, notamment des données personnelles, et nous réduisons même le nombre de personnes qui peuvent avoir accès à ces données. Ces engagements nous permettent selon nous d'assurer le meilleur niveau de sécurité possible et peut être de contribuer à l'application du principe de souveraineté numérique européenne, qui vous est cher.

M. Claude Malhuret. - En ce qui concerne les transferts de données, TikTok a répété sans cesse, jusqu'en juin 2022, empêcher tout transfert ou consultation des données des utilisateurs par la Chine. BuzzFeed a ensuite révélé le contenu de 80 enregistrements audio, issus de réunions internes à l'entreprise. On s'est aperçu que des ingénieurs de l'application de partage de vidéos ont eu accès depuis la Chine à pas mal d'informations. Les enregistrements de BuzzFeed prouvaient l'existence d'un administrateur principal «  qui avait accès à tout ». « Tout est vu en Chine », affirme un membre du Trust and Safety Department. Des enregistrements de huit salariés américains montrent qu'ils ont dû se tourner vers leurs collègues chinois pour savoir comment circulaient les données de leurs concitoyens, ils n'avaient pas la permission d'y accéder eux-mêmes. Évidemment, comme d'habitude, TikTok, confrontée à des preuves, a fini par reconnaître la vérité. D'ailleurs en 2021, TikTok avait déjà dû payer 92 millions de dollars à la justice américaine en raison de fuites vers la Chine de données personnelles d'utilisateurs. Le rapport de BuzzFeed ne date pas d'il y a dix ans, il date d'il y a un an. Quelle est la situation aujourd'hui ?

M. Eric Garandeau. - La situation est celle que je viens de décrire. La construction du projet Texas aux États-Unis et la création des data centers et des dispositifs de protection mis en oeuvre en Europe sont destinées à éviter tout accès non autorisé, avec la certification d'une entité européenne dans le cadre du projet Clover. Dans le cadre du projet américain, nous sommes allés encore plus loin puisque c'est le cloud d'Oracle qui gère les données des utilisateurs américains dans une enclave sécurisée - USDS - avec 1000 employés qui y travaillent et un investissement d'1,5 milliard de dollars aux États-Unis. En Europe, nous avons engagé un investissement d'1,2 milliard d'euros, qui sera un investissement annuel, pour assurer la mise en oeuvre de ce de ce dispositif. C'est de cette manière que nous pouvons éviter tout risque d'accès non autorisé.

M. Claude Malhuret, rapporteur. - C'est un des problèmes avec TikTok, comme avec toutes les plateformes : des engagements sont pris et l'on tarde beaucoup à les voir venir. Le projet Texas a été lancé il y a quatre ans, en 2019. TikTok entre temps n'a pas eu de problème pour se développer à toute vitesse. Combien de temps va-t-il falloir attendre ? De même, le projet Clover pour l'Europe a été annoncé il y a au moins un an ou deux. Vous n'avez pas voulu révéler jusqu'à présent les noms des sociétés avec lesquelles vous comptez travailler. Ce n'est pas vraiment une preuve de transparence évidente. Pouvez-vous nous donner une date à laquelle les projets Texas et Clover seront définitivement mis en place ? À ce rythme, cela peut encore durer cinq ans, avec des engagements permanents auprès de la Commission européenne, de l'ARCOM et des régulateurs. C'est un vrai problème de ne pouvoir obtenir des plateformes autre chose que des engagements non tenus.

Par ailleurs, vous indiquez que tout transfert de données non autorisé sera impossible grâce à ces projets. Je souhaiterais quant à moi que tout transfert de données soit impossible. Si tel était le cas, nous pourrions alors avoir la garantie que vous êtes indépendant de la Chine. Pour le moment, vous comptez encore autoriser des transferts de données vers différents pays et notamment vers la Chine.

M. Eric Garandeau. - Je recevais hier une photographie de Norvège de la part de ma collègue qui visitait le chantier de construction du centre de données de Norvège. Nous étions tous heureux de le voir sortir de terre. Les projets, donc, se réalisent. Il y a d'ailleurs déjà un data center à Dublin, et le deuxième sera bientôt construit. Vous demandez une date. Nous avons annoncé un délai de 15 mois. À l'issue de ce délai, nous reviendrons vers vous et normalement le projet Clover sera réalisé. C'est l'engagement que nous avons formulé devant le ministre en charge du numérique, Jean-Noël Barrot, il y a quelques mois.

M. Claude Malhuret, rapporteur. - Vous construisez le centre et nous ne connaissons pas le nom de la société avec qui vous allez travailler.

M. Eric Garandeau. - Il s'agit pour la Norvège de la société Green Mountain. Le nom qui n'est pas communiqué pour l'instant est le nom du tiers de confiance car nous sommes en négociations. Il s'agit d'un projet à 1,2 milliards d'euros annuel et les discussions commerciales se déroulent avec les différentes entreprises. Nous pouvons en tout cas nous engager à revenir vers vous dans quelques mois, dès que cette négociation sera terminée.

Quant à l'accès aux données, TikTok est une plateforme de communication donc les données doivent circuler. Quand on parle de données, il peut s'agir aussi de vidéos ; il ne s'agit pas toujours de données personnelles. Quand une fonctionnalité nouvelle sort, il faut pouvoir analyser sa performance. Cela se fait grâce aux données mais il ne s'agit pas de données personnelles. Parfois il faut aussi corriger des bugs et le règlement de ce problème peut nécessiter l'intervention d'un ingénieur à Londres ou à Singapour. Cet ingénieur peut être n'importe où. Le principal est que le bug soit réglé par la personne qui est autorisée à intervenir.

M. Mickaël Vallet, président. - Sur les données personnelles - autrement que dans les cas que vous avez décrits - pouvez-vous nous assurer qu'il n'y a pas de transferts de données ?

M. Eric Garandeau. - La notion de données personnelles est elle-même une notion complexe. Je préfère donc revenir vers vous par écrit sur ce sujet, si vous me le permettez.

M. Claude Malhuret, rapporteur. - Vous n'avez pas répondu à ma question. Dans le futur, est-ce tout transfert de données non autorisé ou tout transfert de données tout court qui sera impossible ?

M. Eric Garandeau. - Une donnée peut être une information banale, qui porte sur l'utilisation d'un filtre, d'une fonctionnalité. Ce type de données doit pouvoir circuler d'un lieu à l'autre pour pouvoir être analysé. TikTok est une plateforme qui opère dans tous les pays.

M. Claude Malhuret, rapporteur. - Sauf en Chine, pays où vous transférez ces données.

M. Eric Garandeau. - Sauf en Chine effectivement. Pour savoir combien de fois un filtre a été téléchargé, il s'agit d'une donnée qui n'est pas une donnée personnelle. Il se peut qu'il soit utile de faire circuler cette information pour pouvoir améliorer le produit.

M. Claude Malhuret, rapporteur. - On a du mal à comprendre...Je poursuis ma question. Vous nous dites que TikTok et Douyin sont désormais complètement séparés. Dans vos réponses écrites, vous précisez que « TikTok n'est pas disponible en Chine continentale tandis que Douyin n'est pas disponible en dehors de la Chine continentale. Aucune donnée personnelle n'est partagée entre ces deux entités ». Vous nous avez répondu sur ce sujet ; à nous d'estimer si votre réponse est satisfaisante. Selon la politique de confidentialité présente sur le site, TikTok transmet des données à des entités en Chine. D'ailleurs, vous avez déclaré à la CNIL transférer des données à une vingtaine d'entités chinoises. Si ce ne sont pas des entités de Douyin, pouvez-vous dire nous que sont ces entités ?

M. Eric Garandeau. - Comme il s'agit d'un fait très précis, je préfère revenir vers vous de manière écrite sur ce sujet.

M. Claude Malhuret, rapporteur. - Le problème est que cette question vous avait été déjà posée dans notre questionnaire écrit. Vous ne nous aviez pas répondu et vous ne répondez pas non plus aujourd'hui. Notre commission d'enquête sera terminée et nous n'aurons pas reçu vos réponses...Confirmez-vous ce que vous avez déclaré, à savoir qu'il y a 20 entités en Chine avec lesquels vous travaillez ?

M. Eric Garandeau. - Je préfère vous répondre par écrit, dans un délai rapide.

M. Claude Malhuret, rapporteur. - Vous nous avez indiqué que « TikTok a été lancé en Europe en 2018. Les équipes produit et ingénierie situées dans le monde entier, notamment aux États-Unis, en Europe, à Singapour et en Chine, travaillent en continu à son développement et son évolution ». Y a-t-il donc des employés de TikTok en Chine ? Ou bien est-ce des employés d'autres sociétés et notamment de Douyin ?

M. Eric Garandeau. - Je n'ai pas connaissance d'employés de TikTok en Chine. Mais je ne suis que chargé des relations institutionnelles pour la France.

M. Claude Malhuret, rapporteur. - Vous rencontrez en permanence des ministres, des régulateurs, des commissaires européens. Je suppose que toutes nos questions ont dû largement vous être posées. C'est vous qui parlez d'équipes produits et ingénierie dans des sociétés qui ne sont pas TikTok puisque vous nous dites que TikTok n'est pas en Chine. Nous ne savons pas de quelles sociétés il s'agit ; cela n'est pas très transparent.

M. Eric Garandeau. - Avez-vous des questions plus précises ?

M. Claude Malhuret, rapporteur. - C'est vous qui êtes imprécis dans votre réponse. Je ne peux pas vous en dire plus. Vous indiquez que « les équipes produit et ingénierie situées dans le monde entier, notamment aux États-Unis, en Europe, à Singapour et en Chine, travaillent en continu à son développement et son évolution ». C'est à vous d'être plus précis. Quelles sont ces équipes ?

M. Eric Garandeau. - Nous pourrons revenir vers vous par écrit. En tout cas, comme je vous l'indiquez, ce qui nous semble être le plus important est de vérifier que nos systèmes soient parfaitement étanches et que les accès soient dûment autorisés pour des raisons très précises.

M. Rémi Cardon. - Ma question porte également sur l'actualité, notamment sur la proposition de loi sur les influenceurs. Quand M. Malhuret vous pose des questions sur le juridique, vous répondez opérationnel. Je vous pose quant à moi des questions sur l'opérationnel pour vous amener vers le juridique. Comment allez-vous mettre en place vos équipes pour le contrôle des promotions interdites ? Que pensez-vous de l'idée d'imposer un badge pour distinguer un influenceur à dimension commerciale d'un influenceur tout court ?

Pourquoi avoir autant dépensé de milliards ou de millions de dollars sur la stratégie et le lobbying si vous êtes si serein ? J'ai du mal à comprendre pourquoi autant d'argent est consacré à faire le lobbying de l'application TikTok.

M. André Gattolin. - Je voulais revenir sur plusieurs informations que vous nous avez données jusqu'à présent. Il y a une chose qui m'a beaucoup étonné. Vous avez dit que vous travaillez avec le PEReN, avec Viginum. Or, on les a auditionnés : vous ne travaillez pas avec eux, c'est eux qui vous demandent de coopérer et de donner des informations. Ce n'est pas une coopération je dirais de pair à pair, ce sont des instances, des autorités qui vous demandent des informations et, le moins qu'on puisse dire, c'est qu'ils en ont certaines mais qu'ils n'ont pas toutes celles qu'ils ceux qui voudraient. Je tiens à être précis sur plan sémantique.

Un autre aspect que vous avez évoqué, et j'ai été impressionné par le volume, concerne le « trust and safety » en Irlande. Vous parlez de 40 000 personnes. Je suis un peu étonné parce qu'il existe, et vous l'avez dit, un « trust and safety» Amérique, qui était dirigé d'ailleurs par Éric Khan, avant qu'il quitte ses fonctions suite à des auditions, car il ne voulait pas être un « bouc émissaire ». Son unité aux États-Unis comprend 1 400 personnes. Donc il y 1 400 personnes pour faire de la modération aux États-Unis, qui est l'un des premiers marchés de TikTok et il y en aurait 40.000 en Europe ?

M. Eric Garandeau. - Si vous me permettez de corriger tout de suite, c'est 40  000 personnes dans le monde. Je n'ai peut-être pas été assez clair. Il se trouve que le responsable mondial de cette entité est en Irlande.

M. André Gattolin. - C'est un aspect important pour comprendre aussi l'emploi parce qu'on a très peu d'éléments sur le volume d'employés, en dehors de ByteDance proprement dit et Douyin. Quand je vois que la rémunération annuelle de quelqu'un qui travaille au sein du « trust and safety » se situe entre 60 et 65 000 dollars par an, cela représente beaucoup d'argent.

Vous devez avoir une masse salariale un peu chargée mais on reviendra plus tard sur la question des logiques et des équilibres économiques.

Alors évidemment quand on est un groupe il y a des logiques de mutualisation. J'imagine qu'en terme de données et de transfert de données, il y a une mutualisation technologique et je peux comprendre qu'il y ait des échanges, y compris avec la société mère.

Quand on parle de « trust and safety », on parle en fait de modération des contenus, ce qui est certes très important, mais moi ce qui m'intéresse c'est quelle protection et quelle cybersécurité des plateformes. En effet, chaque année, dans tous les pays, les plateformes font l'objet d'attaques et de vol de données.

Quel est le niveau de cybersécurité de TikTok ? Est-ce que vous avez déjà fait l'objet d'attaques, notamment en France ? Quel est le nombre de ces attaques ? Et est-ce qu'on vous a déjà volé des données, même si c'est compliqué de le dire en termes d'image ? On nous en vole dans des grandes bases de données françaises.

Là il ne s'agit pas de savoir si vous transférez volontairement vers l'étranger, vers tel ou tel pays des données, mais quelle est votre capacité de résistance au vol et si c'est quelque chose de massif, hackers russes ou autres et donc est-ce que vous êtes totalement sécurisé ? Pouvez-vous garantir que vos données ne sont pas volées ou en tous les cas qu'elles sont très protégées ? Et surtout est-ce que vous faites concrètement l'objet d'attaques, comme tous les autres groupes et de quelle manière vous coopérez avec l'ANSSI, puisque l'on demande aux grandes entreprises et compris les entreprises privées aujourd'hui de déclarer les attaques qui leurs sont faites ? Est-ce que vous avez procédé à des signalements et à des déclarations ?

Mme Toine Bourrat. - TikTok s'est vu infliger en France par la Commission nationale de l'informatique et des libertés mi- janvier une amende de 5 millions d'euros car les utilisateurs ne peuvent y refuser les cookies, les traceurs informatiques. La plateforme a aussi été condamnée au Royaume-Uni à une amende de plus de 12 millions d'euros début avril pour l'utilisation illégale de données liées aux enfants. Donc je voudrais savoir si ces condamnations ont conduit TikTok a opéré des adaptations, des évolutions pour se mettre en conformité ? De plus, j'imagine qu'avant d'arriver à la condamnation il y a eu des signalements, des alertes, je voulais savoir pourquoi est-ce que TikTok avait tardé à se mettre en conformité ? Combien de temps y-a-t-il eu entre les premières alertes lancées à TikTok et l'amende qui a été infligée ?

M. Eric Garandeau. - Sur les influenceurs, nous avons évidemment participé aux travaux qui ont été conduits au sein du ministère des finances piloté par le ministre lui- même et qui se sont articulés ensuite avec la proposition de loi « Delaporte-Vojetta» suite au rapprochement de plusieurs propositions de loi. On a d'ailleurs salué le caractère très constructif de cette démarche et le résultat final de la loi qui est tout à fait intéressant. On avait déjà mis en oeuvre chez TikTok des dispositifs pour restreindre la publicité sur certains produits. Notre liste de produits interdits de publicité est déjà très importante. Le sujet par exemple de la chirurgie esthétique qui avait été mentionné, y compris par le ministre, fait partie des produits sur lesquels on ne peut pas faire de publicité chez TikTok, comme sur les produits pharmaceutiques, le tabac, l'alcool etc. On veille aussi à ce que les publicités ciblées ne soient pas dirigées vers des publics mineurs. C'est aussi un engagement que nous avons pris avant même le vote de la loi. Nous interdisons aussi les jeux d'argent, les paris sportifs.

Ensuite, sur le signalement des vidéos faisant l'objet d'une promotion, nous avons déjà cette fonctionnalité, et d'ailleurs, même quand un créateur présente un produit de marque dans une vidéo et quand l'algorithme détecte cette vidéo, on lui propose spontanément de signaler que cette vidéo fait l'objet d'une promotion. Ce sont des sujets sur lesquels on est très attentifs et on veillera aussi à travailler en bonne intelligence avec la DGCCRF qui a lancé des programmes de contrôle pour que cette loi soit pleinement appliquée.

Enfin, je n'ai pas bien saisi quand vous parliez de milliards, si cela faisait référence au projet que j'évoquais. Parce que nous ne dépensons pas des milliards en lobbying, mais nous dépensons des milliards en création de centres de données.

M. Mickaël Vallet, président. - La question portait sur le lobbying, par rapport aux chiffres que vous nous avez donnés dans les questionnaires sur vos dépenses de relations publiques.

M. Eric Garandeau. - Nous sommes très loin de ces ordres de grandeur. Je n'ai pas de commentaire particulier à faire si ce n'est que, comme n'importe quelle entreprise, nous avons une direction des relations institutionnelles et que nous faisons ce travail d'aller échanger y compris avec vous ce matin, et aussi dans d'autres commissions. Nous avons toujours répondu présent dès lors qu'il y a eu des demandes d'audition parlementaire sur tous les sujets. Nous sommes dans une démarche de coopération et de transparence, et une partie de ces dépenses sert à préparer au mieux ces interventions.

Sur la question de la cybersécurité, on cherche justement à établir des relations avec l'ANSSI. Nous n'avons pas encore eu de rendez-vous mais nous espèrons en avoir un prochainement pour présenter les projets Clover et pour pouvoir leur indiquer que l'on est disposé à ce que l'ANSSI fasse des tests pour vérifier la robustesse de nos dispositifs. On est vraiment très ouvert à cette discussion et effectivement nous coopérons comme nous devons le faire avec VIGINIUM et le PEReN.

Je pense que ce qui nous manquait jusqu'ici pour pouvoir répondre à toutes les questions, c'était les API, qui permettent d'interroger par exemple nos algorithmes. C'est pourquoi nous sommes en train de développer ces API qui permettront aussi de tester davantage de fonctionnalités ou de naviguer dans davantage de contenus.

Sur le volume des attaques, ce sont des données qu'il vaudrait mieux échanger de manière confidentielle.

M. Mickaël Vallet, président. - En matière de cybersécurité, il y a un principe qui est assez partagé par les plateformes et géants du web, et je pense que l'ANSSI vous le dira, qui consiste à faire circuler l'information sur la question des attaques.

De la même façon que ce n'est pas honteux d'attraper la grippe ou d'avoir un accident de la vie, quand on subit une attaque, il est important de bien partager l'information de manière transversale entre responsables. Ainsi, dans la loi de programmation militaire, il est prévu des obligations pour les éditeurs de logiciels de faire connaître leurs failles de la manière la plus rapide possible. Je le glisse au passage, ne serait-ce qu'en terme de relations publiques, s'il peut avoir des aspects confidentiels, il faut faire connaître les attaques et les failles de sécurité lorsqu'elles ont été constatées et j'espère que vous le faîtes, comme les autres hauts responsables.

M. Eric Garandeau. - Tout à fait, d'ailleurs nous communiquons sur les attaques sur la plateforme, lorsqu'il y a des tentatives coordonnées pour disséminer des contenus visant à une désinformation manifeste notamment à l'occasion d'élections. Par exemple nous avons a communiqué sur ce qui s'est passé en Allemagne où nous avons démantelé 3000 comptes qui diffusaient des fausses informations ou encore au Kenya. Voilà, de ce point de vue-là nous communiquons.

Quant à l'amende de la CNIL, nous avions pris en amont la mesure de cette faille qu'il fallait corriger. S'agissant des cookies, il ne s'agissait pas de l'application TikTok qui est évidemment le principal outil d'accès à TikTok, mais de la « web Apps » c'est-à-dire de la manière d'accéder à TikTok par Internet, qui est moins fréquemment utilisée.

Je pense qu'il a une négligence sur le fait que les utilisateurs de TikTok par le web n'étaient pas forcément informés des cookies qui pouvaient exister sur la plateforme. Ceci a été corrigé. Et c'est ce qui explique que l'amende de la CNIL, si elle est d'un montant important, d'autres plateformes en ont reçu de bien plus importantes, parfois jusqu'à plus de 150 millions d'euros. Nous pensons donc avoir agi avec rapidité. Nous sommes d'ailleurs dans un processus d'amélioration constante, dans tous les domaines y compris celui-là.

De la même façon, nous sommes très vigilants sur l'utilisation des données des enfants. Les publics mineurs doivent être le mieux protégés possible, ne doivent pas être exposés à certaines publicités et ils doivent avoir accès à des contenus adaptés à leur âge.

M. Claude Malhuret, rapporteur. - Je voudrais revenir au problème de l'algorithme ou des algorithmes. Nous vous avions posé la question : qui détient la propriété intellectuelle du « haut » des algorithmes au niveau mondial. Vous n'avez pas répondu. Nous vous avons posé la question : y a-t-il un algorithme ou des portions d'algorithmes communs entre TikTok et Douyin. Vous avez répondu de façon particulièrement brève, il n'y a pas d'algorithmes communs, ni de parti d'algorithmes communs entre TikTok et Douyin.

Pourtant, le PDG de TikTok a déclaré dans son audition au Sénat américain que Bytedance avait développé les algorithmes à la fois pour Douyin et TikTok. Et que par conséquent « some of the underlying basic building blocks » sont utilisés par les deux produits. En outre, la Chine, par la voix de son secrétaire d'État au commerce, a récemment affirmé que la Chine refusait la vente de TikTok, au motif qu'elle ne voulait pas perdre ses technologies. Elle a ajouté les technologies algorithmiques utilisées par TikTok, et par Douyin à la liste des technologies non exportable sans l'autorisation du gouvernement chinois, bloquant une éventuelle vente de TikTok à des étrangers.

Comment expliquer cette déclaration si TikTok est Douyin sont totalement séparés et si TikTok est totalement indépendante du gouvernement chinois ?

M. Eric Garandeau. - Les algorithmes sont en effet différenciés entre les deux applications. Et donc ce sont des équipes spécifiques qui développent l'algorithme de recommandation de TikTok. Et, comme indiqué, la chaine capitalistique et juridique qui descend de Bytedance à TikTok doit permettre de faire en sorte qu'il n'y ait pas de pressions qui sont exercées à l'encontre de la plateforme TikTok. Ensuite je pense que ce qui est important, par rapport à vos préoccupations légitimes, c'est que les algorithmes soient auditables, qu'on puisse vérifier qu'il n'y a pas de de biais algorithmique dans le sens de la censure, de la propagande ou de la désinformation. Et de ce point de vue-là, nous développons des API qui vont permettre aux autorités de régulation ou aux chercheurs de la communauté scientifique d'interroger ces algorithmes et de vérifier qu'il n'y a pas de biais qui soient contraires à l'intérêt général.

M. Claude Malhuret, rapporteur. - Je vous repose la question : qui détient la propriété intellectuelle du ou des algorithmes au niveau mondial ?

M. Eric Garandeau. - Je me permettrais de revenir vers par écrit sur cette question. En tout cas il semble logique que ce soit Bytedance qui soient propriétaire de ces algorithmes.

M. Claude Malhuret, rapporteur. - Ça n'a pas l'air d'être l'avis du gouvernement chinois puisque le gouvernement chinois dit que les technologies algorithmiques utilisées par TikTok et Douyin sont des technologies chinoises, de propriété intellectuelle chinoise et qu'elles sont inexportables sans l'autorisation du gouvernement chinois. Donc il semble bien, et en tout cas c'est l'avis du gouvernement chinois, que la propriété intellectuelle appartient à une société chinoise.

M. Eric Garandeau. - Je n'ai pas de commentaire à faire sur des déclarations de quelque gouvernement que ce soit.

M. Claude Malhuret, rapporteur. - Mais vous, vous pensez que si un jour Zhou Zi Chew et ses associés, pas seulement sous les injonctions du gouvernement américain, veulent revendre TikTok, cela posera des problèmes avec le gouvernement chinois ? En tout cas, dans la situation actuelle TikTok est coincé pour faire certaines opérations et notamment des opérations qui impliqueraient l'utilisation de son algorithme.

M. Eric Garandeau. - Ce que je peux dire, c'est que TikTok et le groupe s'étendent dans une logique de développement et de poursuite sur leur lancée, de continuer à développer des nouveaux produits et des nouvelles fonctionnalités et que tout est mis en oeuvre, tout est fait de telle sorte que ses algorithmes puissent être auditables et que s'il y a des préoccupations légitimes sur le fait qu'ils puissent être biaisés ou manipulés, on puisse apporter toute réponse de nature à vous rassurer. Sur d'autres sujets, nous parlions aussi des bulles d'enfermement algorithmiques, il faut qu'on puisse aussi vous apporter des réponses sur les effets néfastes de ces algorithmes, qu'on puisse apporter des clarifications qui soient de nature à vous rassurer sur le fait qu'ils sont utilisés non pas pour développer de l'addiction ou de la toxicité, mais au contraire pour permettre à nos utilisateurs de s'épanouir, se divertir et s'instruire, et de communiquer les uns avec les autres dans un plein souci de la liberté d'expression.

M. Claude Malhuret, rapporteur. - Vous me parlez de l'utilisation. Moi je vous parle de la propriété et notamment de la propriété intellectuelle. Les régulateurs et plusieurs de nos interlocuteurs nous ont dit que les API de TikTok aujourd'hui était embryonnaires par rapport aux autres sociétés, par rapport aux autres plateformes, et que les autres plateformes ne sont pas totalement transparente mais qu'elles ont des API qui permettent pas mal d'accès. Vous nous promettez des API qui permettront de vérifier les utilisations, mais moi je vous parle de propriété. Quelle est la part de l'algorithme, quelle est la part de l'ingénierie sur l'algorithme qui est effectuée en Chine ou qui est effectuée ailleurs ? L'algorithme est chinois au départ, l'algorithme est commun entre Douyin et TikTok au départ, puis séparé, mais il semble être majoritairement utilisé par des ingénieurs d'une société chinoise. Vous devez quand même savoir avec quelles sociétés chinoises vous travaillez, puisque vous travaillez avec des entités chinoises, comme vous l'avez dit vous-même.

M. Eric Garandeau. - S'agissant de l'algorithme de recommandation, je sais qu'il y a des équipes d'ingénieurs au Royaume-Uni, aux États-Unis, à Singapour. C'est ce que je pouvais vous dire aujourd'hui. Par ailleurs, je pense qu'il y a beaucoup d'autres entreprises de technologie, beaucoup d'entreprises occidentales qui ont aussi des ingénieurs en Chine et je ne crois pas que ça pose de difficultés. En revanche, nous adressons vos préoccupations sur l'intégrité des systèmes : par le dispositif de sécurisation des données des Européens et par l'audit des algorithmes. Vous dites que les API sont embryonnaires. C'est vrai, nous nous sommes en train de les créer. Nous sommes une société qui n'existaient pas il y a 6 ans et donc nous sommes en train de développer ces API, et ce que je peux vous dire c'est que le responsable de l'entité Trust and Safety est le 1er à dire : il faut que nous soyons le plus ouvert possible et que nos systèmes puissent être audités.

M. Claude Malhuret, rapporteur. - A la question 8 que nous avions posée portant sur les éventuels systèmes d'information communs entre TikTok et Douyin, vous faites une réponse imprécise, vous répondez sur les données des utilisateurs et vous indiquez que TikTok utilise sa propre plateforme de collaboration professionnelle qui s'appelle Lark, utilisée par tous les employés de ByteDance. Vous utilisez donc un logiciel de messagerie spécifique. Le New York Times a indiqué, le 24 mai dernier, que les messages des employés de TikTok sur la messagerie d'entreprise Lark étaient largement accessibles à des employés en Chine. Notre question reformulée est donc : est-ce que Lark est utilisé en Chine par des employés de Douyin. Quels sont les messages des employés de TikTok qui sont accessibles aux employés de Douyin ? Pourquoi les employés de TikTok et Douyin utilisent la même messagerie semble-t-il sans droit d'accès particulier, sans restriction d'accès particulière, si TikTok et Douyin n'ont rien en commun ?

M. Eric Garandeau. -Lark est une application que vous pouvez télécharger, une messagerie comme il en existe un grand nombre, comme Teams, Zoom ou Slack. C'est un banal outil d'échange. Je ne vois pas de particularités propres à Lark par rapport à d'autres outils bureautiques.

M. Claude Malhuret, rapporteur. - Ce qui me pose problème, ce n'est pas l'outil, c'est le fait que les employés de TikTok et Douyin partage allègrement la plateforme Lark. S'il y a aucun rapport entre TikTok et Douyin c'est quand même un peu surprenant !

M. Eric Garandeau. - Moi et mes collègues utilisont Lark pour échanger au sein de TikTok SAS ou pour échanger avec nos collègues de TikTok en Europe mais nous n'avons pas d'autres usages.

M. Mickaël Vallet, présdient. - Je ne sais pas si votre réponse est exhaustive ou s'il y a trois petits points ? Pour échanger avec des collègues de TikTok SAS et de TikTok Europe, point, ou également avec des collègues en Chine ?

M. Eric Garandeau. - Comme les deux entités sont très séparées, nos échanges sont au sein de TikTok. On peut échanger aussi avec l'Amérique latine, avec les États-Unis bien entendu. Les réunions se font au sein de de l'entité TikTok.

M. Mickaël Vallet, président. - Dans votre téléphone, sur votre application Lark, vous n'avez pas de discussion ouverte avec des collègues en Chine ?

M. Eric Garandeau. - Pas de Douyin, en tout cas pas à ma connaissance.

M. Mickaël Vallet, président. - C'est vous qui savez ce qu'il y a dans votre poche ! Donc la réponse est non.

M. Eric Garandeau. - Parfois, on peut échanger avec quelqu'un sans savoir exactement quelle est son entité juridique.

M. Mickaël Vallet, président. - Il n'y a rien de pervers dans ma question. Vous pouvez échanger avec quelqu'un sans savoir qu'en ce moment il est pendant 2 mois à Shanghai. Je n'en suis pas à ce niveau de suspicion. Mais vous n'échangez pas avec des responsables identifiés chinois sur Lark ?

M. Eric Garandeau. - Je ne pense pas. On a pu échanger avec des collègues de Pico, puisque Pico est dans le groupe aussi (elle crée des casques de réalité virtuelle), mais ce n'est pas ce n'est pas Douyin, c'est une autre entité.

M. Claude Malhuret, rapporteur. - Les centres de données dont vous venez de nous parler, est ce qu'ils utiliseront les mêmes logiciels américains qu'actuellement et qui sont immatriculés aux États-Unis, à savoir Google Cloud Amazon web Services et Microsoft Azure ? C'est une question qui à nos yeux est importante, puisqu'elle permet de déterminer la soumission éventuelle au Cloud Act américain.

M. Eric Garandeau. - L'idée c'est précisément d'avoir un système différent entre les États-Unis et l'Europe ; que, en Europe on puisse travailler dans la mesure du possible avec des entreprises européennes. Je ne peux pas divulguer d'autres noms de marques dans une enceinte publique mais je propose de revenir vers vous par écrit dans la mesure où on peut transmettre des informations plus précises sur ce point.

M. Claude Malhuret. - Je vous repose pour la deuxième fois la question : qui détient la propriété intellectuelle du haut des algorithmes de TikTok au niveau mondial ?

M. Eric Garandeau. - Sur cette question, je préfère également revenir par vers vous par écrit. Ce que je peux faire, ici à mon niveau, c'est vous apporter des précisions sur la manière dont ces algorithmes sont utilisés, la manière dont fonctionne notre dispositif de modération, la manière dont nous pouvons, par des API, auditer ces algorithmes. Mais sur la question de la propriété intellectuelle, elle-même, c'est une question trop technique pour vous répondre ici.

M. André Gattolin. - Pour préciser et compléter la question : le Royaume-Uni joue un rôle important dans votre dispositif depuis le Brexit, même si il y a des accords de prolongation du système de la propriété intellectuelle qui était celui de l'Union européenne. On note un dépôt extrêmement massif de nouvelles licences au Royaume-Uni. Est-ce que vous avez protégé, déposé pour le niveau européen ou, en tous les cas, dans le cadre de votre entreprise, la propriété intellectuelle ? Le Royaume-Uni continue à appliquer les règles qui avaient été posées par l'Union européenne et parallèlement on voit un double système se mettre en place. Et le Royaume-Uni, dans le fonctionnement actuel, a des failles.

M. Eric Garandeau. - Je reviendrai vers vous avec plus d'informations sur ce point. Ce que je peux dire en tout cas, c'est que TikTok se développe beaucoup en Europe continentale, c'est-à-dire que nous ouvrons des bureaux régulièrement dans un grand nombre de pays. On a commencé avec l'Allemagne, la France, Bruxelles et maintenant nous ouvrons des bureaux dans d'autres pays de de l'Europe continentale, en Europe du Sud notamment.

M. Claude Malhuret, rapporteur. - En réponse à la question 35 du deuxième questionnaire envoyé, vous indiquez que l'expression « amélioration de l'expérience utilisateur » ne figure pas dans votre politique de confidentialité. Elle y est pourtant bien présente puisque vous utilisez l'expression « optimiser l'expérience utilisateur » comme intérêt légitime pour partager à des tiers des informations sur les utilisateurs. C'est une expression qui reste très vague. Qu'est-ce qu'elle recouvre concrètement ? Est-ce que l'utilisateur a selon vous conscience qu'il partage ses informations, dans ce but très général ?

M. Eric Garandeau. - A ma connaissance, on ne partage pas de données avec des tiers. Sauf dans le cas des API. Nous sommes en train de les mettre en place en conformité avec le DSA.

M. Claude Malhuret, rapporteur. - Je pense que vous utilisez cette phrase à propos des échanges de données avec des sociétés étrangères dans la politique de confidentialité, sans préciser évidemment. Vous dites qu'il y a des sociétés aux États-Unis, en Malaisie, à Singapour, en Chine. Parmi les objectifs, il y a le fait de travailler à optimiser l'expérience utilisateur.

M. Eric Garandeau. - Je propose là aussi de revenir par écrit, c'est un point très technique a, si vous me permettez, monsieur le rapporteur.

M. Claude Malhuret, rapporteur. - Où en est la procédure sur l'enquête réglementaire initiée par la Data Protection Commission (DPC) irlandaise portant sur la conformité de TikTok Ireland avec le RGPD dans le cadre du traitement des données personnelles d'utilisateurs âgés de moins de 18 ans entre le 29 juillet 2020 et le 31 décembre 2020 ? Cela fait plus de deux ans que la procédure est en cours. Je pense qu'elle touche à sa fin. Envisagez-vous une décision définitive avant l'été ?

M. Eric Garandeau. - Je n'ai pas d'information à partager à cet égard.

M. Claude Malhuret, rapporteur. -Vous nous direz lorsque vous aurez la réponse de la DPC.

M. Eric Garandeau. - Oui, bien sûr, je pense que ce sera connu.

M. Claude Malhuret, rapporteur. -TikTok « pousse » les contenus - j'utilise ce terme parce qu'il circule beaucoup - comme par exemple ceux de la chaîne du Festival du livre pour l'aider à gagner en visibilité. Un article est récemment paru dans l'Obs à ce sujet. Pouvez-vous nous dire en deux mots comment est-ce que l'on procède aux « poussettes » ? Combien y a-t-il de « pousseurs », s'il s'agit bien d'interventions humaines, en France et quelle est leur marge de manoeuvre ? À qui réfèrent-ils ?

M. Eric Garandeau. - Je pense que ma collègue Marlène Masure, que vous entendrez cet après-midi, pourra vous répondre plus en détail. Ce que je peux vous dire, c'est que la proportion de vidéos faisant l'objet d'une mise en avant éditoriale est très faible. Nous avons fait un test sur quelques mois et nous étions à 0,0006 %. C'est donc vraiment marginal, mais cela concerne des contenus que vous citiez, comme le livre ou des contenus que l'on met en avant pour des raisons éducatives ou culturelles. Nous avons très à coeur de jouer notre rôle citoyen et de pouvoir mettre en avant des contenus qui intéressent le plus nos communautés. S'agissant du livre, c'est une très belle histoire puisque le mot-dièse « #BookTok » a plus de 151 milliards de vues dans le monde. C'est un phénomène au départ très organique. Une Américaine avait commencé à faire une chronique littéraire sur TikTok, sur un livre portant sur Achille et l'antiquité grecque, et cette vidéo est devenue virale. Depuis lors, nous avons beaucoup d'utilisateurs de tous âges qui font des chroniques littéraires sur TikTok. C'est vrai que nous avons encouragé ce mouvement en France, parce que la lecture de livres est une cause nationale. Nous avions rencontré le ministre de l'Éducation nationale - à l'époque Jean-Michel Blanquer - qui souhaitait que les jeunes, qui vont vers les écrans, puissent aussi revenir vers le livre et la lecture. Cela fait donc partie effectivement des choses que nous avons encouragées. Nous avons même mis en place une interface « Apprendre sur TikTok », qui a déjà 200 millions de vues, alors qu'elle vient à peine d'être lancée, et qui permet de se cultiver sur TikTok, avec des onglets comme « langues étrangères », « histoire », « culture ». Nous pensons que cela correspond à un appétit très fort de nos utilisateurs.

M. Mickaël Vallet, président. - Si vous permettez, je vais faire le candide. Lorsque vous êtes une entreprise locale ou une collectivité, la presse locale vient parfois vous démarcher en vous proposant un partenariat pour un festival ou un salon annuel, c'est-à-dire qu'elle s'engage à réaliser des reportages, sur lesquels vous n'aurez pas la main d'un point de vue rédactionnel, mais qui permettront d'amener de la visibilité à l'événement. Dans le cas d'espèce, j'imagine que vous allez voir le Salon du livre ou que le Salon du livre vient vers vous et s'engage à promouvoir l'application à l'intérieur du Salon du livre ou le mot-dièse « #BookTok », en échange de quoi vous allez pousser le contenu sur le Salon du livre. Ma question est donc simple : quel est l'objet du partenariat ? Il y a bien un moment où le journal qui vient vous voir vous dit : « vous aurez un article par jour »  et vous, vous dites « vous serez poussé à hauteur de tant de vidéos » ou « l'algorithme sera amené à mettre du contenu sur le Salon du livre sur tant de fils ». J'aimerais que vous nous répondiez concrètement.

M. Eric Garandeau. - Ces sujets relèvent de la direction contenus et opérations, donc je pense que Marlène Masure vous répondra cet après-midi.

M. Mickaël Vallet, président. - Vous avez bien quelqu'un de la direction contenus et opérations qui vous accompagne lorsque vous rencontrez les personnes en charge d'un salon ou d'un festival. Il faut bien que vous puissiez leur répondre concrètement. Parce que, que vous puissiez dire autour d'un café que tout le monde adore la littérature, le cinéma, les formats courts et le surréalisme nouvelle version, c'est très aimable, mais il y a un moment où la personne doit rendre compte elle aussi à son conseil d'administration. Il faut qu'elle puisse dire que le partenariat avec TikTok a permis d'accroître la visibilité de tant de pourcents. On a même vu des bandeaux sur une chaîne d'information en continu qui disaient littéralement « cette année, le Salon du livre a eu tant de de visiteurs supplémentaires, grâce à un partenariat avec TikTok ». Tout cela n'a rien de sale. Qu'en tant que responsable des affaires publiques, vous ne sachiez pas ouvrir le capot de l'ordinateur ou de l'algorithme, je l'entends bien, mais pouvez-vous au moins nous indiquer quel est l'objet du partenariat sur le festival du livre de Paris par exemple ?

M. Eric Garandeau. - Oui, on peut prendre cet exemple. Je pense d'ailleurs qu'on a dû vous transmettre le contrat de partenariat avec le Festival du livre de Paris. Les choses étaient assez simples. C'est le Festival du livre qui nous a proposé ce partenariat. Son but était effectivement d'accroître sa communication en direction des jeunes publics. Cela a été plutôt suivi d'effets, puisqu'il a été constaté que près de 45% - je crois - de la fréquentation totale du salon a été le fait de jeunes de moins de 25 ans.

M. Mickaël Vallet, président. - Parce que vous avez bien travaillé. Donc, concrètement, combien de contenus, sur combien de fils, avez-vous poussés ?

M. Eric Garandeau. - Le contenu de ce partenariat, c'était d'avoir un espace au sein du Festival du livre pour pouvoir accueillir des créateurs, favoriser la rencontre avec des auteurs et pouvoir faire des vidéos qui ont ensuite été diffusées sur TikTok. Mais je ne pense pas que l'on rentre dans le degré de détails que vous mentionnez. Simplement, le mot-dièse « #BookTok » est un mot-dièse très populaire, qui peut faire l'objet d'une éditorialisation particulière, sous forme d'une page dédiée à la littérature, et qui va, de temps en temps, mettre en avant des créateurs et des contenus. L'essentiel - c'est là la beauté de la chose - est que ce phénomène est très organique, c'est-à-dire que c'est un écosystème où certains types de contenus sont très demandés. Cela donne donc envie à d'autres créateurs de se lancer également dans ce type de contenus.

M. André Gattolin. - Si, dans le cadre d'un partenariat, vous faites venir des créateurs TikTok in situ et que cela provoque un afflux, cela veut donc dire que les gens sont dans une réactivité quasi-immédiate. Ce n'est pas quelque chose qui est monté en amont sur la plateforme TikTok, c'est la production de contenus qui suscite une réactivité très forte. Dans ce cadre-là, utilisez-vous un algorithme de géolocalisation ? Parce que, si vous habitez à 500 kilomètres de Paris, vous n'allez pas vous déplacer au Salon du Livre uniquement parce qu'un créateur en a fait la promotion sur TikTok...

M. Eric Garandeau. - Une plateforme est aussi le reflet de la société. Je pense qu'il y a un mouvement, peut-être déjà ancien, de retour à la lecture et aux livres.

M. Mickaël Vallet, président. - Si vous dites que le partenariat consiste à pousser les contenus de manière à inciter les gens à venir au Salon du livre, cela n'a rien de sale. Ce que l'on vous demande simplement, c'est si vous êtes en mesure, commercialement, de donner à votre partenaire l'assurance que son événement sera poussé à tel moment et sur telle zone géographique, du fait de la géolocalisation des abonnés. Répondez-nous par oui ou par non.

M. Eric Garandeau. - Ce que je sais à mon niveau, c'est que la géolocalisation est très peu développée sur l'application, mais je préfère que Marlène Masure vous réponde sur ce point cet après-midi.

M. Claude Malhuret, rapporteur. - TikTok devait remettre en janvier à la commissaire européenne Vera Jourova un rapport sur la désinformation sur sa plateforme. Ce rapport a-t-il été remis ? Mme Jourova a-t-elle rendu un avis sur ce rapport ?

M. Eric Garandeau. - Nous avons adhéré de manière volontaire au code européen de lutte contre la désinformation et nous avons remis notre premier rapport à la Commission européenne. Ce rapport, dans lequel nous avons publié plus de 2500 données, a reçu un accueil satisfaisant. C'est la seule chose que je puisse en dire à ce stade. Nous avons rempli notre obligation et nous continuerons à la remplir.

M. Claude Malhuret, rapporteur. - Je reviens sur la question précédente. Vous nous avez indiqué que les vidéos « BookTok » avaient généré 150 milliards de vues. Combien cela représente-t-il par rapport au total de vues sur TikTok dans le monde annuellement ?

M. Eric Garandeau. - La popularité de tel ou tel mot-dièse peut être suivie en temps réel, en tapant le mot-dièse dans la barre de recherche. Le chiffre précis est aujourd'hui de 145 milliards de vues pour les vidéos « BookTok ». Ce qui est intéressant, c'est que le mot-dièse « BookTok » est un mouvement spontané. C'est une utilisatrice qui a créé ce mot-dièse, qui est ensuite devenu viral et peut effectivement faire désormais l'objet d'une plus grande éditorialisation. Ce que la mesure du nombre de vues indique, c'est qu'il y a 145 milliards de visionnages de vidéos portant le mot-dièse « BookTok ». Parfois, évidemment, un utilisateur peut regarder deux fois la même vidéo, mais cela reste un indicateur intéressant de la popularité d'une tendance.

M. Claude Malhuret, rapporteur. - Pour témoigner de la popularité, il faut comparer cet indicateur à l'ensemble. Ma question est simple : combien de vues de vidéos, toutes catégories confondues, sont comptabilisées par an sur TikTok ?

M. Eric Garandeau. - Je ne sais pas si cette donnée est disponible. Mais vous avez raison, l'intérêt d'avoir ces API est aussi de pouvoir faire ce travail de quantification. En tout cas, par rapport aux ordres de grandeur que nous avons en tête, 145 milliards de vues est le signe d'une grande popularité. Par exemple, à titre de comparaison, la récente compétition de films «  TikTok shortfilm » a généré plus de 9 milliards de vues.

M. Claude Malhuret, rapporteur. - TikTok s'acquitte-t-il de sa contribution au CNC ?

M. Eric Garandeau. - Tout récemment, en avril 2023, nous avons fait notre première déclaration au titre de la taxe sur les services numériques. De ce point de vue, nous sommes bien en règle de nos obligations fiscales. La taxe dont le produit est versée au CNC fait l'objet d'une discussion entre les équipes fiscales de TikTok UK et l'administration fiscale française. Des questions ont été posées sur l'assiette de la taxe. TikTok est en attente de la réponse de l'administration fiscale pour respecter pleinement ses obligations.

M. Claude Malhuret, rapporteur. - Quand TikTok France a-t-il été créé ?

M. Eric Garandeau. - C'était en 2020.

M. Claude Malhuret, rapporteur. - Depuis 3 ans, vous ne payez donc pas la contribution au CNC.

M. Eric Garandeau. - Nous attendons la réponse de l'administration fiscale qui à ma connaissance n'a pas encore été donnée.

M. Claude Malhuret, rapporteur. - En juillet 2022, TikTok a publié un communiqué expliquant que la société suspendait la mise à jour de sa politique de confidentialité qui lui permettait de se passer du consentement de ses utilisateurs européens pour les exposer à la publicité ciblée. Cette décision, qui intervenait à la veille de l'entrée en vigueur des changements, faisait suite à des discussions ouvertes avec l'autorité irlandaise de protection des données, la DPC. L'ONG Access Now, qui défend les droits des internautes, avait accusé TikTok de violation manifeste du RGPD européen à des fins de publicités ciblées. Depuis juillet dernier, où en êtes-vous de la discussion avec la DPC. Où en êtes-vous du changement de politique de confidentialité ?

M. Eric Garandeau. - ces discussions se poursuivent. Vous comprendrez qu'il m'est difficile d'entrer dans le détail de ces discussions.

M. Claude Malhuret, rapporteur. - Beaucoup de vos discussions se poursuivent longtemps avant de déboucher. Les sociétés d'auteur commencent à être assez irritées - c'est une litote - de ces délais toujours rallongés.

M. Eric Garandeau. - Nous sommes effectivement en discussion avec les sociétés de gestion de droit. TikTok est une entreprise qui n'existait pas il y a six ans, qui entend pleinement respecter le droit d'auteur. Elle respecte d'ailleurs le droit d'auteur.

M. Claude Malhuret, rapporteur. - Il y a une enquête de la DPC sur le traitement des données personnelles des enfants. Avez-vous eu également des nouvelles de cette enquête ?

M. Eric Garandeau. - Ce dossier suit également son cours, je ne peux pas en dire davantage. Vous m'excuserez.

M. Claude Malhuret, rapporteur. - Nous avons parlé tout à l'heure de la modération et de l'algorithme. Comment dans la pratique se répartit la modération entre les modérateurs français, anglophones, chinois ou autres ?

M. Eric Garandeau. - Je peux vous divulguer une information qui n'a pas encore été rendue publique. Nous avons 600 modérateurs en langue française. Au total, nous avons une force Trust and Safety de 40 000 personnes, qui agissent dans plus de 70 langues.

L'essentiel du travail est fait par des algorithmes et donc l'intelligence artificielle. Les modérateurs interviennent dans un deuxième temps pour pouvoir démêler des situations plus complexes. Les infractions à nos règles communautaires sont assez faciles à détecter : la pornographie, la nudité, l'extrémisme dès lors qu'il utilise des symboles manifestes. D'autres infractions sont plus difficiles à détecter et nécessitent un travail de modération humaine. C'est à ce moment-là que les modérateurs interviennent.

M. Claude Malhuret, rapporteur. - Vous indiquez le chiffre de 600 modérateurs en langue française. Sont-ils tous basés en France ?

M. Eric Garandeau. - Ils sont basés dans plusieurs endroits, certains sont à Dublin, d'autres dans d'autres centres. Nous sommes une plateforme technologique. L'important est qu'ils soient connectés et encadrés, qu'ils puissent avoir des programmes de formation et qu'on puisse aussi veiller à leur bien-être car c'est un travail difficile.

M. André Gattolin. - Vous avez une approche linguistique fondée d'abord sur des algorithmes, donc sur des écritures. Dès lors, l'intervention, par exemple en matière francophone, s'opère sur toute conversation qui se fait en français même si par exemple elle a lieu aux États-Unis. Est-ce bien cela ? Je pose cette question car où peut imaginer une situation où des personnes prévoyant des actions terroriste ou dangereuses opèrent en France, dans leur langue. Auriez-vous le contrôle également là-dessus ?

M. Eric Garandeau. - Bien entendu. Si l'on détecte une autre langue, la vidéo sera visionnée par le modérateur de la langue en question. Les algorithmes sont agnostiques au sens où ils sont entraînés dans plus de 70 langues. La modération humaine interviendra aussi dans la langue appropriée.

M. André Gattolin. - Mais cela peut être compliqué à faire appliquer. Par exemple, comment sera modéré un propos passible de poursuites, proféré en français dans un pays d'Amérique latine où la législation serait moins sévère ? Vous êtes tout de même obligé d'identifier la provenance du message. Sinon, cela peut conduire à censurer quelqu'un au regard d'une langue mais pas au regard du droit propre au pays.

M. Eric Garandeau. - C'est une très bonne question. Nous essayons d'avoir les règles les plus universelles possible. C'est évident pour des sujets comme la pornographie, la nudité, l'extrémisme. Nous opérons par ailleurs dans le respect des lois en vigueur dans chaque pays. Il y a donc effectivement une conciliation à faire. En tout cas, la tendance globale de TikTok est d'avoir l'approche la plus universelle possible et d'appliquer de manière la plus uniforme possible les règles de modération et d'avoir les mêmes règles communautaires pour tout le monde.

M. Claude Malhuret, rapporteur. - Je suppose que c'est vous qui êtes chargé des rapports avec l'ARCOM puisque vous êtes chargé des rapports institutionnels et des politiques publiques. L'ARCOM a publié son rapport 2022 et l'a mis à jour en décembre 2022, il y a seulement quelques mois. Je vous lis « les points clés du bilan 2022 » : « Déclarations particulièrement imprécises avec peu d'informations relatives aux services en France et aucun élément tangible permettant une évaluation des moyens mis en place. Pas de réponse aux interrogations spécifiques de l'ARCOM omettant ainsi plusieurs enjeux centraux (étape de l'instruction d'un signalement, fonctionnement des outils de modération, pratique de manipulation identifiée sur le service, etc). Pas d'éléments chiffrés relatifs à la France. Dispositif de signalement accessible mais peu visible. Absence d'informations quant au processus d'évaluation des algorithmes. Aucune information sur les pratiques de manipulation de l'information identifiées sur le service ».

Au chapitre des données chiffrées déclarées : « Nombre de visiteurs uniques par mois du service en France et dans le monde : non déclaré. Chiffre d'affaires du service en France : non déclaré. Effectifs employés aux activités du service en France : non déclarés. Nombre de contenus identifiés comme confortant une fausse information : non déclaré. Parmi ces contenus, nombre détecté automatiquement et à la suite du signalement utilisateurs : non déclarés. Nombre de contenus comportant une fausse information qui ont fait l'objet de mesures : non déclaré. Nombre d'émetteurs de ces contenus identifiés et qui ont fait l'objet d'une mesure : non déclaré. Audience moyenne des contenus identifiés comme comportant une fausse information : non déclaré. Nombre de signalements pour fausses informations par les utilisateurs : non déclarés. Moyens de traitement des signalements : non déclarés. Nombre de recours reçus par l'opérateur à l'issue de la procédure de signalement : non déclaré. Nombre de comptes détectés propageant massivement de fausses informations : non déclaré. Nombre de faux comptes automatisés détecté : non déclaré. Nombre de deepfake sur lesquels des mesures ont été prises : non déclaré.

Vous avez de la chance que l'ARCOM n'ait pas de pouvoir de sanction. Ce constat est véritablement accablant.

M. Eric Garandeau. - Il faut dire qu'il s'agit d'un rapport de fin 2022, qui est intervenu au moment où TikTok était en train de se préparer à la mise en oeuvre du DSA. Or, le DSA prévoit des obligations très précises de transparence et de communication de données. Ce travail évidemment était prioritaire. Par ailleurs, c'était la première fois que nous répondions à ce questionnaire. C'était un premier exercice, sachant que TikTok est une entreprise non cotée et donc que les « données pays » n'étaient pas à cette époque divulguées.

Nous avons depuis répondu au code européen de lutte contre la désinformation. Nous avons rendu publiques 2500 informations. Nous sommes en train de répondre à la deuxième édition de ce rapport de l'ARCOM. Nous aurons un niveau de détail beaucoup plus important. Il est vrai que ce premier rapport a été jugé insatisfaisant par l'ARCOM. Nous avons eu l'occasion de dialoguer avec l'ARCOM à Dublin. Nous avons organisé des échanges à haut niveau, avec nos responsables de l'équipe Trust and Safety pour évoquer la lutte contre la désinformation et contre la haine en ligne, ainsi que la mise en oeuvre du DSA. Nous continuons à intensifier cet effort de transparence, comme nous le montrerons en août prochain au moment où certaines obligations du DSA s'imposeront à nous. Nous sommes dans une démarche d'amélioration permanente de la transparence. Nos rapports de transparence contiennent d'ores et déjà beaucoup de données.

M. Mickaël Vallet, président. - Il y a quelques mois, le ministère de l'Éducation nationale s'est ému du fait que des éléments de langage soient diffusés sur les réseaux sociaux, et notamment sur TikTok, pour défier les règlements intérieurs des établissements scolaires, notamment sur la question des tenues vestimentaires. Cela a amené le ministre à déclarer - dans une formule - que « la République était plus forte que TikTok ». S'en est suivi une rencontre de TikTok France avec la ministre chargée de la jeunesse. Nous savons que la ministre a reçu les représentants de votre entreprise en 2022. Elle a appelé à « une viralité républicaine ». Après trois années de covid, je lui laisse la formule...Quid depuis ? Des décisions ont-elles été prises ? Avez-vous modifié votre modération sur le sujet ? Y-a-t-il eu une modification de l'algorithme ? Quel est votre opinion sur ce type de sujet ?

M. Eric Garandeau. - S'agissant de la diffusion des valeurs républicaines, et de l'engagement de TikTok au service des valeurs de de la République, nous avons engagé une démarche dès 2021. Nous avons organisé des visites en live au musée de l'Armée, au Panthéon. Nous avons accueilli sur notre plateforme un grand nombre d'institutions défendant l'histoire et les valeurs de la République.

M. Mickaël Vallet, président. - Que signifie « nous avons accueilli » ? Des comptes ont été créés ?

M. Eric Garandeau. - Des comptes ont en effet été créés. Nous avons même organisé avec France Télévisions une semaine autour des valeurs de la République, notamment autour des valeurs de liberté et d'égalité. Nous travaillons aussi avec le Comité Interministériel de Prévention de la Délinquance et de la Radicalisation (CIPDR) pour réfléchir ensemble à des manières de diffuser ces valeurs sur la plateforme. Le CIPDR, après la réunion qui s'est tenue chez le ministre de l'Éducation nationale, a été choisi pour être un relais de signalements de vidéos encourageant la désobéissance dans les établissements scolaires. Nous avons fait ce travail, d'ailleurs immédiatement, de repérage et de retrait de ces contenus, dès que nous avons eu connaissance de ces difficultés. Nous avons convenu avec le ministre que s'il y avait des informations utiles à nous faire parvenir, cela prendrait la forme d'un signalement via le CIPDR.

M. Mickaël Vallet, président. - Récemment toujours, il y a eu un emballement avec une vidéo d'une chorégraphie dans une église. Selon un livre paru en mars dernier sur TikTok - dont j'espère que vous l'avez lu -, le jeune en homme en question indique avoir vu fleurir en ligne des vidéos sur TikTok où était mentionné le domicile de ses parents. Au moment où le livre a été publié, la journaliste indique que ces vidéos sont toujours en ligne sur TikTok. Elle n'a pas de reçu de réponse de la part de l'entreprise sur ce sujet. Savez-vous si le nécessaire a été fait ?

M. Eric Garandeau. - Je reviendrai vers vous à ce sujet pour vérifier si le travail a été fait. Dès que nous avons des signalements de ce type, nous saisissons bien entendu nos équipes Trust and Safety, qui opèrent la vérification en appliquant à la fois la loi et nos règles communautaires.

M. Mickaël Vallet, président. - Du moment que vous respectez la loi, il n'est pas interdit d'avoir une ligne rédactionnelle.

Vous êtes responsable des affaires publiques. Nous ne vous avons pas entendu sur ce que vous pensez de la décision d'interdiction de TikTok sur les téléphones des fonctionnaires par un certain nombre de gouvernements et d'organisations internationales. À quoi attribuez-vous cette décision et qu'en pensez-vous ?

M. Eric Garandeau. - Ces décisions en cascade ont été prises après la décision de la Commission européenne. Nous avons évidemment immédiatement réagi auprès de la Commission européenne puisque nous ne nous ne comprenions pas les raisons de cette décision. Une discussion est en cours et je ne crois pas que nous ayons reçu depuis les éléments de justification ayant conduit à cette décision. Nous n'avons eu aucune indication sur les motifs qui avaient conduit à cette décision. Nous avons été surpris de cette décision et nous espérons que nous aurons un jour la réponse.

Entre temps, s'agissant de la France, le ministre de la fonction publique a effectivement pris une décision pour que les fonctionnaires n'aient plus accès aux applications récréatives. Nous avons estimé que cette décision était un peu plus fondée dans la mesure où il n'y avait pas de discrimination non justifiée à l'égard de TikTok par rapport à d'autres applications récréatives.

M. Claude Malhuret, rapporteur. - Sur ce sujet, le Premier ministre belge vous a répondu. Alexander De Croo a déclaré s'agissant de l'interdiction en Belgique : « nous ne devons pas être naïfs, TikTok est une entreprise chinoise qui est aujourd'hui obligée de coopérer avec les services de renseignement chinois. C'est la réalité ». On a l'air en Belgique d'avoir une opinion précise sur ce sujet. TikTok a publié un communiqué le 10 mai dernier expliquant que ces interdictions sont « enracinées dans la xénophobie ». Laquelle de ces analyses partagez-vous ? Pensez-vous aussi que l'interdiction des Gafam en Chine relève de la xénophobie ?

M. Eric Garandeau. - Je ne commenterai pas des déclarations d'autorités politiques, a fortiori étrangères. La France a pris cette décision qui semble nous convenir davantage puisqu'il n'y a pas de discrimination de TikTok par rapport aux autres plateformes. Nous sommes une entreprise responsable qui respecte le droit en vigueur et qui met tout en oeuvre pour protéger l'intégrité de ses systèmes d'exploitation. Je le répète, nous réalisons un investissement d'1,2 milliard d'euros en Europe avec des centres de données sécurisés par des tiers, avec des dispositifs de protection parmi les standards de sécurité les plus élevés du monde, afin de nous mettre à l'abri de toute tentative d'ingérence, d'intrusion ou de manipulation. Nous rendons nos algorithmes les plus auditables possible. Nous prenons toutes ces décisions pour lever les suspicions qui, jusqu'à preuve du contraire, ne reposent pas sur la moindre preuve.

M. Claude Malhuret, rapporteur. - Ne pensez-vous pas que la meilleure façon de faire serait de couper hermétiquement les contacts ? Quelle que soit la personne qui s'exprime - M. Bertram ou vous-même - on ne nous dit pas si les transferts de données seront interdits. Vous nous dites simplement que les transferts de données non autorisés seront interdits et que les transferts seront minimisés. En clair, ces transferts continueront avec la Chine. Tant que vous n'aurez pas réglé ce problème, vous ne convaincrez personne. Pouvez-vous vous engager à ce qu'il n'y ait plus de transferts de données vers la Chine ? Je comprends parfaitement qu'il soit impossible empêcher les transferts de données dans le monde entier puisque TikTok est une plateforme mondiale qui opère partout sur la planète, sauf en Chine. Qu'est-ce qui vous oblige donc à rester en liaison avec des entités chinoises, notamment via un système de messagerie ? En outre, vous ne nous donnez pas les noms de ces entités chinoises. Dans ces conditions, comment voulez-vous que la suspicion ne continue pas ?

M. Eric Garandeau. - Dans la mesure où existera un système insularisé en Europe, avec des données conservées dans une enclave, avec un tiers de confiance extérieur au groupe ByteDance qui puisse vérifier la justification de chaque accès à chaque donnée, honnêtement je ne vois pas ce qu'il peut y avoir de plus fort comme garantie donnée. Les données des Européens seront pleinement protégées et je ne connais pas d'autres plateformes ayant pris un engagement similaire à celui que nous avons pris.

M. Claude Malhuret, rapporteur. - Quand vous parlez d'insularité, cela signifie-t-il qu'il n'y aura plus de transferts de données avec la Chine ?

M. Eric Garandeau. - J'ai ajouté que chaque accès de chaque personne à chaque donnée serait tracé et devrait être justifié pour des raisons d'opération du service.

M. Claude Malhuret, rapporteur. - Il y aura donc encore transfert de données avec la Chine.

M. Eric Garandeau. - Je ne peux pas préjuger de l'évolution de la société. Actuellement, cet engagement a été pris et il s'agit d'un engagement très substantiel, y compris dans le volume des investissements qui sont en train d'être réalisés, avec un délai très ambitieux de 15 mois.

M. Mickaël Vallet, président. - Sur cette question, j'aurais voulu vous permettre d'infirmer ou de confirmer des faits sur lesquels vous n'avez pas souhaité réagir. Dans le travail journalistique dont je parlais, des anciens salariés ont été interrogés : « Certains termes reviennent souvent pudiquement dans la bouche des anciens salariés. Le fait que la culture de l'entreprise serait très chinoise » - jusque-là, rien de grave, nous avons bien en France des entreprises très américaines jusqu'à la caricature -. Je continue « la culture de l'entreprise serait très chinoise, comprendre particulièrement énergivore, mais aussi procédurière et secrète. "Je faisais partie d'un comité censé se pencher sur les conditions de travail des salariés, sur leur équilibre vie professionnelle/vie personnelle, raconte un ancien salarié américain. Pour étayer notre travail, nous avons fait passer un questionnaire aux salariés pour comprendre leur état d'esprit. Sauf que nous n'avons pas eu accès aux données brutes. Elles ont été directement pris en charge par nos collègues chinois et nous sont revenues traitées". Tous les salariés le confirment, si TikTok s'étend à travers le monde, le lieu de prise de décision reste bien la Chine. Ils doivent maintenir un équilibre précaire. Au quotidien, ils sont en permanence en contact avec les employés chinois de ByteDance qui joue un rôle clé dans la validation des projets et des procédures. Un système tellement procédurier qu'il a tendance à ralentir les prises de décision, regrettent plusieurs anciens salariés ». Cette citation d'un travail journalistique vous donne l'occasion d'infirmer qu'il n'y pas de lien au quotidien avec des personnes travaillant pour ByteDance en Chine.

Par ailleurs, cette même enquête indique que « certains ont été briefés sur la manière dont ils doivent parler de l'entreprise en public, selon des informations du média spécialisé Gizmodo. Sollicité concernant l'actualité de ce document, TikTok France n'a pas donné de réponse. L'un des principaux commandements promus par le document est de contester les liens qu'entretient TikTok en Europe avec sa maison mère en Chine : minimiser ByteDance, minimiser l'association avec la Chine, minimiser l'Intelligence artificielle font ainsi textuellement partie des éléments à retenir de ce document. Celui-ci propose par ailleurs certains éléments de langage clé en main comme : il y a beaucoup de désinformation autour de TikTok en ce moment, la réalité c'est que TikTok n'est même pas disponible en Chine ». Quel est votre point de vue sur ce sujet, qui relève de votre domaine ?

M. Eric Garandeau. - Monsieur le président, puis-je vous demander à quelle année remonte le premier commentaire que vous avez fait ?

M. Mickaël Vallet, président. - Bien sûr. Vous auriez pu le demander par écrit à la journaliste qui dit vous avoir interrogé et qui n'a pas eu de réponse. Je vous préciserai l'année par écrit.

M. Eric Garandeau. - Personne ne minimise le fait que l'origine de ByteDance est en Chine. Mais ByteDance a ensuite généré TikTok et TikTok s'est développé extrêmement rapidement. Certaines choses dites il y a quelques années, qui paraissent proches mais qui sont en réalité très lointaines dans l'histoire du groupe, ne correspondent absolument pas à la réalité. Notre management est européen ; beaucoup de décisions sont prises au niveau européen. Mon responsable hiérarchique est à Londres. Les responsables du service de Trust and Safety sont quant à eux en Irlande. Le CEO est à Singapour et la directrice générale des opérations est à Los Angeles. La culture d'entreprise, bien que très anglo-saxonne, est très mélangée. Chaque continent apporte sa propre couleur à l'entreprise. Ce n'est pas une entreprise monocolore, mais une entreprise véritablement multiculturelle. Le management est très collaboratif.

M. Mickaël Vallet, président. - Comme c'est évoqué dans la presse, confirmez-vous avoir été recruté par News Républic ?

M. Eric Garandeau. - News Republic a été le premier bureau de représentation de TikTok en France avant la création de la filiale TikTok SAS. Les contrats ont été transférés.

M. Mickaël Vallet, président. - À partir de quand avez-vous travaillé pour News Republic ?

M. Eric Garandeau. - C'était le 7 septembre 2020.

M. Claude Malhuret, rapporteur. - News Republic existe-t-il toujours ?

M. Eric Garandeau. - Je n'ai pas d'information précise sur ce sujet.

M. Claude Malhuret, rapporteur. - Mme Zhao Tian est toujours présentée comme sa présidente, avec comme directeur monsieur Zhao Liu. J'aurais aimé savoir si c'est le mari de Madame Zhao Tian.

M. Eric Garandeau. - Je ne les connais ni l'un, ni l'autre. Je n'ai jamais rencontré ces personnes.

M. Mickaël Vallet, président. - J'en ai quasiment terminé. Comment fonctionnez-vous en termes de partenariat ? Nouez-vous des partenariats d'influence avec des personnalités identifiées dans le grand public ? Par exemple, sur les questions de livres, êtes-vous engagé dans une relation commerciale avec des journalistes travaillant sur le service public ?

M. Eric Garandeau. - A mon niveau, c'est certain que non. Je ne pense pas non plus que ce soit le cas à la direction des contenus et des opérations. Ma collègue pourra vous en dire plus. Des créateurs ouvrent des comptes sur TikTok pour apporter des contenus. Il peut y avoir éventuellement un accompagnement dans le développement de ces comptes.

M. Mickaël Vallet, président. - Cela n'aurait rien d'infamant. Cette pratique par les journalistes est désignée sous le terme de « ménages ». Un journaliste peut ainsi animer un congrès de chirurgiens-dentistes. TikTok noue-t-il ce genre de partenariat avec des journalistes présents sur TikTok et rémunérés par la plateforme, d'une manière ou d'une autre ?

M. Eric Garandeau. - A mon niveau, nous ne recourons pas à ce type de pratiques. Marlène Masure pourra vous dire la manière dont les créateurs et les « public figures » peuvent être accompagnés.

M. Mickaël Vallet, président. - Vous avez souvent eu l'occasion de préciser que vous étiez une entreprise jeune et que cela pouvait expliquer le fait que vous êtes encore en phase d'apprentissage. Nous sommes quant à nous une commission d'enquête jeune mais qui par définition n'a pas le temps de vieillir. Nous devons rendre nos travaux au bout de six mois. Dès lors, nous vous serons reconnaissants de nous transmettre rapidement l'ensemble des éléments que vous avez suggérés de nous adresser par écrit. Je pense qu'un délai de huit jours nous obligerait. Souhaitez-vous ajouter un élément ?

M. Eric Garandeau. - Je souhaite simplement vous remercier pour votre écoute et pour l'opportunité qui nous a été offerte de pouvoir échanger sur vos sujets de préoccupation légitime. J'espère que nous avons pu apporter déjà suffisamment d'éléments pour rassurer la représentation nationale sur des préoccupations parfaitement légitimes, préoccupations pour lesquelles nous pensons apporter des réponses à la hauteur de ces enjeux.

Audition de Mme Marlène Masure, directrice générale des opérations France, Benelux et Europe du sud de TikTok SAS, le 8 juin 2023

M. Mickaël Vallet, président. - Nous poursuivons nos auditions des représentants de TikTok en entendant cet après-midi Mme Marlène Masure, directrice générale des opérations de TikTok pour la France, le Benelux et l'Europe du sud.

Madame Masure, vous avez débuté votre carrière en 1996 chez PepsiCo en tant que directeur des ventes et du développement, avant de rejoindre en 2002 l'éditeur de jeux vidéo Electronic Arts en qualité de responsable du marketing de la marque jusqu'en 2007. Ensuite, vous avez occupé différents postes au sein de l'équipe marketing de Walt Disney France, avant de devenir vice-présidente marketing et responsable générale de Disney Media sales & partnerships France jusqu'en 2019.

Par la suite, vous avez rejoint le comité d'organisation des jeux Olympiques et Paralympiques de Paris 2024 en qualité de directrice des partenariats et du développement commercial.

Vous avez finalement rejoint TikTok en mars 2022 comme directrice générale des opérations France et Benelux, puis pris la responsabilité de l'Europe du Sud en février 2023.

La plateforme TikTok est très bien implantée en France, avec plus de 22 millions d'utilisateurs actifs mensuels pour les comptes enregistrés en France en avril 2023. Le temps moyen d'utilisation quotidienne de l'application par les 4-18 ans serait d'environ 1 heure 45 minutes. Il s'agit donc d'un phénomène de grande ampleur, qui suscite de notre part de nombreuses interrogations, allant de la question de l'utilisation intensive de l'application par certains jeunes aux sujets relatifs à la protection de la vie privée. Ces interrogations nous conduisent aussi à tenter de mieux comprendre la structure de l'entreprise TikTok, ainsi que son modèle commercial.

Compte tenu de vos responsabilités au sein de la branche française de TikTok, nous avons donc souhaité vous entendre pour approfondir ces sujets, abordés au cours de nos trois mois de travaux.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour une brève introduction, je vais procéder aux formalités d'usage pour les commissions d'enquête. Je rappelle qu'un faux témoignage devant notre commission d'enquête serait passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.

Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, Mme Marlène Masure prête serment.

Mme Marlène Masure, directrice générale des opérations France, Benelux et Europe du sud de TikTok SAS. - Je vous remercie de l'occasion qui nous est donnée aujourd'hui d'intervenir devant votre commission d'enquête, étant précisé que j'interviens en qualité de directrice générale des opérations pour la France, le Benelux et l'Europe du sud de TikTok.

Avant de rejoindre l'entreprise, j'ai travaillé douze ans chez Disney, dans des fonctions commerciales et marketing et, plus récemment, j'étais en charge de la direction commerciale pour le comité d'organisation des jeux Olympiques et Paralympiques de Paris 2024. Ce qui m'a conduite chez TikTok, c'est le souhait de retrouver le secteur des médias et du divertissement, et de participer au développement de la plateforme en France.

TikTok est à la pointe de l'innovation et a connu une croissance extrêmement rapide au cours des cinq dernières années. Comme tout changement, cela suscite des interrogations. J'aborde donc cette audition dans un esprit de coopération et de transparence. Cette application de divertissement, qui rassemble effectivement 22 millions d'utilisateurs en France, permet à ces derniers de partager leur quotidien, leur culture, leurs passions et de se connecter entre eux autour de centres d'intérêts communs.

Depuis notre lancement, le sens de la responsabilité nous anime : responsabilité d'offrir le meilleur contenu dans un espace sûr et inclusif. Ce travail continu nous permet de proposer une plateforme créative, contribuant au dynamisme de notre société et servant de tremplin à de nombreux acteurs.

De la confiance envers l'application découlent nos capacités à fidéliser nos utilisateurs. Cela passe par la suppression des contenus contraires à nos valeurs et par la modération des comportements malveillants. La mécanique est la même pour nos annonceurs : la plupart des grandes marques et grandes entreprises sont aujourd'hui présentes sur la plateforme, au travers de comptes organiques ou de campagnes publicitaires.

Les équipes de TikTok en France ont à coeur d'animer toutes les grandes communautés : passionnés de sport, musique, cinéma, lecture, gastronomie, etc. C'est ce qui motive nos choix de nous associer à tel ou tel événement.

Nous créons aussi des programmes sur des sujets divers, comme « Apprendre sur TikTok » que nous avons lancé cette année et dont l'ambition est de faire émerger des contenus éducatifs. Ce programme rassemble aujourd'hui près de 1 milliard de vues en France.

Nous avons par ailleurs à coeur de soutenir toutes les grandes causes. Nous accompagnons l'action de nombreuses associations sur des sujets aussi variés que l'éveil à l'esprit critique, la santé, la lutte contre le harcèlement ou contre les discriminations et le combat pour l'égalité.

On ne compte plus le nombre de créateurs ayant pu développer leur entreprise grâce à TikTok : ils sont plus de 5 millions aux États-Unis, probablement autant en France. La plateforme est également un acteur reconnu de l'orientation professionnelle et de l'élaboration des parcours professionnels. De grandes entreprises, comme Carrefour, Accor, Club Med ou encore la police nationale, l'utilisent comme un outil de marque employeur pour recruter. Les mots-dièse « emploi » et « recrutement » totalisent chacun plus de 500 millions de vues.

J'espère vous avoir apporté un éclairage utile. Les propositions de votre commission d'enquête nous permettront probablement d'aller plus loin. Nous estimons néanmoins que nous ne sommes pas les seuls à devoir porter l'effort, que certains enjeux abordés ici appellent une réflexion collective engageant la responsabilité plus large de l'ensemble des plateformes.

M. Mickaël Vallet, président. - Avant de laisser la parole au rapporteur, je souhaiterais savoir ce que fait M. Éric Garandeau et que vous ne faites pas, et inversement.

Mme Marlène Masure. - Ma mission, en tant que directrice générale des opérations, est de faire grandir l'écosystème sur les marchés dont j'ai la responsabilité. Il s'agit d'accompagner des créateurs, des marques et des personnalités publiques dans leur prise de parole sur la plateforme, de leur faire connaître les bonnes pratiques, par exemple en matière de durée des vidéos, fréquence de publication ou stratégie éditoriale, tout en leur laissant évidemment toute liberté dans la création. Nous sommes une plateforme, et non un éditeur. Mon rôle, et celui de mes équipes, est donc d'accompagner ces grands acteurs à mieux comprendre la plateforme et en avoir le meilleur usage possible. Éric Garandeau travaille, lui, sur les sujets d'affaires publiques.

M. Claude Malhuret, rapporteur. - Connaissez-vous Mme Zhao Tian ?

Mme Marlène Masure. - Je ne la connais pas.

M. Claude Malhuret, rapporteur. - Vous savez que c'est votre présidente...

Mme Marlène Masure. - Je sais que, sur un plan juridique, c'est la présidente de TikTok, mais je ne l'ai jamais rencontrée.

M. Claude Malhuret, rapporteur. - Savez-vous si elle est déjà venue en France ?

Mme Marlène Masure. - Comme M. le président l'a indiqué en préambule, je n'ai rejoint l'entreprise qu'en mars 2022. Depuis cette date, elle ne nous a pas rendu visite dans nos bureaux parisiens.

M. Claude Malhuret, rapporteur. - M. Garandeau nous a également indiqué ce matin ne jamais l'avoir rencontrée. Trouvez-vous normal que les deux principaux directeurs de TikTok France n'aient jamais rencontré sa présidente ?

Mme Marlène Masure. - Son rôle, je crois - je ne suis pas experte de ces sujets -, se limite à un rôle de représentante légale et juridique. Mon patron direct, Rich Waterworth, se trouve à Londres ; les directives que je reçois en matière de stratégie sur les opérations viennent de Londres.

M. Claude Malhuret, rapporteur. - Mme Zhao Tian est non seulement présidente de TikTok France et TikTok UK, mais aussi vice-présidente de Toutiao, une des filiales de ByteDance Chine, qui s'appelle désormais Douyin. Les responsables de TikTok ou de ByteDance ont toujours soutenu qu'il n'existait pas de liens entre TikTok et Douyin. Ne trouvez-vous pas que le fait que Mme Zhao Tian soit présidente de plusieurs sociétés TikTok et d'une filiale chinoise de Douyin infirme cette déclaration ?

Mme Marlène Masure. - Vous avez posé la question ce matin à mon collègue. Nous avons donc regardé ce point et, manifestement, l'information selon laquelle Tian Zhao serait présidente ou vice-présidente de Toutiao est incorrecte. Je vous propose de revenir vers vous sur la question, mais, d'après mes informations, elle semble occuper un poste portant sur des sujets d'éthique et de conformité et a probablement endossé une responsabilité à la création de la structure juridique, au moment où les équipes étaient en cours de recrutement. Ce n'est pas forcément une anomalie : dans de nombreuses entreprises internationales opérant en France, le responsable juridique n'est pas nécessairement celui qui gère les opérations.

M. Claude Malhuret, rapporteur. - Si elle n'est plus vice-présidente de Toutiao, il faudrait qu'elle enlève l'information de sa page LinkedIn. Elle a effectivement publié, voilà quelques jours ou quelques semaines, un post dans lequel elle se disait très heureuse d'appartenir à cette société depuis huit ans et trois mois !

Par ailleurs, nous avons invité pour une audition Mme Zhao Tian, M. Shou Zi Chew, président de TikTok, M. Rubo Liang, président de ByteDance Caïmans, et M. Zhang Yiming, fondateur de TikTok et actionnaire de ByteDance Caïmans. Comprenant facilement qu'ils ne puissent pas se déplacer en France, nous avons proposé une audition par vidéo. Savez-vous si cette demande d'audition sera honorée d'une façon ou d'une autre ?

Mme Marlène Masure. - Je n'en sais rien, mais nous pouvons nous assurer que l'information est bien passée aux intéressés et revenir vers vous très vite sur le sujet.

M. Claude Malhuret, rapporteur. - Notre demande a déjà un certain temps et notre commission ne siégera pas indéfiniment...

Les grandes plateformes ont jusqu'au mois d'août pour se mettre en conformité avec le règlement sur les services numériques (DSA). D'après notre enquête, TikTok semble encore loin de l'objectif, par exemple s'agissant de la compatibilité des transferts de données avec le règlement général sur la protection des données (RGPD) ou du contrôle de l'âge des utilisateurs. Le délai est désormais court. Serez-vous en mesure de vous conformer au DSA à la fin du mois d'août ? Si tel n'est pas le cas, quel délai envisagez-vous ?

Je prends un exemple : alors que le profilage des mineurs à des fins publicitaires sera interdit dans le DSA, TikTok ne met aujourd'hui aucun mécanisme clair en oeuvre dans ce domaine, les signalements en sont encore à un stade très embryonnaire et les solutions qui pourraient exister - par la carte bancaire ou la double anonymisation - ne sont absolument pas utilisées.

Mme Marlène Masure. -Des équipes travaillent depuis plus d'un an sur le sujet du DSA. Nous sommes donc confiants quant à notre capacité à nous conformer à ce règlement au mois d'août. Nous n'avons, à ma connaissance, aucune inquiétude sur la question.

Par ailleurs, nous comptons très peu d'annonceurs ciblant des mineurs - nos revenus publicitaires sont dégagés sur des utilisateurs de 18 ans et plus. Nous respectons donc déjà l'obligation d'absence de publicité sur les mineurs de moins de 15 ans. Nous ne sommes pas plus inquiets sur ce sujet.

La vérification de l'âge des utilisateurs est une autre question. Je crois savoir que la Commission nationale de l'informatique et des libertés (Cnil) et l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) travaillent d'arrache-pied sur une solution qui pourrait se révéler utile à toute la profession. Nous aurons le souhait de nous mettre en conformité avec les règles proposées.

M. Mickaël Vallet, président. - C'est à la plateforme de prouver qu'elle respecte le droit en matière d'âge des utilisateurs, pas à l'Arcom ou à la Cnil !

Mme Marlène Masure. - Bien sûr, nous vérifions l'âge des utilisateurs - je peux détailler tout ce que nous faisons en la matière. Mais, dans la mesure où de nouvelles lois sont en préparation pour renforcer le contrôle sur la vérification de l'âge, nous avons, comme je l'ai dit, l'intention de nous y conformer.

La vérification de l'âge des utilisateurs est une problématique importante pour nous : TikTok a été la première plateforme à communiquer sur le nombre de comptes qu'elle avait supprimés car ils étaient suspectés d'être des comptes d'enfants de moins de treize ans ; ce nombre atteint 18 millions sur le dernier trimestre 2022.

Pour effectuer ces vérifications, nous disposons d'outils algorithmiques, nous permettant notamment de lire des informations insérées dans les biographies d'utilisateurs ou des informations arrivant par signalements. Il arrive également que nos modérateurs, qui sont formés sur ces sujets, identifient une personne de moins de treize ans à l'occasion d'une modération. Nous avons une politique très active sur ce sujet, que nous prenons vraiment très au sérieux.

M. Claude Malhuret, rapporteur. - Dans le DSA il est prévu que les très grandes plateformes en ligne fassent la transparence sur leurs algorithmes. Quels sont les moyens prévus pour permettre à la Commission européenne d'accéder aux données de TikTok et d'évaluer le respect des règlements ? Les interfaces de programmation d'application (application programming interfaces ou API) actuellement disponibles sur TikTok à destination des régulateurs et des chercheurs sont notoirement plus réduites que ceux des principales autres plateformes. Qu'est-il prévu pour la mise en conformité de ces API avec la recommandation du DSA ?

Mme Marlène Masure. - Les API qui sont en cours de développement sont à destination de chercheurs, d'universitaires, de scientifiques, d'experts. Elles doivent permettre de mieux comprendre, à la fois, la plateforme et nos pratiques en termes de modération. Celle qui permettra de mieux comprendre la plateforme est en test aux États-Unis et arrivera en Europe dès la fin de l'année. Cet outil a été bêta-testé par le médialab de Science Po.

Les API permettront d'apporter un éclairage supplémentaire sur des questions diverses, qui seront peut-être aussi des sujets de recherche, comme l'impact des campagnes publicitaires. Elles arrivent à une étape assez logique de maturité et de développement de la plateforme, et dont en train d'être mises en place.

M. Claude Malhuret, rapporteur. -M. Éric Garandeau m'a renvoyé vers vous concernant certaines de mes questions. Dans les futurs centres de données, notamment dans le projet Clover, allez-vous utiliser les mêmes logiciels qu'actuellement, des logiciels immatriculés aux États-Unis, à savoir Google Cloud, Amazon Web Services et Microsoft Azure ?

Mme Marlène Masure. - Très probablement, car vous avez résumé toutes les solutions cloud du marché, ou presque. Comme je ne suis absolument pas un expert du cloud, je demanderai aux experts de revenir vers vous précisément sur ce point.

M. Claude Malhuret, rapporteur. - Cela posera problème car, si vous utilisez ces logiciels, vous êtes soumis au Clarifying Lawful Overseas Use of Data Act (Cloud Act) américain, qui n'est pas jugé compatible par la Commission européenne avec les règlements européens, et notamment avec le RGPD aujourd'hui et le DSA demain. Comment allez-vous régler ce problème ?

Mme Marlène Masure. - Votre question dépasse mes compétences, je ne suis pas une experte technique. Nous avons des gens très compétents en la matière qui pourront vous donner plus de détails. Bien entendu, on ne prendra pas de risque sur le respect ni du RGPD ni du DSA. Tous ces sujets ont forcément été pris en compte, et nous vous apporterons des précisions.

M. Claude Malhuret, rapporteur. - Vous utilisez un navigateur natif, qui n'est pas un navigateur du commerce. Il permet de surveiller la quasi-totalité de l'activité des utilisateurs : il est donc particulièrement intrusif. Disposez-vous de la liste des données collectées par TikTok lors de la navigation d'un utilisateur ?

Mme Marlène Masure. - Quand vous parlez de navigation, j'imagine que vous pensez à la recherche d'un mot-clé, d'une vidéo ou d'un créateur lorsqu'on est sur l'application.

M. Claude Malhuret, rapporteur. - Oui.

Mme Marlène Masure. - Ce n'est pas l'usage prioritaire de TikTok. Dans 98 % des cas, les utilisateurs vont consommer les vidéos qui leur sont proposées sur la plateforme, puisque la force de TikTok est son algorithme qui trouve des vidéos correspondant aux centres d'intérêt des utilisateurs. C'est le flux de vidéos dans le fil qui s'appelle « Pour toi » qui est la pratique courante sur la plateforme.

On voit émerger une certaine tendance, notamment chez ce qu'on appelle la génération Z, qui consiste à chercher des contenus sur des sujets particuliers. Par exemple, je suis en train de visiter Taormina, j'ai envie de voir quels sont les lieux à ne pas manquer, je vais donc taper Taormina dans mon moteur de recherche et un certain nombre de contenus apparaîtront. La recherche nous donne comme information que cette personne est intéressée par Taormina, ou la Sicile ou le tourisme. S'il se passe quelque chose de formidable en Sicile à ce moment-là, on pourra potentiellement pousser une notification pour qu'elle ne rate pas cet événement. Voilà à quoi sert le moteur de recherche aujourd'hui, mais ce n'est pas du tout la pratique courante des utilisateurs sur TikTok.

M. Claude Malhuret, rapporteur. - Mais cette pratique se développe.

Mme Marlène Masure. - Oui, elle se développe assez naturellement parce qu'on est passé d'une génération qui allait sur Google Search pour chercher une information texte à celle d'aujourd'hui, qui utilise la profondeur du contenu de TikTok pour avoir des informations sur des restaurants, des lieux de visite, etc.

Cette tendance se développe, mais elle ne correspond pas encore complètement à la pratique usuelle des utilisateurs, en tout cas pas de la majorité d'entre eux.

M. Claude Malhuret, rapporteur. - Sur le logiciel de base du navigateur, il est possible d'injecter du code de JavaScript pour obtenir une granularité encore plus fine dans le suivi de l'activité des utilisateurs. Cette injection est-elle actuellement utilisée ? Quelles sont les données recueillies dans ce cadre ?

Mme Marlène Masure. - J'aurai du mal à vous répondre. Aujourd'hui, les données qu'on collecte sur le moteur de recherche sont des données qui nous permettent uniquement de cibler pour, sur le plan éditorial, pousser un contenu particulier. Je vous donne un exemple. Nous avons des fans de jeux vidéo qui cherchent des informations sur le nouveau jeu Zelda. L'information que nous avons, c'est que cette personne est intéressée par les jeux vidéo. Ce n'est pas une obligation, mais si nous sommes partenaires de la Paris Games Week, on donnera l'information sur ce partenariat au groupe d'utilisateurs intéressés par les jeux vidéo.

M. Claude Malhuret, rapporteur. - Pourriez-vous nous informer s'il y a actuellement des codes JavaScript sur le navigateur et quelles sont les données ainsi recueillies ?

Mme Marlène Masure. - En tout cas, personne ne code en France, c'est sûr. Mais je poserai la question, et nous reviendrons vers vous.

M. Claude Malhuret, rapporteur. - L'association Exodus Privacy, qui est une plateforme d'audit de la vie privée des applications, recense pour TikTok 5 pisteurs et 44 permissions sur les téléphones. Ces chiffres sont considérables, d'autant que certaines permissions sont considérés par l'association comme dangereuses, c'est-à-dire assez intrusives, d'après les niveaux de protection indiqués par Google : accéder à la position exacte au premier plan, afficher les connexions réseau et wifi, se connecter aux appareils bluetooth associés, accéder à la caméra et aux contacts, lire le contenu mémoire de stockage partagée, enregistre des fichiers audio, entre autres. Ces permissions semblent beaucoup trop nombreuses pour les besoins du service. Pouvez-vous nous dire lesquelles sont utiles, et pourquoi celles qui ne le sont pas sont malgré tout demandées ?

De plus, sur les 44 permissions possibles, seules 16 sont mentionnées sur la page relative à la politique de confidentialité du site. Pourquoi n'y figurent-elles pas toutes ?

Dans ce même paragraphe de la politique de confidentialité figure la phrase suivante : « Nous pouvons également vous associer à des renseignements recueillis à partir d'appareils autres que ceux que vous utilisez pour vous connecter à la plateforme. » Pouvez-vous nous expliquer cette phrase ?

Mme Marlène Masure. - Je ne connais pas l'étude que vous évoquez, dont je n'ai ni l'historique ni le contexte. Je ne peux pas en mesurer le niveau de pertinence et de fiabilité. Nous faisons preuve d'une transparence totale sur les données collectées. Vous avez la possibilité, quand vous êtes sur l'application, de télécharger vos données qui sont collectées. La démarche est très simple : en un clic, vous téléchargez un fichier et vous pouvez lire les données qui sont collectées. C'est un premier point de transparence, qui est très important.

Vous avez aussi la possibilité de limiter les données collectées, par exemple en enlevant la personnalisation des publicités - il faut décocher la case. Vous pouvez aussi fixer le niveau de confidentialité de tout ce que vous faites sur la plateforme : décider que vos vidéos ne sont visibles que de vos amis, limiter le nombre de personnes capables de commenter vos vidéos. Vous avez la capacité de contrôler une bonne partie de vos données. Les données qui sont collectées sont celles relatives à votre utilisation de la plateforme et celles que vous donnez lors de l'inscription. Dans les stores, sur Google Play ou Apple Store, vous pouvez voir les données collectées par chaque plateforme. Vous constaterez que TikTok est l'une des plateformes qui collectent le moins de données. Il faut remettre les choses en perspective.

Sur la question des données, nous sommes très confiants : l'utilisateur peut télécharger les données qui sont collectées.

M. Claude Malhuret, rapporteur. - Pouvez-vous me dire ce que signifie la phrase suivante qui figure sur la page relative à votre politique de confidentialité : « Nous pouvons également vous associer à des renseignements recueillis à partir d'appareils autres que ceux que vous utilisez pour vous connecter à la plateforme. » ? Cette formule, comme d'autres sur cette page, est très vague. Les utilisateurs peuvent-ils la comprendre ? Pour ma part, je ne la comprends pas, ce qui me semble insatisfaisant.

Mme Marlène Masure. - Je ne me permettrai pas de faire une interprétation de cette phrase, car j'ai trop de respect pour les gens qui ont écrit cette politique de confidentialité. Permettez-moi de demander aux équipes juridiques de revenir vers vous sur ce sujet. J'ai une petite idée, mais elle est probablement incorrecte et incomplète, je préfère donc demander une réponse étayée aux équipes juridiques.

M. Mickaël Vallet, président. - Je reformule la question : les données collectées, qu'elles soient par la suite désamorçables ou non par l'utilisateur, sont-elles toutes utiles pour vivre une belle expérience utilisateur ?

Mme Marlène Masure. - Je pense que oui, car la mise en place de l'ensemble de ces outils de pilotage et de suivi a nécessité beaucoup de travail. Je ne me suis pas occupé de la création du produit ou de l'algorithme, j'ai donc du mal à répondre précisément à votre question.

Notre enjeu est de continuer à éduquer sur les fonctionnalités qui permettent d'améliorer le contrôle des données qu'on laisse sur la plateforme. Nous sommes une plateforme jeune, nous avons besoin de faire connaître ces possibilités. Nous avons investi deux millions d'euros depuis octobre dernier dans des campagnes d'information sur ces fonctionnalités qui répondent à des enjeux de sécurité et de meilleur contrôle. Il est important d'éduquer car, si l'on a aujourd'hui des années d'expérience digitale et numérique, il faut encore accompagner les utilisateurs, les parents, les plus jeunes pour faire un bon usage de l'ensemble des fonctionnalités.

M. Claude Malhuret, rapporteur. - Je prendrai quelques exemples. L'accès aux contacts sur l'appareil n'est pas nécessaire puisque l'application fonctionne correctement si on le désactive. Quelle est donc la finalité de cette permission ? Quelle est la nature des données stockées : numéros de téléphone, mails, toutes les informations disponibles dans les contacts ? Ceux qui ne sont pas inscrits sur TikTok ne sont peut-être pas ravis de communiquer leurs informations par l'intermédiaire d'un utilisateur. Ces informations demeurent-elles en local ou sont-elles transférées sur un serveur à l'étranger ? Sont-elles partagées avec des tiers ? Des croisements de données sont-ils faits ?

Mme Marlène Masure. - Cette possibilité de connecter les contacts n'est qu'une possibilité. À titre personnel, je n'ai pas connecté mes contacts des autres plateformes. Vous avez le choix de le faire ou non. Il y a donc une démarche volontaire qui consiste à accepter de se créer un réseau d'amis plus large en connectant mes applications, mes réseaux... Cela n'est pas imposé, c'est une proposition et chacun est libre de faire ce qu'il veut.

Si j'accepte de connecter les contacts, c'est parce que j'ai envie de voir ce que mes amis postent comme contenu sur la plateforme. La densité de contenu est telle sur la plateforme que vos chances de voir sur le fil « Pour toi » les vidéos de vos amis sont finalement très faibles. Le fait de connecter vos amis vous permet de faire émerger dans le flux de vidéos celles des personnes que vous connaissez. Cela relève d'une logique non pas de collecte de données, mais d'expérience utilisateur.

Concernant les données précises qui sont collectées par TikTok dans le cadre de la connexion des contacts, je ne l'ai pas précisément en tête, mais c'est sans doute très bien expliqué dans notre politique de confidentialité. Je propose de vous envoyer un document écrit sur ce point à la suite de l'audition.

M. Claude Malhuret, rapporteur. - En matière de collecte de données, il y a la théorie et la pratique. En théorie, vous avez la possibilité de télécharger les données collectées, de décocher... C'est de l'opt-out, si j'ai bien compris.

Mme Marlène Masure. - C'est de l'opt-in. Pour connecter vos contacts, on vous demande si vous voulez le faire. Ce n'est donc pas de l'opt-out.

M. Claude Malhuret, rapporteur. - S'agissant du téléchargement des données connectées, il me semble qu'en pratique personne, ou presque, ne le fait. Quel est le pourcentage d'utilisateurs qui téléchargent les données collectées sur eux et le pourcentage d'utilisateurs qui décochent ?

Mme Marlène Masure. - Je ne dispose pas de ces informations. Je peux demander s'il est possible de vous les fournir.

Ce qui est important, c'est qu'on est dans un enjeu de communication et de faire savoir. C'est pourquoi on investit très massivement en médias sur le sujet depuis octobre dernier, au sein et en dehors de l'application. Au sein de l'application, grâce à des campagnes avec des créateurs qui expliquent ces fonctionnalités. En dehors de l'application, au travers des campagnes dans la presse quotidienne, les magazines, par affichage, etc. L'enjeu est de mieux faire savoir que ces fonctionnalités existent, car elles constituent un outil important de contrôle.

Pour vous donner une idée de l'importance des fonctionnalités mises à disposition au sein de l'application, prenons par exemple l'outil de gestion du temps mis : les 60 minutes de temps quotidien de consommation pour les moins de 18 ans. Il est proposé de recevoir un message qui invite à taper un code pour rester plus de soixante minutes sur l'application. Ce message est aujourd'hui reçu par les trois quarts des utilisateurs de moins de 18 ans. Depuis la mise en place de cette nouvelle fonctionnalité, en avril 2023, seuls 25 % d'entre eux ont désactivé ce message. Il y a là un enjeu d'éducation car on se rend compte que, lorsque ce type d'outil est mis en place, le message envoyé est très intéressant : « Tu dois savoir gérer ton temps et on met des outils à disposition pour le faire. » On croit à la puissance de ces outils, et notre enjeu est de mieux les faire connaître.

M. Claude Malhuret, rapporteur. - Parmi ces permissions, il y a celle de récupérer l'adresse Media Access Control (MAC), qui identifie l'appareil de façon unique. Quelle est la finalité de cette collecte, qui ne me semble pas nécessaire, mais très intrusive ?

Mme Marlène Masure. - C'est ce qu'on appelle, me semble-t-il, les Device-ID dans notre jargon. C'est un outil nécessaire pour optimiser l'expérience de l'utilisateur. Nous reviendrons vers vous plus précisément sur ce point. C'est aussi un outil important pour le ciblage de nos campagnes publicitaires, parce qu'il est difficile de cibler sans cette donnée.

M. Claude Malhuret, rapporteur. - Une autre collecte me paraît poser problème : l'accès au presse-papier. De très nombreux utilisateurs font des copier-coller pour ne pas répéter leur mot de passe ; ces derniers sont donc dans leur presse-papier. Votre application interroge en permanence le presse-papier : il est ennuyeux d'avoir accès, par ce biais, aux codes des utilisateurs. Quelle est la finalité d'utilisation de l'accès au presse-papier ? Vous paraît-elle indispensable ?

Mme Marlène Masure. - Nous reviendrons vers vous sur ce point. Je ne saurai pas vous répondre.

M. Claude Malhuret, rapporteur. - Vous avez un accès permanent au calendrier pour le lire et le modifier. Pouvez-vous nous décrire la nature des données du calendrier qui sont utilisées et préciser la finalité de leur collecte ?

Mme Marlène Masure. - Qu'entendez-vous par « calendrier » ?

M. Claude Malhuret, rapporteur. - L'application TikTok a accès au calendrier des utilisateurs, qui comporte les dates, les réunions prévues, leur sujet, etc. Est-il vraiment nécessaire que l'application dispose de cet accès et quelle est la nature des données recueillies ?

Mme Marlène Masure. - Je ne vois absolument pas de lien entre l'application TikTok et un calendrier. Je voudrais m'assurer que cette information est juste, car cela ne correspond pas aux usages de la plateforme.

M. Claude Malhuret, rapporteur. - Votre politique de confidentialité indique que vous utilisez des témoins pour promouvoir la plateforme sur d'autres plateformes et sites web. Il est précisé que « les témoins permettent à la plateforme de fournir certaines caractéristiques et fonctionnalités ». Personne ne comprend ce que cela signifie et cela semble de la pure langue de bois.

Un peu plus loin, il est précisé que « les balises pixels peuvent reconnaître les témoins », mais le lien n'est pas évident à établir avec la phrase précédente. En outre, combien d'utilisateurs consultent selon vous la page sur la politique de confidentialité ?

Mme Marlène Masure. - Je ne peux pas vous le dire car les utilisateurs n'ont pas besoin de se connecter à l'application pour consulter cette page.

Le pixel est un outil que l'on utilise couramment pour analyser l'efficacité des campagnes publicitaires. L'enjeu est important pour les marques qui achètent ces campagnes.

M. Claude Malhuret, rapporteur. - Sur la page de la politique de confidentialité, le dernier paragraphe porte sur les conditions supplémentaires spécifiques à la juridiction. Or celles-ci concernent non pas la France, mais le Canada. Peut-être faudrait-il mettre à jour cette page ?

Mme Marlène Masure. - Peut-être avez-vous téléchargé la version québécoise ? Nous vérifierons.

M. Claude Malhuret, rapporteur. - Je ne le crois pas.

Dans la politique de confidentialité, il est inscrit que « les fournisseurs de service, y compris les membres, filiales ou entreprises affiliées de notre groupe d'entreprises peuvent accéder, stocker et traiter autrement les renseignements personnels à l'extérieur du Canada, y compris aux États-Unis, en Malaisie, à Singapour et dans d'autres juridictions étrangères où nos fournisseurs de service sont situés ». Quelles sont ces autres juridictions étrangères ? La Chine figure-t-elle parmi elles ?

Mme Marlène Masure. - Les données personnelles sont stockées aux États-Unis, à Singapour et en Malaisie. Nos employés, déployés à travers le monde, ont parfois besoin d'accéder à certaines données pour leur travail ; ils le font selon des protocoles très sécurisés. À la fin de 2024, les données personnelles seront stockées en Europe.

M. Claude Malhuret, rapporteur. - TikTok a déclaré à la Cnil qu'une dizaine d'entités chinoises avaient accès aux données. Est-ce toujours le cas ?

Mme Marlène Masure. - Je ne vois pas quelles entités chinoises pourraient être concernées. En effet, TikTok opère comme une entreprise autonome avec des équipes dédiées dans certains pays : nous avons ainsi un CEO (chief executive officer) basé à Singapour, une COO (chief operating officer) basée à Los Angeles et des équipes régionales à Londres. Nous avons environ 120 employés à travers le monde qui exercent des fonctions très diverses. Nous opérons comme une entreprise internationale.

M. Claude Malhuret, rapporteur. - Il me semble que TikTok a reconnu que des ingénieurs chinois travaillaient en Chine sur son algorithme et échangeaient des données transférées.

Mme Marlène Masure. - Nous avons des collaborateurs dans tous les pays du monde, y compris en Chine. Lorsque je travaille avec eux, je ne regarde pas forcément où ils sont basés.

M. Claude Malhuret, rapporteur. - Sur le site de TikTok, il est précisé que l'entreprise fournit à certaines entités du groupe, situées dans des pays sans possibilité de décision d'adéquation, sous des clauses contractuelles standard, un accès aux informations recueillies pour fournir certaines fonctions. Il est très clairement indiqué que « ces entités sont situées au Brésil, en Chine, en Malaisie, aux Philippines, à Singapour et aux États-Unis ». Il existe donc bien des entités en Chine, avec lesquelles vous travaillez.

Mme Marlène Masure. - Nous avons en effet des collaborateurs en Chine, comme la plupart des entreprises internationales. Ces clauses contractuelles standard font référence aux pays avec lesquels le RGPD considère qu'il est nécessaire de passer un accord supplémentaire. Il s'agit donc de ceux que vous avez cités. Nous veillons ainsi à ce que tous les employés de TikTok puissent faire leur travail et rendre la plateforme opérante. La force de TikTok réside dans le lien avec l'utilisateur, qui permet de partager des contenus partout dans le monde. Pour que cette communauté internationale fonctionne, nous avons besoin d'avoir des collaborateurs partout dans le monde.

M. Claude Malhuret, rapporteur. - Cependant, TikTok est interdit en Chine. Je ne vois donc pas l'intérêt que vous avez à travailler avec des ingénieurs chinois, hormis s'ils ont accès, comme nous le pensons, à l'algorithme de Douyin et de TikTok. Quelles sont donc les entreprises chinoises qui travaillent sur l'algorithme de TikTok ?

Mme Marlène Masure. - Je n'ai pas connaissance d'entreprises externes qui travailleraient sur l'algorithme et il me semble que seuls des employés de TikTok travaillent dessus. Je conçois mal que l'on puisse mettre en cause un collaborateur à cause de son origine et de son pays. Nos équipes sont parmi les meilleures du monde et c'est là notre objectif principal. Les entreprises de technologie ont très souvent des collaborateurs en Chine parce qu'il y a un véritable talent en la matière dans ce pays. Il n'y a rien de choquant à ce que notre entreprise collabore avec des ingénieurs d'origine chinoise.

M. Claude Malhuret, rapporteur. - Ma question ne procède absolument pas d'un racisme antichinois. Cependant, depuis 2017 et 2019, la loi chinoise impose à tout citoyen, ingénieur ou entreprise de Chine de répondre à l'ensemble des demandes des services de renseignement chinois. Or cette situation ne correspond pas à ce que prévoit le RGPD.

Ces règles ne posent pas de problème en Europe, mais il en va différemment ailleurs : ni le Cloud Act américain ni la loi chinoise ne sont compatibles avec le RGPD. Par conséquent, il faudrait un chiffrement sur l'ensemble du parcours de transfert des données ; or TikTok ne l'opère pas. Dans la mesure où les ingénieurs chinois sont soumis à la loi chinoise, il y a donc un risque.

Mme Marlène Masure. - TikTok s'est fixé un principe de gouvernance selon lequel les grandes décisions sont prises par Chew Shou Zi qui est basé à Singapour et par Vanessa Pappas qui est basée à Los Angeles. Toutes les décisions qui concernent le mode opératoire, la stratégie commerciale ou les contenus sont prises selon un processus similaire à celui qui se pratique dans toute entreprise internationale.

Pour nous conformer au RGPD, nous devons nous assurer que le stockage des données est réalisé dans des pays où les conditions du règlement sont respectées ; nous devons également veiller à ce que les personnes autorisées puissent accéder aux données avec un niveau de sécurité maximal. Voilà pourquoi j'ai mentionné les données cryptées ou la pseudonymisation des données.

La donnée peut être anonymisée et c'est ce que nous faisons : il ne s'agit pas de gérer des données individuelles ou personnelles. Ainsi, lorsque l'on doit intervenir pour déboguer un compte qui n'affiche plus de vues, les données auxquelles on peut accéder pour régler ce problème technique sont anonymes.

En outre, la définition de la donnée peut être très large : une vidéo peut être une donnée. Il faut donc savoir de quelles données on parle.

M. Claude Malhuret, rapporteur. - Le sujet est aussi de quantité. À vous entendre, tout est policé et surveillé, il faut de nombreuses autorisations et très peu de données sont transférées en Chine. Or les experts nous ont dit que les principales fonctions de l'algorithme étaient exploitées, gérées et améliorées en Chine, ce qui suppose bien évidemment un flux de données important. Confirmez-vous qu'une partie importante du fonctionnement, de la gestion et de l'amélioration de l'algorithme se fait en Chine ?

Mme Marlène Masure. - Je suis incapable de vous répondre. Les personnes qui travaillent sur l'algorithme et avec lesquelles je collabore sont aux États-Unis et à Singapour.

En revanche, il me semble que les gens sont nombreux à s'exprimer sur ce sujet sans en connaître la réalité, du moins celle que je constate dans mon travail.

M. Mickaël Vallet, président. - Pour éviter que des gens s'expriment à tort et à travers sans être au fait de la réalité, mieux vaudrait que ceux qui le sont prennent la parole. Vous avez eu l'obligeance - au sens littéral du terme - de venir devant notre commission d'enquête, mais d'autres n'y sont pas obligés, qui pourraient tout de même choisir de venir s'exprimer, d'autant que nous sommes ouverts à la possibilité d'entretiens par visioconférence. Vous éviteriez ainsi que l'on parle pour vous sans savoir. Qui s'occupe de l'algorithme, qui a la main et qui peut nous répondre ? Ne pas nous répondre, c'est donner du crédit aux suspicions qui s'expriment. Je vous invite à informer vos supérieurs que nous sommes preneurs de toute intervention de leur part.

M. Claude Malhuret, rapporteur. - Ce qui m'ennuie, c'est que les transferts de données parcimonieux et surveillés que vous décrivez ne semblent pas correspondre à la réalité. Les représentants de TikTok ne cessent de répéter que l'entreprise empêche tout transfert des données personnelles de ses utilisateurs vers la Chine - ce que l'on comprend compte tenu des attaques dont elle a fait l'objet aux États-Unis, y compris de la part de l'ancien président.

Cependant, en 2022, BuzzFeed a révélé le contenu de 80 enregistrements audio, issus de réunions internes, dans lesquels on comprend que des ingénieurs de l'entreprise ont eu accès depuis la Chine à ces informations. De plus, ces enregistrements ont prouvé l'existence d'un administrateur principal en Chine, qui avait « accès à tout ». Un membre du Trust and Safety Department de TikTok affirme même : « Tout est vu en Chine ». Comme d'habitude, une fois confronté à des preuves, TikTok a fini par reconnaître la vérité.

Par ailleurs, en 2021, l'entreprise a payé 92 millions de dollars à la justice américaine parce que des fuites de données personnelles d'utilisateurs vers la Chine avaient eu lieu.

Ainsi, d'un côté vous expliquez que vous vous conformez au RGPD, que le cryptage est régulier, que les autorisations sont parcimonieuses et surveillées et, d'un autre, nous découvrons qu'un salarié a prononcé en réunion les mots : « Tout est vu en Chine ». Vous comprendrez que cela pose problème.

Mme Marlène Masure. - Je ne connais ni ce monsieur ni cette histoire et ne pourrai me prononcer sur ce sujet.

En revanche, je peux confirmer que ce que nous avons dit, Éric Garandeau et moi-même, en matière de respect du RGPD, correspond à la réalité de ce qui se passe dans notre travail.

M. Claude Malhuret, rapporteur. - Cependant, deux enquêtes de la Irish Data Protection Commission (DPC) sont en cours, qui portent spécifiquement sur le transfert de données - des données de mineurs dans l'un des deux cas. Les résultats seront communiqués pendant l'été mais, selon la DPC, ils devraient montrer que les règles du RGPD ne sont pas satisfaites.

Mme Marlène Masure. - Je n'ai pas plus d'informations sur ce projet de décision. Nos équipes travaillent main dans la main avec la DPC sur ce sujet. L'esprit de collaboration, de coopération et de transparence s'applique dans cette enquête

M. Claude Malhuret, rapporteur. - Je reviens à la question des pixels. J'ai déjà dit que votre texte de politique de confidentialité était très vague. Sur cette question particulière, je lis : « les balises pixels peuvent reconnaître les témoins, l'heure et la date à laquelle une page est consultée, une description de la page où la balise pixel est placée et des renseignements similaires provenant de votre ordinateur ou de votre appareil » ; comme d'habitude, c'est vague. Sur chaque point, vous évoquez un ou deux éléments et vous terminez en évoquant « le reste », qui n'est pas détaillé. Quels sont ces « renseignements similaires », fournis par ces pixels que vous placez sur des milliers de sites ?

Mme Marlène Masure. - Le pixel est un outil publicitaire, qui permet aux annonceurs de mesurer l'efficacité de leurs campagnes. Leur utilisation n'est pas spécifique à TikTok et constitue une pratique courante sur le marché publicitaire. Ils permettent de donner des résultats de campagne aux annonceurs en matière de visibilité, de transformation et d'efficacité de l'investissement.

Nous avons à coeur de faire grossir notre écosystème et, pour y parvenir, nous encourageons une meilleure création de contenus. Nous travaillons donc avec les partenaires, les créateurs et les personnalités publiques, pour qu'ils développent le meilleur contenu possible, l'efficacité de la plateforme venant de la qualité de ses contenus.

Le sujet du pixel relève du business to business (B2B). Il ne s'agit pas d'un élément qui nous permet d'améliorer l'expérience sur la plateforme.

M. Claude Malhuret, rapporteur. - Vous ne répondez pas à ma question : quels « renseignements similaires » sont recueillis par les pixels ?

Mme Marlène Masure. - Nous reviendrons vers vous sur ce point.

M. Claude Malhuret, rapporteur. - Aux États-Unis, le site Consumer Reports a recensé plusieurs dizaines de milliers de sites sur lesquels sont placés ces pixels pour TikTok. Dans le cas des sites commerciaux, il s'agit d'une pratique publicitaire. Cependant, d'autres types de sites, nombreux, utilisent ces pixels. Ainsi, si vous allez sur les sites de l'Église méthodiste unie, de Weight Watchers ou du planning familial, TikTok le sait ; si vous allez sur la page « dysfonction érectile » du site médical WebMD ou sur la page « plan B contraceptif d'urgence » du site Rite Aid, TikTok le sait ; et si vous vous rendez sur le site Recovery Centers of America, qui gère des centres de désintoxication, TikTok le sait aussi. Les métadonnées donnent parfois autant de renseignements que les données.

Ces méthodes sont-elles utilisées en France ? Des sites de cette nature placent-ils des pixels TikTok ? Les utilisateurs peuvent-ils comprendre de quoi il s'agit à la lecture du texte figurant sur votre page relative à la politique de confidentialité ?

Mme Marlène Masure. - Nous reviendrons vers vous de façon précise sur cette question. Cependant, le pixel reste un outil publicitaire. Il s'agit d'abord de la démarche d'un annonceur ou d'une marque, qui décide de placer le pixel en vue de mesurer son efficacité publicitaire. TikTok ne peut pas placer un pixel de façon autoritaire sur un site qui n'est pas le sien. Cette pratique est conforme aux lois en vigueur, au RGPD et à notre politique de confidentialité. Ce pixel est placé dans le cadre d'accords commerciaux et publicitaires.

M. Claude Malhuret, rapporteur. - Combien de temps conservez-vous les renseignements apportés par les pixels ?

Mme Marlène Masure. - Cette question est très réglementée par le RGPD, que nous respectons.

M. Claude Malhuret, rapporteur. - En décembre 2022, TikTok a été condamné par la Cnil à une amende de 5 millions d'euros. Depuis, la faille incriminée a été supprimée sur le site internet. Cependant, des journalistes nous ont dit que des tests informels permettaient de constater qu'il était toujours plus difficile de refuser que d'accepter les cookies sur l'application mobile ; ce problème est-il résolu ?

Mme Marlène Masure. - L'amende sanctionnait un défaut d'explication d'un cookie et une difficulté à le refuser, constatés pendant la période 2018-2020, au début de l'histoire de TikTok. De plus, il s'agissait de cookies placés sur le site tiktok.com. Or la consommation a lieu sur l'application mobile et pas sur le site. Je ne cherche pas à minimiser ce problème, qui a été résolu.

M. André Gattolin. - Je m'intéresse au monde de l'entreprise et cherche à mieux connaître la vôtre, sur laquelle il est difficile de trouver des données publiques. À titre d'exemple, quand on cherche des informations en matière d'audience, on ne trouve qu'un agrégat de données pour TikTok et Douyin. Ainsi, on ne sait jamais de quoi il est question exactement, y compris quand on fait des recherches sur des sites spécialisés.

S'agissant du nombre d'utilisateurs réguliers, TikTok se classait comme quatrième des réseaux sociaux en début d'année. L'entreprise connaît une croissance exponentielle, le chiffre d'affaires pour l'international étant passé de 350 millions de dollars en 2019 à 2,6 milliards en 2020, à 4,7 milliards en 2021 et à 9,4 milliards en 2022. Il s'agit d'une croissance importante, qui se situe toutefois bien en deçà de ce que connaissent les autres réseaux sociaux et vous êtes parfois loin derrière des réseaux qui réunissent pourtant une moins forte audience.

Le chiffre d'affaires pour l'international correspond-il à la réalité ?

Mme Marlène Masure. - Je peux m'exprimer sur TikTok SAS mais pas sur l'entreprise au niveau mondial.

M. André Gattolin. - J'ai été directeur d'une filiale et j'étais capable de présenter mon groupe à l'international...

Mme Marlène Masure. - Nous sommes une société privée. Nous pouvons communiquer des chiffres mais pas en session publique. Cependant, votre remarque est juste sur la part de revenu publicitaire par rapport à notre audience...

M. André Gattolin. - J'ai parlé de revenus, pas de revenus publicitaires. S'agissant de ces derniers, selon l'agrégat formé par les déclarations d'annonceurs et des centrales d'achat, on estime les recettes de TikTok à 4 milliards de dollars en 2022, soit la moitié de son chiffre d'affaires. J'ai du mal à comprendre comment l'entreprise fonctionne.

Mme Marlène Masure. - Nous sommes encore dans une phase de croissance. Par ailleurs, nous souhaitons préserver l'expérience des utilisateurs. Nos formats publicitaires sont des formats premium. Nous utilisons le format TopView, que les utilisateurs voient tous quand ils ouvrent l'application. Ensuite, des vidéos In-Feed s'intègrent au flux des vidéos que l'utilisateur regarde sur la page « Pour toi ». De façon volontaire, nous ne saturons pas notre audience de formats publicitaires, pour que l'expérience reste la meilleure possible. Notre stratégie consiste à favoriser cette meilleure expérience possible.

M. Mickaël Vallet, président. - Pouvez-vous répondre à la question du chiffre d'affaires en ce qui concerne la France ?

Mme Marlène Masure. - Comme d'autres filiales européennes, la filiale française a pour actionnaire principal TikTok UK. Cette dernière élabore nos stratégies commerciales, marketing, etc. La France opère donc comme un prestataire de service pour TikTok UK et nous sommes rémunérés pour le travail que nous fournissons dans ce cadre. Le chiffre, qui correspond à la valeur de ce que nous créons à l'échelle de la France, est public et nous le déposons au greffe du tribunal de commerce de Paris. En 2021, il s'élevait à quasiment 30 millions d'euros et il sera de l'ordre de 42 millions d'euros en 2022.

M. Mickaël Vallet, président. - Et pour le Benelux ?

Mme Marlène Masure. - Vous me posez une colle. Nous vous le dirons.

M. Mickaël Vallet, président. - Ce n'est pas secret ?

Mme Marlène Masure. - Non, il n'y a rien de secret.

M. Mickaël Vallet, président. - Que recouvre « Europe du sud » dans votre titre ?

Mme Marlène Masure. - Je ne gère pas en direct les revenus publicitaires, je travaille plutôt sur la partie...

M. Mickaël Vallet, président. - Nous ne parlons pas des revenus publicitaires, mais de ce que TikTok UK paye à ses filiales et nous vous interrogeons sur le périmètre de l'Europe du sud.

Mme Marlène Masure. - Je me présente comme couvrant l'Europe du sud pour ne pas avoir à lister une ribambelle de pays. En réalité, les filiales Italie et Espagne sont opérées de façon indépendante et, à ma connaissance, nous fonctionnons selon le même principe d'organisation, TikTok UK étant actionnaire principal.

Nous n'avons pas de bureau au Portugal et en Grèce. Quelques personnes servent ces pays et, dans mes équipes, une personne travaille par exemple sur le Portugal depuis Madrid.

M. André Gattolin. - Plus généralement, je voudrais comprendre le business model d'une entreprise comme TikTok. Je sais à peu près ce que sont les business models d'une entreprise numérique ou d'une plateforme. Je sais que la profitabilité des plateformes est longue à atteindre, comme dans le cas d'Amazon, qui a mis dix à quinze ans à devenir rentable, et dans celui d'Uber, qui ne l'est toujours pas. Sur les réseaux sociaux, ce processus paraît beaucoup plus rapide. Ainsi, Facebook a été créé en 2004 et est devenu rentable en 2009.

Quand je considère les recettes supposées de TikTok et que j'évalue ses dépenses en masse salariale, je me dis que l'entreprise, au niveau international, est très loin d'atteindre la rentabilité. Par ailleurs, vos investissements sont massifs. À titre d'exemple, vous dépensez 1,2 milliard d'euros pour créer un centre de données en Norvège. Vous avez des actionnaires formidables ! Certes, l'entreprise est brillante et la progression de son audience est faramineuse, mais vous vous placez dans une perspective à très long terme en matière de rentabilité.

Par ailleurs, Douyin a intégré un bouton d'achat, qui permet de faire du commerce en direct et de rentabiliser l'entreprise. Vous n'êtes pas dans cette logique. De plus, si vous exploitez vos données, ce qui fait la richesse de vos algorithmes, vous les ne vendez pas, contrairement à d'autres. Enfin, en matière de publicité, vous faites le choix de formats courts et cherchez à ne pas saturer votre public. Je ne comprends pas comment on peut construire la rentabilité et le retour sur investissement avec un tel modèle.

Des tests sont effectués dans certains pays, comme des tests sans musique en Australie ou des tests de boutons d'achat. Par ailleurs, vous fournissez des prestations. Quand on cherche « business model » et « TikTok » sur internet, on tombe sur une littérature interne portant sur la manière d'aider le business model du small business. Vous êtes prescripteurs de rentabilité pour les petites entreprises commerciales mais, s'agissant de votre entreprise, il n'existe presque pas de littérature académique ou universitaire.

Quand on rentre dans une telle entreprise, qui doit très bien payer, on se soucie de savoir quels sont ses objectifs, son projet, ses ressources et son avenir. Que pouvez-vous nous en dire ?

Mme Marlène Masure. - Je me suis posé ces questions en rejoignant TikTok. J'ai souhaité participer à ce projet parce que j'avais le sentiment qu'il s'agissait d'un produit visionnaire. On passait de la période du social graph à celle du content graph et la vision selon laquelle il faut rentrer par le contenu me paraissait très forte. Je serais étonnée que la tendance évolue différemment et se fasse au détriment du succès et de la croissance de TikTok.

Nous avons communiqué certains chiffres pour répondre au questionnaire que vous nous avez envoyé, notamment sur les revenus du « Live Gifting », opéré par des équipes qui travaillent sur le marché français et sont basées à Berlin. Le principe est le suivant : parce que vous êtes séduit par un contenu, vous offrez des cadeaux digitaux. Si une personne fait un voyage dans la savane africaine et vous fait vivre un incroyable moment live, vous pourrez avoir envie de lui offrir un cadeau digital. Il s'agit d'un business model émergent en Europe mais très développé dans d'autres parties du monde. Le Live Gifting correspond à une part substantielle des revenus de TikTok. En termes de chiffre d'affaires pur, nous comptons 62 millions d'euros pour la partie publicitaire et 103 millions d'euros pour le Live Gifting.

Ce succès est contre-intuitif car on pourrait s'interroger sur la générosité des Français et leur volonté de faire des cadeaux, mais le modèle fonctionne. Des créateurs produisent de façon généreuse des contenus formidables et la communauté souhaite soutenir ces talents ou ces moments de partage. Cet axe de revenus émergent est intéressant. Il y a quelques années, nous considérions seulement les revenus publicitaires, et aujourd'hui nous commençons à étudier ces nouveaux modèles.

Vous avez cité le e-commerce, qui est testé dans certaines parties du monde, notamment aux États-Unis ou au Royaume-Uni. La logique voudrait qu'à un moment, nous amplifiions le déploiement du e-commerce, qui s'entend plutôt comme un service à apporter aux PME, la volonté n'étant pas de devenir Amazon mais plutôt des acteurs de soutien au small and medium business. Vous êtes apiculteur, vous partagez vos contenus, qui ont trait à tout ce que vous faites autour de la récolte du miel toute l'année, et vous créez une communauté ; on pourrait alors vous donner la possibilité de vendre votre miel sur l'application. Nous espérons que cela arrivera un jour en France, car il s'agit d'un service très intéressant pour ces créateurs.

Il existe donc toute une panoplie de possibilités et il nous faut être agiles, ouverts à ce qui se passe parce que les modèles de monétisation évoluent fortement. L'enjeu pour l'entreprise est de choisir les bons modèles, qui fonctionnent parce qu'ils apportent une valeur. On ne force pas les gens à donner des cadeaux digitaux, ils les donnent parce qu'ils sont séduits par le contenu et qu'ils ont envie d'encourager les créateurs.

M. André Gattolin. - Dans la publicité traditionnelle, même ciblée, les capacités sont relativement limitées en dehors de l'extension de l'audience : plus vous insérez de la publicité dans des programmes courts, plus vous avez un risque de baisse d'attention et, donc, de perte de durée d'écoute. Il faut un réglage fin entre la proposition publicitaire et la proposition éditoriale.

J'ignorais l'importance du Live Gifting, qui explique peut-être la place aussi faible de la publicité dans votre chiffre d'affaires. Cela étant, comment monétisez-vous les conseils que vous donnez aux entreprises ? Vous parlez de rémunérer les créateurs de contenus, qui, eux-mêmes, font parfois de la publicité pour des produits ; vous parlez de Live Gifting... Votre société n'est-elle pas, en définitive, une oeuvre de bienfaisance ?

Par ailleurs, côté dépenses, on nous a expliqué ce matin que 40 000 personnes travaillaient à la modération des contenus dans les services de Trust and Safety. C'est beaucoup, et nous parlons d'ingénieurs - pour ce type de postes aux États-Unis, la rémunération atteint 60 000 à 65 000 dollars par an, hors charges. Si on s'amusait à calculer le coût de cet effectif, on dépasserait le chiffre d'affaires !

C'est ce que j'ai du mal à appréhender... Je comprends que vous soyez dans une logique d'investissement. Mais, compte tenu des très fortes particularités du secteur des réseaux sociaux, qui est très mobile et sur lequel on peut être très vite concurrencé, ce qui est votre cas, comment pérennisez-vous votre modèle ? Quelle est la logique ?

Plus marginalement, combien de salariés employez-vous dans le monde ? Compte tenu du niveau technologique et de la modération que vous prétendez faire sur les réseaux, vous devez être un employeur important... Pour nous, tout cela est inconnu, et plus c'est inconnu, plus c'est inquiétant !

Mme Marlène Masure. - S'agissant des contenus publicitaires, les marques ont très bien compris qu'elles devaient respecter les codes et la grammaire de la plateforme pour que leur publicité fonctionne sur TikTok. Elles passent donc souvent par un créateur et se mélangent aux histoires créées. Une vidéo classique dans laquelle une entreprise présente son produit fonctionnera moins bien qu'une vidéo dans laquelle une personne en vante les bénéfices.

S'agissant du business model, nous ne sommes pas complètement dans la philanthropie ! Le Live Gifting, par exemple, repose sur un modèle de rémunération permettant à TikTok de gagner sa vie. S'agissant du programme pour les créateurs, l'enjeu est, dans une phase de croissance, de nous assurer d'avoir les contenus les plus qualitatifs. Nous rémunérons donc des créateurs qui, disposant déjà d'une certaine communauté, vont élaborer des contenus « longs », c'est-à-dire de plus d'une minute, ce genre de contenus plus qualitatifs favorisant l'engagement envers la plateforme. C'est un modèle important pour nous à un moment où nous cherchons à nous développer.

M. André Gattolin. - Aux États-Unis, le groupe ByteDance déploie, à partir de TikTok, le réseau social Lemon8, assez proche dans l'esthétique, mais ne visant pas tout à fait les mêmes publics. Est-ce une entreprise de substitution en cas d'interdiction de TikTok aux États-Unis ou une volonté de décliner plus généralement ce type de nouveaux réseaux sociaux ? Envisagez-vous un développement de Lemon8 en Europe et en France ? De nouveau, de quelle stratégie marketing cela participe-t-il ?

Mme Marlène Masure. - Je n'ai pas de visibilité sur les plans de déploiement de Lemon8. Cette application porte sur des sujets d'art de vivre. Elle ne se limite pas à la vidéo, mais inclut également textes et photos. C'est une autre proposition, mais je ne peux pas vous en dire plus, n'ayant pas eu de présentation en interne.

M. André Gattolin. - J'ai été un peu abasourdi ce matin en entendant les effectifs de TikTok chargés de la modération. Je connaissais le chiffre pour les États-Unis - 1 400 modérateurs -, et je découvre qu'il y en a 40 000 dans le monde !

Vous accompagnez donc la modération automatisée des contenus par intelligence artificielle d'une modération humaine par secteur linguistique. Or nous savons que l'usage de la langue ne s'arrête pas aux frontières nationales et que certains pays sont multilingues : la modération en langue française peut donc être réalisée ailleurs qu'en France.

Combien des 600 modérateurs annoncés en langue française travaillent depuis la France ? Quel est l'impact économique en termes d'emplois de TikTok dans le pays ?

Mme Marlène Masure. - L'effectif de 40 000 personnes évoqué correspond à des équipes dédiées à la sécurité des contenus. Cela va donc au-delà de la seule modération.

Nous disposons à Dublin d'un centre de transparence accessible depuis 2023. Nous pourrons vous y emmener pour échanger avec nos experts sur place autour de nos stratégies de modération. Ces équipes travaillent avec des règles communautaires très précises, mises à jour régulièrement et mises en ligne sur l'application. TikTok comptant 5 000 collaborateurs en Europe, il doit y avoir entre 1 500 et 2 000 personnes à Dublin.

Le sujet de la modération est complexe : l'application des règles communautaires forme la base du processus de modération, puis se pose la question de la lecture « culturelle » de la situation. Un contenu peut effectivement être acceptable dans certains pays, et pas dans d'autres. Un travail est donc mené pour s'assurer que les pratiques culturelles du pays sont bien respectées. Par ailleurs, si nos outils algorithmiques sont très puissants, en particulier pour modérer les contenus visuels, nous avons besoin, sur des sujets comme le harcèlement, du soutien de la modération humaine, d'où le fait que nous ayons des modérateurs dans toutes les langues, y compris en français.

Ces modérateurs ne sont pas situés en France. Il y en a à Amsterdam, Dublin ou encore Lisbonne.

M. André Gattolin. - En tant qu'entreprise fondée sur l'innovation technologique et marketing, et compte tenu de l'importance des questions de propriété intellectuelle dans votre domaine, j'imagine que vous protégez vos procédés. Comment le faites-vous en Europe ? Le droit européen en la matière est assez unificateur, mais les choses ont changé depuis le Brexit - or vous êtes largement implantés à Londres et présents en même temps à Dublin, qui se trouve dans l'Union européenne. Quelle est votre stratégie en la matière ? Qu'en est-il de vos services juridiques, qui doivent être considérables ? Combien de brevets déposez-vous chaque année ?

Mme Marlène Masure. - Je suis incapable de répondre précisément à cette question. Mais nos équipes spécialisées - nous avons une direction juridique à Londres, pilotant toute la stratégie juridique pour la région - pourraient le faire. Je préfère que les experts reviennent vers vous sur ces sujets.

M. Claude Malhuret, rapporteur. - Pouvez-vous leur demander de nous dire également qui possède la propriété intellectuelle de l'algorithme principal de TikTok ? Nous n'en savons rien...

Je voudrais vous interroger sur le « heating ». La page d'accueil du site dit que cette application fonctionne de manière équitable et ouverte. J'imagine qu'un enfant seul dans sa chambre avec la caméra de son téléphone, qui s'imagine pouvoir faire des millions de vues à armes égales avec n'importe qui, se trompe. Je reprends un article de Forbes de janvier dernier qui explique que, pendant des années, TikTok a décrit sa page « For you » comme ordonnée par un algorithme qui prédit vos intérêts en se basant sur l'utilisation que vous faites de l'application. Ce n'est cependant pas toute l'histoire. Un certain nombre d'employés de Tiktok révèlent qu'en plus de l'algorithme, les équipes de TikTok et de ByteDance choisissent des vidéos spécifiques et surchargent leur distribution en utilisant une technique appelée « heating », « pousseurs » en français. Ces employés révèlent que Tiktok recourt à cette technique pour courtiser les influenceurs et les marques et les entraîner dans un partenariat en augmentant le nombre de vues de leurs vidéos. Ceci suggère que le « heating » a bénéficié à un certain nombre d'influenceurs et de marques, ceux avec lesquels Tiktok recherche des relations de business, au détriment de ceux avec lesquels Tiktok n'a pas de relation de ce type. J'aurai trois questions. Ce « heating » correspond, d'après l'article, à des procédures qui sont exposées dans des manuels. Aux États-Unis, ils s'appellent « Mine heating playbook ». Je suppose que vous avez le même en France et cela nous intéresserait d'avoir ce manuel et ses recommandations. Deuxièmement, est-ce que cette pratique est annoncée sur le site ? Troisièmement, comment fait-on pour augmenter les pages vues ?

Mme Marlène Masure. - Le principe sur Tiktok est que, quels que soient nos gestes, que l'on décide d'acheter de la publicité ou autre, le point de départ est d'avoir un bon contenu. Un bon contenu est un contenu qui a des chances de devenir viral s'il est authentique et s'il respecte les codes de la plateforme. C'est le cas pour toutes les marques et pour tous les créateurs. Ce qui perturbe certains créateurs, c'est qu'ils ont beaucoup d'abonnés mais que certaines de leurs vidéos ne marchent pas. C'est parce que ce n'est pas le nombre d'abonnés qui va indiquer à l'algorithme que la vidéo est intéressante. Ce qui va indiquer que la vidéo est intéressante, c'est que, petit à petit, de plus en plus de gens vont voir la vidéo, vont la regarder longtemps, vont l'aimer et la partager. Cela va donner des indices sur le fait que la vidéo est intéressante. Notre stratégie est de nous assurer que les bonnes pratiques pour faire un succès sur TikTok soient connues par toutes les marques et par tous les créateurs. C'est ça le secret, c'est de faire un bon contenu. Un mauvais contenu n'a aucune chance de performer sur la plateforme, quels que soient les moyens que vous allez y mettre, que vous achetiez du media pour le pousser ou qu'il soit mis en avant dans nos newsletters. Cette règle s'applique pour tous. Ce que nous faisons à l'échelle locale, c'est que lorsque nous sommes partenaires d'un événement ou que nous soutenons un programme, nous éditorialisons cet événement. Par exemple, quand nous sommes partenaires du festival de Cannes, nous identifions certains contenus qui nous paraissent être les plus intéressants, car nous voyons qu'ils sont aimés par la communauté, et nous allons les mettre en avant grâce à un petit logo qui s'appelle « officiel ». Ce logo « officiel » va indiquer aux utilisateurs que ce contenu est pertinent si vous cherchez du contenu sur Cannes 2023. Cela va générer un peu plus de vues et cela va créer un effet d'élan pour que cette vidéo ait le plus de succès possible.

M. Mickaël Vallet, président. - Si le contenu est pertinent et choisi par vous, c'est une ligne éditoriale. Cela n'a rien d'illégal, mais c'est du contenu que vous avez choisi de mettre en avant et de pousser.

Mme Marlène Masure. - Exactement. Le fait de mettre ce logo « officiel », c'est parce qu'à Cannes nous nous sommes mis d'accord avec des partenaires qui nous paraissaient intéressants, le festival de Cannes en premier lieu. Il y avait Brut, Télérama et des créateurs dont nous avions la garantie qu'ils allaient faire des contenus de qualité au moment de cet événement.

M. Mickaël Vallet, président. - Qui paye qui ?

Mme Marlène Masure. - Nous ne payons rien du tout. L'intérêt pour ces médias et partenaires, c'est d'être plus visibles sur la plateforme.

M. Mickaël Vallet, président. - Et votre intérêt est d'avoir des contenus dont vous estimez qu'ils rehaussent l'expérience utilisateur ?

Mme Marlène Masure. - Exactement. Pour vous donner le contexte, car nous ne sommes pas très nombreux en France, nous avons mis 2700 vidéos en avant sur les sept derniers mois. Il y a 2,5 millions de vidéos postées chaque jour sur Tiktok. Cela montre le poids réel des vidéos qui sont mises en avant face à la quantité de vidéos qui sont postées.

M. Claude Malhuret, rapporteur. - Ce qui me parait pertinent, ce n'est pas le nombre de vidéos, c'est le nombre de vues. Si en promouvant ces 2700 vidéos, vous arrivez à quelques centaines de millions ou des millions de vues, alors que pour les 2,5 autres millions, ce n'est que quelques vues par vidéo, c'est bien le nombre de vues qui compte.

Mme Marlène Masure. - Nous pouvons faire l'exercice, mais nous serons sur une vingtaine de zéros après la virgule. 2700 vidéos par rapport à la quantité de vidéos qui sont produites sur la plateforme, c'est infinitésimal. Cela nous permet juste de nous assurer, au moment d'une mise en avant, que ce soit le festival du livre de Paris, le festival de Cannes, la Paris Games Week ou Roland Garros, que nous facilitons l'expérience d'un utilisateur car il va tout de suite voir les meilleurs contenus émerger. Cela est très tactique et nous parlons de 6 vidéos en général, par opération, qui sont rafraichies une fois par semaine. C'est une quantité très faible et le fait de l'afficher comme « officiel » ne permet pas de garantir que la vidéo va avoir un succès décuplé. Cela veut seulement dire que nous apportons un avis sur le fait que cette vidéo est intéressante.

M. Mickaël Vallet, président. - Cela veut dire que c'est comme dans la presse, lorsqu'on indique « publireportage » ?

Mme Marlène Masure. - Oui.

M. Mickaël Vallet, président. - Pour creuser ce que vient de dire M. le Rapporteur, ce qui serait intéressant de savoir c'est : si vous n'aviez pas poussé cette vidéo, est-ce qu'elle aurait fonctionné ? Ce n'est pas sur le moment que vous y gagnez pour votre modèle économique. Ça vous permet d'améliorer le contenu et de faire en sorte que c'est sur Tiktok que se passent les moments importants de ce type d'événement, souvent mondiaux, qui fidélisent l'abonné et rehaussent la qualité de l'expérience. C'est par la suite, sur les revenus publicitaires, qui ne sont pas nécessairement liés à l'événement, que ça vous rend plus visibles ou prescriptifs.

Mme Marlène Masure. - Oui, l'idée est de permettre aux utilisateurs qui sont intéressés par ce sujet-là de ne pas manquer ce que nous pensons être les 6 meilleures vidéos de l'évènement, sur des dizaines de millions de vidéos. Cela nous permet d'apporter un avis éditorial sur certains contenus et de nous assurer que les meilleurs partenaires qui font les meilleurs efforts voient leurs contenus valorisés, en l'occurrence sur Roland Garros, France Télévisions et Amazon Prime vidéos, et sur Cannes France Télévisions, Brut et d'autres partenaires médias, qui font un travail de très grande qualité sur la plateforme.

M. Claude Malhuret, rapporteur. - Quelle est la part des contenus sur TikTok qui ne résultent pas d'une création, mais qui sont un extrait d'un contenu déjà existant, par exemple des extraits d'émissions, de matchs sportifs, etc. ? Quelle est la proportion du contenu création et du contenu retransmission de contenu déjà existant ? Au-delà de cette question, se pose le problème des droits d'auteur, et je crois que vous avez des problèmes sur ce sujet...

Mme Marlène Masure. - La plateforme TikTok aujourd'hui fonctionne sur un principe de création originale. Ce qui fonctionne sur la plateforme, c'est l'authenticité des contenus. La plupart des grandes marques, des grandes entreprises et des créateurs qui sont sur la plateforme font du contenu original. Si vous êtes sur du contenu reproduit, vous avez beaucoup moins de chances d'émerger. L'intérêt est, entre guillemets, inexistant. Notre travail est d'accompagner tous les ayants droit dans une meilleure valorisation de leurs droits.

Par exemple, quand Canal+ diffuse la finale de la Champions' League, notre rôle est de nous assurer qu'ils vont réussir à faire savoir au plus grand nombre possible qui diffuse cette finale et de créer l'événement avant la diffusion, de montrer des moments phares pendant et de faire vivre l'expérience après. Nous avons de très bonnes relations avec les diffuseurs aujourd'hui, car ils savent très bien nous utiliser. Nous avons des équipes dédiées qui travaillent avec les diffuseurs pour accompagner ces efforts et pour s'assurer que nous arrivons à générer le plus d'audience possible sur les chaines, sur les services de vidéo à la demande, etc.

Sur le sujet des droits d'auteur, nous avons des accords sur la musique depuis 2021 avec la Société des auteurs, compositeurs et éditeurs de musique (SACEM) notamment, parce que la musique fait partie intégrante de l'expérience TikTok. Les vidéos TikTok se consomment avec le son et donc beaucoup de musique. La musique est très importante et centrale au sein de la plateforme. Les accords avec les sociétés de gestion de droits pour la musique ont été signés très tôt. Sur les autres sociétés d'auteurs, ce que je peux vous dire c'est qu'aujourd'hui, nous avons amorcé des conversations avec certains d'entre eux. La Société des auteurs et compositeurs dramatiques (SACD) en fait partie. J'ai pu commencer les discussions avec eux au mois d'avril. Il y a eu deux autres rendez-vous à l'occasion du festival de Cannes. Nous avons fait les suivis pour leur présenter les équipes techniques et les équipes commerciales, pour nous assurer que ces négociations avanceraient rapidement. Aujourd'hui, nous sommes dans les temps de passage assez normaux d'une plateforme. Nous avons été créés il y a cinq ans. Si vous regardez les accords signés par d'autres plateformes, cela a pris un peu plus de cinq ans pour les mettre en place. Nous sommes sur des enjeux technologiques : il s'agit de rapprocher des répertoires d'auteurs avec une plateforme. Cela nécessite des développements technologiques et des API dédiées. La discussion n'est pas simple et prendra probablement un peu de temps pour se mettre d'accord sur la part de ce contenu sur la plateforme.

Bien sûr, notre enjeu est de respecter nos obligations dans le cadre de l'article 17 de la directive 2019/790. Nous ne cherchons pas à nous y soustraire. Nous travaillons d'arrache-pied pour être en conformité.

M. Claude Malhuret, rapporteur. - Je suis désolé de vous contredire, mais ce n'est pas du tout ce que nous ont dit les sociétés ou les syndicats en question. La SACD est extrêmement en colère, ou en tout cas l'était devant nous. Leur directeur général nous a fait la déclaration suivante : « les discussions avec les plateformes sont longues et compliquées, mais elles finissent par aboutir. Ce n'est pas du tout le cas de TikTok, dont les méthodes aboutissent aujourd'hui à bloquer toute discussion par le biais d'actions dilatoires. Par exemple, l'exigence de clauses de confidentialité inacceptables et exorbitantes. Un exemple : l'interdiction pour nous de référer de nos discussions au conseil d'administration de la SACD. » Évidemment, si les représentants ne peuvent pas référer au conseil d'administration, nous voyons mal comment cela peut aboutir à un accord. Le résultat est que, depuis que TikTok est installée en France, vous dites que c'était il y a cinq ans, la société n'a pas versé un centime à la SACD. Le directeur général de la SACD a qualifié cette pratique devant nous de « piraterie audiovisuelle » et nous a indiqué qu'une plainte était en préparation. Nous avons également interrogé les dirigeants de la SACEM, qui sont un peu moins remontés mais tout de même en colère, et ceux du syndicat national de l'édition phonographique (SNEP), qui sont eux tout aussi remontés que la SACD et qui nous disent que, par rapport aux autres plateformes, les sommes versées par TikTok sont infimes.

Olivier Nus, qui est PDG d'Universal Music France, déplore que TikTok ne rémunère pas du tout la musique utilisée à la hauteur de ce qu'elle devrait. Frédéric Delacroix, délégué général de l'association de lutte contre la piraterie audiovisuelle, relève de sérieux problèmes au niveau des droits d'auteur des oeuvres diffusées sur TikTok. Pensez-vous qu'il soit conforme à la déontologie de monter des opérations de communication à grand spectacle, par exemple avec le festival de Cannes, le festival du livre ou les musées nationaux, sans avoir versé, depuis que vous existez, un centime au titre des sommes dues aux auteurs ou aux compositeurs ? Quand comptez-vous mener avec la SACD des négociations sérieuses ? Quand pensez-vous payer vos dettes à ces différentes sociétés ? En tout cas, pour le moment, depuis cinq ans, TikTok se conduit d'une façon qu'on pourrait résumer ainsi : on vit dans l'illégalité pendant des années puis on voit après.

Mme Marlène Masure - Ce que je peux vous dire, c'est que nous avons aussi des relations avec les ayants droit et ceux qui possèdent cette propriété intellectuelle. Vous avez la possibilité de signaler du contenu qui est votre propriété sur la plateforme ou de remplir un formulaire pour faire retirer du contenu qui vous appartient. C'est un modèle qui fonctionne bien aujourd'hui et avec lequel on opère. Vous avez un certain nombre d'auteurs et de propriétaires de propriété intellectuelle qui nous signalent les contenus et nous retirons les contenus qui sont de la reproduction de contenu.

Deuxièmement, sur la SACD, l'audition a eu lieu avant les discussions extrêmement courtoises et productives que nous avons eues à Cannes avec eux. L'accord de confidentialité est sur le point d'être signé. Nous sommes parfaitement en phase et les premiers rendez-vous techniques vont être calés très prochainement. Pour moi, sur la SACD, c'est réglé, ou c'est en tout cas en cours. Mes premières discussions avec la SACD ont eu lieu en avril. Sur le sujet des sociétés de gestion collective, la réalité est que nous ne voulons pas nous soustraire à nos obligations, mais pour définir un modèle de rémunération - les autres plateformes sont passées par ces modèles-là, donc vous le savez probablement - il faut que nos technologies se parlent. C'est-à-dire qu'entre les 50 ou 60 000 oeuvres protégées par la SACD et la réalité de leur présence sur notre plateforme, il faut être en capacité de le mesurer. Développer ces outils prend du temps. C'est l'objet des discussions que nous avons avec eux aujourd'hui. Cela a également pris des années pour les autres plateformes.

Pour la musique, selon moi la relation avec la SACEM est plutôt bonne. Je me permettrai de creuser pour comprendre quels sont leurs potentiels motifs d'insatisfaction. Pour moi, aux dernières nouvelles, tout allait bien. Ils sont par ailleurs très actifs sur la plateforme et créent du contenu très intéressant. Pour moi, l'accord est conforme à nos obligations. Avec les labels et maisons de disques, nous avons aujourd'hui une collaboration extrêmement positive. Ils savent à quel point TikTok joue un rôle clé dans la carrière des artistes et à quel point ils sont capables de mesurer aujourd'hui le début d'une popularité sur TikTok et la conversion en termes de stream payant ensuite sur d'autres plateformes. Nous avons un écosystème vertueux sur la musique. Nos obligations en termes de rémunération des droits musicaux sont bien en règle.

M. Claude Malhuret, rapporteur. - L'avenir nous le dira.

Mme Marlène Masure. - Pour l'instant la négociation commerciale n'a pas encore démarré. Ce n'est pas dans une le cadre d'une commission d'enquête que je peux dévoiler l'objet de ces négociations mais j'imagine que vous serez tenus parfaitement au courant de l'évolution de ces discussions avec les sociétés d'auteurs et encore une fois on est dans une démarche volontaire et on ne cherche pas à se soustraire à ces obligations.

M. Claude Malhuret, rapporteur. - Je voudrais que nous parlions de l'addiction ou de la dépendance. Je vous cite un article du Monde : « TikTok rendrait-il accro ? Alors que Facebook, Instagram ou YouTube étaient surtout accusés d'enfermer les internautes dans des bulles de filtres, de propager de la désinformation ou de polariser les opinions, l'application chinoise est accusée d'abrutir la jeunesse. « TikTok est du fentanyl numérique qui rend nos enfants dépendants », déclarait en novembre Mike Gallagher, un élu américain républicain. Bernstein Research parle de « crack numérique », qui délivrerait « de l'endorphine à chaque swipe ». L'économiste Olivier Babeau, auteur de La Tyrannie du divertissement, décrit, lui, TikTok comme un « opium mental », dans Le Figaro. ». Je vous passe les déclarations du président de la République que vous que vous connaissez sans doute, et je vous passe également les déclarations des associations familiales et des associations de parents qui nous exposent le nombre de plaintes qu'ils reçoivent d'adhérents ou de non adhérents qui leurs disent que leurs enfants passent leurs nuits sur l'application, etc...

L'algorithme de TikTok est particulièrement addictif. Vous le savez. Cela pose des problèmes majeurs. Les nombreux psychologues que nous avons vus sont à 80%, extrêmement critiques, c'est le moins que l'on puisse dire. Il y a un vrai phénomène d'addiction et d'heures passées sur l'application. Il y a d'autres phénomènes, d'ailleurs comme la dysmorphophobie, la chirurgie esthétique, les filtres etc. Cela représente quand même beaucoup de problèmes. Alors en Chine on résout une partie des problèmes en limitant le temps de connexion à l'application à 40 minutes et en le fermant, de 22h à 6h du matin.

Vous avez trouvé une autre solution. C'est les 60 minutes, au bout desquels on vous explique que vous êtes connectés depuis 60 minutes. C'est à peu près comme si vous mettez sur un paquet de cigarettes : « ne prenez pas la prochaine cigarette ». Évidemment les adolescents savent parfaitement comment faire et j'aimerais d'ailleurs savoir si vous avez mesuré l'efficacité de de cette méthode. Personnellement, je n'y crois pas une seconde. C'est vraiment un problème majeur. Dans le cadre du DSA vous allez avoir à régler ce problème, notamment pour le contrôle de l'âge. Cette situation n'est pas acceptable et cela pour beaucoup de monde. Lorsque vous entendez les déclarations d'un certain nombre de psychologues, beaucoup d'adolescents qui ont des problèmes psychiques au départ voient leur situation terriblement s'aggraver. Heureusement, ce n'est pas 100% des adolescents qui sont concernés mais cela pose un problème sur les plus fragiles et ce problème est loin d'être résolu chez vous.

Mme Marlène Masure. - Le sujet du bien-être numérique est évidemment important pour nous, comme il doit l'être pour toutes les plateformes. C'est un sujet sur lequel on passe du temps. On réfléchit beaucoup à toutes les solutions. Une des solutions, en tous cas à mon niveau, c'est de m'assurer qu'à l'échelle de la France, il y ait création du contenu le plus qualitatif possible pour que l'expérience sur la plate-forme, soit, entre guillemets, la plus génératrices de valeur.

Quand on travaille sur un événement autour du livre, du cinéma ou du sport, comme on le fait en ce moment avec Roland Garros, comme on le fera avec le Tour de France et comme on le fait avec beaucoup d'autres événements sportifs, on s'assure que la qualité des contenus est à la hauteur.

M. Claude Malhuret, rapporteur. - C'est de la langue de bois, excusez-moi. Enfin, la réalité ce n'est pas la qualité des contenus. Il y a une petite partie d'Alouette et puis le reste c'est du cheval, c'est de la vidéo qui défile, c'est de l'addiction, ce sont des mômes qui ne dorment pas, des troubles du développement cognitif.... ne me dites pas que vous allez régler ça en augmentant la qualité du contenu. Je n'y crois pas une seconde. Pourquoi ne prenez-vous pas l'exemple de la Chine, pour une fois ? Pourquoi ne limitez-vous pas, comme le tabac et l'alcool interdits aux mineurs, l'utilisation de votre plateforme, si ce n'est pour des raisons visant à augmenter le nombre d'utilisateurs et vos recettes ?

Mme Marlène Masure. - Permettez-moi d'être en désaccord avec votre premier point parce que c'est mon travail et c'est important pour moi, d'améliorer la qualité, de continuer à soutenir des moments importants à l'échelle du pays et de nous assurer que la qualité des contenus soit la plus meilleure possible. C'est un premier élément de réponse. Ensuite on a beaucoup de fonctionnalités qui sont à disposition au sein de la plateforme, sur lesquelles on doit faire un meilleur travail de communication et les mettre à disposition. TikTok est la seule plateforme à avoir pris l'initiative des 60 minutes pour les moins de 18 ans. On n'a pas eu beaucoup de félicitations pour ça mais on trouve que c'est une très bonne initiative. Aujourd'hui, trois quarts des moins de 18 ans ont une fonctionnalité de gestion de temps d'écran qui est activée sur leurs plateformes. Ça veut dire que, même si cela ne vous empêche pas de continuer à vivre l'expérience sur la plateforme, c'est en tous cas un message important qui vous fait réfléchir sur le temps que vous êtes prêts à accorder à cette expérience sur la plateforme.

Les fonctionnalités aujourd'hui vous permettent un contrôle de ce temps d'écran. Il existe le mode de connexion famille, sur lequel on veut aussi continuer à plus communiquer parce qu'il est extrêmement puissant. Il permet aux parents d'avoir des tableaux de bord chaque semaine sur le temps d'écran de leurs enfants, de contrôler le temps d'écran par jour. C'est-à-dire que si vous voulez donner plus de temps le mercredi que le mardi vous pouvez le faire. Il permet aussi de vous assurer que vos enfants communiquent uniquement avec leurs amis, etc. Il y a beaucoup de choses qu'on peut faire par l'intermédiaire des parents et on a besoin de construire cette relation avec les parents aussi pour qu'il soit nos meilleurs alliés. Les outils sont à disposition sur la plateforme. On doit s'assurer qu'il en soit fait un meilleur usage.

M. Claude Malhuret, rapporteur. - Vous nous avez dit tout à l'heure que les poussées de contenus représentent une goutte d'eau par rapport à l'ensemble des utilisations et là vous nous dites, que vous êtes en train de travailler sur l'amélioration des contenus, pour que les expériences soient plus enrichissante etc. Vous n'allez pas me convaincre.

Deuxièmement vous me parlez du contrôle parental. Si vous mettez cet accent sur le contrôle parental c'est justement parce qu'il y a des problèmes. Ce que je pense, c'est que les applications comme la vôtre, ne devraient pas se fier au contrôle parental pour des milliers de raison mais pour une en particulier, c'est parce que cela introduit une ségrégation sociale évidente. Les parents CSP + sont beaucoup plus contrôleurs des applications de leurs enfants. À commencer d'ailleurs par les responsables des grandes plateformes qui interdisent très souvent à leurs enfants d'utiliser les écrans, mais en tout cas les CSP + sont infiniment plus vigilants que les CSP - et par conséquent vous introduisez ou renforcez une discrimination sociale en faisant cela.

Tant qu'il n'y aura pas une protection « safety by design » de l'application sur le temps d'utilisation ou sur d'autres choses, ce ne sera pas sérieux.

Mme Marlène Masure. - Le « safety by design » commence par les 60 minutes par jour pour tous les mois 18 ans. Vous n'avez pas d'autres plateformes aujourd'hui qui le propose.

M. Claude Malhuret, rapporteur. - Vous avez mesuré combien s'arrêtent au bout de 60 minutes ?

Mme Marlène Masure. - Ce que je peux vous dire, c'est que trois quarts des moins 18 ans conservent cette fonctionnalité et ne la désactivent pas. C'est significatif.

M. Mickaël Vallet, président. - Ce qui compte c'est le résultat et c'est sur ce point que je voulais vous interroger techniquement. Je pense que vous devez avoir la possibilité de savoir combien s'arrêtent, ne serait-ce que du point de vue de vos annonceurs. C'est fondamental pour vous, comme pour toutes entreprises, et pas uniquement dans le domaine des technologies, de savoir comment se comportent vos consommateurs. Donc j'aimerais savoir, s'il le faut, vous pouvez nous le dire par écrit plus tard, combien s'arrêtent dans le quart d'heure qui suit. Vous savez il y a les 10 commandements depuis 2000 ans et pourtant il y a toujours des gens qui tuent. Ce qui est intéressant c'est de savoir ce que ce que ça produit derrière donc si vous avez cette information, nous sommes preneurs. Cela permettra d'objectiver les choses.

Mme Marlène Masure. - On reviendra vers vous effectivement.

M. Mickaël Vallet, président. - Si un enfant se met à s'enfermer dans sa chambre 12 heures par jour tout un été pour lire tout Proust, à un moment, même sans être psychologue clinicien, on va lui proposer d'aller prendre l'air. Au regard de ce que nous font remonter les psychologues cliniciens ou de ce que peuvent nous raconter des enseignants ou des personnes chargées d'encadrer des enfants dans les collèges dans nos circonscriptions, il y a des familles qui, lorsqu'elles sont invités à venir s'expliquer avec les enseignants sur la difficulté du comportement d'un enfant en classe ou d'un enfant qui ne va pas bien, vous expliquent qu'elles ne peuvent pas supprimer l'application. Ils ne peuvent pas car ils ne savent pas gérer la réaction de l'enfant. C'est ingérable de supprimer les réseaux sociaux en général. Seulement, nous n'y pouvons rien si celui qui est en pleine expansion et qui est sur quasiment tous les téléphones des lycéens ou des collégiens, c'est TikTok.

Nous avons régulièrement des visites au Sénat de scolaires de nos circonscriptions. Depuis trois mois, je pose la question systématiquement : qui n'a pas TikTok ? Celui qui ne l'a pas n'ose même pas lever le doigt. Tout le monde a TikTok mais jusque-là tout va bien. Donc ma question est : une heure je comprends. Mais à partir de combien de temps vous pouvez admettre que ce n'est pas tenable ? Est-ce que 4 heures par jour, c'est tenable ? Est-ce que 3 heures par jour, c'est tenable ? Qu'est-ce qui ne vous donnerait pas le beau rôle de dire : nous on coupe, au bout de tant de temps.

Mme Marlène Masure. - Ce sont des études d'experts, de médecins, de psychiatres qui ont fait cette recommandation de 60 minutes par jour. Quand le mineur va passer cette étape des 60 minutes, à 100 minutes il va recevoir une nouvelle notification qui va lui dire qu'il, faudrait vraiment qu'il aille sur ses outils de de gestion du temps et commencer à contrôler son temps. On a donc cette démarche proactive de renvoyer des messages. On a aussi un système de mise en sourdine des notifications puisque les notifications soit aussi une forme d'appel à aller consommer. On met en sourdine les notifications pour les moins de 15 ans de 21 heures jusqu'à 8 heures je crois le matin.

M. Mickaël Vallet, président. - Cette fonctionnalité est en option ou elle est automatiquement activée ?

Mme Marlène Masure. - Elle est installée par défaut. Pour les 16-17 ans c'est de 22 heures à 8 heures. On a aussi agi sur cette notion de notification pour que la notification ne soit par un appel à venir se reconnecter sur le téléphone. On essaye de rappeler l'existence de ces outils. Je suis assez d'accord avec vous sur le fait qu'on sera plus forts si la démarche vient du mineur que si elle est imposée par les parents, néanmoins les outils de gestion du temps et le mode de connexion familial sont quand même très intuitifs sur la plateforme. On a la conviction que ça ne s'adresse pas simplement aux CSP +. Aujourd'hui, jumeler un appareil c'est comme jumeler un téléphone avec sa voiture. C'est assez simple. Par contre il faut que les gens sachent que ce mode connexion famille existe. C'est aussi pour cela que nous investissons et faisons des campagnes marketing. Au sein de l'application, on a aussi des campagnes avec des créateurs qui vont faire la promotion de ces outils techniques de gestion du temps. Dans le cadre de nos campagnes marketing, nous allons investir en achetant une prestation de service à un créateur pour qu'il explique que ces outils existent.

Après interdire, c'est compliqué parce qu'on est quand même dans un pays de libertés. Si la loi l'impose, bien sûr on s'y conformera mais c'est compliqué en termes de posture. On va être accusés de censure chinoise. Je sais pas comment répondre à cette question, je ne sais pas si on peut interdire réellement ou imposer. Nous sommes dans un rôle d'éducation et d'accompagnement.

M. Mickaël Vallet, président. - Si de vous-même vous décidiez de ne plus émettre, comme l'ORTF à l'époque à partir de 23 heures, personne ne pourra vous le reprocher.

Mme Marlène Masure. - Quelle serait la posture de TikTok vis-à-vis des autres plateformes ?

M. Mickaël Vallet, président. - Je poserais bien la question aux autres plateformes mais c'est vous qui êtes là aujourd'hui. Au regard des éléments que vous pourriez nous apporter par écrit, je vous cite le travail d'une journaliste qui a publié un ouvrage, comme vous le savez, en mars 2023 sur TikTok (page 161) : « Nous avons à ce stade très peu d'informations sur la matière dans le bouleversement que représente TikTok affecte les utilisateurs dans leur image d'eux-mêmes ou leur capacité de concentration pour citer plusieurs points d'interrogation récurrents en ce qui concerne les réseaux sociaux : à la fin de l'année 2021 les « Facebook fails » révélées par Frances Haugenun avaient permis de lever un coin du voile sur l'impact d'Instagram sur les jeunes. L'étude interne réalisée par Facebook, révélées ainsi qu'Instagram avait un impact nocif sur l'image corporelle et bien être des adolescentes. Si des études similaires ont peut-être été menées par TikTok, elles n'ont pas à ce stade étaient révélées. ». Vous venez vous- même de dire que les 60 minutes ne venaient pas de nulle part. Pourrez-vous nous indiquer les études sur lesquelles vous avez fondé votre décision, la bibliographie en quelque sorte ?

Mme Marlène Masure. - Oui, bien sûr, on peut vous donner les éléments.

M. Claude Malhuret, rapporteur. - Je voudrais évoquer les défis dangereux. Ils défraient régulièrement la chronique. Sitôt supprimées, de nouvelles vidéos avec de nouveaux défis apparaissent. Vous connaissez sans doute l'histoire de cette fillette en Italie décédée après un « jeu du foulard ». Il y a de nombreuses affaires de ce type, notamment en France. À chaque fois, TikTok assure qu'il fera très attention la prochaine fois...

Je vous cite un article récent, du journal 20 minutes : « Le défi TikTok a dégénéré : le 29 mars dernier à Cergy, plusieurs adolescents ont décidé de sonner aux portes d'inconnus avant de partir en courant, le tout en filmant la scène pour les besoins d'une « sonnerie party », un jeu lancé sur les réseaux sociaux. Mais comme le raconte La Gazette du Val-d'Oise ce mercredi, des habitants n'ont visiblement pas apprécié leur petit manège et le ton est monté. Des jeunes ont alors agressé trois riverains. Deux d'entre eux auraient été victimes de coups de poing. Un troisième, lui, s'est fracturé la cheville. (...) D'après nos confrères, des vidéos retrouvées dans les téléphones des suspects montrent notamment l' agression d'un riverain. Les jeunes, qui auraient reconnu en partie les faits, ont été présentés à un juge des enfants».

Où en êtes-vous s'agissant des défis dangereux ?

Mme Marlène Masure. - Nos équipes de modérations sont mobilisées dès qu'un défi dangereux émerge. Nous avons la chance de travailler avec des associations, qui sont extrêmement utiles pour la prise de conscience de ces types de défis. J'ai évoqué E-enfance. Ce qui fait notre force est notre capacité à réagir très rapidement sur ces sujets. Nous fournissons des ressources pour accompagner les jeunes sur la dangerosité de ces défis.

Le jeu des sonneries est peut-être un peu moins grave que celui du foulard. Sur ce jeu du foulard, nous avons appris. Quand vous tapez sur l'application « jeu du foulard », des informations seront proposées pour expliquer pourquoi c'est un défi dangereux, qui ne doit pas être réalisé. Non seulement il n'y a pas de vidéos avec des jeunes faisant le jeu du foulard, mais des explications sont apportées. Notre but est de fournir ce type de ressources sur chaque type de jeux dangereux identifiés et d'être le plus rapide possible dans la suppression de ces contenus de la plateforme. C'est une obsession de nos équipes de modération pour protéger les mineurs.

M. Claude Malhuret, président. - S'agissant du filtre bold glamour, la présidente d'E-enfance, avec qui vous travaillez, s'interroge dans un article du Figaro sur le fait d'interdire ce filtre aux mineurs, dont on connait toutes les conséquences. Quelle est votre position sur ce sujet ?

Mme Marlène Masure. - Le sujet des filtres est un sujet très intéressant. Au-delà de la question des filtres de beauté, sur lesquels chacun peut avoir un point de vue personnel, l'usage de TikTok n'est pas de recourir aux filtres. Le principe de notre plateforme est l'authenticité, c'est-à-dire de faire des contenus pour relater des histoires authentiques et où l'on se montre sous un jour authentique. S'il s'agit d'une posture ou d'un jeu, le contenu ne pourra pas devenir viral car ce n'est pas ce que les gens attendent. Ces filtres de beauté ne sont probablement pas des sujets de popularité ou de viralité sur la plateforme.

Il faudrait vérifier si ce filtre est toujours sur la plateforme. Pour le supprimer, nous devrions avoir une raison majeure. À titre personnel, je ne suis pas fan de ce filtre mais cela n'engage que moi. Tant qu'il ne crée pas de dégâts ou de dommages et qu'il n'y a pas de plaintes, nous ne prenons pas de décision. Je ne sais pas comment répondre à votre question. La finalité sur TikTok n'est pas le beauty shot. On n'est pas populaire sur TikTok parce qu'on fait des vidéos où l'on est joli.

M. Claude Malhuret, président. - J'ai l'impression que pour vous, « tout le monde il est beau, tout le monde il est gentil ». Les psychologues tout comme les chirurgiens esthétiques nous avertissent d'un problème majeur. Il y a désormais plus de jeunes femmes de 18 à 20 ans que de personnes âgées dans les consultations de chirurgie esthétique. Les psychologues nous disent que dans une époque de construction identitaire comme l'adolescence, ces filtres entrainent des problèmes majeurs de dysmorphophobie, sans compter les problèmes de dépression. C'est un vrai fléau.

J'ai l'impression que vous regardez cela de façon théorique depuis votre bureau de TikTok. En tant que sénateurs, nous sommes très fréquemment interpellés sur ses effets des réseaux sociaux, et tout particulièrement de TikTok. Supposons que ces effets délétères ne concerneraient que 2 à 3 % des utilisateurs. Avec 20 millions d'utilisateurs en France, cela représente des centaines de milliers de personnes ! Je crois que vous ne vous rendez pas compte de l'impact de ces filtres et de ces identifications à des canons de beauté. Mon sentiment est qu'il s'agir d'un vrai fléau, que vous n'avez pas l'air de mesurer. Je suis étonné que le filtre Bold Glamour soit toujours accessible sur l'application.

Mme Marlène Masure. - Permettez-moi de vérifier car je ne suis pas certaine que ce filtre soit toujours disponible. En tout cas, j'insiste sur le fait que sur TikTok on vient pour se divertir et s'amuser. Une vidéo où l'on s'embellit, si elle n'a pas d'histoire, ne sera pas virale. Le filtre est intéressant s'il apporte une expérience. Nous avons ainsi des filtres de quizz, des filtres pour enfiler le casque des Daft Punk...Quand il y a « gamification », ces filtres  ont une efficacité virale. Un filtre qui embellit n'a pas vraiment d'histoire à raconter. Je questionne donc la viralité de ces filtres. Nous ne minimisons cependant pas l'impact de ces filtres.

M. Mickaël Vallet, président. - Le milieu de la mode, il y a une quinzaine d'années, a fini par adopter des codes de bonne conduite, pour ne pas mettre en avant des mannequins dont la maigreur extrême viendrait imprimer des canons de beauté causant des dégâts psychologiques. Vous pourriez adopter une décision volontariste en la matière. Vous estimez que vous ne pouvez pas prendre cette décision seule, au risque de voir partir vos abonnés et les annonceurs sur d'autres plateformes. Vous avez cependant une responsabilité sociale énorme, qui est le pendant de votre succès.

M. Claude Malhuret, président. - NewsGuard, que vous connaissez probablement, note une forte présence de contenus faux sur TikTok. 20 % des vidéos apparaissant dans les résultats de recherches du réseau TikTok sur les principaux sujets d'actualité contiennent de la « mésinformation ». Selon Chine Labbé, l'explication tiendrait à la modération majoritairement faite par IA et à un algorithme qui valoriserait les contenus faisant réagir - et donc davantage les contenus faux. Qu'en pensez-vous ?

S'agissant de la modération des contenus, pourquoi a-t-il fallu attendre les signalements de NewsGuard pour que soient retirés les contenus glorifiant les actes d'exaction du groupe Wagner, qui contrevenaient pourtant clairement aux règles d'utilisation de TikTok ? Cette défaillance s'explique-t-elle par le recours à une modération par IA et non à une modération humaine ?

Mme Marlène Masure. - Je ne connais pas cette étude de NewsGuard et je n'en connais pas la fiabilité. La désinformation fait partie de nos règles communautaires. Nous n'autorisons pas la désinformation sur TikTok. Les équipes de modération suppriment les contenus qui relèvent de la désinformation. Nous travaillons avec des vérificateurs de faits, qui font partie de l'International Fact Checking, dont l'AFP. Nous travaillons main dans la main avec l'AFP notamment pour nous assurer que les contenus sont justes et vrais. Nous supprimons tous les contenus qui sont de l'ordre de la désinformation.

Nous avons pris un certain nombre d'actions au moment de la guerre en Ukraine, permettant de labéliser les comptes de médias contrôlés par des États. 120 médias sont ainsi labélisés, pour permettre aux utilisateurs d'avoir une lecture plus juste des informations. China Daily fait partie de ces comptes. S'agissant de la Russie, TikTok a été la première plateforme à bannir, suite à la demande de l'Union européenne, Sputnik et Russia Today. Nous avons eu l'action la plus rapide parmi toutes les plateformes. Nous montrons notre mobilisation sur le sujet. Nous avons supprimé 41 191 vidéos de fake news, dont 78 % ont été identifiées de manière proactive. Nous avons plus d'une trentaine de vérificateurs de faits. Sur certaines vidéos où nous avons des doutes et où nous n'arrivons pas à un accord avec les vérificateurs de faits, nous faisons apparaitre une mention qui indique « vidéo partageant des faits non confirmés ».

Dans les périodes sensibles, comme les périodes d'élection, nous sommes particulièrement vigilants. Nous avons travaillé avec le Service d'information du Gouvernement (SIG) pour nous assurer que nous fournissions toutes les informations utiles aux utilisateurs, avec un guide électoral. Plus d'1,3 millions de personnes ont utilisé ces ressources, signe qu'elles ont été utiles.

Nous sommes vraiment mobilisés sur ce sujet. Je ne sais pas d'où sortent cette étude et ces statistiques. En tout cas, en termes de procédure et de partenaires, nous sommes plutôt bien équipés.

M. Claude Malhuret, président. - En 2021, le groupement européen des associations de consommateurs a déposé une plainte auprès de la Commission européenne contre TikTok. Elle lui reprochait notamment d'exposer des utilisateurs mineurs à des vidéos sexuellement suggestives dès leur inscription. Savez-vous où en est cette plainte ?

Mme Marlène Masure. - Je ne sais pas où en est cette plainte. Je peux vous dire en revanche que ce type de vidéos est contraire à nos règles communautaires et sont donc modérées. Ces vidéos font partie des premiers contenus qui seront supprimés par l'algorithme puisqu'il identifiera très rapidement que ces contenus sont non conformes.

M. Claude Malhuret, président. - Cela dépend ce qu'on désigne par « sexuellement suggestives ». Je me suis rendu sur l'application pour les besoins de l'enquête. Quand vous « swippez » sur TikTok, ces contenus - selon la définition que je retiens - arrivent extrêmement vite.

Mme Marlène Masure. - Je n'en ai pas eu dans mon flux. Je veux bien vous croire et je vois encourage à les signaler. Vous appuyez sur la vidéo pendant une à deux secondes pour faire un signalement. Il faut alors remplir la case nudité.

M. Claude Malhuret, président. - C'est parfois plus suggestif sexuellement quand ce n'est pas de la nudité totale.

Mme Marlène Masure. - Ce n'est pas non plus acceptable et cela doit être modéré.

M. Claude Malhuret, président. - Vendez-vous vos données ? Si oui, à qui ?

Mme Marlène Masure. - Nous ne vendons pas nos données. Les données sont utilisées uniquement pour nos propres besoins, servir nos campagnes publicitaires ou travailler l'expérience utilisateur.

M. Claude Malhuret, président. - La pratique du shadowbanning est-elle toujours en usage sur TikTok ? Pouvez-vous nous dire son intérêt ?

Mme Marlène Masure. - Qu'entendez-vous par shadowbanning ?

M. Claude Malhuret, président. - Ce terme désigne le fait de ne pas supprimer des vidéos mais de les rendre moins visibles, c'est-à-dire le contraire du heating.

Mme Marlène Masure. - L'algorithme le mettra en place pour des vidéos que l'on considère comme nocives si elles visionnées de façon répétée. Cela concerne les vidéos de régime, de fitness intense, qui si elle sont proposées dans la page pour toi de manière répétée, peuvent être mauvaises pour le bien être de l'utilisateur si elles sont visionnées trop souvent. Je ne sais pas si l'on peut appeler cela du shadowbanning. En tout cas, l'algorithme va traiter ces vidéos de façon différente et les proposer en moins grand nombre et les intercaler avec d'autres vidéos. Le principe de baisser la visibilité vise aussi les contenus plus matures. Ces contenus ne seront ainsi pas visibles dans les flux des mineurs. Des vidéos sont catégorisées et selon le niveau de maturité elles seront moins visibles ou pas visibles selon leur niveau de maturité pour les moins de 18 ans.

M. Claude Malhuret, rapporteur. - On est bien d'accord que vous avez encore des centaines de milliers voire des millions d'adolescents qui annoncent qu'ils ont trente ans ou quarante ans et qui ont accès à l'ensemble de votre contenu malgré vos précautions, l'algorithme, les interventions humaines... La dernière statistique par âges que j'ai vue indiquait encore 500 000 jeunes de moins de 13 ans. Vous avez encore beaucoup d'utilisateurs mineurs qui ont déclaré un âge supérieur et que vous ne pouvez pas repérer - c'est normal, il n'y a pas encore un contrôle d'âge par double anonymisation ou autre donc vous avez énormément de mineurs qui vous ne repérez pas.

Mme Marlène Masure. - Je n'ai pas de statistiques. On va communiquer des données très précises dans le cadre du DSA sur nos audiences. On sait qu'on a la moitié de notre audience qui a plus de 25 ans, deux tiers qui a entre 18 et 35 ans. De toute façon ce n'est pas dans notre intérêt de ne pas être précis là-dessus car notre modèle publicitaire nécessite d'être plus justes sur notre audience. Ça fait partie du travail de nos modérateurs de nous assurer qu'on a un respect a minima de l'âge des treize ans, ensuite c'est compliqué de dire à un utilisateur : « tu n'as pas 19 ans, tu en as 17 ». Mais peut-être qu'on arrivera avec une réflexion collective à avoir un niveau de contrôle supérieur à celui qu'on a aujourd'hui.

À titre personnel, trouvez-vous normal que les Gafam soient interdits en Chine et TikTok autorisée partout sauf en Chine ?

Mme Marlène Masure. - Franchement je ne suis pas une experte de la Chine donc j'ai beaucoup de mal à répondre à votre question.

M. Claude Malhuret, rapporteur. - Je ne suis pas sûr qu'il faille être expert de la Chine pour avoir une opinion sur le fait que les Gafam, comme toutes les plateformes concurrentes de TikTok et TikTok, soient interdites en Chine. Les Gafam protestent contre ça mais TikTok ne proteste pas.

Mme Marlène Masure. - TikTok est interdite dans certains pays, je trouve ça très injuste aussi. Oui dans l'absolu, philosophiquement je suis pour la liberté d'usage, de parole et qu'on offre à tous les utilisateurs du monde entier le même choix. Après il y a probablement des raisons qui me dépassent et je ne suis probablement pas la personne la plus compétente pour répondre à ça.

M. Claude Malhuret, rapporteur. - Donc si vous êtes pour la liberté de parole, vous condamnez la censure lourde du PCC sur Douyin, une société appartenant au même groupe que le vôtre, et sur l'ensemble de l'internet chinois. Puisque vous êtes pour la liberté de parole je suppose que vous le condamnez ?

Mme Marlène Masure. - Je ne suis absolument pas experte du sujet de la Chine.

M. Claude Malhuret, rapporteur. - Je vous demande juste si vous condamnez ou ne condamnez pas.

Mme Marlène Masure. - Je ne connais pas cette censure. J'adore me prononcer sur les sujets que je maîtrise et que je connais, celui-là je ne connais pas. Bien sûr que philosophiquement la censure est une mauvaise chose. Après je ne me permettrais pas d'intervenir sur un sujet que je ne connais pas.

M. Claude Malhuret, rapporteur. - Vous ne connaissez pas le fait que Douyin est massivement censuré, qu'on ne peut pas trouver une vidéo sur les Ouïghours, sur le Tibet, etc ? Tout le monde le sait et vous mieux que quiconque. Je ne pense pas que vous puissiez vous réfugier derrière l'expression « je ne connais pas la situation en Chine ». Cette situation, vous la connaissez comme tout le monde : Douyin est massivement censuré, je vous demande seulement si vous condamnez ça ou pas mais visiblement vous n'avez pas l'air de le condamner.

Mme Marlène Masure. - Je ne sais pas s'il y a la censure sur Douyin, je n'ai jamais ouvert l'application Douyin.

M. Claude Malhuret, rapporteur. - Vous lisez les journaux. Vous êtes spécialiste des plateformes.

Mme Marlène Masure. - Je suis une bonne française, je suis comme Saint Thomas : je ne crois que ce que je vois et en l'occurrence l'application Douyin, je ne l'ai jamais ouverte, donc je ne sais pas s'il y a de la censure, je n'en sais rien.

M. Claude Malhuret, rapporteur. - Vous savez que TikTok est interdit en Chine ?

Mme Marlène Masure. - Je sais surtout que TikTok opère dans tous les pays du monde sauf en Chine.

M. Claude Malhuret, rapporteur. - Il n'opère pas en Chine non parce que vous l'avez décidé mais parce qu'il y est interdit. Est-ce que vous trouvez ça normal, est ce que vous le condamnez ? C'est quand même ennuyeux pour une société, cela vous prive de pas mal d'utilisateurs potentiels.

Mme Marlène Masure. - Franchement je n'ai pas le contexte sur cette interdiction.

M. Claude Malhuret, rapporteur. - Ça ne vous gène pas ?

Mme Marlène Masure. - Ce n'est pas que ça ne me gène pas, encore une fois je ne connais pas assez le dossier pour pouvoir me prononcer.

M. Claude Malhuret, rapporteur. - Le dossier des Ouïghours, vous connaissez ? Est-ce que vous condamnez ce que pas mal d'experts appellent le génocide des Ouïghours en Chine, ou en tout cas la politique de répression vis-à-vis des Ouïghours ?

Mme Marlène Masure. - En tant que citoyenne et en tant que personne oui bien sûr.

M. Mickaël Vallet, président. - Pour rester dans le sujet, j'ai posé la question ce matin à M. Garandeau, comme vous êtes tous les deux salariés de TikTok, je voudrais essayer de vérifier auprès de vous une information selon laquelle TikTok France n'a pas donné de réponse à la sollicitation de la journaliste qui a publié un texte que j'ai lu ce matin. Il s'agit de la relation avec la Chine et avec la maison-mère, selon d'anciens salariés : «  Au quotidien, ils sont en permanence en contact avec les employés chinois de ByteDance qui joue un rôle clé dans la validation des projets et des procédures ». Parallèlement, certains salariés ont été briefés sur la manière dont ils doivent parler de l'entreprise en public, selon des informations du média spécialisé Gizmodo. L'un des principaux commandements promus par le document est de contester les liens qu'entretient TikTok en Europe avec sa maison mère en Chine : « minimiser ByteDance, minimiser l'association avec la Chine, minimiser l'Intelligence artificielle » font ainsi textuellement partie des éléments à retenir de ce document. Celui-ci propose par ailleurs certains éléments de langage clé en main comme : il y a beaucoup de désinformation autour de TikTok en ce moment, la réalité c'est que TikTok n'est même pas disponible en Chine ». Vous êtes là depuis environ un an, avez-vous été confrontée à ces éléments de langage, eu en main ou été destinataire d'un document interne qui soit similaire de près ou de loin avec ce dont parle la journaliste.

Mme Marlène Masure. - Non.

M. Mickaël Vallet, président. - Je vous pose la question personnellement, vous ne pouvez pas répondre pour les autres.

J'aurais une remarque sur le temps passé. Vous nous dites qu'il y a 75% des jeunes concernés qui conservent l'alerte. Cela ne nous dit pas combien de personnes s'y conforment dans les minutes qui suivent. De la même façon, sur les infox, ce que je voudrais vous dire, c'est que, que vous ayez supprimé tant de dizaines de milliers de vidéos, que vous puissez démontrer que sur tel ou tel sujet vous avez pris soin d'invisibiliser un mot dièse ou que l'algorithme n'enferme pas les gens sur des sujets précis qui font l'objet de mésinformation, c'est une chose. Mais ce que nous n'avons pas, et il faudrait que vous ayiez une personne tierce extérieure qui puisse vous auditer pour l'objectiver, c'est combien il en reste à la fin. Vous êtes une entreprise jeune. S'il y a trois ans on a pu objectiver qu'il y avait telle proportion de désinformation en ligne - Newsguard, assez reconnue, nous dit qu'il faut 40 minutes en moyenne pour tomber sur une information fausse, une infox ou une mésinformation ; vous pourriez faire une contrexpertise ou demander à un autre de répondre à cela -, ce qui nous manque c'est le résultat à la fin. Dans des politiques publiques, ce qui compte c'est combien on a de cancers, combien de personnes se mettent à fumer, combien arrêtent... : ce sont ces questions de statistiques qui nous intéressent.

Mme Marlène Masure. - Ces éléments sont sans doute disponibles dans nos rapports de transparence, nous allons regarder car dans la mesure où la désinformation fait partie de nos règles communautaires, que nous combattons la désinformation et que donc ces contenus sont modérés par nos algorithmes et par nos modérateurs humains. À travers ces rapports trimestriels nous communiquons l'ensemble des contenus qu'on supprime, et à quelle rapidité : on a donc un certain nombre de données.

M. Mickaël Vallet, président. - Et combien il en reste ? Il n'y a rien d'infâmant à avoir subi une cyberattaque ou à avoir été victime d'un porte dérobée, ce sont des sujets sur lesquels il faut communiquer pour que ça bénéficie aux autres. Il n'est pas possible, avec un milliard et demi d'utilisateurs, que vous n'ayez pas de ces contenus de désinformation. Personne ne vous demanderait le zéro faute, mais de savoir que tout est mis en oeuvre et que vous progressez est un élément essentiel. Est-ce que vous payez des journalistes pour qu'ils fassent des contenus sur TikTok ?

Mme Marlène Masure. - Non, ce n'est pas notre modèle. Une personnalité publique va venir sur la plateforme parce qu'elle a un enjeu de visibilité, pour vendre un livre, faire connaître un spectacle.

M. Mickaël Vallet, président. - Pour répondre à la question posée par un journal la semaine dernière, le Monde ou Mediapart, par exemple, quand un journaliste qui est sur le service public, sur Inter et sur France 5, qui fait par ailleurs de très bonnes émissions, lorsqu'Augustin Trapenard publie autant de vidéos qu'il en publie sur TikTok en expliquant (je suis allé regarder) : « TikTok permet ceci ou cela », ce qu'il en retire c'est la visibilité, c'est un échange de procédés entre la visibilité pour la personne publique et la qualité du contenu pour vous ?

Mme Marlène Masure. - Augustin Trapenard a compris qu'il ne fallait pas opposer les modèles et que grâce à TikTok on pouvait faire lire des jeunes. Donc il est arrivé très naturellement sur la plateforme, et effectivement, parce que c'est un super ambassadeur, qu'il est crédible et qu'il est juste dans ce qu'il fait, qu'on a décidé de le faire parler dans notre campagne de communication sur BookTok. On a donc eu une campagne de marque, et dans le cadre de cette campagne publicitaire, pour le coup, il a été rémunéré. Mais on a choisi Augustin parce qu'il était présent sur la plateforme et qu'il était crédible sur le sujet du livre, donc ensuite il est arrivé dans une campagne marketing, mais ce n'est pas l'inverse qui s'est produit.

M. Mickaël Vallet, président. - Qu'appelez-vous campagne publicitaire ?

Mme Marlène Masure. - On a acheté du média pour un certain montant, on a fait un spot télé dans lequel on explique BookTok.

M. Mickaël Vallet, président. - Là c'est vous qui achetez du temps sur d'autres médias. C'est expliqué dans certains ouvrages sur TikTok : il y a quelques plateformes qui ont regretté après coup...

Mme Marlène Masure. - On achète sur Instagram, sur Youtube, toutes les plateformes.

M. Mickaël Vallet, président. - Donc dans ce cadre-là vous avez fait une campagne pour BookTok et ce journaliste a été payé pour cette campagne. Je comprends qu'il nait pas voulu répondre : même si ce que vous décrivez est dans un cadre précis, je comprends son enthousiasme.

Mme Marlène Masure. - Il faut refaire l'histoire. Augustin Trapenard est arrivé sur la plateforme comme plein d'autres, comme Joël Dickers, Antoine Dupont, plein d'athlètes, Eric et Ramzy : ils y viennent parce qu'on est un média et un outil au service de plein de choses. La grande librairie a son compte sur la plateforme, Libération arrive, le Monde fait un travail formidable sur la plateforme.

M. Mickaël Vallet, président. - Si vous étiez taquine, vous pourriez même parler de certaines institutions parlementaires.

Mme Marlène Masure. - Je n'osais pas vous faire l'affront, mais on a adoré leur contenu.

M. Mickaël Vallet, président. - Mais nous nous ne sommes pas payés pour, c'est la différence.

Mme Marlène Masure. - La trend Wes Anderson était bien trouvée : c'est la tendance du moment.

M. Mickaël Vallet, président. - Il est important pour les gens de savoir, quand il y a la moindre mention « publi-reportage » dans la gazette locale, qui est payé pour dire du bien, qui n'est pas payé pour dire du bien. Monsieur Trapenard n'est pas payé quand il s'enflamme dans ses vidéos TikTok pour Booktok, mais « ça a eu payé »...

Mme Marlène Masure. - C'est une indemnisation sommes toutes modeste dont vous pourrez probablement avoir le montant.

M. Mickaël Vallet, président. - Je ne le demande pas.

Mme Marlène Masure. - Il faut rétablir les faits : il a été choisi car il est crédible, parce que cela fait longtemps qu'il publie des choses de qualité, qu'il a des relations intéressantes avec des créateurs BookTok qui ont d'ailleurs fait sensation au festival du livre de Paris. On a 60 maisons d'édition sur la plateforme, qui aujourd'hui sont crédibles sur le sujet. Augustin a été choisi pour notre campagne de communication car il est crédible sur le sujet. Il ne fait pas des contenus TikTok forcé.

M. André Gattolin. - C'est un sujet qui me préoccupe : la question de cybersécurité externe de l'application et de TikTok. Il y a quelques semaines, Pinduoduo s'est retrouvée avec un Malware qui permettait à certaines personnes d'extraire des données de l'extérieur. Est-ce qu'aujourd'hui TikTok se risquerait à transférer illicitement ses données vers la Chine : les conséquences commerciales seraient lourdes. La question est celle de la vulnérabilité de tous les supports et bases de données aux attaques extérieures. Les données personnelles sont l'or blanc de l'économie actuelle. Quels moyens mettez-vous pour la sécurité ? Êtes-vous victime d'attaques et êtes-vous capables de les contenir, les signalez-vous à l'ANSSI ? Ce n'est pas une honte. Pendant longtemps on craignait le préjudice d'image. Tous les jours en France des données s'envolent. Je crois de bonne foi les dirigeants quand ils disent qu'ils ne transfèrent pas et respectent les règles internationales, mais la question est la capacité à protéger ses données ?

Mme Marlène Masure. - C'est une question technique, je ne suis pas experte, mais j'ai le sentiment qu'avec la mise en place du projet Clover que vous a expliqué Eric Garandeau ce matin, avec la souveraineté numérique, avec un tiers de confiance qui sera annoncé prochainement et va sécuriser tout le stockage de données personnelles en Europe, on va aussi cranter quelquechose en matière de cybersécurité. Ceci concerne toutes les entreprises aujourd'hui, ce serait bien improbable que ce ne soit pas un sujet chez nous également, mais n'étant pas experte je ne me hasarderais pas sur une réponse incomplète.

M. André Gattolin. - Pinduoduo, une grande entreprise très soucieuse de cybersécurité, s'est retrouvée chargée d'un Malware.

M. Mickaël Vallet, président. - Depuis que vous êtes là, vous n'avez pas eu connaissance d'attaque massive ou très préjudiciable qui aurait touché TikTok ?

Mme Marlène Masure. - Depuis mon arrivée chez TikTok je n'en ai jamais entendu parler. Dans la mesure où les API ne sont ouvertes que pour les chercheurs aujourd'hui, vous minimisez les risques : vos risques cybers sont plus importants quand vous avez plus d'API ouvertes.

M. André Gattolin. - À quel niveau se passe la sécurité globale ?

Mme Marlène Masure. - Je vais vérifier cette information. J'ai envie de vous dire à celui de Cormac Keenan en Irlande. Je préfère vérifier.

M. Mickaël Vallet, président. - Souhaitez-vous ajouter quelque chose ?

Mme Marlène Masure. - On a assez peu parlé de contenus. Les équipes de TikTok en France sont vraiment mobilisées sur l'accompagnement des marques, sur des secteurs prioritaires que sont la musique, le sport, le divertissement, l'art de vivre, les contenus éducatifs et notre engagement est sincère. Quand on choisit des événements auxquels s'associer, festival du livre de Paris ou festival de Cannes, qu'on soutienne Roland Garros ou le Tour de France, le Major de Counterstrike, ce sont des engagements sincères et portés par une compréhension de notre communauté et de ce qu'elle attend. Vous avez le droit de ne pas me croire mais je voulais quand même vous le dire parce que c'est ce qui anime le travail des équipes, mobilisées à faire croître cet écosystème et cette communauté d'utilisateurs avec des contenus toujours plus qualitatifs, toujours plus engageants, plus pertinents. C'est ce qui nous anime au quotidien.

M. Mickaël Vallet, président. - Merci de nous envoyer les éléments écrits sous 8 jours.

Audition de M. Christophe Deloire, secrétaire général et directeur général de de Reporters sans frontières (RSF), le 12 juin 2023

M. Mickaël Vallet, président. - Chers collègues, nous entendons cet après-midi Christophe Deloire, secrétaire général de Reporters sans frontières.

Monsieur Deloire, après avoir exercé des fonctions dans divers medias come Arte ou Le Point, vous avez été directeur et vice-président du Centre de formation des journalistes (CFJ) de 2008 à 2012. En juillet 2012, vous êtes devenu secrétaire général de Reporters sans frontières (RSF). Pour rappel, RSF est une organisation non gouvernementale internationale fondée en 1985, reconnue d'utilité publique en France, présente en 2020 dans 14 pays. Elle se donne notamment pour objectif la défense de la liberté de la presse et la protection des sources des journalistes.

En mars 2021, RSF a déposé plainte contre Facebook au motif que le réseau social s'adonne à « des pratiques commerciales trompeuses », dans la mesure où la prolifération de messages haineux ou les fausses informations relayées sur la plateforme viole selon vous les engagements de Facebook vis-à-vis de ses utilisateurs.

Plus généralement, vous avez développé un ensemble de recommandations à la fois juridiques et pratiques destinées à rendre le fonctionnement des plateformes plus conforme aux grands principes qui doivent encadrer l'information dans une société démocratique, et à lutter contre la désinformation. Vous pourrez nous dire si ces recommandations s'appliquent à TikTok et de quelle manière.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat. Avant de vous laisser la parole, je vais procéder aux formalités d'usage pour les commissions d'enquête. Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

M. Deloire lève la main droite et dit « Je le jure ».

Vous avez la parole.

M. Christophe Deloire, secrétaire générale de Reporters sans frontières. - Merci beaucoup, monsieur le Président, pour votre présentation. J'apporterai un complément pour préciser d'où je parle.

Le mandat de Reporters sans frontières est de défendre le journalisme ; le journalisme étant entendu comme un ensemble de droits et de devoirs, les uns et les autres étant également importants. La vision de notre organisation est de faire en sorte que les êtres humains puissent bénéficier autant que possible d'informations fiables leur permettant de faire des choix individuels ou collectifs.

La Chine est évidement un pays extrêmement important pour notre organisation. Elle est aujourd'hui classée à l'avant-dernière place du classement mondial de la liberté de la presse, la 179ème sur 180 pays. Il n'y a que la Corée du Nord derrière. Plus de 100 journalistes y sont incarcérés à l'heure actuelle et encore cette statistique ne rend-elle pas totalement compte de l'intensité du système de répression et du système de propagande mis en place en Chine. Ainsi, à Hong-Kong, Jimmy Lai, le seul grand patron de la presse indépendante qui demeurait, a été placé en en en détention, malgré son grand âge.

Nous avons publié plusieurs rapports sur la Chine. J'en citerai deux. En 2021, nous avons publié Le grand bond en arrière des médias. Très clairement, la Chine durcit son système de répression, depuis l'accession au pouvoir de Xi Jinping, par rapport à la période précédente du président Hu Jintao. Nous avions publié préalablement 2019 un rapport intitulé Le Nouvel ordre mondial des médias selon Pékin. Pékin est un régime qui, non content de réprimer le journalisme et plus largement l'information indépendante, entend changer l'ordre mondial de l'information. Il s'y adonne par des moyens divers et variés qui vont d'une opération bien nommée « tapis rouge », consistant à inviter des journalistes étrangers pour leur apprendre le journalisme aux caractéristiques chinoises, à des méthodes relevant de la diplomatie d'influence dans les organisations internationales en charge de ces questions.

Je commencerai mon intervention en tentant de répondre rapidement à deux questions : qu'est-ce qu'une plateforme numérique ? Deuxièmement qu'est-ce que TikTok pour nous ?

A ce stade, vous connaissez mieux TikTok que nous. J'aborderai donc plutôt des questions générales, notamment sur les logiques de régulation. De notre point de vue, très clairement, une plateforme numérique n'est ni un hébergeur ni un éditeur. Il convient, peu à peu, de distinguer un 3ème statut. On ne saurait parler d'un hébergeur dès lors que le travail d'une société comme TikTok n'est pas neutre. Les algorithmes de curation et de recommandation organisent ce qu'on voit, ce qu'on voit moins, et ce qu'on ne voit pas du tout. Il ne s'agit pas non plus d'un média puisque les plateformes ne produisent pas de contenu et ont une taille qui dépasse largement la taille des médias. Bref, de notre point de vue, ces entités structurantes organisent l'espace public. Ce n'est peut-être pas le lieu pour le dire mais, d'une certaine manière, les grandes plateformes numériques ont remplacé le Parlement. Code is law : le code, c'est la loi. Elles édictent des règles qui sont l'équivalent des lois sur la distribution de l'information autrefois été adoptées par le Parlement. Elles remplacent la justice puisqu'elles appliquent leurs propres règles. Elles remplacent les administrations puisque certaines d'entre elles allouent des fonds, y compris aux médias, à leur manière toute discrétionnaire et sans considération pour des principes démocratiquement admis.

Plus que cela, elles exercent un ministère de la vérité. Les plateformes ont encore la possibilité de prendre des décisions sur des aspects éditoriaux. C'est Facebook qui a décidé pendant longtemps que le virus n'était pas sorti des laboratoires de Wuhan. Je précise que je ne sais pas d'où est sorti le virus. Mais Facebook le savait et l'avait imposé à ses algorithmes. TikTok, comme des révélations du Guardian en 2019 ont permis de l'établir, interdisait qu'il soit question de certains faits pourtant historiquement avérés. C'est exactement ce qu'on appelle un ministère de la vérité.

Les plateformes numériques devraient selon nous être considérées comme des services d'intérêt général, des public utilities. Elles devraient être traitées, d'une certaine manière, comme des délégataires de service public et des obligations devraient leur être imposées comme à tout délégataire de service public. La question est celle aussi de leur responsabilité. De notre point de vue, la législation européenne déjà adoptée ou en cours n'a pas réponse à tout.

Qu'est-ce que TikTok ? C'est évidemment un enjeu ou un danger pour la démocratie. C'est un service privé pour créer des influenceurs et les pousser à la consommation. Je ne prendrai qu'un exemple récent : il semble que TikTok a laissé diffuser des contenus sponsorisés et des publicités politiques pour des marques de trottinettes en libre- service, dans lesquels des créateurs de contenus appelaient à se mobiliser et à voter contre l'interdiction des trottinettes en libre-service à Paris. Ce n'était peut-être pas le plus grand exercice démocratique qui soit, mais cela montre ce qu'une entité comme TikTok peut faire et le rôle qu'elle peut jouer. C'est un enjeu pour les libertés publiques. Je renvoie à toutes les questions qui ont déjà été évoquées devant comme votre commission en matière de surveillance. C'est un enjeu pour les médias en termes de marché et d'audience : pour s'adresser à une audience jeune, certains médias vont sur TikTok. C'est un enjeu pour la liberté de la presse : BuzzFeed avait révélé en juin 2022 - ce que TikTok a reconnu - que des ingénieurs de sa société-mère avaient accédé à des informations sur des sources journalistiques. Il faut d'ailleurs reconnaître à TikTok de souvent reconnaître ce qui s'est passé. La société a indiqué que c'était exceptionnel et lié à des « brebis égarées ».

TikTok n'est pas la seule plateforme qui peut, a pu, poser des questions en matière de surveillance. Edward Snowden nous en avait suffisamment appris sur le programme PRISM américain. Même si je ne renvoie évidemment pas dos à dos Washington et Pékin, il convient de ne pas considérer que le problème de la surveillance via les plateformes se limiterait à TikTok. TikTok ne doit pas être le paratonnerre qui empêche de s'intéresser aux autres plateformes. Néanmoins, il y a des spécificités. En matière de respect des principes démocratiques et de conformité des plateformes au principe démocratique, la question qui se pose est celle de la charge de la preuve. Est-ce aux autorités et à la justice d'établir que des infractions sont commises ? Ou est-ce aux plateformes elles-mêmes d'établir a priori, grâce notamment à un dispositif de transparence, qu'elles respectent des principes démocratiquement admis ?

La législation est en cours, notamment au niveau européen. Les DSA/DMA sont des avancées notables mais souffrent d'un certain nombre de fragilités. Le DSA porte plutôt sur la modération que sur les algorithmes de recommandation. Il s'intéresse plutôt à la distinction entre le champ du licite et de l'illicite plutôt qu'à l'organisation du licite. Or, la construction démocratique s'est faite sur l'organisation du champ du licite et la promotion de formes d'intégrité dans le licite, par la régulation des médias, par la distinction entre la publicité et les contenus journalistiques. Ce n'est manifestement pas les points de force du DSA. La question des messageries n'y est pas traitée non plus.

S'agissant d'un sujet central qui est la question de la fiabilité de l'information, il y a eu un test avec le code des bonnes pratiques contre la désinformation de la Commission européenne. Un engagement était attendu des plateformes dans un texte qui n'est pas hostile aux plateformes et qui a été abondamment négocié avec elles. Un engagement 22.6 portait sur les indicateurs de fiabilité. Ce code demande aux plateformes numériques de s'engager à proposer à leurs audiences des indicateurs de fiabilité. Il s'agit d'un engagement extrêmement faible, disons-le. Nous pensons quant à nous qu'il doit être tenu compte de la fiabilité de l'information dans l'indexation algorithmique elle-même. Malgré cet engagement faible, une seule plateforme l'a alors signé, Microsoft. TikTok n'a donc pas fait partie des signataires.

Reporters sans frontières a lancé des initiatives, qui peuvent nourrir nous semble-t-il vos travaux. Je citerai trois éléments. Nous avons d'ailleurs fourni une note à l'appui de cette intervention.

La régulation suppose des niveaux de granularité. C'est pourquoi nous avons lancé le Partenariat international sur l'information et la démocratie, regroupant 50 États. Nous avons formulé des centaines de recommandations dont certaines peuvent, je crois, nourrir votre commission et que nous tenons à votre disposition. Nous avons des propositions sur les messageries privées, sur la modération, sur la promotion de la fiabilité de l'information, ou encore sur les régimes de responsabilité des comptes de réseaux sociaux.

Je citerai aussi la Journalist Trust Initiative, fondée sur une norme européenne, avec des audits externes des médias et un dispositif de certification. Son objectif est de promouvoir la fiabilité de l'information sans décision discrétionnaire ni des États, ni des plateformes. Nous voyons de grandes avancées. D'abord parce que le European Media Freedom Act, actuellement sur la table à Bruxelles, l'intègre. Par ailleurs, une plateforme est en train d'avancer sur le sujet, et nous devrions faire une annonce bientôt. Elle n'est malheureusement pas l'une des plateformes ayant le plus d'abonnés. Des médias perçoivent désormais l'intérêt de démontrer qu'ils s'astreignent à des obligations pour trouver légitimement une place plus grande dans l'espace public.

Un enjeu majeur subsiste : imposer aux plateformes numériques d'amplifier la visibilité des médias qui démontrent leur fiabilité, sur la base de leurs processus et non des contenus. Cela trouvera-t-il sa conclusion dans le European Media Freedom Act ou bien cela sera-t-il intégré plus tard dans la loi nationale ? Près de la moitié des États européens y sont favorables. Une partie du Parlement y est favorable. Bref, c'est encore un combat à mener à Bruxelles mais il pourrait être intégré demain sur plan national dans une régulation nationale. Si l'on n'arrive pas à mettre ce principe au coeur des algorithmes, - ce qui est le cas de TikTok - alors on accepte que notre espace public soit soumis à une logique marchande. Il y a un combat majeur à mener sur ce point.

Mon troisième point concerne la manière dont les démocraties gèrent la globalisation de l'espace de l'information et de la communication. Se pose ainsi la question des limites des espaces publics. Il faut à la fois éviter une fragmentation de l'espace international, qui consisterait à revenir de façon regrettable à des espaces nationaux, et une symétrie entre les dictatures et les démocraties, qui favoriserait la dictature. Nous avons formulé une proposition de système de protection des espaces informationnels démocratiques, permettant d'aller le sens d'une plus grande ouverture mutuelle mais permettant aussi aux démocraties de se défendre sur la base d'un système de réciprocité intégrant les principes universels de la liberté d'expression. La semaine dernière, les commissions Ingérence étrangère et Affaires étrangères du Parlement européen l'ont recommandé. C'est une proposition que nous mettons sur la table.

Je crois que l'objectif des démocraties ne doit pas être de tout traiter par l'exception à la liberté d'expression mais en revanche de renforcer au coeur de l'espace public et donc au coeur des algorithmes toutes les sources d'information réputées fiables - quel que soit leur statut - qui en font la démonstration. Cela aura pour effet incident mais important de renvoyer vers les marges tous ceux qui ne respectent aucun de ces principes, qui véhiculent de la haine, propagent des rumeurs, relaient des manipulations de propagande et qui voient des complots partout. Les complots existent mais il y en a sans doute moins que ne le croient certains.

M. Claude Malhuret, rapporteur. - Merci beaucoup pour votre introduction et de nous avoir fait parvenir avant cette audition un certain nombre de documents et de propositions.

S'agissant du DSA, vous estimez qu'il s'agit d'un premier pas intéressant, comme l'avait été le RGPD. Mais vous précisez également que le DSA vous parait insuffisant. Dans quelques semaines, le Sénat comme l'Assemblée nationale vont être appelés à se prononcer sur un projet de loi présenté par le ministre du numérique, qui consiste schématiquement à transposer le DSA. Ce serait l'occasion pour nous de suivre un certain nombre de vos recommandations et de les proposer en amendements à ce projet de loi. Mais il se trouve que le procureur de la Cour de justice européenne vient de donner son avis sur un litige qui oppose les principales plateformes (Facebook, Google et TikTok) à la Commission européenne. Le jugement devrait être rendu sans doute dans quelques semaines ou quelques mois. Le procureur estime que la transposition du DSA dans les différents droits européens ne saurait aller au-delà des articles contenus dans le DSA. Au cas où la Cour de justice européenne suivrait l'avis du procureur, nous ne pourrons absolument pas proposer des amendements qui iraient au-delà du DSA. Dans ces conditions, les propositions que vous faites ont assez peu de chances d'être retenues... Peut-être est-il encore temps d'alerter les juges de la Cour de justice européenne. C'est pour moi un problème important.

Par ailleurs, le DSA et les négociations au sein de l'Union européenne prévoient que les régulateurs nationaux (en France l'ARCOM et la CNIL essentiellement) vont être dépossédés de leurs pouvoirs d'enquête et de sanction. Cette dépossession sera totale pour l'ARCOM et partielle pour la CNIL. Elles pourront toujours être saisies par des plaignants ou par des gouvernements mais la plainte sera désormais transmise pour les 27 pays de l'Union européenne à la Data Protection Commission (DPC) irlandaise qui sera le juge en dernière instance. Ce juge devra évidemment consulter les 27 régulateurs européens mais il sera souverain. On en a d'ailleurs l'exemple dès aujourd'hui avec une décision sur TikTok qui doit être prise dans le courant de l'été. Cette décision a fait l'objet de remarques d'un certain nombre de régulateurs, que la DPC - d'après mes informations - semble avoir choisi de ne pas suivre. Cette transmission des plaintes à la DPC me parait problématique car la DPC a beaucoup de raisons de se montrer beaucoup plus tolérante par rapport aux plateformes. TikTok a sa maison mère européenne en Irlande et va réaliser des investissements de centaines de millions d'euros dans ce pays avec le projet Clover.

En transmettant les plaintes à la DPC, nous nous coupons, dans une très grande mesure et pratiquement définitivement et totalement, d'une possibilité de régulation. Sur le fond du dossier, je suis européen et je pense que ce genre de sujet doit se traiter à un niveau européen. Mais l'ampleur des délégations et le fait de les confier à un régulateur qui n'a pas fait la preuve d'une très grande fermeté sur les sujets du numérique m'interroge. Je voulais donc vous demander votre avis sur ces deux sujets.

M. Christophe Deloire, secrétaire générale de Reporters sans frontières. - Je répondrai en étant conscient que je ne suis pas juriste et donc que mes réponses ne porteront pas sur le droit stricto-sensu.

Quand on a vu l'intensité et la diversité des méthodes de lobbying des plateformes, ne serait-ce qu'au moment de l'adoption de la directive sur les droits voisins, on ne peut que s'inquiéter de leur capacité de lobbying après l'adoption de la loi, au moment de sa mise en oeuvre. Il serait dangereux de mettre tous ses oeufs dans le même panier, a fortiori quand il s'agit de l'organe de régulation d'un pays qui a démontré combien ses intérêts économiques étaient attachés aux intérêts des plateformes. Quelle que soit l'indépendance affichée des organes de régulation, il y a toujours lieu d'avoir une forme de suspicion sur leur indépendance réelle. Je ne parle pas de cet organe de régulation en particulier, que je ne connais pas, mais il y a de manière générale un danger extrêmement fort.

Je ne sais pas ce que sera la décision de la Cour de justice européenne. J'espère que la régulation ne s'arrêtera pas là. Il y a deux types de régulation : la régulation de contenus et la régulation de moyens. La régulation de contenus a sa légitimité mais elle doit être limitée. On ne répondra pas à beaucoup de problèmes en accroissant la régulation de contenus. Il y a eu des volontés en Europe d'extraire de l'espace numérique des contenus licites mais dangereux ; ce serait de fait une attitude extrêmement dangereuse. En termes de régulation de moyens, il serait dommage de se priver de régulation plus avancée. Je rappelle que le DSA laisse aux plateformes apprécier le risque systémique qu'elles posent elles-mêmes. Cela revient un peu à demander à Monsanto de dire si ses propres produits sont dangereux...

Il s'agit d'une question fondamentalement démocratique. Je ne sais pas ce qu'en dira la cour de Karlsruhe pour l'Allemagne, qui est plus stricte que dans d'autres pays sur ces questions. Mais il semble que sur des questions aussi importantes du point de vue démocratique, transmettre les plaintes à un organe de régulation d'un pays tiers pouvant être soumis à des influences fortes est un jeu assez risqué.

M. Claude Malhuret, rapporteur. - Vous expliquez également que la réglementation des plateformes numériques suppose d'inventer un troisième statut entre celui d'hébergeur dénué de responsabilité et celui d'éditeur doté d'une responsabilité et d'une liberté éditoriale. RSF propose que les plateformes soient considérées - vous venez de le rappeler - comme des services d'intérêt général, également appelé public utilities, et soumises aux régimes de responsabilités qui en découlent. Cette réflexion rejoint la nôtre et va peut être encore plus loin. Le Sénat a voté, après en avoir discuté à plusieurs reprises en commission de la culture dont était présidente jusqu'à une date récente Madame Morin-Desailly, un amendement que j'avais proposé. Cet amendement prévoyait qu'à partir du moment où une plateforme organisait une curation par algorithme ou par un autre procédé informatique, il n'était plus un simple hébergeur. Il avait une vocation éditoriale et par conséquent il devenait un éditeur, ce qui emportait un certain nombre de responsabilités. Cet amendement a été voté à l'unanimité au Sénat contre l'avis du gouvernement, à l'époque. Mais il n'a jamais été présenté à l'Assemblée nationale.

La proposition que vous faites est une proposition intermédiaire qui me paraît intéressante. Ces plateformes sont en effet dans une situation intermédiaire entre les deux statuts. Malheureusement, le DSA a choisi, notamment à la suite du lobbying extrêmement fort des GAFAM et des BATX (Baidu, Alibaba, Tencent et Xiaomi), de ne pas retenir cette solution. Estimez-vous que la solution proposée par le DSA réponde en tout ou en partie à la solution que vous proposez ?

M. Christophe Deloire, secrétaire générale de Reporters sans frontières. - Le DSA a posé un cadre et la question se pose maintenant de l'utilisation de ce cadre. Il est assez difficile de prévoir la mise en oeuvre du DSA. Sera-t-elle très scrupuleuse ? Les personnes en charge de l'application du DSA auront-elles accès à suffisamment de données ? Auront-elles les capacités de statuer ? Quelle sera la fermeté dans l'imposition des principes démocratiques ? Tout cela est difficile à déterminer. Je ne dirai néanmoins pas que le DSA a refusé d'entrer dans cette logique de troisième statut. Au contraire, le DSA est peut-être une forme d'engagement dans cette logique, même si ce n'est pas précisé comme telle. Le DSA ne maintient pas la logique d'hébergeur et ne présente pas non plus les plateformes comme des médias.

Nous pensons que les plateformes numériques ne devraient pas être considérées comme des éditeurs parce que le principe d'un éditeur est d'abord d'être un acteur dans le cadre d'un pluralisme général. Un éditeur est responsable de ses contenus et il est responsable de statuer sur la présence de contenus illicites. Mais surtout, dans le cadre du pluralisme, il a le droit de décider de ce qu'il y a sur sa plateforme. Faire de Mark Zuckerberg, du patron de TikTok ou d'autres l'équivalent d'un éditeur reviendrait à leur accorder le droit d'avoir une ligne éditoriale. Ils pourraient alors décider de retirer ce qui ne leur convient pas. Ce serait leur conférer un pouvoir que sans doute nous n'avons pas envie de leur confier.

Dans le cadre des discussions de l'European Freedom Act, les réflexions se poursuivent pour déterminer dans quelle mesure les plateformes sont autorisées à prendre des décisions sur les contenus des médias. Cela est potentiellement extrêmement dangereux que des acteurs aussi importants, dotés d'un tel pouvoir puissent prendre des décisions relevant de choix éditoriaux. Puisque les plateformes numériques sont des bouts d'espace public, nous pensons qu'il faut précisément leur donner des formes de neutralité, par exemple sur les questions politiques, idéologiques, religieuses. Cette neutralité doit aussi s'appliquer vis-à-vis de leurs propres intérêts. Tous les jours en ce moment, quand j'ouvre mon Twitter, je tombe sur un tweet d'Elon Musk. Il semble que Twitter pousse ce tweet. Twitter se comporte clairement comme éditeur. Il faut des obligations de moyens très fortes, qui soient adaptées à ce que sont les plateformes, c'est-à-dire non pas une équipe produisant un contenu pour un lectorat mais bien un organisateur de notre espace public.

M. Claude Malhuret, rapporteur. - Au sujet de la transparence des algorithmes, vous précisez dans la note que vous nous avez transmise que « les exigences de transparence doivent cibler les fonctions essentielles de toutes les plateformes de l'écosystème de l'information publique : modération du contenu, classement du contenu, ciblage du contenu et renforcement de l'influence sociale ». Vous appelez également à « l'application de principes de transparence et d'explicabilité dans la modération automatisée » - donc algorithmique j'imagine -, et à ce que les utilisateurs soient « informés des biais des algorithmes et de leurs modèles d'entraînement, du taux de faux-positifs et de faux-négatifs des algorithmes. Ils doivent également avoir accès aux données d'entraînement des algorithmes. Les plateformes doivent être tenues responsables des torts causés par leurs algorithmes ». Dans ce que vous savez aujourd'hui du DSA, les propositions satisfont-elles à cette demande de votre part ? Nous sommes encore très en retard s'agissant de la transparence des algorithmes.

M. Christophe Deloire, secrétaire générale de Reporters sans frontières. - Il nous semble que ce qui est requis du DSA est plus une transparence sur des intentions qu'une véritable transparence attendue des plateformes. Il s'agit d'un affichage. Dès lors que « le code, c'est la loi », la loi doit être transparente. Peut-être faudra-t-il inventer des dispositifs qui permettent d'avoir une transparence soumise seulement à des organes de régulation statuant en étant eux-mêmes soumis à des formes de secrets. En tout cas, de notre point de vue, il doit y avoir une transparence la plus absolue vis-à-vis des institutions démocratiques chargées des vérifications. A défaut, ce n'est pas de la transparence.

M. Claude Malhuret, rapporteur. - C'est une réponse tout à fait nette, qui trancherait, si elle était appliquée, avec l'opacité actuelle de tous les algorithmes en général, mais a fortiori de celui de TikTok, développé et amélioré en Chine.

Avez-vous identifié sur TikTok des pratiques non déontologiques du type désinformation/mésinformation, censure ou vol de documents retransmis directement sur la plateforme sans contrat et sans paiement de droits ?

M. Christophe Deloire. - Nous n'avons pas lancé d'étude sur le sujet, je suis donc incapable de vous répondre.

Mme Catherine Morin-Desailly. - J'ai plusieurs questions dans le prolongement des questions très pertinentes du rapporteur. Nous avons tous bien conscience que le DSA est une étape, mais que celle-ci est forcément un peu frustrante et insuffisante. Dans les rapports que nous avons faits sur le DSA et le DMA, nous avons cherché au Sénat au sein de notre commission des affaires européennes à amplifier cette législation qui nous est proposée.

Pour aller dans le sens de la responsabilisation des plateformes, ne croyez-vous pas en réalité que nous serons de toute façon amenés à migrer vers un autre type de plateformes, vertueux par son modèle économique ? Cela revient à questionner la publicité ciblée, et donc à questionner la construction de l'algorithme pour aller chercher toujours plus de clics rémunérateurs et enfermer les utilisateurs dans des bulles de certitudes ou de vérité et dans des comportements de consommateurs. Selon vous, pensez-vous qu'un modèle d'abonnement, qui permettrait de réguler différemment cet espace public d'un point de vue économique, serait viable ?

Ma deuxième question porte sur les journalistes. Vous avez évoqué les journalistes emprisonnés en Chine. Avez-vous des témoignages sur la façon dont leur publication s'inscrive dans l'espace numérique ? Pouvez-vous nous expliquer concrètement comment se traduisent les censures de leurs articles ? On aurait besoin d'en savoir un peu plus pour comprendre comment la relation aux plateformes, et singulièrement à TikTok, peut ou ne peut pas se construire.

M. Christophe Deloire. - S'agissant de votre question sur un modèle économique vertueux des plateformes, celui-ci n'a pour l'heure pas encore été inventé. Les sociétés relevant du capitalisme de surveillance, décrites par Shoshana Zuboff dans son livre L'âge du capitalisme de surveillance, dominent actuellement. Elles ont l'avantage de non seulement avoir une vision claire de ce que nous sommes et faisons mais en plus de pouvoir prédire nos comportements. Ce capitalisme de la prédiction a un potentiel de manipulation globale, qui assure des positions dominantes à ces sociétés. Elles sont d'autant plus dominantes que le stock d'informations accumulées leur donne un tel avantage concurrentiel qu'il est difficile à de nouveaux entrants de se faire une place sur le marché. Dès lors que le coeur même de la machine, ou l'objet de la société, est d'organiser l'information et que la société tire des revenus de cette organisation, alors il y a une soumission du modèle même à une logique marchande, par définition. Le modèle alternatif n'a pas été trouvé. Pour s'assurer que les sociétés le trouvent ou le respectent, il faudra leur poser des formes de principe.

Je suis sidéré par la confiance qu'on a pu faire aux plateformes s'agissant de la lutte contre la désinformation. Elles ont demandé à ne pas être régulées, assurant s'en occuper elles-mêmes. On voit quelques années plus tard ce qu'il en est. Leurs actions en la matière ont consisté en du blanchiment, allouant des fonds à des médias de fact checking, pour donner l'impression d'agir. Tout cela permettait de ne pas atteindre le coeur du système. Il ne fallait pas toucher au système, les plateformes faisant en revanche des chèques à droite et à gauche. Dès qu'il s'agit d'aller toucher au coeur du système et que leurs intérêts sont en jeu, les plateformes refusent. Il y a quelques jours, YouTube a annoncé qu'il ne s'attacherait plus à empêcher la diffusion des contenus de désinformations dans la perspective de l'élection présidentielle américaine de 2024. Ces gens-là jouent avec le feu. Il me semble qu'aujourd'hui aucun des plus grands réseaux sociaux n'a mis en place des mesures systémiques. Aucun d'entre eux n'a limité les dividendes pour ses actionnaires afin de sauver la démocratie ; il n'y a même pas eu un déplacement de curseur dans l'arbitrage, tout est du côté de l'avantage économique.

Je n'ai pas d'informations extrêmement précises sur les censures des journalistes chinois dans le domaine du numérique. Nous pourrons vous fournir les deux rapports que nous avons publiés. Lorsqu'il y a une bulle d'expression sur l'internet chinois, elle est immédiatement réprimée. Les choses disparaissent comme par enchantement. Il en est de l'internet chinois comme de l'économie chinoise : c'est un théâtre d'ombres où le Parti communiste chinois n'est jamais bien loin. Je vous renvoie d'ailleurs à un livre du journaliste britannique Richard McGregor, The Party, qui montrait bien qu'il n'existait pas d'économie privée chinoise. Tout le secteur privé relève en réalité d'un contrôle d'État. Cela ne permet pas de porter des accusations sur le cas de TikTok en particulier. Votre commission est sans doute confrontée à la question des preuves s'agissant du contrôle de Pékin sur TikTok. Mais, encore une fois, à qui doit revenir la charge de la preuve ? L'organisation du système politique chinois et de l'ensemble de l'espace de l'information chinois est un espace de contrôle.

Mme Marie Mercier. - Nous avons appris lors d'une audition que TikTok finançait certains grands événements culturels comme le festival de Cannes ou le Salon du livre. J'aurais aimé que vous nous donniez votre sentiment sur ce sujet. Pensez-vous qu'il est grave voire gravissime d'en arriver à cela ?

M. Christophe Deloire. - Je ne voudrais pas être dans une forme de subjectivité trop grande. Le stand BookTok au salon du Livre démontre une forme de soft power de TikTok et prouve l'influence de ses recommandations en matière éditoriale pour faire vendre des livres. Ce ne sont sans doute pas les livres que nous lisons, mais ceux-ci ont des audiences extrêmement grandes. Je dirais que ce n'est pas le point central mais cela fait partie des opérations de lobbying, comme les plateformes en font. Quand j'ai pris mes fonctions au sein de Reporters sans frontières, j'ai découvert que nous avions une grande diversité de financements. Le seul qui a tenté de me tordre le bras était une entreprise du numérique américaine. Il était le seul à essayer de nous influencer à travers ces financements. Je crois qu'il y aura une histoire à écrire des opérations de lobbying et de l'influence via la capacité financière des sociétés technologiques. Ce que vous venez d'évoquer sur les partenariats culturels fera surement l'objet d'une partie de chapitre.

M. Mickaël Vallet, président. - Avant de passer la parole à André Gattolin, je vais me faire l'avocat du diable pour permettre de mieux identifier les problèmes aigus et ceux qui le sont moins. Personne n'est dupe ici du fait que nous ne sommes pas grâce à TikTok dans les années folles ni dans le surréalisme, comme l'avez défendu M. Garandeau. Il en était presque à dire que si Claude Sautet était encore en vie, il réaliserait ses films en format court sur TikTok...Le ridicule ne tue pas mais rapporte probablement beaucoup d'un point de vue pécuniaire. Néanmoins, quelle est la différence entre le partenariat TikTok avec le Salon du livre et un publi-reportage fait dans la presse ?

M. Christophe Deloire. - Le publi-reportage est parfaitement répréhensible. C'est d'ailleurs un terrain sur lequel nous commençons à aller. Il y a une dizaine de jours, nous avons ainsi révélé l'existence de pratiques de ce type dans la revue des anciens de l'ENA. Comme un certain nombre de médias, elle propose contre rémunération de publier des contenus relevant de la publicité et n'étant pas présentés comme tel. Je crois que c'est enjeu majeur de nos sociétés que de conserver la distinction entre les contenus journalistiques et la publicité.

Il y a toujours eu des formes de corruption. Il y a eu des périodes où elles étaient relativement maîtrisées et faibles. Nous sommes entrés dans une ère de la corruption des contenus. Si l'on peut réguler les publicités dites politiques, c'est-à-dire subventionnées sur les plateformes, en revanche, ces plateformes numériques ne savent pas dans quelles conditions ont été produits les contenus en amont de leur publication. C'est la raison pour laquelle nous ne parviendrons jamais, y compris par le droit pénal, à empêcher que ces pratiques aient lieu. La solution est de donner des formes d'avantages à ceux qui démontrent que l'information n'y est pas corrompue. Il y a malheureusement des plateformes sur lesquels il est possible pour des entreprises ou des individus d'acheter des articles sur eux-mêmes. C'est une dérive complète. Certains médias, j'espère rares, s'en accommodent en considérant que c'est le moyen de sauver leur modèle économique. Je crois qu'il est de notre responsabilité de trouver un moyen pour que l'écosystème de l'information soit organisé de telle manière qu'on puisse survivre sans cela et pour éviter que la corruption de l'information devienne admise.

M. Mickaël Vallet, président. - Ma question vise vraiment à comprendre comment cela fonctionne d'un point de vue déontologique. Je croyais que du moment que le lecteur était informé du fait que c'était un publi-reportage, cette pratique était admise.

M. Christophe Deloire. - C'est bien le cas. Certaines chaines de médias se sont spécialisées dans ces publications, qui sont la base de leur modèle économique. Les contenus ne sont pas présentés comme des contenus sponsorisés. C'est une dérive à laquelle il convient de mettre fin.

M. Mickaël Vallet, président. - Je songe notamment à des magazines nationaux qui réalisent un focus sur certaines villes ou départements.

M. Christophe Deloire. - Si ces magazines trouvent des annonceurs intéressés, je ne vois pas en quoi c'est répréhensible tant que le contenu des articles ne concerne pas l'annonceur.

M. Mickaël Vallet, président. - Le département ou la région qui est l'objet du reportage est bien content de se retrouver en une d'un magazine national. La régie publicitaire du journal indiquera ensuite quelles peuvent être les entreprises susceptibles « d'allonger »...

M. Christophe Deloire. - Pour avoir travaillé dans un hebdomadaire, qui pratiquait ces déclinaisons régionales, la logique était plutôt une logique d'audience. Faire un supplément sur telle ville permettait de s'assurer des ventes supplémentaires. Qui dit vente, dit le cas échéant annonceurs, avec peut être des formes de publicité plus ciblée relevant de la région. Je n'y vois rien de répréhensible tant que cela ne modifie pas la ligne éditoriale.

Est répréhensible le cas où une entité, quel que soit son statut, achète un contenu qui relève de la publicité et qui n'est pas présentée comme telle. Cela se développe de plus en plus, bien que ce ne soit pas encore au coeur du système. Cela se développe y compris à la faveur de la pression concurrentielle. Du point de vue démocratique, il est essentiel de trouver les moyens pour que la fonction sociale qui est aujourd'hui celle du journalisme soit exercée, en évitant le plus possible toute forme de corruption. Ce doit être au coeur de la réflexion sur le journalisme et sur l'avenir de l'information. Il faut s'assurer que dans le débat public existent des tiers de confiance, que doivent être les journalistes. Pour ce faire, les moyens économiques doivent être suffisants et l'organisation du marché pertinente.

M. André Gattolin. - Vous évoquiez le fait que les plateformes et les réseaux sociaux n'étaient pas des éditeurs. Regardons ce qu'est TikTok et prenons sa version chinoise, Douyin. L'application Douyin produit des programmes éducatifs qui sont reconnus pour leur qualité, manière d'éviter les critiques contre l'aliénation et le temps trop long passé sur les écrans. Le système des influenceurs est très particulier. Comme l'a rapporté la presse, certains influenceurs qui avaient pris des positions aux États-Unis sur la question ouïghoure ont vu leurs audiences passer de 200 000 à 30 personnes. Il s'agit d'une censure par l'algorithme, qui coupe les influenceurs de leurs habitués.

Sentant peut-être le vent du boulet, TikTok a développé aux États-Unis un nouveau réseau social dénommé Lemon 8, qui s'adresse à un public peut-être un peu plus âgé, et s'orientant davantage sur les styles de vie. Les influenceurs de TikTok sont débauchés pour fournir des contenus éditoriaux à Lemon 8. Selon moi, il s'agit là totalement d'une logique d'éditeurs, qui cache son nom. TikTok annonce par ailleurs que les créateurs seront désormais rémunérés en fonction de l'audience. Ce n'est plus juste une application « citizen to citizen » mais bien une application de business intermédiaire. Il ne s'agit plus seulement d'échanges horizontaux entre deux lycéens qui racontent leurs journées et leurs amours. Il y a une construction quasi éditoriale d'une équipe, qui débauche des influenceurs.

Ce statut hybride est extrêmement dangereux et peut conduire à leurrer les personnes qui suivent cette application. C'est une chose de de faire un placement de produit discret ; c'en est une autre d'être éditeur de contenu, avec des élaborations de films parfois assez sophistiqués, qui délivrent des messages. Quand le message ne correspond pas à ce qu'attend la plateforme TikTok, l'influenceur perd son audience. Quelle est votre réflexion sur ce sujet ?

M. Christophe Deloire. - J'entends parfaitement votre réflexion. Les plateformes sont comme Janus, on peut leur trouver beaucoup de visages. De plus en plus, les plateformes numériques nous font sortir des logiques classiques du pluralisme parce qu'elles nous apportent une réponse unique. Aucune de nos régulations ne répond à cette difficulté. Nous pensons que l'idée de faire des plateformes des éditeurs est une mauvaise idée. Un éditeur a le droit de ne pas parler des Ouïghours ; n'importe quel éditeur de presse en France peut décider de ne pas s'intéresser à ce sujet. Je ne pense pas que vous ayez envie de cela pour les plateformes.

M. André Gattolin. - Elles le font déjà !

M. Christophe Deloire. - Précisément, il faut empêcher cette censure. Ce serait curieux d'entériner par la régulation quelque chose que l'on veuille justement empêcher. J'évoquais les obligations de neutralité politique, idéologique, religieuse, ou vis-à-vis de leurs propres intérêts. Il y a des sujets sur lesquels on ne veut pas que les plateformes aient leur mot à dire. Si vous donnez aux plateformes le statut d'éditeur au titre de la loi de 1881, Mark Zuckerberg, Elon Musk et le patron de TikTok auront le pouvoir de décider d'écarter des contenus conformes à la liberté d'expression mais dont ils ne veulent pas. Les plateformes pourront ainsi orienter les contenus pour des dizaines de millions de personnes - 1,7 milliard d'utilisateurs dans le cas de TikTok. Il ne faut surtout pas leur laisser ce pouvoir-là. Au contraire, il faut les empêcher de prendre des décisions à caractère politique.

M. André Gattolin. - J'entends bien. Mais s'ils ne sont pas éditeurs, quelle responsabilité peuvent-ils avoir par rapport aux contenus ? J'ai travaillé dans un grand quotidien pendant quelques années ; je sais ce que c'est d'être responsable éditorial et d'avoir à rendre des comptes devant la justice. Nous avons organisé au Sénat la semaine dernière un colloque sur la situation au Cambodge. De nombreuses personnes de la communauté cambodgienne étaient présentes. Alors que les médias sont censurés au Cambodge, ces personnes s'offusquaient d'entendre dire de la part de Daniel Bastard, directeur régional de RSF, que Facebook n'était pas un média. Facebook est leur seul moyen de communication et d'information libre, et permet d'échapper à la censure des médias officiels. Je comprends bien la logique intellectuelle de votre propos mais il est, je pense, inaudible pour le citoyen moyen.

M. Christophe Deloire. - J'ai découvert récemment que les Ukrainiens ne s'envoyaient pas de mails : l'information passe par Telegram et les échanges de messages passent beaucoup par Facebook, y compris les échanges de proches conseillers de Zelensky. On peut toujours trouver des éléments qui rattacheraient les plateformes à l'édition. Mais ce qu'elles font est beaucoup plus vaste. Vous évoquiez les influenceurs, qui sont des formes plus ou moins déguisées de publicité. La régulation actuelle des médias empêche par exemple que la publicité occupe 90% des antennes. Pour les médias traditionnels, il y a des obligations, qui sont inscrits dans des conventions.

M. André Gattolin. - Un programme de téléshopping qui dure une heure ne respecte pas la logique d'insertion publicitaire...

M. Christophe Deloire. - Je ne vous dis pas que la loi est parfaite. Il y a tout de même une forme d'organisation du flux qui arrive au public. La question est de savoir si l'on est capable de travailler sur l'organisation du flux qui nous arrive par les plateformes. C'est un flux plus compliqué, plus massif et les plateformes ont un pouvoir beaucoup plus grand. Je crois que ce sera compliqué pour le législateur car une partie du public dénoncera alors le contrôle de l'information. Mais les espaces publics démocratiques se sont construits grâce à l'imposition d'obligations. On a ainsi imposé des obligations aux réseaux de distribution de la presse. Accepterait-on aujourd'hui que le réseau de distribution de la presse, depuis le distributeur jusqu'au vendeur, puisse faire des choix comme TikTok le fait sur les Ouïghours ? La réponse est non.

TikTok est aujourd'hui à la fois le recruteur de l'influenceur mais aussi le réseau de distribution. Il est un organisateur. Il est légitime que les institutions démocratiques imposent des principes à l'organisation du flux, sans jamais entrer dans le contenu lui-même. L'objectif est de rester dans une philosophie politique libérale. Nul n'est détenteur de la vérité et la question est de favoriser l'intégrité, l'honnêteté et certains types de processus. Chacun peut ensuite chercher la vérité par ses moyens.

M. André Gattolin. - Vous avez évoqué le texte en préparation par la Commission européenne sur la liberté des médias. Il se trouve qu'avec Catherine Morin- Desailly, nous avons produit un pré-rapport sur ce sujet. Pensez-vous qu'une autorité comme l'ARCOM soit en mesure de réguler à la fois les médias audiovisuel, numérique et de presse écrite ? Sur la régulation de la presse écrite, on peut avoir des critères de nature journalistique. Vous tachez d'ailleurs de recréer des indicateurs pour la qualité journalistique. On ne peut pas demander aux quotidiens la même logique de pluralisme, puisque c'est l'ensemble de l'écosystème qui fait le pluralisme de la presse écrite. Ce n'est pas la même chose en radio-télévision, avec des logiques beaucoup plus monopolistiques. Selon des vieilles théories datant des années 1930/190, le média radio serait même plus influent et plus impactant que les autres. Qu'en est-il des réseaux sociaux ?

S'agissant des instruments de régulation, il est très bien de confier des responsabilités à des organismes comme la « CNIL » irlandaise. Mais quid des moyens effectifs pour assurer cette régulation ? Si je confie à la boutique du coin le devoir de distribuer l'équivalent de quatre supermarchés, elle en aura le droit mais elle ne saura pas le faire. C'est une de mes autres inquiétudes. Il est évidemment important que l'Union européenne se dote d'instruments d'État de droit et de protection de la liberté de la presse, qui lui manquaient singulièrement. Mais je me demande si l'on n'est pas dans l'incantatoire du droit, sans les moyens et la logique propres à chacun des médias. La télévision, la presse écrite et les réseaux sociaux peuvent-ils être régulés de la même manière ?

M. Christophe Deloire. - J'aurai plusieurs niveaux de réponse. Tout d'abord, je crois que le système de régulation en découpage par secteurs (presse écrite, radio/télévision etc.) a en partie vieilli. Il y a des convergences entre médias : la télévision est allée vers le texte, la presse écrite voudrait aller vers la vidéo. Il y a d'ailleurs des effets de bord importants. Pour être un titre de presse écrite, vous ne devez pas faire beaucoup de vidéos, alors même que c'est la vidéo aujourd'hui qui mène l'audience. Pour garder une logique de presse écrite, un site de journal ne peut ainsi pas aller vers ce qui fait l'objet de la demande la plus forte. Nous sommes dans un moment de désintermédiation et d'explosion de la distinction des types de médias. Notre régulation repose sur une logique qui est en train de disparaître. Il faudra donc sans doute la faire évoluer sous cet angle.

Par ailleurs, je vous rejoins totalement sur la question des moyens. En ce moment l'OFCOM, qui est l'ARCOM britannique, est en train de recruter 300 personnes pour se préparer à traiter de ces questions, qui n'ont pas encore officiellement été confiées à cette autorité par le Parlement britannique. Aujourd'hui, la France ne met pas les mêmes moyens à disposition. Je suis d'accord pour qu'il y ait un organe de régulation ayant une vue relativement large. Mais cet organe de régulation doit dans ce cas être suffisamment fort. Face à ces grands fauves numérique, il faut avoir une capacité forte de régulation, comme il le faudrait aujourd'hui face à des acteurs en télévision qui méprisent les principes démocratiques et notamment celui du pluralisme interne, principe de régulation de l'audiovisuel à la différence du principe de pluralisme externe pour la presse écrite. Je fais évidemment référence au dossier Bolloré.

La loi impose à l'ARCOM de mettre en oeuvre trois principes : honnêteté de l'information, pluralisme de l'information et indépendance. De notre point de vue, l'ARCOM ne s'attache pas assez à donner du contenu à ces trois principes et à les imposer. Elle ne le fait pas au nom d'une logique consistant à considérer le champ de la communication comme un grand champ où l'important est que tout le monde puisse s'exprimer également, chacun trouvant la vérité en regardant l'ensemble. Cela ne nous semble pas pertinent du point de vue de l'organisation d'un système médiatique.

Disposer d'organes de régulation trop sectorisées, les uns à côté des autres, ne nous semble pas un bon moyen pour répondre aux questions très vastes qui se posent aujourd'hui. Par ailleurs, il nous semble la législation ne permettra jamais de suivre les évolutions. Il faut donc déléguer à des organes indépendants - le DSA pose d'ailleurs question sur ce sujet, compte tenu des pouvoirs de la Commission européenne - le fait de pouvoir édicter des règles au fil de l'eau, sans attendre la prochaine législation qui interviendra dans vingt ans.

M. André Gattolin. - Cela suppose de contrôler ces organes indépendants.

M. Christophe Deloire. - Il faut toujours contrôler les contrôleurs !

M. André Gattolin. - Au Royaume-Uni, il y a une charte royale tous les dix ans et c'est le Parlement qui mène le bal. Ce n'est pas l'autorité indépendante qui s'autoévalue. C'est une différence dans la conception du contrôle démocratique.

M. Mickaël Vallet, président. - Nous vous remercions beaucoup pour vos éclairages sur toutes nos questions.

Audition de M. Jean-Noël Barrot, ministre délégué chargé de la transition numérique et des télécommunications, le 19 juin 2023

M. Mickaël Vallet, président. - Monsieur le ministre, nous sommes heureux de vous entendre cet après-midi pour conclure les travaux de notre commission d'enquête sur la plateforme TikTok.

Le 8 juin dernier, nous avons auditionné deux responsables de la branche française de l'entreprise, M. Éric Garandeau et Mme Marlène Masure. Sur plusieurs sujets, nous n'avons pas obtenu de réponses aussi précises que nous le souhaitions.

Vous pourrez nous dire si, lors de votre rencontre du 8 mars dernier avec Erich Andersen, conseiller général de ByteDance, celui-ci s'est engagé au nom de TikTok sur une feuille de route et sur un calendrier précis pour la mise en conformité de l'entreprise avec ses diverses obligations.

Nous pourrons également aborder les raisons qui ont conduit à l'interdiction de l'utilisation de l'application sur les téléphones des fonctionnaires.

Par ailleurs, nous aimerions connaître votre appréciation du projet Clover, qui, selon les responsables de l'entreprise, permettra de protéger de manière certaine les données personnelles des utilisateurs européens. Quel est l'état d'avancement de ce projet ? Les importantes sommes annoncées par les responsables de TikTok lors de leur audition pour sa mise en oeuvre sont-elles une réalité ? Permettra-t-il d'obtenir des garanties suffisantes d'« étanchéité » par rapport aux intrusions et autres accès indus ?

Bien entendu, nous souhaiterions aussi évoquer le projet de loi visant à sécuriser et réguler l'espace numérique, que le Sénat va examiner très prochainement. Les règlements sur les services et marchés numériques nous permettront-ils d'infléchir, dans l'intérêt général, les pratiques des grandes plateformes ? En particulier, l'entreprise TikTok vous paraît-elle disposée à accomplir rapidement les efforts nécessaires dans les délais requis ?

Cette audition est diffusée en direct sur le site internet du Sénat. Elle fera également l'objet d'un compte rendu publié.

Je rappelle qu'un faux témoignage devant notre commission d'enquête serait passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal.

Je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure. »

Conformément à la procédure applicable aux commissions d'enquête, M. Jean-Noël Barrot prête serment.

M. Jean-Noël Barrot, ministre délégué auprès du ministre de l'économie, des finances et de la souveraineté industrielle et numérique, chargé de la transition numérique et des télécommunications. - Permettez-moi d'abord de saluer l'initiative prise par cette commission d'enquête. Les problématiques soulevées par l'utilisation de TikTok - une plateforme qui s'est intriquée dans de nombreuses facettes de notre société - ne peuvent plus être ignorées. Votre travail permet d'exposer ces questions vitales au grand jour, ouvrant ainsi un débat qui était nécessaire et urgent.

Le programme des auditions que vous avez organisées est plus que pertinent : grâce à la diversité des expertises sollicitées allant des spécialistes des données aux psychologues, vous avez créé un espace d'échanges et d'apprentissage unique. C'est une démarche essentielle pour comprendre les multiples dimensions de l'impact de TikTok, et, d'une façon plus générale, des plateformes qui jalonnent aujourd'hui la vie quotidienne des Français.

Je souhaite consacrer mon intervention à trois sujets fondamentaux : la sécurité et la protection des données personnelles des citoyens, les conséquences addictives et cognitives inhérentes à l'utilisation de TikTok, et, enfin, les implications géopolitiques inhérentes à ces questions.

TikTok, premier succès technologique indéniable, a conquis la planète en un temps record : avec 1,7 milliard de téléchargements depuis sa création en 2020, la plateforme a recueilli une quantité impressionnante de données. Trois ans plus tard, nous devons nous interroger : ce succès est-il mérité ou repose-t-il sur un abus ? Est-il loyal, et surtout, est-il en accord avec nos valeurs ? À l'heure où les données personnelles apparaissent comme des leviers économiques, leur protection devient un enjeu de souveraineté, un sujet dont nous avons fait une priorité avec Bruno Le Maire.

Les données dépassent les frontières des entreprises et redessinent la géopolitique mondiale. L'Europe a su forger un premier bouclier face à cette menace : le règlement général sur la protection des données (RGPD). Ce texte est plus qu'un simple règlement : c'est un rappel des valeurs européennes. Il place l'individu au coeur de ses préoccupations et réaffirme son droit inaliénable à la protection de ses données personnelles. Le RGPD est un standard qui n'est pas encore pleinement respecté par TikTok, ce qui appelle une réponse ferme. La Commission nationale de l'informatique et des libertés (Cnil) a déjà frappé en sanctionnant TikTok en décembre dernier avec une amende de 5 millions d'euros. Ce signal fort résonne comme un avertissement : le respect du modèle européen de protection des données n'est pas une faveur que nous demandons, c'est une exigence que nous posons.

Cette sanction alimente le faisceau d'indices qui posent question quant à la compatibilité entre les lois étrangères et nos législations. Ce constat mérite toute notre attention et notre vigilance. Nous avons exhorté TikTok à se conformer à ces normes indiscutables. La plateforme s'est engagée à assurer une protection durable des données de nos concitoyens, en réalisant les investissements nécessaires en ce sens, afin d'installer, notamment, des centres de données européens. Ainsi, le projet Clover, annoncé par TikTok, est en cours de concrétisation. Sur ce point, je serai intransigeant : TikTok doit traiter toutes les données des Européens en Europe, avec des structures qui garantissent l'impossibilité technique de les envoyer en dehors du continent - c'est tout simplement l'esprit et la lettre du RGPD.

J'en viens aux travers de l'algorithme de l'application.

Au centre du modèle économique de TikTok, avec son design racoleur et intuitif, on retrouve l'individu - et bien souvent des jeunes publics. TikTok, ce titan de l'économie de l'attention, leurre ses utilisateurs dans un océan infini de contenus conçus pour engloutir leur temps et leur concentration. C'est le résultat d'une stratégie délibérée, intégrée dans la conception même de l'application. Les algorithmes sont des outils puissants qui apprennent de nos préférences et de nos comportements pour nous proposer un flux personnalisé de contenus. Mais ne soyons pas naïfs : l'algorithme de TikTok n'est pas neutre. Il favorise certaines vidéos, certains messages et certains comportements en fonction d'objectifs commerciaux plutôt que d'intérêts sociaux ou éducatifs.

Plusieurs des personnes que vous avez auditionnées l'ont démontré, TikTok exploite habilement des mécanismes de récompense et de renforcement cognitifs pour créer un lien quasiment compulsif avec ses utilisateurs. TikTok a choisi de développer un produit fondamentalement addictif en offrant aux utilisateurs ce qu'ils désirent voir dans une logique d'utilisation du scrolling qui ne s'arrête jamais - un modèle qui a depuis été copié par d'autres plateformes, notamment par Instagram ou YouTube. L'effet est particulièrement prononcé chez les plus jeunes, dont les esprits en développement sont fortement sensibles à ces stimuli.

Plusieurs études et démonstrations vous ont été présentées durant les précédentes auditions qui en viennent toutes à la conclusion que ce type de réseau social de vidéos courtes et fondé sur l'économie de l'attention engendre des conséquences graves sur la santé physique et mentale des jeunes.

La promesse initiale de TikTok était de s'abstraire des algorithmes fondés sur le graphe social, pour aller vers une logique d'exploration de nouveaux contenus. Dans les faits, l'utilisateur est conduit à l'enfermement par la sursollicitation des mécanismes de récompense du cerveau et une utilisation agressive de l'intelligence artificielle.

Pour répondre à ces défis, le règlement européen sur les services numériques, le Digital Services Act (DSA), adopté sous la présidence française de l'Union européenne, sous l'impulsion du Président de la République, est l'outil adéquat. TikTok a été désigné comme une très grande plateforme par la Commission européenne dans le cadre de ce règlement, et devra à ce titre rendre des comptes dès son entrée en vigueur au 25 août prochain. TikTok devra notamment respecter l'interdiction de la publicité ciblée pour les mineurs et mettre en oeuvre des mesures strictes pour lutter contre les contenus illicites, en effectuant annuellement des audits indépendants de réduction des risques et en analysant l'ensemble des risques que cette plateforme fait peser sur le bien-être et la santé mentale et physique de ses utilisateurs.

Dans le cas où TikTok ne respecterait pas ces obligations nouvelles, des sanctions seront prononcées, allant jusqu'à 6 % de son chiffre d'affaires - soit environ 560 millions d'euros - et pouvant conduire à une interdiction d'opérer en Europe.

Dès l'entrée en vigueur du règlement sur les services numériques, la Commission européenne, avec l'appui de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en France, pourra ainsi commencer les perquisitions, les interrogatoires, les collectes de données massives et mobiliser le monde de la recherche pour accroître notre compréhension du fonctionnement des plateformes. À titre d'exemple, en France, le pôle d'expertise de la régulation numérique (PEReN) a pour projet d'effectuer des expérimentations sur TikTok en matière d'instrumentation d'applications mobiles et d'audit algorithmique sur la recommandation de vidéos de TikTok. Je ne peux que réaffirmer ici l'importance de donner à nos chercheurs les moyens d'explorer et d'auditer les grands algorithmes de notre quotidien dans des conditions de transparence accrue.

Il est en effet grand temps de repenser le rôle et la responsabilité des plateformes numériques dans notre société. Le projet de loi visant à sécuriser et réguler l'espace numérique qui sera examiné prochainement au Sénat incarnera à ce titre avec force l'ambition du règlement sur les services numériques, en y ajoutant des mesures additionnelles.

Enfin, pour comprendre les enjeux liés à l'algorithme de TikTok, il faut bien noter qu'en Chine l'application a un autre nom - Douyin - et un algorithme différent. De plus, à l'intérieur de ses frontières, la Chine limite la durée d'utilisation et contrôle étroitement le contenu. La conclusion est simple : la Chine ne tolère pas sur son propre sol ce qu'elle permet à l'étranger via une entreprise qu'elle contrôle. Cette contradiction met en relief l'ambition chinoise d'éduquer ses élites tout en établissant des restrictions sur un certain modèle d'engagement numérique pour sa population générale. Cette situation binaire incite à une réflexion plus profonde sur les impacts et les défis posés par des plateformes telles que TikTok.

Les questions dont nous traitons aujourd'hui revêtent ainsi une dimension hautement géopolitique.

Le monde numérique d'aujourd'hui n'est pas exempt de frontières, bien au contraire. La géographie de l'information s'est complexifiée, et la question de la provenance des services numériques que nous utilisons devient une préoccupation majeure. TikTok n'est pas simplement une application de partage de vidéos, mais également un acteur de l'économie numérique mondiale avec un rattachement territorial à ne pas oublier. TikTok symbolise incontestablement le premier cas de la tech grand public qui réussit aussi bien, voire mieux, que les Américains sur leur propre terrain. Cela reflète l'ambition technologique de la Chine et l'activisme dont elle a fait montre ces dernières années. Ces applications mondialement répandues accèdent à un grand nombre des données des téléphones sur lesquels elles opèrent. Pour autant, dans le cadre du RGPD, l'Union européenne n'a pas signé d'accord d'adéquation avec la Chine. Il nous faut donc nous doter de mesures et d'outils pour prévenir tout détournement de l'application ou un mésusage de ses succès technologique à des fins d'exploitation des données, mais aussi de rivalités ou d'ingérence.

C'est en ce sens que la Commission européenne et le Gouvernement français ont pris des mesures concrètes consistant en l'interdiction d'installer certaines applications, dont TikTok, sur les appareils officiels. Notre approche en matière de sécurité numérique ne se fonde pas sur l'identification d'entreprises ou de pays amis ou ennemis : nous nous concentrons exclusivement sur la sécurisation de nos systèmes et la protection de nos utilisateurs et des données associées. Dans ce contexte, toutes nos décisions sont motivées par des impératifs de sécurité et non par des préférences ou des animosités. C'est ainsi que nous avons pris la décision d'interdire l'installation des applications récréatives - dont TikTok - sur les téléphones des fonctionnaires. Contrairement à ce que certains médias ont affirmé, il ne s'agissait pas d'interdire seulement TikTok, mais toutes les applications à usage non professionnel sur les appareils professionnels, afin de garantir la sécurité de nos systèmes d'information. La logique est simple : plus nous autorisons l'installation d'applications non contrôlées sur nos appareils professionnels, plus nous augmentons notre surface d'exposition aux cyberattaques. Cette mesure n'est donc pas une réaction à TikTok seul, mais une réponse à une menace plus globale et plus persistante ; c'est l'enjeu de la cybersécurité et de la protection des données de nos administrations dans un monde de plus en plus connecté.

Là encore, le règlement sur les services numériques apportera des garanties pour parer toute tentative d'ingérence ou de manipulation de l'information au travers d'algorithmes personnalisés. Le règlement obligera en effet les grandes plateformes - dont TikTok - à faire preuve de plus de transparence et de responsabilité en matière de lutte contre la désinformation, en les contraignant par exemple à publier des rapports annuels décrivant leurs pratiques de modération. Si ces garanties ne sont pas respectées, TikTok ne pourra plus opérer sur le territoire de l'Union européenne.

Pour conclure, le sujet de TikTok n'est pas seulement celui d'un réseau social populaire et intrigant, mais illustre à lui seul les défis économiques, sociétaux et politiques auxquels nous devons répondre collectivement. En ce sens, je suivrai la ligne directrice qui oriente mon action depuis ma prise de fonction, et qui fera écho dans cette institution : sécuriser et protéger les citoyens dans l'espace numérique, coûte que coûte.

M. Claude Malhuret, rapporteur. - Les auditions que nous avons menées ainsi que notre visite à la Commission européenne nous ont préoccupés par bien des aspects. Cette inquiétude était d'ailleurs à l'origine de la création de cette commission d'enquête.

Le transfert massif de données par TikTok vers la Chine est désormais une certitude. Les messages interceptés par BuzzFeed en novembre dernier le prouvent : les dirigeants de ByteDance ont été obligés de le reconnaître, prétextant une erreur et affirmant que cela ne se reproduirait pas. Or, ces messages sont clairs : pour citer l'un des responsables de TikTok, « tout se voit, impeccable ». Il s'agit donc d'un transfert de données massif et permanent. Les dirigeants de TikTok ont par ailleurs avoué que des entreprises chinoises participaient à la gestion de la plateforme, notamment de son algorithme, après l'avoir nié pendant des années.

C'est sans doute en raison de ces révélations que l'Union européenne a décidé, il y a trois mois, d'interdire le téléchargement de l'application sur les téléphones de ses fonctionnaires. Cette décision, suivie par la plupart des pays européens, pose plusieurs questions.

D'abord, même pressée par les journalistes, l'Union européenne n'a pas exposé les raisons précises de cette décision.

Par ailleurs, la France s'est singularisée en étendant cette mesure à d'autres applications, alors que seul TikTok avait été épinglé par d'autres pays. Ainsi, l'interdiction de Netflix, notamment, a fait sourire certains acteurs - je suis toutefois certain que votre ministère n'est pas à l'origine d'une telle décision ! Il me semble plutôt que le Quai d'Orsay tremblait une fois de plus à l'idée de déclencher le courroux de Xi Jinping à quelques jours du voyage du Président de la République en Chine.

Bref, personne n'a expliqué les raisons de cette décision, à l'exception du Premier ministre belge, Alexander De Croo : « Tik Tok est une entreprise chinoise, qui est aujourd'hui obligée de coopérer avec les services de renseignement chinois. C'est la réalité. Interdire son utilisation sur les appareils de services fédéraux relève du bon sens. Cette décision est prise avec l'appui de la sûreté de l'État et le Centre pour la Cybersécurité Belgique. »

Le Premier ministre belge dit-il la vérité ? Pourquoi chacun semble trembler à l'idée d'en dire autant ? Si elle diffère, quelle est l'explication de cette décision par le Gouvernement français ? Enfin, quels sont les dangers que pose le téléchargement de Netflix sur les téléphones des fonctionnaires de l'État français ?

M. Jean-Noël Barrot, ministre délégué. - S'agissant de mes échanges avec les représentants de TikTok, j'ai rencontré Shou Zi Chew, directeur général de TikTok, en janvier, afin d'échanger sur la modération des contenus, la protection des mineurs, ainsi que sur le DSA et le Digital Markets Act (DMA). Puis, j'ai convoqué Erich Andersen, vice-président et directeur juridique de ByteDance, le 10 mai 2023, pour passer en revue certains engagements de TikTok. Nous avons abordé plusieurs questions importantes lors de cette rencontre, notamment le projet Clover, le projet Texas - qui est son équivalent aux États-Unis - ainsi que le DSA et le DMA. Nous avons également discuté de la protection des mineurs.

Lors de cette rencontre, M. Andersen a manifesté une volonté de coopération claire et s'est engagé à travailler étroitement avec notre ministère sur ces questions ; TikTok a notamment formulé des engagements concrets pour la protection des données en Europe avec le projet Clover.

En outre, mon cabinet est également en contact régulier avec Éric Garandeau, qui a d'ailleurs été auditionné par votre commission d'enquête. Concernant la protection des mineurs, TikTok a récemment pris des mesures concrètes en s'engageant aux côtés de l'association e-Enfance pour la mise en place du numéro d'appel 3018 sur l'application. Cette initiative montre une volonté de la part de TikTok d'améliorer la sécurité des plus jeunes utilisateurs. Nous continuerons à maintenir des discussions exigeantes avec TikTok afin de nous assurer que nos règles et nos valeurs soient respectées.

J'en viens à l'interdiction par la Commission européenne de TikTok sur les appareils fournis à ses fonctionnaires. La décision des institutions européennes souligne le sérieux des préoccupations liées à la sécurité des données et à la protection de la vie privée que suscitent les plateformes numériques, en particulier celles qui ont leur siège social en dehors de l'Union européenne. Elle met en évidence l'importance cruciale de garantir le respect par les entreprises des normes européennes de protection des données personnelles. Enfin, elle rappelle qu'en tant que dirigeants publics nous avons la responsabilité de prendre des mesures pour protéger la confidentialité des communications et des données de nos agents. Nous devons également nous assurer que nous utilisons des plateformes qui sont conformes à nos principes en matière de respect de la vie privée, de sécurité des données et d'éthique numérique.

Cependant, tout en respectant les préoccupations de la Commission européenne, nous devons aussi reconnaître que TikTok et d'autres plateformes de médias sociaux sont des outils de communication et d'expression populaire, en particulier chez les plus jeunes. Il est donc crucial de trouver un équilibre entre la garantie de la sécurité de nos fonctionnaires et le respect du droit des individus à utiliser les plateformes numériques de leur choix.

En France, il a été décidé d'interdire l'installation sur les appareils fournis par l'État des applications récréatives, dont TikTok, mais pas seulement. Les décisions de restriction ou d'interdiction d'applications spécifiques sur les appareils professionnels sont souvent le résultat d'une évaluation complexe des risques en matière de cybersécurité et de protection des données. Chaque plateforme présente un ensemble unique de risques et d'avantages potentiels qui doivent être mesurés individuellement. TikTok, en particulier, a fait l'objet de préoccupations mondiales quant à sa gestion des données de ses utilisateurs et de possibles liens avec le gouvernement chinois. L'application est également largement reconnue comme une plateforme récréative, ce qui ne correspond pas à un usage professionnel. C'est la raison pour laquelle nous avons décidé d'interdire sur les appareils professionnels les applications récréatives sollicitant de la part de leurs utilisateurs des masses considérables de données, en requérant notamment au moment de l'inscription l'accès aux contacts et aux documents stockés sur l'appareil.

S'agissant de Netflix, je ne saurais pas vous dire précisément quelles données sont collectées au moment de l'inscription. Cependant, si l'application nécessite l'accès à un certain nombre de données contenues sur le smartphone des agents publics, il apparaît indispensable d'en interdire, sauf exception, le téléchargement, afin d'éviter d'augmenter la surface d'attaque à l'encontre de nos administrations.

S'agissant du projet Clover, TikTok souhaite répliquer en Europe le modèle établi aux États-Unis avec Oracle : l'entreprise américaine héberge depuis l'été 2022 les données des utilisateurs de TikTok dans le pays et audite ses algorithmes. Dans ce cadre, TikTok a annoncé le 8 mars 2023 son projet Clover, qui permet, en principe, une réduction de l'accès aux données des Européens. Ainsi, le processus de contrôle d'accès aux données est supervisé et vérifié par un partenaire européen tiers. Par ailleurs, il est prévu un stockage en local des données via l'ouverture de trois centres de données européens, en colocation et exploitation par des fournisseurs de services tiers de confiance. La migration se poursuivra jusqu'en 2024, jusqu'à ce que ces centres soient opérationnels, pour un investissement annuel de 1,2 milliard d'euros.

À cet égard, la France est fermement résolue à s'assurer que les engagements pris par TikTok respectent ces principes fondamentaux. Nous attendons de TikTok une transparence exemplaire et une mise en oeuvre rapide et efficace. Nous exigeons un contrôle robuste de la restriction de l'accès des employés aux données des utilisateurs, qui offre une garantie maximale d'indépendance et implique un contrôle public. Nous tenons à ce que ce projet soit concrétisé rapidement pour répondre aux préoccupations de nos concitoyens et assurer leur sécurité en ligne. De plus, nous resterons attentifs à ce que TikTok respecte pleinement le cadre européen de protection de la vie privée.

S'agissant des affirmations du Premier ministre belge, TikTok est effectivement une filiale de ByteDance, une entreprise ayant ses origines en Chine. Il est vrai que la législation chinoise peut contraindre les sociétés opérant sur son territoire à coopérer avec les services de renseignement. Néanmoins, il est important de souligner que l'existence de ces lois ne constitue pas en soi une preuve de coopération active ou systématique entre TikTok et ces services. Comme toutes les plateformes numériques opérant sur le sol français, TikTok est soumise au respect des lois et régulations européennes et françaises, notamment en ce qui concerne la protection des données personnelles. Par conséquent, notre priorité est d'assurer la conformité de TikTok avec ces exigences légales, tout en maintenant un dialogue constructif avec l'entreprise sur ces questions. Enfin, nous prenons au sérieux toutes les inquiétudes relatives à la sécurité et à la confidentialité des données ; c'est pourquoi nous sommes constamment vigilants et prêts à agir lorsque cela est nécessaire pour protéger les droits et les intérêts de nos concitoyens.

M. Claude Malhuret, rapporteur. - Vous avez justifié l'interdiction de TikTok, Netflix, Instagram ou encore Snapchat sur les téléphones des fonctionnaires français par l'accès requis à une grande quantité de données ; mais Google et Facebook en demandent largement autant, sinon bien plus ! Or, ces applications ne sont pas interdites de téléchargement. Pouvez-vous nous en expliquer les raisons ?

M. Jean-Noël Barrot, ministre délégué. - Les services tels que WhatsApp et les applications récréatives que vous citez ne requièrent pas le même accès aux contenus stockés sur l'appareil. La raison principale qui a guidé la décision d'interdire ces applications sur les téléphones des agents publics était d'éviter d'augmenter la surface d'attaque. Par ailleurs, WhatsApp est largement utilisé à des fins de communications professionnelles et privées ; de plus, l'application a mis en oeuvre le chiffrement de bout en bout pour protéger la confidentialité des communications. Cependant, cela ne signifie pas que WhatsApp est exempt de préoccupations en matière de cybersécurité et de protection des données. Il existe des applications ou des services de messagerie français et souverains qui garantissent un niveau plus élevé de sécurité, comme Olvid.

M. Claude Malhuret, rapporteur. - Vous expliquez que l'interdiction de TikTok aux fonctionnaires français se justifie par le transfert de données en Chine, et donc potentiellement au parti communiste chinois. Or, de nombreuses personnes détiennent des données tout aussi confidentielles que celles des fonctionnaires de l'État français, par exemple le personnel des entreprises privées de sécurité nationale, des entreprises commerciales, pour lesquelles se pose le problème du secret commercial, entre autres.

L'adoption de mesures spécifiques est-elle à l'ordre du jour à l'échelle européenne ou française afin d'empêcher ces transferts de données ? Un recensement est-il en cours pour identifier ces acteurs sensibles ? Est-il prévu de leur transmettre des directives ? Je concède qu'il est plus facile pour l'État d'imposer des interdictions à ses fonctionnaires plutôt qu'à des entreprises privées, mais le problème est réel puisque ces dernières sont autant, sinon plus, exposées que les services de l'État.

M. Jean-Noël Barrot, ministre délégué. - S'agissant des données personnelles, le cadre dont nous disposons est fixé par le RPGD ; qui nous permet d'exiger de TikTok un traitement en Europe des données des utilisateurs européens. Nous souhaitons que le projet Clover avance, comme TikTok s'y est engagé, et que les données des utilisateurs européens soient traitées par TikTok selon les règles imposées par le RGPD. Nous y veillerons, à l'instar des structures européennes homologues de la Cnil.

Pour les données sensibles des administrations et des entreprises, le Gouvernement a créé le label « Cloud de confiance », délivré par l'Agence nationale de la sécurité des systèmes d'information (Anssi), qui repose sur les exigences du visa de sécurité SecNumCloud et permet la qualification de solutions d'hébergement infonuagique capables de garantir la protection des données contre les attaques et contre l'extra-territorialité des lois extra-européennes. Cette certification s'applique aux administrations lorsqu'elles transfèrent leurs données vers un cloud. Le 12 septembre 2022, Bruno Le Maire et moi-même avons fortement encouragé les entreprises françaises des secteurs critiques à privilégier les solutions d'hébergement certifiées SecNumCloud pour stocker leurs données. Ces solutions sont de diverses natures et apparaissent progressivement sur le marché.

Une réflexion est en cours au niveau européen pour établir un schéma de certification volontaire qui servira de modèle aux schémas de certification retenus par les États membres. Depuis le début de ces échanges, la France plaide pour que l'European Cybersecurity Certification Scheme for Cloud Services (EUCS) intègre, dans son niveau de sécurité le plus élevé, la protection des données non personnelles contre l'extra-territorialité des législations extra-européennes. Cette discussion n'a pas encore abouti et suppose de notre part un travail de conviction, puisque la France est en avance sur les autres États européens sur la question de la protection des données non personnelles sensibles.

Une fois ce schéma de certification établi, nous aurons dans notre arsenal de protection de notre patrimoine immatériel d'une part le RGPD pour les données personnelles, et d'autre part le schéma EUCS pour les données non personnelles.

M. Mickaël Vallet, président. - N'est-il pas prévu d'établir une liste d'entreprises considérées d'importance vitale pour le pays, à qui l'on pourrait interdire l'utilisation de ce type d'applications à un certain niveau de responsabilités ?

Si les entités malveillantes n'obtiennent plus les données désirées au travers des fonctionnaires, elles passeront par d'autres portes d'entrée. Notre niveau de sécurité va-t-il être relevé ? Dispose-t-on des moyens juridiques pour le faire ?

M. Jean-Noël Barrot, ministre délégué. - En matière de cybersécurité, le projet consiste, dans les mois qui viennent, à transposer la directive NIS2 en droit français. Celle-ci va multiplier par dix les entreprises assujetties à des obligations en matière de cyberdéfense et de cybersécurité. Jusqu'à aujourd'hui, ces obligations s'imposaient aux seuls opérateurs d'importance vitale et les opérateurs de services essentiels, soit plusieurs centaines d'entreprises ; avec la transposition de cette directive, ce sont plusieurs milliers d'entreprises qui seront concernées par ces obligations. Le Gouvernement va d'ailleurs les accompagner dans cette mise en conformité.

En ce qui concerne les réquisitions par des États extra-européens de données stockées dans des solutions d'hébergement dont les fournisseurs relèvent de leur pays, Bruno Le Maire et moi avons rappelé que nous imposerons aux administrations la doctrine du « Cloud de confiance », et que les entreprises des secteurs critiques ou disposant de données sensibles étaient, quant à elles, fortement incitées à s'orienter vers les solutions certifiées, faute de quoi des mesures de coercition seront peut-être appliquées à l'avenir.

M. Claude Malhuret, rapporteur. - M. Andersen vous a assuré de sa volonté de totale coopération. Toutefois, nos auditions ont révélé un contraste ironique : les dirigeants de TikTok brandissent en permanence la notion de « transparence », tandis que les agences, les régulateurs, les services de l'État, les journalistes déplorent tous une grande opacité.

Quid de la transparence des instances dirigeantes de TikTok dès lors que le siège de TikTok et de ByteDance se situe aux îles Caïmans, et que nous ne disposons d'aucune information sur le droit de vote des actionnaires, dont certains sont chinois. Les décisions sont-elles prises par les fonds d'investissement occidentaux ou par des actionnaires, que l'extra-territorialité des lois chinoises oblige à répondre à la moindre demande des services de renseignement, et ce, même lorsqu'ils se trouvent à l'étranger ? Parmi ces actionnaires se trouve Zhang Yiming, qui possède 26 % des parts, et a été obligé par le gouvernement chinois de céder 99 % du capital de Douyin à une société dans laquelle siègent les représentants du parti communiste chinois.

Le Gouvernement peut-il demander à la direction française de TikTok, au nom de la transparence qu'elle brandit, de fournir la composition de la variable interest entity (VIE) que représente ByteDance aux îles Caïmans, ainsi que la répartition du capital et, surtout, la répartition des droits de vote ?

M. Jean-Noël Barrot, ministre délégué. - En termes d'organisation juridique, TikTok et les autres entités de ByteDance sont parfaitement séparées. ByteDance Ltd détient intégralement TikTok Ltd, qui détient, pour sa part, des filiales dans différents territoires.

En Europe, l'entité mère est TikTok UK, dont TikTok SAS France est une filiale. Par ailleurs, TikTok Irlande est l'entité chargée des questions relevant du RGPD et du DSA. Ainsi, TikTok opère selon une règle juridique définie et soumise à un droit qui n'est pas chinois. Le lien avec la Chine est établi par le biais de Douyin, qui est une autre filiale de ByteDance.

Concernant la transparence, je souhaite rappeler que TikTok ainsi que seize autres grandes plateformes seront soumises, à partir du 25 août 2023, au DSA, qui introduit des obligations de transparence, d'audit externe des algorithmes et de partage des données aux chercheurs. Les amendes en cas d'infraction peuvent aller jusqu'à 6 % du chiffre d'affaires mondial, voire jusqu'à l'interdiction d'exercer au sein de l'Union européenne.

Le RGPD, qui reste en vigueur, interdit le traitement des données à l'extérieur de l'Union européenne lorsque le pays concerné n'a pas signé avec celle-ci un accord d'adéquation. De tels accords ont été signés avec le Royaume-Uni, le Japon, la Corée du Sud, la Nouvelle-Zélande, mais pas avec la Chine, ni avec les États-Unis. Ils garantissent aux citoyens de l'Union européenne que le pays signataire vers lequel leurs données sont transférées respecte des principes de protection et de recours qui, sans être à la lettre ceux du RGPD, sont équivalents.

Concernant le fonctionnement du service TikTok, nous disposons d'éléments de protection satisfaisants avec le DSA et le RGPD, à condition que tous deux soient correctement appliqués par les autorités concernées. 

Je ne puis vous répondre au sujet de la transparence de l'actionnariat et de la VIE, de la répartition du capital et des droits de vote. Je vous propose de demander ces informations à Bruno Le Maire.

M. Claude Malhuret, rapporteur. - Permettez-moi d'insister sur un point.

Vous expliquez que TikTok SAS France n'a pas de lien avec la Chine, puisque Douyin est le seul maillon chinois de la chaîne. Or vous avez bien montré que le lien juridique est cassé par la création de certaines filiales occidentales et chinois, le tout sous l'ombrelle de ByteDance. Le lien avec la Chine s'effectue non pas via Douyin, mais via l'extraterritorialité du droit chinois qui impose à Zhang Yiming et à d'autres d'obéir à la Chine. Insistons bien sur la situation de ce créateur d'entreprise qui, à 38 ans, a été contraint de faire son autocritique et a soudainement cédé 99 % du capital de Douyin à une société créée une vingtaine de jours auparavant, et dont l'intégralité des parts se répartit également entre deux individus inconnus, dont l'un est membre du parti communiste chinois, et qui sont tous deux originaires de Xiamen, une ville dont le hasard veut que Xi Jinping ait été maire adjoint il y a quelques années.

Je pense que le Gouvernement devrait s'emparer de cette question au plus vite. Si la direction de TikTok France refuse de fournir les informations demandées, ce refus sera en soi une réponse sur la transparence de cette entreprise.

M. Jean-Noël Barrot, ministre délégué. - Je le répète, c'est bien volontiers que Bruno Le Maire et moi-même relaierons cette demande d'information. Il me paraît important de rappeler, au-delà de cette transparence nécessaire sur le fonctionnement et la répartition du pouvoir, que TikTok est une entreprise chinoise et que l'Union européenne n'a pas signé d'accord d'adéquation avec la Chine. Puisque la Chine n'est pas membre de l'Union européenne, le RGPD, pour les données personnelles, ou des normes comme SecNumCloud, pour les données non personnelles sensibles, me semblent les meilleurs outils dont nous disposons pour protéger nos concitoyens et leur patrimoine numérique.

M. Claude Malhuret, rapporteur. - Vous avez expliqué que le RGPD oblige les entreprises qui transfèrent des données vers des pays extra-européens à des accords d'adéquation, que ni la Chine ni les États-Unis n'ont signés. Or, dans une enquête, la Cnil a expliqué que TikTok ne satisfaisait pas aux obligations du RGPD. En l'absence d'accord d'adéquation avec un pays, les chiffrements des données doivent être faits de l'origine à l'arrivée, avec des méthodes de chiffrement plus ou moins élaborées. TikTok ne respecte donc pas actuellement les principes du RGPD.

Comme disait Richelieu, « faire une loi et ne pas la faire exécuter, c'est autoriser la chose qu'on veut défendre ». Le RGPD et le DSA ont marqué une évolution importante dans la régulation des plateformes. La problématique actuelle est celle de l'application de cette régulation. L'Union européenne a décidé que cette dernière s'effectuerait à l'échelle non plus des pays, mais de l'Europe. Sur le principe, je suis favorable à cette décision. Dans la réalité, un seul régulateur européen, la Data Protection Commission (DPC) irlandaise, est chargé de traiter cette question et de statuer. Cette situation pose deux problèmes majeurs.

Premièrement, l'Irlande, pour d'évidentes raisons fiscales, présente sur son territoire le siège de nombre de plateformes, dont TikTok. Elle n'était donc pas la mieux placée pour se voir confier la responsabilité de la régulation européenne. Ce choix est surprenant et, à mes yeux, dangereux. C'est également en Irlande et en Norvège que TikTok envisage d'installer le projet Clover.

Deuxièmement, le DPC n'a pas du tout les moyens de traiter de telles problématiques à l'échelle européenne. Or, depuis deux ans, les régulateurs européens, comme l'Arcom et la Cnil, ont perdu leurs fonctions essentielles de régulation des plateformes. Ils ont été contraints d'interrompre leurs enquêtes et de transmettre leurs recherches à la DPC. Deux ans plus tard, la DPC n'a publié aucune conclusion à ces enquêtes, ni prononcé de sanction. De plus, le mécanisme est très complexe, puisque la DPC doit instruire le dossier à partir des enquêtes de chaque régulateur européen, proposer une décision, envoyer cette dernière à l'ensemble des régulateurs, qui doivent donner leur avis, que la DPC peut suivre ou non.

Je suis convaincu que le sujet doit être traité à l'échelle européenne, mais nous sommes en train de créer un mécanisme qui rend inefficace le pouvoir de sanction. Les décisions, les éventuels procès, vont prendre des années ; les plateformes ne seront donc jamais être inquiétées. Dans les faits, les plateformes et leurs milliers de lobbyistes et d'avocats vont triompher d'une instance qui souffre d'un manque de moyens et du manque de volonté du gouvernement irlandais, même si l'on peut espérer que le DPC jouisse d'une relative indépendance.

L'éviction de l'Arcom et de la CNIL du processus de régulation des plateformes dans notre pays vous paraît-elle acceptable ? Vous affirmez vouloir vous montrer intransigeant sur cette question : en avez-vous les moyens ?

M. Jean-Noël Barrot, ministre délégué. - Vous mettez le doigt sur un point important, qui me préoccupe le plus. Lors de la création du RGPD, il a été décidé de confier la responsabilité de l'application de ce règlement à la commission informatique chargée de la protection des données du pays où est situé le siège de l'entreprise concernée. Or, cette situation donne lieu à une certaine hétérogénéité dans l'application du RGPD, et suscite donc de la part des géants du numérique des stratégies que l'on peut qualifier « d'arbitrage règlementaire ». Je ne suis pas défavorable au renforcement de l'harmonisation et de la mise en commun des autorités de protection des données en Europe, pour faire échouer ces stratégies des plateformes.

De ce point de vue, les leçons semblent avoir été tirées. En effet, l'application du DSA va permettre d'éviter cet écueil en restant entre les mains de la Commission européenne. Les grandes plateformes ne pourront donc plus jouer sur la localisation de leur centre de décision pour définir des stratégiques d'arbitrage réglementaire. Cette initiative est bénéfique, mais elle doit s'accompagner d'une articulation entre l'action de la Commission et celle des autorités dans les États membres qui sont au plus près du terrain. Le DSA prévoit que la Commission européenne sera chargée des plus grandes plateformes, tandis que les autorités nationales resteront compétentes pour les plus petites d'entre elles. En France, l'Arcom sera l'entité référente, chargée de coordonner l'action de ses propres services avec celle de la Cnil et de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF).

Sur le principe, le DSA permet une application homogène du RGPD par les commissions Informatique nationales. La question de l'articulation des responsabilités, si elle est résolue, ne doit pas nous faire oublier, néanmoins, celle des moyens. Lorsque le règlement entrera en vigueur, entre 80 et 120 personnes auront été recrutées pour veiller à sa mise en oeuvre ; une nouvelle direction sera intégrée à la DG Connect de la Commission européenne. Nos inquiétudes quant aux moyens humains sont donc atténuées.

Bien sûr, il faut aussi que les moyens d'application du règlement au niveau national soient au rendez-vous. Pour répondre à cet enjeu, une direction des plateformes en ligne a été créée au sein de l'Arcom en 2019 ; huit agents en font déjà partie, dix recrutements sont en cours de recrutement. Ils s'ajoutent aux 2 équivalents temps plein (ETP) au sein de la direction des affaires européennes et internationales ainsi qu'aux ETP pour les fonctions transverses de la direction juridique et de la direction des études.

Les moyens que nous allouons contribuent à la crédibilité de ce règlement. Au-delà, il y va de la crédibilité de l'Union européenne dans sa capacité à imposer des règles à ses États membres en matière d'économie numérique.

M. Claude Malhuret, rapporteur. - Jeudi dernier, Les Échos ont publié un article sous le titre «  Régulation : la justice européenne donne raison à Google, Meta et TikTok  ». Permettez-moi de vous en lire le chapeau : « Les États membres ne peuvent imposer des obligations aux Gafam [Google, Apple, Facebook, Amazon, Microsoft] qui seraient plus strictes que celles déjà prévues en Irlande, sauf « au cas par cas », a estimé l'avocat général de la CJUE [Cour de justice de l'Union européenne] jeudi. » Notre commission d'enquête arrive à point nommé puisqu'elle rendra ses conclusions au moment où le Parlement examinera le projet de loi visant à adapter dans notre droit interne le DSA et le DMA.

Les États membres de l'UE ne peuvent imposer aux plateformes des obligations plus strictes que celles déjà prévues par leur pays de domiciliation en Europe - l'Irlande dans la plupart des cas -, a estimé Maciej Szpunar, l'avocat général de la Cour de justice de l'Union européenne, sauf à bafouer la libre circulation des services numériques protégée par la directive e-commerce de 2000. Cette réponse était très attendue par Google, Meta et TikTok, qui étaient à l'origine de cette affaire. La CJUE leur a donc donné partiellement raison. Pour résumer, toutes les mesures nationales, générales et abstraites, visant une plateforme décrite en des termes généraux, sont exclues. Même si la CJUE n'est pas liée par la décision de l'avocat général, les géants numériques ont bien marqué un premier point. L'État français a-t-il pris part à ce procès comme amicus curiae ? Quelle a été sa position ? A-t-il une marge de manoeuvre d'ici la décision finale de la CJUE, et souhaite-t-il intervenir ?

Concernant votre projet de loi, prévoyez-vous des mesures plus strictes ou complémentaires au nouveau cadre européen, et si oui, lesquelles ? Serez-vous ouverts à des amendements parlementaires et ; s'ils sont adoptés, qu'adviendront-ils ? Ou la décision de la CJUE empêche-t-elle toute proposition du Gouvernement ?

M. Jean-Noël Barrot, ministre délégué. - Permettez-moi de vous apporter quelques précisions. Vous n'avez pas cité le passage le plus essentiel de l'article des Échos, où il est rappelé qu'un État membre de l'UE, qui n'est pas le pays de domiciliation de la plateforme, ne peut déroger à la libre circulation des services et à la société de l'information que par des mesures prises au cas par cas après notification préalable à la Commission et demande au pays en question de prendre des mesures en matière de services de la société d'information, ce qui n'est pas le cas en l'espèce. La position de l'avocat général, en apparence maximaliste, souffre donc quelques exceptions, à condition de respecter les procédures.

Le projet de loi qui vise à sécuriser et réguler l'espace numérique respecte le compromis trouvé au niveau européen, et ce pour deux raisons. D'une part, la France a été l'artisan du règlement - même si elle n'a pas obtenu gain de cause sur l'ensemble de ses dispositions -, qui est un levier de puissance du marché économique européen dans la mesure où il permet l'instauration de règles communes à toute l'Union européenne. Nous aurons plus de chances de faire plier les géants du numérique en parlant d'une seule voix. D'autre part, si nous prenions des mesures qui empiètent sur ce compromis ou le détricotent, elles pourraient être contestées sur les mêmes fondements devant la juridiction européenne. Cependant, nous avons pris des mesures de sécurisation dans l'espace numérique, que nous notifierons à la Commission européenne - nous avons déjà notifié les principales mesures -, de manière à éviter tout risque juridique.

M. Claude Malhuret, rapporteur. - La tâche ne sera donc pas facile pour les parlementaires qui souhaiteraient déposer des amendements...

M. Mickaël Vallet, président. - Quelle est la marge de manoeuvre pour les pays qui voudraient se montrer volontaristes?

M. Jean-Noël Barrot, ministre délégué. - Nous avons beaucoup discuté avec les membres de la Commission européenne pour préparer ce projet de loi et je précise que l'essentiel des mesures prévues ont vocation à permettre une meilleure application des textes européens. Des interdictions existent dans la loi française pour ce qui concerne l'exposition des mineurs aux contenus pornographiques ou le retrait des contenus pédopornographiques par ceux qui les hébergent, par exemple, et ce texte donnera les moyens de les faire respecter. C'est dans cet esprit que nous avons travaillé. Il faut cependant attendre la décision finale de la CJUE.

M. Mickaël Vallet, président. - Nous aurons le début d'une jurisprudence, mais elle ne sera pas constante. On apprend en marchant.

M. Jean-Noël Barrot, ministre délégué. - Je partage votre avis. C'est pourquoi nous travaillons d'ores et déjà avec les sénateurs en veillant à ce que le texte respecte le compromis européen afin de ne pas fragiliser l'édifice.

M. Claude Malhuret, rapporteur. - Le contrôle d'âge sur TikTok, sans parler des autres plateformes et des sites pornographiques, est une vaste blague. Les dirigeants de TikTok ont beau déclarer que l'accès à l'application est interdit aux mineurs âgés de moins de 13 ans, ce contrôle n'existe pas et, d'ailleurs, les statistiques qu'ils publient par classes d'âge le prouvent.

Quand le DSA entrera en application le 25 août prochain, tout porte à croire que TikTok ne sera pas en mesure de mettre en place un contrôle d'âge sérieux. À mon avis, le seul contrôle sérieux est celui qui repose sur un tiers de confiance et des mécanismes élaborés. S'il devait être mis en place dans deux mois, il serait déjà en préparation. Le Gouvernement a-t-il un programme précis pour imposer ce contrôle d'âge ? Concernant les principaux sites pornographiques, que compte faire la France si la justice, sur la question des blocages de ces sites par l'Arcom, ne la condamne pas ?

M. Jean-Noël Barrot, ministre délégué. - Effectivement, 90 % des jeunes de 11 à 12 ans sont sur TikTok alors même que le réseau social a fixé à 13 ans la limite d'âge basse d'accès à son service. En somme, TikTok ne fait pas respecter ses propres conditions générales d'utilisation. Le règlement sur les services numériques ne prévoit pas explicitement de vérification d'âge ; il la cite comme mesure possible qu'une plateforme peut prendre pour limiter les risques systémiques qu'elle fait peser sur le bien-être et la santé de ses utilisateurs, celle des enfants, en particulier.

Néanmoins, une proposition de loi adoptée par le Parlement prévoit de mettre en place un consentement parental pour les mineurs de moins de 15 ans pour l'accès aux réseaux sociaux ; les notifications à la Commission européenne ayant été faites, nous disposons, par le fait, d'un cadre pour imposer un contrôle d'âge. De la même manière, en juillet 2020, les deux assemblées étaient parvenues à imposer aux sites pornographiques de vérifier sérieusement l'âge de leurs utilisateurs.

La question qui doit encore être tranchée a trait aux moyens. L'exposition aux contenus pornographiques est un sujet sur lequel nous travaillons depuis des mois et qui fait l'objet, comme vous l'avez rappelé, d'une procédure judiciaire devant le tribunal judiciaire de Paris, avec un verdict attendu le 7 juillet prochain. Deux millions d'enfants sont exposés chaque mois à ce type de contenus. Il existe pourtant des systèmes de vérification d'âge, notamment pour les mineurs de moins de 18 ans - estimation de l'âge à partir d'une photographie du visage, carte de paiement. Ils ne sont pas parfaits, mais la Cnil et l'Arcom souhaitent que les plateformes s'en saisissent. Bien sûr, nous devons concevoir des solutions plus sûres et plus fiables. Aussi avons-nous encouragé des entreprises françaises à se lancer dans le développement de ces solutions - par exemple, une application installée sur le téléphone de l'utilisateur pour produire, par l'intermédiaire d'un prestataire externe, une preuve anonyme de majorité - qui pourraient être déployées pour les réseaux sociaux. En somme, le cadre juridique existe ; les solutions techniques doivent être développées le plus vite possible, pour garantir à la fois la fiabilité du contrôle d'âge et la protection des données personnelles et de la vie privée.

M. Claude Malhuret, rapporteur - Le 25 août, c'est un peu juste pour se mettre en conformité.

M. Jean-Noël Barrot, ministre délégué. - Même si j'ai la conviction que toutes les plateformes y viendront, le règlement sur les services numériques n'impose pas, explicitement, la vérification d'âge. Elle est une mesure corrective. Si, le 25 août, les plateformes ne peuvent satisfaire aux exigences du DSA, elles pourront mettre en avant d'autres mesures de protection des enfants, et la Commission européenne pourra leur demander des comptes. Ainsi, le Gouvernement prend de manière explicite, dans notre droit interne, une mesure qui existait dans le RGPD - la majorité numérique - pour la mettre en oeuvre concrètement.

M. Mickaël Vallet, président. - Si des États introduisent dans leur droit national des mesures comme la vérification d'âge, les plateformes les adopteront pour que la gestion de leurs services soit identique d'un pays à l'autre ?

M. Jean-Noël Barrot, ministre délégué. - Oui, car, bien qu'il n'y ait pas d'harmonisation de la régulation de l'espace numérique au niveau mondial, la protection de l'enfance peut faire l'objet d'un très large consensus. La vérification de l'âge est donc la mère des batailles, et nous avons, sur ce point, des échanges avec d'autres pays membres de l'Union européenne, mais aussi situés en dehors de l'Union. En revanche, je précise que la proposition de loi sur la majorité numérique n'empiète pas à notre avis sur le règlement des services numériques au sens où ce règlement régit le contenu des applications, mais pas les conditions d'inscription. C'est la raison pour laquelle le Gouvernement a soutenu cette proposition de loi : il est donc possible de légiférer en la matière.

M. Mickaël Vallet, président - Puisque vous nous expliquez que le contrôle d'âge n'est pas inscrit dans le règlement, mais qu'il est considéré comme une préconisation pour faire baisser le risque systémique, j'imagine que la France a défendu l'idée de la mesure d'âge au niveau européen.

M. Jean-Noël Barrot, ministre délégué. - En parallèle au règlement sur les services numériques, la France a adopté le contrôle parental et sa généralisation, ce qui ne revient pas exactement à la vérification d'âge à l'inscription sur les réseaux sociaux, mais à un contrôle de l'âge au niveau des équipements.

M. Mickaël Vallet, président. - Quels pays en Europe ont été les chefs de file du refus de l'inscription du contrôle d'âge dans le texte, si le sujet a été évoqué ?

M. Jean-Noël Barrot, ministre délégué. - Je vous répondrai dans quelques instants.

M. Claude Malhuret, rapporteur - J'aborde la question du projet Clover, qui pourrait subir le même sort que le projet Texas et la société de traitement des données Oracle aux États-Unis, projet qui dure depuis cinq ans. C'est une habitude chez les plateformes de prendre des engagements et de ne pas les respecter. Nous n'avons pas d'annonces de la part de TikTok, sinon la promesse de consacrer 1,2 milliard d'euros par an au projet Clover. En outre, nous n'avons même pas le choix de l'opérateur. Cela semble secret. Sera-t-il français ou, à tout le moins européen ? Je ne pose pas la question par hasard, car, s'il est probable que des logiciels américains de traitement de données continuent d'être utilisés, nous serions dans un cas particulier de soumission au Cloud Act américain, qui poserait les mêmes problèmes que ceux que nous rencontrons aujourd'hui avec le RGPD. Avez-vous des précisions supplémentaires à nous apporter sur le projet Clover ?

M. Jean-Noël Barrot, ministre délégué. - Concernant la question du contrôle d'âge, cette mesure a bien été proposée par la France, mais ne constituait pas une ligne rouge. C'est un sujet que j'évoque néanmoins avec un certain nombre de mes homologues, en particulier les Pays-Bas, qui s'intéressent de très près aux questions de protection de l'enfance en ligne. Par ailleurs, la DG Connect, à la Commission européenne, travaille avec le PEReN, qui a développé sur ces sujets une certaine expertise.

Les responsables de TikTok se sont engagés à réaliser le projet Clover, mais le calendrier de mise en oeuvre paraît encore bien trop étendu. Nous tolérons que la plateforme se mette en conformité avec le RGPD par le biais du projet Clover, mais il ne faudrait pas jouer trop longtemps avec les nerfs des Européens pour ce qui regarde la protection de leurs données personnelles. Le respect du RPDG n'est pas une faveur que nous demandons, c'est une exigence que nous posons.

Un centre de données est déjà opérationnel à Dublin ; un autre est en construction en Norvège, géré par la société Green Lantern. Un délai de quinze mois a été annoncé pour l'achèvement de ces projets ; certes, c'est long, mais ce n'est pas inhabituel dans ce domaine. Je veillerai personnellement à ce que les engagements de TikTok soient respectés et je souhaite comme vous que le prestataire soit européen.

Enfin, des prestataires sont en cours de certification SecNumCloud par l'Anssi, ce qui nous « immuniserait » contre le Cloud Act.

M. Mickaël Vallet, président. - Je suis heureux que vous n'ayez pas dit, comme cela a pu être le cas au cours de l'audition de M. Garandeau, que nos exigences en matière de contrôle constituent une entrave à un nouveau secteur majeur de la création. En effet, nous ne sommes pas dupes de cette illusion culturelle : avec TikTok, nous avons affaire à une plateforme qui ne nous épate pas fondamentalement par les contenus qu'elle propose, ni par le désir de régulation qu'elle met en oeuvre. Il est donc plutôt rassurant d'observer que nous sommes très loin de porter atteinte à ces questions de créativité.

Ma deuxième remarque concerne la diffusion par l'État, à toute l'administration, d'outils numériques qui existent déjà : logiciels de visioconférences, messageries sécurisées, par exemple. Cette diffusion est insuffisante ; elle ne permet pas une acculturation de nos services à ces nouveaux médias et donne lieu à des usages incontrôlés - notamment dans l'éducation nationale, avec le recours à Instagram pour transmettre les devoirs aux élèves.

M. Jean-Noël Barrot, ministre délégué. - Sur cette dernière remarque, en effet, l'État doit être exemplaire. Nous avons amorcé un virage grâce à la doctrine du « cloud de confiance », en édictant des règles claires et en soutenant l'émergence, par le moyen de France 2030, d'offres de solutions logicielles de suites collaboratives souveraines, parmi lesquelles Olvid.

Pour finir, j'aimerais dire qu'il y a quelque chose de particulièrement frappant chez TikTok : la promesse initiale de construire un algorithme d'exploration qui permet la découverte du monde et des contenus culturels n'est pas tenue. Au contraire, nous sommes face à un algorithme d'enfermement. Pour autant, cela n'exonère pas la plateforme de respecter la propriété intellectuelle et les droits d'auteurs. Je suis certain que la commission d'enquête saura formuler des recommandations pour orienter notre action.

M. Mickaël Vallet, président. - Nous vous remercions de votre participation.