Lundi 13 mars 2023

- Présidence de M. Mickaël Vallet, président -

La réunion est ouverte à 17 h 05.

Audition de M. Marc Faddoul, chercheur en intelligence artificielle et directeur de Al Forensics

M. Mickaël Vallet, président. - Nous commençons nos travaux par l'audition de Marc Faddoul, chercheur en intelligence artificielle et directeur de l'association Al Forensics.

Vous avez notamment mené des recherches à l'université de Berkeley et au sein de Facebook AI. Vous êtes aussi directeur de Tracking Exposed, une organisation qui étudie l'influence des algorithmes des réseaux sociaux sur nos vies. Vous avez d'abord créé des algorithmes avant de mettre vos connaissances au service de ceux qui travaillent sur leur impact sur la société, notamment sur les plans politique et géopolitique.

Dans ce cadre, vous avez travaillé sur plusieurs réseaux sociaux dont TikTok, c'est pourquoi nous avons choisi de vous entendre aujourd'hui pour entrer directement dans le vif du sujet. Vous pourrez ainsi évoquer les caractéristiques de cet algorithme de TikTok ainsi que la manière dont, éventuellement, ce réseau social favorise certains types de désinformation. Vous aborderez également sans doute la question de la différenciation des contenus proposés par cette application selon les pays, et notamment se poser la question de la censure.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat. Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête. Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « je le jure ».

M. Marc Faddoul prête serment.

M. Marc Faddoul, président de Al Forensics. - Je salue l'initiative de votre commission, elle arrive à point nommé.

Souvent, le débat sur les réseaux sociaux et l'influence qu'ils exercent sur le débat public se focalise sur la modération de contenu : on se demande quels posts ou vidéos sont retirés ou supprimés, quels utilisateurs sont bloqués ; c'est certes important, et la modération joue un rôle critique dans l'arbitrage des contenus, mais ce rôle est minimal au regard de l'influence des algorithmes de recommandation, qui font que des posts et vidéos vont être, ou non, présentés en priorité à des millions d'utilisateurs. La modération du contenu est donc la partie émergée de l'iceberg, quand la promotion et la rétrogradation algorithmiques - qu'on appelle parfois le shadow banning - ont un impact bien plus important.

Les algorithmes sont vraiment les gardiens de l'information en ligne. C'est le cas, lorsque Google trie nos résultats de recherche, lorsque YouTube et Netflix personnalisent notre page d'accueil, lorsque Instagram ou Twitter font la « curation » de notre fil d'actualité, ou encore lorsque TikTok choisit les vidéos à nous présenter, avec le fameux feed « ForYou » qui est l'interface principale de l'application. Le rôle des algorithmes dans la distribution du contenu en ligne n'est pas nouveau, mais il s'est considérablement accru sur TikTok - ce qui a entrainé une prise de conscience de l'importance de l'algorithme et du fait qu'il est au centre de l'expérience utilisateur, tout en étant malheureusement opaque.

L'association Al Forensics a précisément pour mission de lever cette opacité : nous analysons ces systèmes de recommandation, pour s'assurer que les plateformes soient tenues responsables de leurs actions face à leurs utilisateurs, et devant la loi. Ces efforts de transparence ne sont pas faciles à mettre en place, d'abord parce que les données nécessaires à l'analyse ne sont pas disponibles, ou pas facilement.

La nouvelle législation européenne, le Digital Service Act (DSA) donne de l'espoir, grâce à des mesures qui vont obliger les plateformes à mettre en place des mécanismes de partage de données avec les chercheurs et la société civile. Il sera possible de réaliser des audits en coopération avec les plateformes, notamment via des Digital Service Coordinators (DSC), rôle qui sera sans doute joué par l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Nous mettons beaucoup d'espoir dans ces nouvelles procédures, dont les détails restent à déterminer. Cependant, leur cadre apparait déjà limité et elles ne remplaceront pas le besoin d'auditeurs collectant la donnée de manière indépendante, donc sans attendre l'autorisation des plateformes - ce besoin va rester nécessaire, ne serait-ce que pour garantir l'intégrité des données.

La plupart des critiques et suspicions envers TikTok peuvent concerner toutes les autres plateformes : l'opacité des algorithmes, le design addictif, la collecte intrusive de données personnelles à des fins de publicité ciblée, les biais introduits par les contenus polarisants et sensationnalistes. Les différences entre TikTok et les autres plateformes sont minces en termes de design algorithmique et de collecte de données, hormis la fréquence de collecte des données qui est plus rapide sur TikTok en raison de la courte durée des vidéos, on y reviendra. Toutes ces entreprises ont en commun de placer au premier plan l'objectif de gain financier. On voit parfois de l'intention, là où il n'y a que de la vénalité, qui peut se mêler à de l'incompétence... En réalité, TikTok, comme les autres, cherche à faire de l'argent, et pas de la politique. Les dérives algorithmiques, telles que la promotion disproportionnée de contenu polarisant ou de désinformation, sont avant tout une conséquence du design algorithmique qui cherche à maximiser l'engagement : les contenus les plus provocateurs ayant tendance à générer plus de réactions d'approbation ou de rejet, et donc de commentaires, l'algorithme les met d'autant plus en avant qu'il vise lui-même à maintenir la présence de l'utilisateur sur la plateforme.

TikTok est une entreprise relativement « jeune », et d'après les informations que j'en ai de l'intérieur, elle reste débordée par sa propre croissance et n'investit pas suffisamment dans la modération et la sécurité de ses utilisateurs - son équipe Trust and Safety est particulièrement petite -, ceci pour conserver des marges élevées ; elle n'anticiperait donc pas suffisamment les problèmes, les équipes produits pousseraient les nouvelles fonctionnalités avant qu'elles ne soient bien testées et que leurs conséquences ne soient bien évaluées, tandis que la modération serait toujours insuffisante, et toujours faite sous la contrainte.

De fait, la modération coûte cher et provoque toujours plus de polémiques qu'elle n'apporte de revenus ; la qualité de la modération est presque toujours proportionnelle à la force et à l'influence de la pression régulatrice, d'où son importance. Et si la modération laisse encore à désirer aux États-Unis et en Europe, la situation est bien pire en Afrique ou au Moyen-Orient, où les risques de déstabilisations sont pourtant encore plus élevés.

Pour TikTok, comme pour les autres plateformes, l'appât du gain est la cause de de la plupart des maux. TikTok est donc plutôt un mauvais élève, mais pas fondamentalement différent des plateformes américaines. Les critiques que l'on peut adresser plus spécifiquement à TikTok tiennent surtout à l'origine chinoise de l'entreprise, et aux liens que cela suppose nécessairement avec le parti communiste chinois. Des documents ayant fuité en 2020 montrent qu'à un moment donné, les modérateurs de la plateforme avaient pour instruction de censurer certains thèmes politiques sensibles pour le parti communiste chinois, par exemple toute référence aux manifestations de la place Tian'anmen. Le régime de Xi Jinping a démontré à plusieurs reprises qu'il contrôlait l'écosystème technologique d'une main de fer. On se souvient notamment de la disparition durant plusieurs mois de Jack Ma, le fondateur d'AliBaba, qui sortait un peu trop des rangs sur certaines de ses positions. Le fait que TikTok, parce qu'elle est une entreprise chinoise, doive répondre aux demandes d'un gouvernement autoritaire, constitue une distinction importante ; mais les mécanismes de dépendance à la plateforme sont similaires à ceux des plateformes américaines.

C'est pourquoi, je recommande que les exigences de transparence et les réponses en termes de régulation vaillent pour toutes les plateformes, plutôt que de viser TikTok en particulier. Depuis son rachat par Elon Musk, par exemple, Twitter montre plus de signes de manipulation algorithmique intentionnelle et de risque d'influence et d'ingérence politique que TikTok.

Je félicite votre commission de prendre au sérieux la question de TikTok, et de notre dépendance technologique. Nous devons défendre notre souveraineté digitale de manière systématique, et en continuant à nous appuyer sur les institutions européennes, où la régulation des technologies a été un réel succès ces dernières années, car l'Union Européenne a été en mesure d'imposer ses standards dans l'industrie à l'échelle mondiale.

M. Claude Malhuret, rapporteur. - Merci pour votre concision. J'ai beaucoup de questions et je ne vous les poserai pas toutes d'emblée, pour laisser de l'espace à chacun des membres de la commission.

Vous dites que le DSA marque une avancée, c'est vrai en particulier avec l'installation de Digital services Coordinators (DSC), mais qu'il faut aller plus loin : quelles recommandations feriez-vous pour avancer, sur la question qui nous réunit ?

Savez-vous, ensuite, quelle a été la réponse du président de ByteDance Singapour aux remarques assez « cuisantes » des quatre commissaires européens sur les manques de modération et sur l'opacité de l'algorithme utilisé par TikTok ? Des délais lui ont-ils été fixés pour y remédier ?

Connaissez-vous quels sont les contenus amplifiés ou cachés par les « pousseurs », c'est-à-dire par des opérations humaines volontaires, et quelle est leur part par rapport à l'algorithme dans la promotion de contenus ou la censure ?

Enfin, le Sénat avait voté, contre l'avis du Gouvernement, mon amendement à la loi du 24 août 2021 confortant le respect des principes de la République, pour faire de l'hébergeur un éditeur de contenu dès lors qu'il met en place du contenu à partir d'algorithmes et qu'il imprime une ligne éditoriale à sa plateforme : que pensez-vous de cette piste, que l'Assemblée nationale a écartée ?

M. Marc Faddoul. - Le DSA fait référence à la modération de contenus, beaucoup moins aux recommandations algorithmiques, sauf pour demander aux plateformes d'évaluer les risques systémiques pour la société de ces recommandations. Le DSA demande ensuite aux plateformes de mettre en place des interfaces de données, ouvrant un accès aux chercheurs à certaines conditions, mais sans préciser quelles données devront être accessibles, le texte n'est pas clair sur les données qui seront effectivement mises à disposition. Il y a actuellement une discussion au sein de la Commission européenne sur les actes délégués, qui vont préciser l'application de ces articles. Les plateformes ont été invitées à participer à un groupe de travail sur le code de bonnes pratiques contre la désinformation, où seront écrites les règles qui, si elles sont respectées, indiqueront que le DSA est respecté. Ces éléments précis restent à définir et mon association se bat sur plusieurs points, en particulier pour définir ce que nous appelons le reach, c'est-à-dire la quantité et la qualité des utilisateurs qui peuvent être touchés par un certain contenu - il faut pouvoir savoir directement quelles personnes sont touchées par des contenus qui procèdent d'une ingérence politique étrangère ou qui désinforment et quelles sont leurs caractéristiques. Ces éléments sont encore flous, ils ne sont pas fixés par le Règlement, et les plateformes se défendent âprement, pour limiter leurs réponses aux demandes de la société civile.

Ne connaissant pas précisément les relations entre la Commission européenne et la direction de TikTok, je préfère ne pas répondre à votre question sur l'échange qu'elles ont eu récemment.

S'agissant du contenu qui est « poussé » par une intervention humaine sur la plateforme, nous savons que cela existe mais nous n'en connaissons pas l'échelle. Une fuite récente d'un document interne de TikTok évoque une proportion de 1 à 2 % de vues faites sur des vidéos manuellement amplifiées - l'entreprise parle de « hitting » -, pour mettre en avant des contenus jugés valorisants pour la plateforme et influencer « la culture » de l'algorithme, c'est considérable. Nous n'avons pas de preuve que cela concerne du contenu politique, mais la fonctionnalité existe. Ce qui est inquiétant aussi, c'est qu'un grand nombre d'employés pourraient agir sur ce levier, alors qu'ils peuvent être eux-mêmes influencés de l'extérieur.

La censure est difficile à évaluer de l'extérieur, d'autant plus qu'il faut y intégrer l'incidence de l'algorithme de recommandation : la modération écarte du contenu puis l'algorithme de recommandation en tient compte et il écarte à son tour des contenus similaires. Un effet de second ordre de rétrogradation algorithmique, que l'on appelle shadow banning, peut se produire. Cette tendance crée une « zone grise » de contenus qui ne sont pas illégaux mais ont tendance à moins sortir dans les résultats algorithmiques, un phénomène que dénoncent notamment les associations de la communauté LGBT, qui montrent que leurs contenus sont moins recommandés, probablement parce qu'ils emploient des mots similaires à ceux utilisés dans des contenus à caractère sexuel qui sont plus retirés. C'est une forme de censure par similarité.

Enfin, je suis absolument d'accord avec vous sur le fait qu'une plateforme devient un éditeur : l'algorithme de YouTube, par exemple, a plus de pouvoir éditorial sur la circulation d'information que sans doute les grands journaux américains ou français. C'est d'autant plus vrai sur les questions politiques car les plateformes, en réponse au fait qu'elles promouvraient des informations de faible qualité, amplifient les sources dites d'autorité, c'est-à-dire des journaux et médias reconnus comme crédibles, qui ont eux-mêmes une ligne éditoriale. Même le choix des thèmes qui reçoivent ce traitement d'informations présélectionnées ou préfiltrées constitue une édition. Cette distinction est essentielle puisque les plateformes sont protégées aux États-Unis par la section 230 - le Communications Decency Act (CDA) 230 -, qui les exonère de toute responsabilité sur le contenu posté par les utilisateurs sur leur plateforme.

Dans notre étude sur les plateformes pendant l'élection présidentielle française, nous avons comparé les stratégies de TikTok et YouTube. Alors que YouTube mettait en avant beaucoup d'informations dite d'autorité, c'est-à-dire de grands médias reconnus, TikTok promouvait davantage du contenu provenant d'utilisateurs.

M. Mickaël Vallet, président. - Vous dites que d'autres plateformes sont tout aussi intrusives que TikTok, mais qu'on peut lui adresser quand même des reproches spécifiques : lesquels ?

J'ai lu aussi que TikTok était plus addictif parce que les vidéos y défilent plus vite, ce qui multiplie les interactions avec l'utilisateur qui donne plus rapidement des informations sur lui ; qu'est-ce qui fait que cet algorithme est plus puissant et mieux formaté ? Et pourquoi les autres plateformes n'ont-elles pas eu l'idée avant ?

Enfin, pouvez-vous nous en dire plus sur la « cyber-balkanisation » de l'internet : est-ce un fantasme, ou une réalité - et quelles chances a-t-on de mieux connaître, comme vous le proposez, qui subit de fausses informations ?

M. Marc Faddoul. - Effectivement, le design de l'expérience utilisateur de TikTok est centré sur un algorithme de recommandation qui travaille sur un fil d'une seule vidéo à la fois. Sur le premier fil de Facebook, l'algorithme de recommandation proposait cinq ou six posts associés à la recherche, ce qui donnait une certaine liberté de choix à l'utilisateur. Le passage de l'écran d'ordinateur au mobile a réduit la quantité de posts proposés. Par ailleurs les plateformes ont augmenté la taille des posts, ce qui en a diminué le nombre : l'algorithme est devenu de plus en plus « paternaliste » en décidant ce que l'utilisateur va regarder. TikTok va encore plus loin, en ne proposant qu'une seule vidéo à la fois. Ce design a deux conséquences : il diminue la charge cognitive pour l'utilisateur, il n'y a plus qu'à suivre ou à rejeter la proposition, et il fournit à l'algorithme des données d'entrainement bien supérieures à la fois en nombre et en qualité. Chaque vidéo est évaluée toutes les cinq ou dix secondes en la regardant en entier ou en passant à la suivante, constituant une donnée d'entrainement pour savoir si la vidéo correspond à son intérêt ou pas ; là où YouTube collectait une dizaine de points d'entraînement par heure, TikTok en collecte plusieurs centaines, voire un millier de points, par heure, la plateforme peut alors bien mieux cibler les intérêts de l'utilisateur. J'aime bien raconter cet exemple : après avoir téléchargé TikTok pour la première fois, l'algorithme a détecté mon intérêt pour l'algorithme de recommandation en environ d'une demi-heure, ceci parce que j'étais allé voir une vidéo où un créateur de contenu se plaignait d'être moins recommandé, puis les commentaires sur cette vidéo, je regarde une deuxième sur le sujet, ainsi que les commentaires .... Tout est allé très vite pour que la plateforme détecte cet intérêt de niche par comparaison entre les vidéos. À l'échelle de plusieurs heures de visionnage, l'algorithme est capable dresser un profil d'intérêts et presque psychologique très précis de l'utilisateur.

Nous avons donc comme différences la prééminence de l'algorithme dans l'expérience utilisateur, la quantité de données fournies à la plateforme et également le modèle de viralité.

Alors qu'Instagram et Facebook ont un modèle porté sur le réseau d'amis et les profils qui ont été suivis intentionnellement par l'utilisateur, TikTok le met en relation avec des créateurs de contenus qu'il ne connait pas et qu'elle lui suggère à partir de ceux qu'elle lui a déjà suggérés et qu'il a suivis, c'est bien plus large et moins intentionnel.

Le dernier élément important est la composante musicale : à la base, TikTok est une plateforme de karaoké et de danse. Beaucoup de vidéos ont une chanson ce qui joue un rôle important dans la viralité, ce qui est lié à l'émotion qui accompagne la musique.

Mme Annick Billon. - On sait que TikTok est utilisé comme intermédiaire pour faire « basculer » les utilisateurs, pour les entrainer vers d'autres sites : savez-vous dans quelle proportion ?

On dit aussi que l'algorithme serait différencié selon les pays, c'est donc qu'il viserait d'autres objectifs : quels sont-ils, et quelles sont les différences ?

J'ai lu en début d'année que TikTok pourrait autoriser la diffusion de contenus pour adultes, cela fait écho aux travaux que nous avons conduits, à la Délégation aux droits des femmes, sur l'industrie de la pornographie - et je suis convaincue que si TikTok s'intéresse à ces contenus, c'est parce qu'il y a énormément d'argent à gagner. Pensez-vous que les tentatives de contrôler l'âge des utilisateurs qui accèdent à ces vidéos puissent aboutir ? À quelle échelle le faire, sachant que l'industrie pornographique est, elle, organisée à l'échelle internationale ?

M. Marc Faddoul. - Il y a un réel débat sur l'importance des bulles cognitives sur internet, des utilisateurs y entreraient sur des plateformes ouvertes, où ils ne feraient que passer pour s'enfermer ensuite dans des réseaux spécialisés. La littérature académique, qui concerne surtout les États-Unis, est assez nuancée sur le sujet : il semble que la fréquentation des réseaux sociaux donne accès à un environnement informationnel plus varié que le fait de suivre un seul média, par exemple une chaine de télévision elle-même très orientée - et il n'est pas établi que les gens soient plus isolés sur internet que dans la vie réelle. Cependant, les réseaux sociaux ont la capacité d'identifier des utilisateurs vulnérables sur des intérêts particuliers que l'on n'a pas hors ligne. Le phénomène d'enfermement dans des bulles cognitives et la radicalisation se concentrent à la marge de la population, sur certains utilisateurs plus vulnérables. Souvent cette radicalisation se passe en privé : l'utilisateur va être attiré dans la communauté à travers l'algorithme de recommandation, mais ce n'est pas cet algorithme qui va maintenir l'utilisateur dans cette bulle. Ce dernier va faire l'objet de messages directs et ensuite envoyé sur des réseaux cryptés comme Telegram. C'est bien pourquoi l'éducation aux médias est essentielle ; il y a de très bonnes associations qui font ça en France.

S'agissant de la « cyber-balkanisation », en effet l'algorithme est très sensible à la géolocalisation à deux niveaux : au GPS, qui lui fait diffuser du contenu très local, et à la nationalité, une notion qui est en fait difficile à définir sur internet. Nous avons comparé le contenu diffusé aux Russes et aux Ukrainiens depuis un an : suite à la loi russe sur la désinformation qui interdisait notamment l'utilisation du mot « guerre » pour parler de l'Ukraine, TikTok a décidé de modérer de manière grossière et de bannir tout contenu international pour les utilisateurs russes puisque l'essentiel des critiques vient de l'extérieur et qu'il y a plus d'autocensure en Russie. L'entreprise l'a fait de manière complètement opaque, sans même prévenir de cette nouvelle politique de modération. L'algorithme a donc ses spécificités nationales. Au passage, nous avons vérifié que ce tri était fait non pas en fonction de la seule adresse IP, mais aussi du lieu où le compte a été créé la première fois, démontrant que les plateformes choisissent les critères qui leur conviennent pour définir l'identité digitale des utilisateurs - il serait donc peut-être intéressant de préciser ce point dans la loi. Les règles de modération sont elles aussi adaptées selon les pays. En Thaïlande par exemple, où le crime de lèse-majesté existe toujours, la plateforme censure les contenus critiques envers la royauté. La guerre en Ukraine a porté la balkanisation d'internet à un niveau inédit, mais je crois que le mouvement va continuer, d'autant que de plus en plus de pays vont chercher à réguler ces plateformes, ce qui entraîne une fragmentation des contenus disponibles.

Sur les contenus pour adultes, il ne faut pas oublier que le succès de TikTok s'est construit sur un soft porn qui ne s'avoue pas comme tel, en mettant en avant des personnes très jeunes, souvent légèrement vêtues et attractives selon les critères de beauté conventionnels... D'ailleurs, le document interne que je vous ai cité, démontrant la censure de certains contenus politiques, demandait aussi de mettre en avant des gens beaux, et d'écarter ceux qui ne répondaient pas à ces critères ou qui n'avaient pas l'air aisés. Je précise que ce document date de 2019 et que, depuis, TikTok a déclaré que ces règles ne s'appliquaient plus.

Mme Annick Billon. - J'ai entendu dire que l'utilisation de l'application Waze faisait qu'on était encore plus géolocalisé par les plateformes : le confirmez-vous ?

M. Marc Faddoul. - Je n'ai pas connaissance de ce à quoi vous faites référence. Mais dès lors que vous autorisez Waze à accéder en permanence à votre GPS, vous êtes localisé en permanence...

M. Thomas Dossus. - Comment avez-vous suivi le conflit en Ukraine, à partir de l'invasion russe ? Les équipes de TikTok Russie sont-elles basées en Russie ? Comment les choses se passent concrètement ? Y a-t-il des consignes ? Sont-elles élaborées en coopération avec le parti communiste chinois ? Où les équipes qui « poussent » les tendances sont-elles localisées ? Y-a-t-il là encore des consignes venant de Chine ?

Comment, ensuite, le législateur peut-il légiférer de manière robuste sur les algorithmes ? Il semble que nous soyons toujours à la course derrière certaines dérives : peut-on les prévenir ? Vous appelez à des algorithmes qui seraient au service du bien commun, plutôt qu'au seul service économique des plateformes : pouvez-vous développer cette vision ?

M. Marc Faddoul. - La décision de modérer le contenu international en Russie a été une conséquence de la loi russe, soit une influence politique directe. Y a-t-il eu des tractations derrière des portes, entre les autorités politiques russes et TikTok ? Je n'en ai pas connaissance. En tout état de cause, je pense que la plateforme TikTok qui est encore en phase de croissance et a beaucoup de regards tournés vers elle, aurait vraiment beaucoup à perdre en cas d'interférence du parti communiste chinois sur les décisions de modération. Nous avons analysé l'affaire de la joueuse de tennis Peng Shuai, nous avons regardé les vidéos diffusées et il n'y a rien de clair qui établisse une censure. Cela dit, si Taïwan venait à être envahi par la Chine, peut-on espérer un comportement impartial de TikTok ? Je ne le crois pas, son comportement dépend des risques et de ses intérêts, donc aussi de l'importance du sujet pour le pouvoir chinois.

Comment légiférer de manière robuste ? La législation se focalise surtout sur la transparence ; le DSA demande aux plateformes d'évaluer le risque systémique sur la société, en termes d'addiction et de promotion de contenus polarisants : ce n'est pas suffisant pour promouvoir des alternatives. Comment promouvoir une forme de souveraineté algorithmique ? Dans l'idéal, on pourrait obliger une interopérabilité qui permettrait à des tiers de fournir des systèmes de recommandation qui fonctionneraient sur les plateformes, de façon à ce que l'utilisateur puisse choisir un algorithme qui lui convienne, c'est-à-dire un algorithme qui apporte de l'information intéressante sur des sujets choisis et avec la fréquence choisie, et non un algorithme qui cherche uniquement à le maintenir sur telle ou telle plateforme.

Mme Céline Boulay-Espéronnier. - Quelles sont les conditions générales d'utilisation (CGU) de TikTok ? Sont-elles aussi peu lisibles et peu accessibles que pour les autres réseaux ?

Comment cette application collecte-t-elle les données ?

M. Marc Faddoul. - Je vous avoue que je n'ai pas lu les CGU de TikTok et je ne dois pas être le seul, c'est une dimension du problème. Le DSA prévoit, je crois, d'obliger à les rendre plus lisibles. L'une des conditions qui est souvent repérée comme problématique est la condition d'âge de 13 ans, mais nous savons que cette condition n'est pas vérifiée ; TikTok évoque une reconnaissance faciale, je crois que c'est une très mauvaise idée.

En acceptant les CGU, on accepte que TikTok collecte nos données comportementales, notamment les données qui décrivent notre interaction avec le contenu. On autorise ainsi la plateforme à dresser un profit psychologique et d'intérêts à notre sujet et à l'utiliser à des fins commerciales, pour faire de la publicité ciblée, ce qui est essentiel dans son modèle économique. Cette façon de faire n'est pas différente des autres plateformes.

Au sujet du modèle économique, je souligne que TikTok est la plateforme où les dons directs aux créateurs de contenus sont les plus importants, ils atteindraient 1,5 milliards de dollars l'an passé, soit plus que toutes les autres plateformes réunies. C'est très attractif pour les créateurs de contenu, sachant que les plateformes sont en concurrence pour les attirer. Aujourd'hui les gains essentiels des influenceurs se font désormais moins sur les revenus publicitaires que par le sponsoring, officiel ou non officiel, et les dons des utilisateurs. Le sponsoring non officiel est d'ailleurs difficile à contrôler et présente le plus de risque pour l'ingérence politique : ce n'est peut-être pas à dire, mais dans une campagne politique aujourd'hui, l'un des leviers efficaces consiste à payer des influenceurs sans le dire...

Mme Laurence Rossignol- Vous parlez d'un sponsoring officiel et d'un sponsoring non officiel : quelle est la différence ?

M. Marc Faddoul. - Il y a un sponsoring déclaré, affiché comme tel, et un sponsoring qui ne s'affiche pas, dissimulé.

Mme Toine Bourrat. - TikTok est, avec Facebook, l'un des seuls réseaux sociaux à avoir dévoilé une part des secrets de son algorithme, qui repose sur les recommandations. Malgré cette « transparence » qui tient lieu d'affichage publicitaire ou de tentative de blanchiment de ses activités, nous savons qu'un algorithme reste opaque. Peut-on néanmoins, lorsqu'on n'en n'est pas le concepteur, en cerner tous les « secrets » ? Sommes-nous capables d'en cerner toutes les conséquences ou tous les effets néfastes ?

La lanceuse d'alerte Frances Haugen, lors de son audition devant le Sénat, avait pris l'exemple de Facebook dont l'algorithme avait permis de suggérer des contenus néonazis à des utilisateurs allemands, du fait de l'absence d'entrave légale à l'intérêt commercial de l'outil. Elle notait que le DSA, qui entend responsabiliser les plateformes, pourrait limiter ces externalités négatives. Si je vous ai bien compris, le DSA ne pourra pas inciter les réseaux sociaux à restreindre cet algorithme. Pensez-vous que les mesures de ce nouveau bouclier européen ne seront pas suffisamment efficaces pour éviter ce type de contenu ?

M. Marc Faddoul. - En réalité, même le concepteur de l'algorithme ne peut prédire avec précision le comportement de l'algorithme, ni mesurer l'impact qu'il aura sur la société. La conception de l'algorithme se fait en l'absence de données, c'est une fois mis en place qu'il va évoluer en interaction avec l'utilisateur et la création de données par l'utilisateur, et le résultat ne peut pas être vraiment anticipé. Du reste, pour faire un audit algorithmique, notre objectif n'est pas, par du Reverse Engineering, d'atteindre le code source de l'algorithme, mais plus d'observer son comportement. La plateforme sait dire comment l'algorithme a été conçu, pas comment il se comporte précisément, car cela demande un investissement important pour le savoir - et la plateforme se concentre surtout sur le fait de savoir si l'algorithme crée et maintient de l'engagement.

Les contenus problématiques ou racistes sont déjà interdits par les CGU et généralement par la loi. Face à la loi très restrictive que l'Allemagne a mis en place en 2017, la Netzwerkdurchetzungsgesetz (NetzDG) qui les a obligées à réagir dans un délai très restreint, les plateformes, pour se protéger, ont eu tendance à sur-modérer les contenus, ce qui est problématique. Cela dit, les contenus racistes restent un problème, ils sont la conséquence de communautés présentes sur les réseaux, dont les contenus sont amplifiés parce qu'ils sont polarisants, et parce que ces communautés sont très actives, car elles veulent se faire entendre et postent donc beaucoup de contenus.

M. Pierre Ouzoulias. - Merci pour la qualité de vos réponses. La loi pour une République numérique a tenté, dès 2016, de réguler les algorithmes, avec des outils nouveaux - en particulier l'article L. 111-7 du code de la consommation. Or, ces outils sont très difficiles à utiliser dès lors que le régulateur, l'Arcom, n'accède pas à l'algorithme, elle essaye de déduire de l'utilisation des plateformes le fonctionnement des algorithmes. Quelle est donc la capacité des États à contraindre les plateformes, qui sont partout et nulle part, à respecter certaines règles ? Vous évoquez l'interopérabilité, comment la mettre en place ?

M. Marc Faddoul. - Je ne connais pas la législation française sur ce point, mais je sais que le défaut d'application est également l'une des grandes craintes de ceux qui élaborent le DSA, car à quoi bon définir des principes et mettre en place des outils, si l'on ne peut pas les utiliser ?

L'interopérabilité est une possibilité qui semblerait plus facile à imposer, mais ses implications techniques seraient importantes et ouvriraient un très large champ au lobbying pour prétendre qu'elle est impossible. Or, avant son rachat par Elon Musk, Twitter l'avait envisagée et avait entrepris des recherches dans ce sens avec le projet Blue Sky, signe que l'interopérabilité est envisageable - le problème, c'est qu'elle n'est pas du tout dans l'intérêt des plateformes, qui veulent garder un algorithme fermé pour maintenir les utilisateurs chez elles ; on voit d'ailleurs que les navigateurs intégrés vous reconduisent sur la plateforme quand vous en consultez un lien externe...

Mme Laurence Rossignol. - Je ne connais pas bien TikTok et suis plus familière de Twitter et de Facebook. Est-ce que l'on repère sur TikTok autant d'usines à trolls et de bots que sur les autres plateformes ?

M. Marc Faddoul. - Sans doute. Il y en a sur toutes les plateformes, et il n'y a aucune raison de penser que TikTok soit plus efficace pour lutter contre ce phénomène. Les résultats, en la matière, dépendent directement des investissements dans les équipes de modération et dans les systèmes de détection, il y a toutes les raisons de penser que ces bots soient nombreux sur TikTok. Une nouvelle tendance voit arriver des contenus créés par intelligence artificielle, y compris en vidéo, ce qui va faciliter les campagnes de trolling. C'est un problème supplémentaire pour lutter contre la désinformation.

M. Thomas Dossus- Les contenus polarisants sont plus visibles, par exemple ceux de l'extrême-droite pendant la campagne présidentielle : est-ce le fait que les milieux d'extrême-droite maitriseraient particulièrement bien les réseaux sociaux  ou le fait de la plateforme qui met en avant les contenus polarisants ?

M. Marc Faddoul. - Les deux : il y a une bonne maîtrise des codes des réseaux sociaux par certains partis qui ont peut-être moins de scrupules à utiliser de fausses informations ou des informations déformées qui retiennent plus l'attention de l'utilisateur. Notre étude sur l'élection présidentielle française montre qu'Éric Zemmour est représenté de manière disproportionnée dans ls recommandations algorithmiques, mais c'est aussi que ce candidat surfait alors sur une vague de sur-représentation médiatique. On a même vu des utilisateurs utiliser le hashtag Zemmour pour des messages qui portaient sur tout autre chose, juste pour bénéficier de sa notoriété.

Je donne ce chiffre au passage : l'estimation basse est de 1 milliard de vidéos à contenu politique vues pendant la campagne présidentielle sur TikTok, on est donc loin de la simple plateforme de divertissement, telle que se présente TikTok pour justifier qu'elle investit peu dans la modération de contenu... TikTok est bien un vecteur de dialogue politique, même si elle s'en défend.

M. Claude Malhuret, rapporteur. - Vous estimez que l'idéal, ce serait d'obtenir la transparence des algorithmes et l'interopérabilité, au moins pour les DSC, ce qui placerait les plateformes davantage au service des utilisateurs. On dit que Douyin serait différente de TikTok, plus culturelle et éducative, moins addictive, avec une limite d'usage de 40 minutes sur la plateforme, une idée qui pourrait être reprise en Europe : est-ce le cas, Douyin traite-t-elle vraiment ses utilisateurs avec plus de respect, ou bien n'est-ce là que du buzz et qu'une forme de propagande ?

Face aux nombreuses critiques, ensuite, TikTok, qui sent le vent du boulet, a annoncé implanter des serveurs en Europe, où elle a choisi de les concentrer en l'Irlande, et aux États-Unis, par un partenariat avec Oracle, ceci pour montrer que les données ne s'en vont pas en Chine. Pensez-vous que c'est un vrai changement de politique qui apporte une solution, ou bien ce n'est qu'une façon de noyer le poisson, la plateforme ayant toujours la possibilité, depuis la Chine, de faire ce qu'elle veut des données ?

M. Marc Faddoul. - Il y a eu ce « narratif » sur le fait que Douyin serait une réplique de TikTok pour le marché chinois mais avec une librairie de contenus différents, alors qu'en réalité, les deux applications sont développées par les mêmes équipes : les mêmes ingénieurs travaillent sur les algorithmes de TikTok et Douyin. Cela dit, la politique de modération et éditoriale est nécessairement différente sur Douyin, puisque son contenu est apolitique et la censure assumée. Je n'utilise pas Douyin, mais je crois que la présentation que vous en dites n'est qu'un « narratif ». De ce que j'en sais, Douyin est une plateforme de distraction où des influenceurs promeuvent une culture capitaliste et beaucoup de produits. En revanche, il y a une réelle volonté du parti communiste chinois de limiter l'influence des plateformes sur les enfants - il y a une politique de limitation du temps d'écran face à l'addiction aux jeux et aux plateformes - et nous pourrions nous en inspirer.

Sur l'accès aux données, je préfère ne pas m'avancer car il est très difficile de savoir ce qui se passe précisément une fois les données stockées. Même si les données des utilisateurs américains sont stockées aux États-Unis, il y a toujours un backup en Chine, notamment à Shanghai, et j'imagine mal une imperméabilité, ne serait-ce que parce que TikTok aura besoin des données d'utilisateurs pour continuer à entraîner son algorithme qui est développé en Chine, elle aura donc besoin de faire des requêtes à ces données ; et même si les données sont anonymisées, elles sont si précises et si spécifiques, qu'il devient possible de retrouver l'identité de l'utilisateur, via son profil d'intérêt, de comportement et son adresse IP. En un mot, je vois mal comment TikTok se passerait complètement d'un accès à ces données.

M. Mickaël Vallet, président. - Merci pour toutes ces informations et analyses.

La réunion est close à 17 h 30.

Jeudi 16 mars 2023

- Présidence de M. Mickaël Vallet, président -

La réunion est ouverte à 11 heures.

Audition de M. Benoît Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom)

M. Mickaël Vallet, président. - Nous avons le plaisir d'auditionner ce matin M. Benoît Loutrel, ancien directeur général de l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep), ancien directeur chargé des relations institutionnelles de Google France et aujourd'hui conseiller membre du collège de l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

Autorité publique indépendante qui résulte de la fusion, le 1er janvier 2022, du Conseil supérieur audiovisuel (CSA) et de la Haute Autorité pour la diffusion des oeuvres et la protection des droits sur internet (Hadopi), l'Arcom est notamment compétente en matière de régulation des plateformes en ligne et des réseaux sociaux.

Ses compétences ont progressivement été renforcées par les lois récentes relatives à la protection de l'enfance et de l'adolescence, à la manipulation de l'information, à la lutte contre la diffusion de fausses informations et la haine en ligne : autant d'enjeux pour lesquels nous souhaiterions connaître les risques spécifiques pour les utilisateurs de TikTok.

Selon la presse, vous avez même reçu cette semaine le conseiller général de ByteDance à propos des critiques exprimées par l'Arcom sur la faible qualité du rapport sur la lutte contre la désinformation remis par TikTok l'an dernier : vous vous exprimerez sans doute sur ce point également.

Je rappelle que cette audition est captée et retransmise en direct sur le site du Sénat.

Avant de vous laisser la parole pour un exposé liminaire d'une quinzaine de minutes, je vais procéder aux formalités d'usage pour les commissions d'enquête.

Je dois ainsi vous rappeler qu'un faux témoignage devant notre commission d'enquête est passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal, et je vous invite à prêter serment de dire toute la vérité, rien que la vérité, en levant la main droite et en disant : « Je le jure ».

Conformément à la procédure applicable aux commissions d'enquête, M. Benoît Loutrel prête serment.

M. Benoît Loutrel, membre de l'Autorité de régulation de la communication audiovisuelle et numérique. - Depuis la loi de 2018 relative à la lutte contre la manipulation de l'information, l'Arcom s'est vu confier, en plus de ses missions de régulateur de l'audiovisuel, la mission de réguler les plateformes numériques de partage de contenus, dont le vif succès s'accompagne de certains débordements, qui suscitent des questions sur le fonctionnement de notre démocratie.

Nous avons dressé en novembre dernier un bilan de l'application de la loi sur la manipulation de l'information, montré les acquis de notre législation et ses limites, et épinglé la société TikTok.

Le législateur, en créant le devoir de coopération des grandes plateformes et en leur imposant de participer à la lutte contre la manipulation de l'information, a suscité une dynamique. Nous sommes mieux armés pour faire face aux risques informationnels ou d'interférences étrangères, notamment dans les processus électoraux. Nous avons ainsi pu préparer la dernière élection présidentielle, avec le Conseil constitutionnel et les plateformes, pour pouvoir répondre en cas de problème, mais la menace ne s'est pas avérée. Est-ce en raison du déclenchement de la guerre en Ukraine ? En tout cas, nous étions prêts. La désignation d'une autorité publique comme point de référence a facilité l'action des plateformes. Nous les avons préparées à la mise en place de la Commission nationale de contrôle de la campagne électorale en vue de l'élection présidentielle (CNCCEP), à travailler et à échanger avec le Conseil constitutionnel.

La loi exige que les plateformes s'engagent dans la lutte contre les manipulations de l'information, prennent des mesures proactives et, point crucial, les rendent transparentes, afin que tout le monde puisse en prendre connaissance et comprendre ce que font les plateformes. Il s'agit de renforcer la confiance. Dans ce cadre, chaque année, l'Arcom adresse un questionnaire aux opérateurs de plateformes en ligne. Pour la première fois, l'obligation s'appliquait à TikTok, parce qu'auparavant l'entreprise n'avait pas franchi les seuils qui la soumettaient à cette obligation. À sa décharge, c'était donc la première fois que la plateforme était soumise à cet exercice.

Nous avons reçu beaucoup de réponses incomplètes à nos questions de la part de l'ensemble des plateformes, mais les manques étaient beaucoup plus nombreux pour TikTok. C'est pour cette raison que nous avons choisi de les épingler publiquement. Notre rapport indique que la « déclaration est particulièrement imprécise avec peu d'informations relatives au service en France et aucun élément tangible permettant une évaluation des moyens mis en place ». Nous déplorons que le dispositif de signalement soit accessible mais peu visible - il est accessible via une icône en forme de flèche symbolisant le repartage du contenu.

L'entreprise a développé une politique de signalement des « médias contrôlés par un État », mais la mise en oeuvre de cette règle est sélective : si les chaînes ukrainiennes contrôlées par l'État ukrainien étaient étiquetées, le compte de China Global Television Network Europe (CGTN Europe), contrôlé par l'État chinois, n'était pas identifié comme tel.

TikTok n'a pas répondu pleinement à notre questionnaire. La société est jeune et semble être encore dans un processus de construction et de mise en oeuvre de sa politique de modération. Toutefois, ses imprécisions nous semblaient poser un problème, et c'est pour cela que nous les avons rendues publiques.

La transparence s'est avérée efficace, car l'entreprise est revenue vers nous très vite pour nous dire qu'elle avait corrigé son erreur, et qu'elle avait désormais étiqueté les chaînes de CGTN.

Les plateformes ont une activité de trust and safety, de confiance et de sécurité : il s'agit pour l'entreprise de veiller à l'intégrité du réseau, à l'absence de troubles sur la plateforme, à ce que les usagers ne soient pas en danger. Historiquement, les plateformes ont développé cette activité de manière volontaire, comme une forme d'engagement au titre de la responsabilité sociale et environnementale (RSE) de l'entreprise. TikTok n'a pas mis autant d'énergie à développer cette activité qu'elle n'en a mis pour assurer sa croissance commerciale.

L'exercice que nous avons mené en novembre a montré tout l'intérêt des lois françaises, comme leurs limites. Parmi ces dernières, on note que nous n'avons pas de capacité à exiger la transparence. Nos lois datent de 2018 en France, de 2019 en Allemagne (loi NetzDG sur la haine en ligne). La France a adopté une loi en 2020 visant à lutter contre les contenus haineux sur internet, qui a été partiellement censurée par le Conseil constitutionnel, mais qui a mis en place un observatoire des plateformes, qui a prouvé son utilité comme lieu de discussion avec toutes les parties prenantes, et un pôle national de lutte contre la haine en ligne.

Ces lois ont permis aux pouvoirs publics d'acquérir un savoir-faire, une capacité d'action institutionnelle, de créer une dynamique, et maintenant nous pouvons être plus ambitieux. Nous sommes maintenant en train de basculer dans une logique de préfiguration de la mise en oeuvre du règlement européen sur les services numériques (RSN) ou Digital Services Act (DSA), qui permettra d'aller beaucoup plus loin dans la responsabilisation des grandes plateformes.

L'activité de confiance et de sécurité va devenir une exigence légale, sous le contrôle des régulateurs et des pouvoirs publics. Le but est en fait de permettre à tout le monde de participer à l'exercice de responsabilisation des plateformes, car les problèmes posés par les réseaux sociaux, qu'il s'agisse de l'incitation à la haine en ligne, de la mise en danger des publics, des mineurs ou encore du développement des addictionsconcernent en fait tout le monde. La régulation telle qu'elle est conçue dans le cadre du RSN vise à permettre à chacun de se saisir de ces sujets. Il s'agit de pouvoir agir collectivement, mais aussi de maintenir la confiance.

Ces plateformes sont au coeur du fonctionnement de nos démocraties. Elles permettent d'étendre notre capacité à exercer notre liberté d'expression, et c'est ce qui fait aussi leur succès populaire ; mais ces nouvelles libertés appellent de nouvelles responsabilités. Le cadre européen renforce sensiblement la responsabilité des grandes plateformes numériques, vise à permettre la mobilisation des usagers et à les responsabiliser, car ces derniers font partie à la fois de la solution et du problème. C'est l'enjeu de la construction d'une citoyenneté numérique.

M. Claude Malhuret, rapporteur. - Nous vous avons envoyé un questionnaire détaillé, et nous poursuivrons nos échanges, le cas échéant, après la réunion pour approfondir la question.

Le rapport de l'Arcom du 18 novembre 2022 est critique à l'égard de toutes les plateformes, mais particulièrement à l'égard de TikTok. Vous avez indiqué que la société était jeune et n'avait pas encore l'expérience des autres plateformes, même si elle existe déjà depuis plusieurs années. Néanmoins, il est rare pour un régulateur de s'adresser à la presse, et les termes étaient assez durs : vous estimez que « le statu quo n'est pas possible » ; vous appelez TikTok à un « rattrapage accéléré pour faire face à ses obligations » actuelles et futures. Vos recommandations ont-elles été suivies d'effets ? Le 13 mars 2023, un entretien a eu lieu entre M. Erich Andersen, conseiller général de ByteDance, et M. Roch-Olivier Maistre, président de l'Arcom. Est-ce que des engagements supplémentaires ont été pris par les représentants de TikTok ? Si oui, lesquels ? Ou bien ont-ils fait part de difficultés à suivre vos recommandations ?

Vous avez évoqué les opérateurs contrôlés par des États étrangers : le problème se pose pour CGTN, mais aussi pour ByteDance, la maison mère de TikTok, car la loi chinoise oblige toutes les sociétés à coopérer avec les services de renseignement chinois. La direction de ByteDance comporte une cellule du parti communiste chinois. Ces éléments semblent caractériser le contrôle d'une société par un État. Est-ce que l'Arcom considère que TikTok est une personne morale contrôlée, au sens de l'article L. 233-3 du code de commerce, par un État étranger ou placée sous l'influence de cet État ?

L'Arcom sera-t-elle le Digital Services Coordinator (DSC), ou coordinateur pour les services numériques (CSN), pour la France dans le cadre du règlement sur les services numériques (RSN) qui prévoit leur mise en place dans chaque pays européen ? La décision est-elle prise ou non ?

L'Arcom est-elle satisfaite des mesures mises en oeuvre par le réseau social TikTok pour vérifier l'âge de ses utilisateurs ? Ce sujet intéresse particulièrement certains de nos sénateurs et sénatrices. Les utilisateurs doivent être âgés d'au moins 13 ans. Or il semble que nombre d'entre eux sont des enfants d'âge bien inférieur à 13 ans. Des moyens de vérifier la politique de TikTok existent-ils ? Et celle-ci vous paraît-elle suffisante en la matière ? Dans le cas contraire, quelles recommandations leur avez-vous adressées ?

De la même façon, l'Arcom est-elle satisfaite des mesures prises par le réseau TikTok pour limiter le temps d'utilisation ? Ce dernier est drastiquement limité en Chine, puisque l'utilisateur y est déconnecté au bout de quarante minutes, ce qui montre sans doute la méfiance de la Chine à l'égard de l'addiction ou d'autres problèmes que l'application peut causer pour ses utilisateurs. Les représentants du réseau ont annoncé qu'ils appuieraient cette politique en Europe, notamment en France, mais de façon bien plus modérée. Ainsi, les utilisateurs ne seront pas directement déconnectés, mais simplement avertis au bout d'une heure d'utilisation. . À votre connaissance, ce système a-t-il été mis en place ? Ou, comme souvent de la part des plateformes, est-ce une annonce qui sera mise en oeuvre le jour où on le voudra ?

Enfin, s'agissant d'un important sujet d'actualité, que pensez-vous des interdictions, émises à destination de leurs fonctionnaires par la Commission européenne et le Parlement européen à l'instar de nombreux gouvernements, d'utiliser l'application TikTok sur leur téléphone professionnel et de fortement déconseiller son usage sur leur téléphone personnel ? La raison exacte de ces interdictions n'a pas été indiquée, seuls des transferts de données ont été vaguement évoqués. J'imagine qu'il s'agissait d'éviter un incident diplomatique avec certains gouvernements extra-européens. Mais il s'agit d'une véritable boite de Pandore : si la Commission européenne se pose la question des transferts de données, celle-ci concerne l'ensemble des gouvernements européens, et notamment le gouvernement et l'État français. Quelles conclusions en tirez-vous ?

Que pensez-vous du projet Clover récemment annoncé par les représentants de TikTok en Europe ? Celui-ci consiste à localiser les centres de données sur le sol de l'Union européenne. Actuellement, si je ne me trompe pas, ce n'est pas le cas. Ceux-ci sont situés à Singapour et aux États-Unis. Cela vous paraît-il suffisant pour assurer la sécurité des données ? Pensez-vous que l'existence de backdoors, à savoir de portes dérobées, est toujours possible - ce qui est allégué par d'assez nombreux chercheurs en informatique - et que cette assurance paraît bien faible ?

La dernière question date de cette nuit et s'inscrit dans la saga du "US Government versus TikTok", si je puis dire. En effet, nous avons appris la décision du gouvernement américain de demander à ByteDance de vendre TikTok, étant donné les menaces de chantage évidentes qui pouvaient exister à l'égard des utilisateurs de la part d'un gouvernement non démocratique. J'aimerais que vous nous disiez ce que vous en pensez.

M. Benoît Loutrel. - Je me permettrai d'écarter les questions ayant trait à la protection des données et de la vie privée, champ sur lequel l'Arcom n'a pas de compétence. Nous n'avons pas ce mandat. Comme tous les services de l'État, nous suivrons les consignes gouvernementales en la matière s'il y en a.

TikTok a quatre ou cinq ans d'expérience. Nous les avons épinglés. Nous nous battons avec toutes les plateformes, et TikTok, la première, pour leur faire comprendre qu'elles doivent répondre publiquement à nos questions et ne pas venir nous voir pour le faire. Il ne s'agit pas de nous rassurer, mais que tout le monde soit convaincu de la réalité de ce qu'elles font.

À l'origine, en application de la loi de 2018, nous demandions aux plateformes de rédiger un rapport destiné à l'Arcom, qui ensuite faisait un rapport de synthèse. Pour la première fois, nous leur avons demandé de rédiger des rapports destinés aux Français. Ceux-ci ont été rendus publics dès leur réception. Ils ont fait l'objet de critiques dans les médias. Facebook, qui avait été critiqué par un média, est revenu vers nous. Nous leur avons expliqué que c'était le but, afin que leurs actions soient jugées collectivement et pas uniquement par le régulateur, car nos moyens sont dérisoires au regard de la puissance de ces plateformes et de la multiplicité des sujets.

Lors de cette réunion de lundi soir, à laquelle assistaient le directeur juridique monde de TikTok et d'autres représentants de la plateforme, Roch-Olivier Maistre et moi-même, les représentants de TikTok nous ont dit qu'ils travaillaient à la résolution des problèmes que nous leur avions signalés. Nous leur avons indiqué que leurs réponses devaient être rendues publiques. Nous veillons soigneusement à ne pas nous enfermer dans un dialogue « portes fermées » avec ces plateformes.

L'enjeu est de rendre la gestion de ces plateformes plus rigoureuse et de préserver la confiance dans nos espaces informationnels. Nous devons réussir collectivement à nous convaincre qu'elles sont plus responsables. Nous repoussons leurs tentatives d'information directe. Nous voulons collectivement en savoir plus et pas juste l'Arcom, afin de pouvoir collectivement évaluer leurs activités et obtenir ensuite des réajustements lorsque ce n'est pas satisfaisant. Ces sujets sont trop importants.

M. Mickaël Vallet, président. - Un parallèle peut-il être établi avec les recommandations de certains grands acteurs et des services étatiques, en matière de cybersécurité, sur le partage des informations ? Ainsi, en cas d'attaque subie, il n'est pas utile de le cacher, mais au contraire il est nécessaire de partager ce qui s'est passé, afin de résoudre collectivement le problème et ne pas être « en silo ». Est-ce la même logique en matière de contrôle de la qualité de l'information ?

M. Benoît Loutrel. - La logique est identique, mais elle est poussée encore plus loin. En effet, il existe une vérité scientifique de la sécurité, alors qu'en matière d'information, aucun ministère de la vérité n'existe. Il s'agit de renforcer la confiance de tous, de veiller à ce que chacun puisse se forger son opinion et de rassembler autour de cette démarche collective en décentralisant la régulation. Comme en matière de cybersécurité, il existe une question de mobilisation collective afin de ne pas être seul pour résoudre ces difficultés. Comment répondre à la puissance de la globalité des plateformes ? Cette question taraude tout le monde aussi bien en France, en Europe qu'aux États-Unis. La réponse est : avec la puissance de la démocratie, en mobilisant selon une démarche horizontale et en permettant à tous de participer à cet exercice.

La première audition de cette commission d'enquête avec M. Marc Faddoul était extrêmement importante pour nous. En effet, l'enjeu est de mobiliser le monde académique. Par exemple, comment régule-t-on la presse ? La loi de 1881 est en vigueur et est suivie de très peu d'interventions du juge ensuite. Pourtant, cette loi porte une obligation de transparence : liberté de la presse, mais exigence de procéder à un dépôt légal ; chacun peut lire la presse.

M. André Gattolin. - Le directeur de la publication est responsable.

M. Benoît Loutrel. - Oui, mais cela n'arrête pas certains médias complotistes. Ainsi M. Prigojine construit de fausses informations en créant un site web et la responsabilité de directeur de la publication ne suffit pas à l'arrêter.

En réalité, une autre forme de régulation est fondée sur la transparence. Ainsi, tous les médias se critiquent et se surveillent entre eux ; toutes les universités françaises ont un département de sciences de l'information, de sciences politiques ou de sciences sociales analysant le fonctionnement de l'écosystème médiatique, ce qui engendre des cordes de rappel. C'est ce que nous devons recréer.

Actuellement, il existe une asymétrie d'information bien trop forte par rapport à ces plateformes sur la réalité de ce qu'elles font. Cette transparence, facile à exiger des « médias éditorialisés », est très dure à construire dans le cas de « médias algorithmiques », car ils traitent l'information à grande échelle et en individualisant le contenu. Ainsi, je peux consulter mon compte TikTok, mais cela ne me dit pas ce qui figure sur le vôtre, car ce que je vois est le résultat d'une série de traitements algorithmiques individualisés à partir des informations qu'ils détiennent sur moi. Si nous voulons comprendre ce que les plateformes font, nous devons comprendre comment leurs algorithmes sculptent l'information. Ainsi, selon une version optimiste de la situation, leurs traitements de l'information pourraient par exemple mettre en avant les contenus renforçant la prise de conscience de la nécessité de gérer la transition écologique. La version négative est qu'ils peuvent faire l'inverse. Nous devons détruire cette asymétrie d'information.

Grâce au règlement européen sur les services numériques (RSN), nous allons pouvoir exiger une « transparence sortante », c'est-à-dire révéler une information en leur possession concernant l'intention mise dans leurs algorithmes, mais aussi une « transparence entrante », où de l'extérieur nous pourrons révéler des informations qu'ils n'ont pas - leurs algorithmes ont-ils des effets non intentionnels ? - ou des éléments qu'ils essaient de nous cacher.

Les travaux de Marc Faddoul ont fourni un exemple formidable. Sans coopération de la plateforme, il a développé des travaux d'observation qui montrent ses comportements. Des biais algorithmiques peuvent être révélés : par exemple, des algorithmes qui poussent des contenus augmentant les problèmes d'obésité en France. Cela fait partie du modèle de régulation. C'est cela qu'il faut arriver à passer également à l'échelle, ce qui signifie que, dans toutes les universités, les départements de sciences politiques, de sciences sociales ou de sciences de l'information, dans le cadre de travaux interdisciplinaires, se saisissent de ces sujets pour révéler où sont les risques et évaluer collectivement la pertinence des réponses de ces plateformes. C'est l'enjeu le plus fort. C'est ce que nous martelons à TikTok. Ses représentants sont venus nous annoncer la mise en place d'un programme d'accès des chercheurs aux données. Nous leur avons demandé où était l'information sur ce sujet, si elle était rendue publique, quels étaient les laboratoires qui pouvaient s'en saisir, s'ils pourront mener des recherches de façon indépendante. En raison de leur importance, nous nous sommes saisis de ces sujets avant même l'adoption du RSN. L'Arcom a lancé une consultation publique sur l'accès des chercheurs aux données des grandes plateformes en juillet dernier, alors que le règlement n'était pas encore adopté, mais nous connaissions le contenu de l'accord politique. Tout un travail de mobilisation est à réaliser. Nous sommes en train d'armer une mécanique très puissante, car elle est décentralisée dans nos démocraties.

Vous me demandez s'il s'agit d'une personne morale contrôlée au sens du code du commerce. Nous n'avons pas répondu à la question en tant que tel, car, selon nous, elle n'a pas de conséquences dans le cadre juridique actuel. Cependant, que ce contrôle soit réel ou fantasmé, il a quasiment le même effet, puisqu'un effort supplémentaire de TikTok par rapport à d'autres plateformes sera nécessaire pour recréer la confiance légitime. Nous avons essayé de leur faire comprendre. Comme nous l'avons déclaré en conférence de presse, le statu quo est impossible. TikTok a un retard de jeunesse, un retard culturel - comme l'indiquait les représentants de l'entreprise lundi soir -, car elle n'est pas encore cotée en bourse et donc elle n'est pas habituée à ces obligations de transparence issues de la réglementation des marchés financiers. Au-delà de ces raisons, cette entreprise n'a pas connu la même naissance que les grandes plateformes américaines, qui ont subi une forte pression de la société civile américaine lors de leur création.

Le RSN, comme la démarche européenne, a été construit sur l'impossibilité de se satisfaire de la démarche américaine constituée d'un socle juridique léger - la section 230, équivalent de la directive européenne  sur le e-commerce - et d'une autorégulation exercée sous la pression de la société civile. Celle-ci a permis d'avoir un acquis énorme qui est absent pour TikTok. Ce régime européen qui vient d'être élaboré est encore plus nécessaire s'agissant de TikTok, afin de rattraper l'ensemble de ces retards de jeunesse et culturel. Cette suspicion peut éroder la confiance et justifie que la plateforme en fasse plus pour atteindre le niveau des plateformes comme Facebook, Twitter ou Instagram.

Sur la question portant sur l'identité du futur coordinateur de services numériques (CSN), ce choix sera formalisé au travers d'une loi votée par le Parlement et à l'initiative du Gouvernement. L'Arcom s'y prépare et est candidate. C'est le sens de l'ensemble des lois françaises votées depuis cinq ans. La France a été très engagée dans l'élaboration du RSN et l'Arcom se prépare à être le CSN. Dans le RSN, l'article 40 accorde un droit d'accès aux données des plateformes à des chercheurs qualifiés. Il s'agit d'une mécanique très puissante, qui sera compliquée à mettre en oeuvre, car elle devra être articulée avec le droit à la protection privée et avec le règlement général de la protection des données (RGPD). Depuis un an, nous travaillons avec la Commission nationale de l'informatique et des libertés (Cnil) à la mobilisation des équipes de recherche avec l'espoir que la France soit à l'avant-garde de la mise en oeuvre du RSN. Ce règlement sur les services numériques donnera une puissance bien plus forte et laisse de l'espace à l'engagement de chaque pays.

Toute une série d'inquiétudes, légitimes, apparaîtront au sujet des plateformes, en raison des enquêtes journalistiques ou des travaux de recherche médicale, ou sur la manipulation de l'information. Dans le cadre de la construction du RSN, c'est ce qu'on appelle un risque systémique. Le RSN identifie le risque systémique de manipulation de l'information. Pour les très grandes plateformes, comme TikTok, ce règlement exige qu'elles identifient leurs risques systémiques et qu'elles les rendent publiques, qu'elles élaborent des plans de réduction des risques, les rendent publiques et les soumettent à des audits pour vérifier leur mise en oeuvre. En outre, par le biais de l'accès des chercheurs aux données, elles doivent se soumettre à des évaluations indépendantes. Ce système est itératif. La dynamique du RSN est de construire une capacité d'adaptation aux problèmes du futur, justement pour ne pas courir après les problèmes et disposer de lois pouvant s'adapter. C'est pourquoi un réseau de régulateurs y a été introduit pour activer et utiliser cette boîte à outils.

Des exercices itératifs auront lieu. Les premiers seront décevants. Les risques auront été identifiés, la dynamique se lancera, les régulateurs s'engageront... Le terme de « coordinateur pour les services numériques » a été introduit afin de souligner que le régulateur veillera à la participation de tous à ces exercices et à la critique de ces efforts. Le but n'est pas d'imposer des sanctions, mais de modifier les comportements. La plateforme semble déjà sentir le vent du boulet européen et annonce qu'elle mettra en place des outils de réduction du temps d'écran. Nous avons les mêmes questions que vous : les annonces ne valent rien, il faut des éléments tangibles. Ces dynamiques positives commencent à se mettre en place. L'Arcom se prépare à cela.

Sur les situations américaine et européenne, je ne sais pas si elles sont comparables. Jusqu'à récemment, c'était le cas, au sens où l'Union européenne et les États-Unis avaient mis en place un régime juridique propice au développement des plateformes. Il s'agit de la directive sur le e-commerce, avec son régime de responsabilité limitée à raison des contenus, et de son équivalent américain, la section 230. Cependant, les deux continents divergent s'agissant de la dynamique politique. La dynamique politique aux États-Unis est bloquée sur la section 230 et tous les acteurs interrogés témoignent de l'impossibilité d'adopter une grande loi. En revanche, l'Europe a voté ce règlement sur les services numériques. Des efforts sont engagés depuis les pays d'Amérique du Nord pour nous aider à réussir la mise en oeuvre de ce règlement, car ils sont en train d'en percevoir le potentiel.

Une question n'a pas été posée à Marc Faddoul lundi. Il s'agit de celle portant sur le mode de financement de ses travaux. La réponse est qu'ils sont en partie financés par des fondations américaines. Un enjeu très important a trait aux moyens de réussir la mise en oeuvre du RSN. Une loi est d'abord nécessaire pour régler la partie institutionnelle en France. Il faudra également déterminer comment lancer des programmes de financements de la recherche publique, comment relancer des programmes multidisciplinaires dans toutes les universités françaises afin de se saisir de ces sujets. Beaucoup de sujets sont liés à nos usages du numérique, qu'il est nécessaire de mieux comprendre pour créer un nouveau sentiment de citoyenneté numérique des usagers et pour répondre aux nouvelles demandes issues de la découverte de nouveaux risques systémiques.

Actuellement, la question porte sur les moyens de multiplier les travaux mis par exemple en oeuvre par Marc Faddoul, le Médialab de Sciences Po à Paris, par les équipes de Lille que je rencontrerai dans une semaine, par celles de l'université Aix-Marseille... Ces travaux interdisciplinaires, qui croisent des recherches en santé publique, en sciences de l'information et en sociologie, devront être financés. Il faut stimuler et utiliser le potentiel de nos universités, où résident des jeunes et des cerveaux capables de s'approprier ces technologies numériques et d'intelligence artificielle.

Aujourd'hui, le règlement qui a été voté est très puissant. La question est de savoir à quelle vitesse les institutions seront construites et dotées d'hommes et de femmes pour les mettre en oeuvre. Mobiliser les chercheurs est un enjeu opportuniste, car il permet de mobiliser également leurs étudiants, afin que tous s'engagent dans la mise en oeuvre de ce règlement.

M. Claude Malhuret, rapporteur. - Quelle est votre opinion sur les interdictions émises par la Commission européenne et le Parlement européen portant sur l'utilisation de l'application par les fonctionnaires sur leur téléphone ?

M. Benoît Loutrel. - Il s'agit d'un problème de sécurisation des données, sur lequel l'Arcom n'a pas de compétence. Nous attendons l'éventuelle décision des autorités publiques françaises que nous suivrons, comme tous les services de l'État.

M. Mickaël Vallet, président. - En matière de politique publique, on ne réinvente pas l'eau chaude. Des postures et des façons de faire s'agissant du contrôle d'acteurs économiques importants peuvent être un peu les mêmes. Vous avez évoqué au début de votre intervention la citoyenneté numérique, qui irrigue la question du contrôle, la prise de conscience collective, l'impératif démocratique de l'ensemble. On a mis en oeuvre et développé, secteur par secteur, l'écoparticipation à laquelle nous sommes désormais habitués lors de l'achat d'un appareil électroménager. Au regard des milliards investis par les grandes entreprises du numérique ou certaines plateformes comme Amazon dans la recherche et le développement - cela peut dépasser la quinzaine de milliards -, n'est-ce pas un vivier à utiliser ? Comme dans le cas de l'écoparticipation, ces entreprises pourraient participer elles-mêmes au financement de leur propre contrôle. Cela est-il valable pour l'ensemble des plateformes, autant que pour TikTok ?

M. Benoît Loutrel. - Le règlement sur les services numériques (RSN) prévoit que les plateformes doivent contribuer au financement de la fonction de régulation. La Commission européenne s'est lancée et préfinance son activité, c'est pourquoi son premier acte est de désigner les très grandes plateformes et d'amorcer le mécanisme financier qui les conduira à contribuer au financement de leur propre régulation.

Pour beaucoup, l'enjeu économique est phénoménal. L'autorégulation était insatisfaisante, car au sein même de ces entreprises, l'allocation des moyens entre, d'une part, le financement de la croissance et du développement, et d'autre part, celui de la stabilisation et de la gestion proactive des effets non intentionnels, était inadéquate. Les incitations n'étaient pas les bonnes. Le RSN vise à les forcer, en précisant que c'est une obligation légale. Le régime de sanctions qui peut être activé est très sévère en cas de défaut de moyens. Une lutte existe pour savoir dans quels secteurs les ingénieurs sont affectés au sein de ces sociétés, à savoir au développement du dernier produit ou à la mise à niveau du reporting de mesure des effets pervers. C'est le reproche que nous adressons à TikTok, lorsque nous lui indiquons que le statu quo n'est pas possible. Les moyens consacrés à la croissance de son activité l'ont été au détriment de celle des mécanismes de stabilisation.

M. Mickaël Vallet, président. - Vous avez déclaré ne pas avoir constaté de problèmes dans le cadre de l'élection présidentielle. Vous avez fait référence à la diversion des événements en Ukraine pour l'expliquer. Des craintes d'ingérence ont été publiquement exprimées au sujet d'un scrutin référendaire en Nouvelle-Calédonie. Avez-vous relevé des incidents particuliers ?

M. Benoît Loutrel. - En 2021, pour se préparer à l'élection présidentielle avec ces grandes plateformes, nous avons noué des relations de confiance avec les personnes décisionnaires en cas de crise, par exemple avec la Commission électorale ou le Conseil constitutionnel si nécessaire, et nous avions des discussions avec Google, qui a certifié de leur mobilisation à cette occasion. Nous leur avons signalé l'existence du scrutin en Nouvelle-Calédonie qui avait lieu avant l'élection présidentielle. Ils ont été étonnés, car ce territoire compte 200 000 habitants, ce qui est tout petit à leur échelle. Mais ils ont compris qu'ils devaient mobiliser leurs efforts, là où cela était important pour nous et au moment que nous souhaitions. Ce type de relation peut être développé dans le cadre européen. À l'époque, nous avions envoyé des demandes à Facebook et à Google - TikTok n'était pas encore concerné, car l'entreprise était encore en dessous des seuils d'application de la loi. À ma connaissance, rien n'a été constaté.

M. Mickaël Vallet, président. - Comme M. Faddoul, diriez-vous que cette entreprise est débordée par son propre développement ?

M. Benoît Loutrel. - Nous avons constaté l'existence d'un décalage entre un succès commercial fulgurant et l'engagement de leur responsabilité, alors que le contenu des lois françaises était connu, puisqu'il s'appliquait à leurs concurrents. Le succès fulgurant de TikTok a des conséquences concurrentielles : Meta a modifié le fonctionnement d'Instagram pour suivre TikTok, la pression de ses usagers l'a arrêté ; sur YouTube, un nouveau format de vidéos très courtes, selon le même modèle que TikTok, est apparu. Il est nécessaire d'avoir un cadre européen pour empêcher que la concurrence commerciale se fasse au prix d'une déresponsabilisation des acteurs.

M. André Gattolin. - S'agissant de la spécificité de TikTok, vous avez uniquement répondu que c'était un média jeune. La jeunesse peut expliquer la croissance, mais j'aurais aimé peut-être une caractérisation plus approfondie de TikTok, compte tenu des compétences de l'Arcom, y compris en termes de nature de contenus. Ainsi, s'agissant des conséquences de l'addiction à cette application, l'usage systématique des défis ou des challenges incite les jeunes à la transgression et à la surtransgression, ce qui n'existe pas ou très peu sur les autres réseaux sociaux.

Un autre aspect est celui de la censure. Je travaille depuis quelques années sur les ingérences étrangères. De nombreuses personnes qui m'ont contacté, notamment des chercheurs, et qui ont eu le malheur de diffuser un court message soutenant les Ouïgours, ont vu leur message supprimé, puis leur compte fermé. Nous avons un réel problème en France : nous disposons de la plateforme Pharos, qui concerne un certain nombre de délits et qui fonctionne bien, mais nous n'avons pas de plateforme un peu neutre et ouverte dans son fonctionnement. Je vous conseille de prendre langue avec la division Strat.2 du service européen pour l'action extérieure de l'Union européenne, (SEAE) qui a eu une rapid alert system (RAS) et qui s'intéresse à la désinformation, avec laquelle j'ai beaucoup échangé. Malheureusement, je vais chercher des signalements sur la France sur leur plateforme. Sans ce retour des logiques éditoriales, qui ne sont pas simplement des logiques d'influence, mais des censures explicites, la question ne se serait pas posée.

Quelles collaborations avez-vous avec les autres régulateurs, membres du Groupe des régulateurs européens des services de médias audiovisuels ou European Regulators' Group for Audiovisual Media Services (Erga), à propos de TikTok ? À ma connaissance, des sollicitations ont été adressées aux autorités de régulation néerlandaises à propos de TikTok. Nous avons un problème en France de parangonnage. Sur ce sujet, il est intéressant de suivre les actions de vos homologues.

J'insistais sur ces thèmes, car l'incitation à la transgression, auprès d'un public dont c'est naturellement la tendance compte tenu de son âge, est extrêmement gênante. En effet, la conservation des données, alors que la transgression est encouragée, est un problème. Il n'existe pas de droit à l'oubli. Dans ses statuts et dans le droit international, TikTok a le droit de transférer à sa maison-mère les données. La question est ensuite celle de l'usage qui en est fait et de l'absence de régulation de type RGPD en la matière.

Ces aspects méritent d'être mis en lumière. Nous aimerions avoir une approche systémique de TikTok, puisque la plateforme a un fonctionnement systémique, comme beaucoup de ces grandes plateformes, et en particulier de toutes les stratégies d'influence émanant de la République populaire de Chine.

Un système d'alerte, à l'instar de Pharos, pourrait-il exister ? Cela aurait un sens, car vous ne pouvez pas consulter les contenus de chaque personne. Les chercheurs ont de grandes qualités, mais nous avons du mal à construire des choses qui aient une validité scientifique sur le plan de l'observation des contenus.

M. Benoît Loutrel. - Nous sommes intarissables pour documenter les défauts, réels, de Twitter, mais le réseau a ouvert très tôt un accès massif à ses données tant pour les chercheurs que pour les médias, par le biais d'une interface de programmation - en anglais, application programming interface (API). Facebook a fait de même. En revanche, nous savons très peu de choses sur TikTok : c'est pourquoi nous souhaitons là aussi qu'une telle interface soit créée.

Cela dit, les initiatives de Twitter et de Facebook relèvent de la seule volonté de ces deux entreprises : elles peuvent ainsi disparaître à tout moment. C'est pourquoi nous avons mené bataille pour intégrer ces dispositions à l'article 40 du RSN, pour permettre aux chercheurs d'accéder à ces données, tout en respectant le RGPD, afin de ne pas déboucher sur un nouvel Cambridge Analytica. En France, les chercheurs peuvent accéder sous des conditions strictes à certaines données sensibles par l'intermédiaire du centre d'accès sécurisé des données, dont le pilotage a été confié à l'Insee. Cette consultation est conforme au RGPD.

Il incombe aux homologues européens de la Cnil de faire respecter le RGPD. L'Arcom n'est pas directement concernée. En revanche, nous avons noué un partenariat avec la Cnil en vue de généraliser les interfaces de programmation.

Nous sommes convaincus que c'est en travaillant avec nos partenaires européens que nous ferons avancer les choses. Au mois de janvier dernier, nous avons organisé une conférence internationale portant sur l'accès des chercheurs aux données. La gouvernance prévue dans le RSN est plus puissante que celle du RGPD, qui consacrait le principe du pays d'origine. Demain, la Commission européenne et les régulateurs de tous les pays européens agiront de concert. Les chercheurs accédant aux données de TikTok et de Facebook devront être agréés par le régulateur irlandais, qui pourra s'appuyer sur un pré-agrément donné par le régulateur national. Nous fonctionnerons en réseau, à l'image des interactions entre la Banque centrale européenne (BCE) et les banques centrales des États membres. Nous essayons de faire converger les dynamiques nationales et européennes.

M. André Gattolin. -La plateforme Pharos ne règle pas tous les problèmes. Les actions menées par le système d'alerte sur la désinformation, créé par le Service européen pour l'action extérieure (SEAE), m'ont impressionné.

M. Benoît Loutrel. - Là encore, nous essayons de travailler en réseau : au niveau national, avec Pharos, avec le pôle national de lutte contre la haine en ligne ou encore avec Viginum. Nous commençons à travailler avec la société civile et avec le monde académique, notamment en vue des prochaines échéances électorales. Nos sociétés se numérisent toujours davantage, le débat public a lieu aussi bien sur les médias éditorialisés que sur les médias algorithmiques. Nous devons être capables de réagir rapidement, comme lors de la dernière présidentielle, lorsque Twitter avait fermé plusieurs comptes par erreur : ces péripéties ne doivent pas nuire au bon fonctionnement de notre démocratie. La Commission nationale de contrôle de la campagne électorale en vue de la campagne présidentielle a d'ailleurs souligné la qualité de la coopération avec les plateformes. Je rappelle que toutes les lois, notamment celles relatives aux droits d'auteur et à la propriété intellectuelle, doivent être respectées sur les plateformes : lors de la campagne, certaines chaînes sur les réseaux sociaux étaient menacées de fermeture pour non-respect de ces règles, ce qui aurait constitué une entrave inutile au bon fonctionnement du jeu politique. Il faut constamment s'adapter à un espace sans cesse plus numérisé.

M. Thomas Dossus. - Vous avez évoqué les moyens dérisoires dont dispose l'Arcom pour assurer ses missions, parmi lesquelles l'analyse du mode de fonctionnement des algorithmes des plateformes. Combien de collaborateurs de l'Arcom sont-ils affectés à ce travail ? Cette part progressera-t-elle à l'avenir ?

En outre, l'Arcom lancera-t-elle des appels à projets pour favoriser le travail des chercheurs sur les plateformes ?

Vous opposez médias éditorialisés et médias algorithmiques. Comment les algorithmes ont-ils façonné le débat ? Ont-ils entraîné sa polarisation ? Ce phénomène a-t-il eu des conséquences sur les médias éditorialisés ?

M. Benoît Loutrel. - Notre direction des plateformes en ligne compte huit personnes. Au sein de la direction des études, une équipe composée de deux personnes facilite le travail des chercheurs. Enfin, plusieurs membres de la direction Europe et international facilitent le travail en réseau. L'ensemble de ces personnes se retrouve au sein d'un groupe de travail consacré à la supervision des plateformes en ligne, que je préside. En 2023, les crédits de l'Arcom augmentent, ce qui nous permettra d'envisager de nouveaux recrutements. Nous devons disposer d'une taille critique pour être crédibles en vue d'animer un réseau ouvert à la recherche extérieure. Mais nous ne devons pas vouloir tout contrôler, car il est impossible de décréter l'innovation : nous devons jouer un rôle d'animateur. Je fais appel à la représentation nationale et au Gouvernement pour que des programmes de recherche interdisciplinaires puissent recevoir les financements nécessaires. Le développement des réseaux numériques est allé plus vite que celui de notre citoyenneté numérique.

Il nous faut également développer un réseau territorial. Chaque région compte une antenne de l'Arcom, qui devra décliner dans nos territoires les règles européennes et nationales. Les antennes pourront par exemple travailler avec les collectivités territoriales et les élus locaux sur le sujet du harcèlement scolaire.

M. André Gattolin. - TikTok ne paye ni la taxe numérique ni la taxe sur les services vidéo, contrairement aux Gafam. Ce problème relève-t-il de l'Arcom ? Quelles sont les sanctions prévues ? Il est possible de résilier un contrat de diffusion d'une chaîne de télévision ou de radio, mais que faire face aux acteurs de l'internet et des réseaux sociaux qui ne respectent pas leurs obligations minimales ?

M. Benoît Loutrel. - Je ne suis pas en mesure de formuler une réponse précise sur le plan juridique. En tant qu'héritière de la Haute Autorité pour la diffusion des oeuvres et la protection des droits sur internet (Hadopi), l'Arcom favorise la médiation afin de régler les problèmes.

Le pouvoir de sanction des plateformes est réparti entre la Commission européenne et les régulateurs des États membres, selon la gravité et l'étendue des faits. La Commission a ainsi dressé des amendes d'un montant record contre les grandes plateformes américaines. Les régulateurs nationaux pourront exercer leur pouvoir de sanction contre des acteurs installés en France, y compris à la demande de régulateurs d'autres pays européens. Le règlement européen facilite cette mise en réseau. La plateforme française Yubo, peu connue dans notre pays, rencontre un grand succès dans les pays anglo-saxons. Nous nous préparons à recevoir des demandes d'autres régulateurs, dont nous devrons assurer le traitement. Nous avons ainsi tiré les leçons des imperfections du RGPD.

M. Claude Malhuret, rapporteur. - Vous n'avez pas répondu à ma question portant sur la vérification de l'âge des utilisateurs. Cette vaste question ne concerne pas que TikTok. Je pense à un épisode malheureux pour l'Arcom, qui n'a pas obtenu satisfaction après sa plainte contre les sites pornographiques. Où en est la procédure juridique ?

Quelles sont les mesures de contrôle de l'âge ? Selon des associations de parents d'élèves, certains enfants de 8 ans passent leur nuit sur TikTok. Avez-vous évoqué ce sujet lors de la réunion du lundi 13 mars, et obtenu des engagements de la part des représentants de TikTok ?

Les interfaces de programmation d'application (API) sont importantes et nécessaires pour lancer le débat auprès du grand public, au-delà des seuls spécialistes. TikTok s'est-il engagé sur le sujet ? Quel est le calendrier d'application de mise en oeuvre du RSN en France, notamment sur ce sujet ?

M. Benoît Loutrel. - On voit tout l'intérêt de se saisir de la régulation des médias algorithmiques à l'Arcom, qui traite des médias audiovisuels. Il n'existe qu'un seul espace informationnel dans lequel se forment l'information et l'opinion publique, mais deux moteurs : les médias éditorialisés et les médias algorithmiques.

Je suis le vice-président d'un groupe de travail sur la santé publique présidé par ma collègue Bénédicte Lesage. Nous demandons aux médias audiovisuels d'être plus responsables sur les chartes alimentaires et d'en faire plus ; ils se plaignent que nous demandions beaucoup aux médias traditionnels, et rien aux plateformes numériques. Cela se fera grâce au règlement sur les services numériques. Nous pourrons leur dire que nous avons identifié un risque systémique et qu'ils ont pris des engagements. Nos données montrent à quel point la durée d'écoute individuelle des médias audiovisuels baisse, surtout chez les jeunes. Or ceux-ci passent toujours plus de temps sur les écrans : ils écoutent ou regardent donc autre chose. Nous allons pouvoir avoir une approche globale, intégrée. Les équipes de l'Arcom qui travaillent sur ces sujets transverses de cohésion sociale pourront travailler sur les deux familles de médias pour une meilleure efficacité.

Nous ne sommes pas armés juridiquement pour le contrôle de l'âge. Les limites d'âge ne sont jamais respectées. C'est vieux comme le monde de transgresser ces limites, mais l'objectif reste pertinent.

M. André Gattolin. - Un enfant qui achète du tabac se fait repérer.

Mme Toine Bourrat. - Il faut présenter une pièce d'identité...

M. Benoît Loutrel. - On ne vous la demande pas toujours, mais il faut avancer. Il va falloir identifier un risque systémique sur toutes ces plateformes : la mise en danger des mineurs. Nous aurons ainsi le support juridique nécessaire pour leur dire que le statu quo n'est pas possible, et leur demander ce qu'elles proposent. Il n'y a pas de solution miracle. Mieux caractériser l'âge des jeunes, c'est aussi mieux caractériser l'âge des adultes ; la pièce est à deux faces. Nous buterons alors sur d'autres difficultés, mais il faut progresser. On ne peut laisser filer l'usage. Nous sommes convaincus que des solutions peuvent exister.

Il faut réussir la généralisation et la montée en puissance. Nous demandons aux médias audiovisuels de nous aider à mieux faire savoir, de communiquer... Près de 98 % des terminaux utilisent deux systèmes exploitation : iOS d'Apple et Android de Google. Sur ces deux systèmes, il existe des systèmes de contrôle parental extrêmement sophistiqués, avec une ergonomie qui a fait des progrès phénoménaux, mais qui sont peu utilisés. Le premier enjeu, c'est de mobiliser et de susciter l'usage. Nous devons travailler avec des réseaux d'associations de parents d'élèves, de collectivités territoriales, pour provoquer l'adhésion. La culture américaine est très forte pour livrer des résultats, tandis que la culture européenne est excellente pour concevoir des systèmes puissants. Nous devons nous retrousser les manches pour mobiliser ces outils.

M. Mickaël Vallet, président. - Merci pour cet exposé très intéressant. Je vous félicite d'avoir aussi peu pratiqué d'anglicismes dans un domaine où cela ne doit pas être évident...

La réunion est close à 12 h 25.

Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.