B. DES RÉPONSES INSUFFISANTES DE TIKTOK À CETTE SITUATION PRÉOCCUPANTE

1. Un flou entretenu sur les moyens humains consacrés à la lutte contre la désinformation

Pour lutter contre les fausses informations, TikTok met en avant son service « Trust & Safety », qui prend en charge la modération des contenus. Selon les chiffres fournis par la société, celle-ci compterait plus de 40 000 professionnels spécialisés, dont des modérateurs de contenus et des équipes chargées de l'application des politiques de TikTok, des produits et des process. Selon les réponses transmises à la commission, ces experts parlent plus 70 langues, et comptent plus de 600 modérateurs francophones. Par ailleurs, l'entreprise indique travailler avec 13 organismes différents de vérification des faits, dont l'agence France Presse, dans 33 langues différentes et plus de 64 pays à travers le monde174(*).

M. Romain Badouard, maitre de conférences en sciences de l'information et de la communication à l'Université Panthéon-Assas, invite toutefois à prendre des précautions sur ces chiffres : « TikTok évoque 40 000 personnes travaillant dans la modération, mais ce chiffre englobe tous les juristes et chercheurs en informatique qui développent des outils d'intelligence artificielle de modération »175(*). TikTok ne communique pas sur le nombre précis de modérateurs qu'il emploie, ni sur leur localisation et leur répartition selon les pays, ni encore sur les éventuels sous-traitants qui les emploient, malgré les questions répétées des membres de la commission d'enquête. Surtout, la lutte contre la désinformation n'est qu'une partie de la politique de modération, celle-ci incluant aussi la régulation des contenus illicites. Le chiffre global de 40 000 ne permet pas de connaitre le nombre de modérateurs dédiés à la lutte contre la « désinformation préjuciable », terme retenu par TikTok.

Ce flou sur les moyens humains est d'autant plus dommageable que les lacunes de la modération algorithmique s'agissant de la lutte contre la désinformation sont nombreuses. Selon le rapport de transparence publié au dernier trimestre 2022 par TikTok, 85 à 95 % des contenus retirés l'ont été automatiquement par intelligence artificielle. Les algorithmes sont entrainés à partir des bases de données constituées de vidéos retirées par les modérateurs humains pour apprendre à reconnaître des contenus illégaux ou qui contreviennent aux standards de publication, comme les contenus de désinformation.

M. Romain Badouard souligne le problème posé par ce recours massif à l'IA. D'une part, cette modération automatique est facilement contournable. Cela s'observe dans le cadre de la lutte contre les discours de haine : les groupes racistes, misogynes, antisémites ou autres apprennent très rapidement à déjouer cette modération automatique, par exemple en utilisant un mot à la place d'un autre.

De même, NewsGuard explique la forte présence de contenus faux sur TikTok par une modération majoritairement faite par IA. Très efficace pour repérer les contenus haineux, violents ou racistes, l'IA est beaucoup moins performante pour repérer la mésinformation et la désinformation, ces dernières étant structurellement difficiles à distinguer de l'actualité crédible. Par ailleurs, l'algorithme de l'application a tendance à valoriser les contenus faisant davantage réagir. Or, « les contenus faux font davantage réagir parce qu'ils entrainent à la fois l'adhésion des personnes qui y croient mais aussi des réactions de la part des personnes qui commentent ces contenus pour les rejeter »176(*).

On retrouve ici la problématique liée à l'opacité de l'algorithme et à son caractère addictif « by design », qui entre en conflit direct avec les exigences de la modération des contenus.

Non spécifique à TikTok mais semblant avoir dans le cas de cette plateforme des effets plus graves, la faiblesse des moyens humains apparait donc particulièrement préjudiciable s'agissant de la lutte contre les fausses informations. Le rapport de mai 2023 du Parlement européen sur l'ingérence étrangère déplore que les grandes plateformes, dont TikTok, n'investissent pas suffisamment dans les moyens dédiés à la modération. Il souligne que « Meta, Google, YouTube, TikTok et Twitter, continuent à ne pas faire assez en matière de lutte active contre la désinformation, et qu'elles licencient même du personnel en dépit d'appels constants des régulateurs, de la société civile, voire, en interne, des personnels responsables des questions d'intégrité ».177(*)

M. Christophe Deloire, secrétaire général de Reporters sans frontières, dresse un constat similaire : « Je suis sidéré par la confiance qu'on a pu faire aux plateformes s'agissant de la lutte contre la désinformation (...) Leurs actions en la matière ont consisté en du blanchiment, allouant des fonds à des médias de vérification de faits (fact checking), pour donner l'impression d'agir ». Il ajoute qu'aucun des réseaux sociaux n'a « limité les dividendes pour ses actionnaires afin de sauver la démocratie ; il n'y a même pas eu un déplacement de curseur, tout est du côté de l'avantage économique »178(*).

Au total, les moyens de lutte contre la désinformation sur TikTok paraissent donc encore bien trop limités. L'ARCOM avait d'ailleurs appelé la plateforme à « un rattrapage accéléré pour faire face à ses obligations », estimant que « le statu quo n'est plus possible ». Le règlement sur les services numériques (RSN) obligera notamment les très grandes plateformes à augmenter la taille de leurs équipes de modération, qui devront par ailleurs couvrir un nombre plus important de langues.

2. Des contenus qui tardent à être retirés et des processus de labellisation peu aboutis

L'efficacité même de la politique de TikTok en matière de lutte contre les fausses informations apparait peu satisfaisante.

Selon le rapport d'application des règles communautaires de TikTok, l'entreprise a retiré au premier semestre 2022 plus de 102 millions de vidéos allant à l'encontre de ces règles. Sur ces 102 millions de vidéos, moins de 1 % ont été retirées parce qu'elles contrevenaient aux règles d'intégrité et d'authenticité, qui comprennent la mésinformation dangereuse. Les retraits de contenus de mésinformation restent donc très peu nombreux.

Par ailleurs, les contenus de désinformation ne semblent pas être retirés de façon proactive par TikTok. Mme Chine Labbé souligne ainsi que si l'entreprise prend bien des mesures, « le problème est que ces mesures sont prises a posteriori, c'est-à-dire après que nous leur ayons fait un signalement »179(*). La députée européenne Mme Nathalie Loiseau, notait lors de son audition le 13 avril 2023 devant la commission d'enquête que le groupe Wagner était toujours présent sur TikTok, malgré les actions massives de désinformation qu'il mène.

La proactivité semble s'appliquer uniquement pour le retrait des contenus violents et non pour la désinformation. TikTok indique ainsi : « Nous sommes fiers que la grande majorité des contenus violents soient identifiés et supprimés de manière proactive avant qu'ils ne soient vus ou qu'ils ne soient signalés »180(*). Même ce constat semble devoir être nuancé puisque les contenus glorifiant les exactions du groupe Wagner, qui contrevenaient pourtant clairement aux règles d'utilisation de TikTok sur la diffusion d'actes de violence, n'ont été retirés qu'après signalement de NewsGuard181(*).

Une fois les contenus de désinformation signalés, TikTok les retire. Cependant, NewsGuard déplore ne pas avoir de réponses de TikTok sur la raison pour laquelle ces contenus ont été promus dans des résultats de recherche ou dans des fils « Pour Toi ». A la question de savoir si les algorithmes de recherche sont conçus de manière à empêcher la promotion de contenus faux, TikTok n'apporte pas de réponse182(*).

Non propres à TikTok, les défauts en termes de labellisation des contenus se retrouvent aussi sur TikTok. Certes, l'application a labellisé les comptes des médias détenus par des États. Mais dans son rapport de 2022, l'ARCOM notait que la mise en oeuvre de cette règle était sélective : ainsi, si les chaines ukrainiennes contrôlées par l'État ukrainien étaient étiquetées, le compte de China Global Television Network Europe (CGTN Europe, contrôlé par l'État chinois), n'était pas identifié comme tel. Cette lacune a depuis été corrigée.

Par ailleurs, les règles d'utilisation de TikTok imposent en principe que les contenus altérés par l'intelligence artificielle soient labellisés comme tels. NewsGuard souligne que « ce n'est pas toujours le cas ». De nombreuses vidéos manipulées circulent ainsi sans label sur l'application. Quand il existe, le label n'apparait trop souvent qu'en milieu ou en fin de vidéo, ce qui en limite l'efficacité. Mme Chine Labbé note pourtant qu' « il ne serait pas plus coûteux de mettre ce label sur l'intégralité de la vidéo ».

3. Des règles de modération pouvant être détournées au profit de formes de censure

La politique de modération de TikTok entend s'appliquer au « contexte local ». Certes, toutes les grandes plateformes ont mis en place de tels systèmes de modération à deux niveaux : des règles communes de publication, adaptées le cas échéant au contexte législatif des pays. Mais alors que la plupart des plateformes ont une approche très légaliste du respect des lois nationales, TikTok a quant à lui une approche plus culturelle.

TikTok indique ainsi collaborer « avec les experts régionaux et les communautés locales afin de garantir que (notre) approche mondiale reconnaisse les normes culturelles locales » et adapter «  les applications régionales relatives à nos règles pour garantir que nous n'imposons pas les valeurs d'une région à une autre ». Cet objectif visant à ne pas imposer les valeurs d'une région à une autre peut paraitre légitime. Mais, comme le relève M. Romain Badouard, le terme est suffisamment large et vague pour qu'il puisse permettre de « servir à des formes de censure, un peu moins avouables »183(*).

De fait, en septembre 2019, The Guardian a révélé des documents internes de la firme qui mentionnaient que ByteDance, société mère de TikTok « interdisait de critiquer les lois et les règles d'un pays »184(*). Sous ce prétexte pouvaient ainsi être interdits les contenus sur les conflits religieux ou ethniques ou encore sur le séparatisme. Les exemples touchaient au Tibet et Taïwan, mais aussi au conflit nord-irlandais, à la République de Tchétchénie en Russie, et aussi de manière générale à « l'exagération de l'ampleur du conflit ethnique entre Blancs et Noirs ». En invoquant une approche localisée de la modération, TikTok rend ainsi possible une restriction d'accès à certains termes au nom du respect du « droit local »185(*).

Par ailleurs, la modération sur TikTok peut également amener à une autre forme de censure : le shadowbanning. Ce terme désigne une censure passant non pas par la suppression d'une information, mais par son invisibilisation de fait via une réduction de son accessibilité. Comme le rapportait un article du Time186(*), aux États-Unis, des influenceurs TikTok, produisant des vidéos vues par des millions de personnes, ont ainsi constaté que des contenus avec le hashtag #blm, pour Black Lives Matter n'étaient plus vues après la mort de George Floyd que par 1 000 ou 100 personnes. Seules les vidéos avec ce hashtag #blm étaient concernées, corroborant l'idée d'une forme de censure algorithmique.

Interrogé sur cette technique dans le questionnaire transmis, TikTok n'a pas répondu à la commission d'enquête. Mme Marlène Masure, directrice générale des opérations de TikTok SAS, a assuré lors de son audition que cette pratique n'était utilisée que pour les vidéos qui, sans contrevenir aux règles communautaires, sont considérées comme nocives quand elles sont visionnées de façon répétée, citant les « vidéos de fitness intense »187(*). Elle précisait que « l'algorithme traitera ces vidéos de façon différente, les proposera en moins grand nombre, les intercalant avec d'autres vidéos ». Cette réduction volontaire de visibilité serait également appliquée aux contenus « plus matures ».

Comme le note M. Romain Badouard, aucune information sur ces techniques ne figure dans les rapports de transparence de TikTok : « nous ne connaissons ni les personnes concernées ni les critères de sélection. Le flou est le plus total ». Le RSN ne semble pas exiger des éléments sur ce sujet puisqu'il n'exige d'information que sur la « transparence de la recommandation ». Or, comme l'affirme le chercheur, il est nécessaire de veiller également à la « transparence de la non recommandation ou la transparence de l'invisibilisation ».


* 174 Réponses au questionnaire n° 2

* 175 Audition Romain Badouard, 15 mai 2023.

* 176 Audition Chine Labbé, 3 mai 2023.

* 177 Rapport sur l'ingérence étrangère dans l'ensemble des processus démocratiques de l'Union européenne, y compris la désinformation, mai 2023.

* 178 Audition Christophe Deloire, 12 juin 2023.

* 179 Audition Chine Labbé, 3 mai 2023.

* 180 Réponses au questionnaire n°2.

* 181 Audition Chine Labbé, 3 mai 2023.

* 182 Audition Chine Labbé, 3 mai 2023.

* 183 Audition Romain Badouard, 15 mai 2023.

* 184 The Guardian, Revealed : How TikTok censors videos that do not please Beijing, 25 septembre 2019.

* 185 Fergus Ryan, Audrey Fritz and Daria TikTok and WeChat. Curating and controlling global information flows, Australian Strategic Policy Institute (ASPI), 2020.

* 186 Megan McCluskey “These TikTok Creators Say They're Still Being Suppressed for Posting Black Lives Matter”, Time, 22 juillet 2020.

* 187 Audition Marlène Masure, 8 juin 2023.

Les thèmes associés à ce dossier