E. ALLER PLUS LOIN : REPENSER LA RESPONSABILITÉ DES PLATEFORMES QUI ÉDITORIALISENT LEURS CONTENUS ET MIEUX LUTTER CONTRE LES FAUSSES INFORMATIONS

Constat : TikTok reconnaît « éditorialiser » les contenus de son fil « Pour Toi » et aller ainsi au-delà d'un rôle de simple hébergeur.

Selon ses représentants, favoriser la qualité des contenus est un souci constant de la direction des opérations de TikTok SAS, que M. Eric Garandeau a d'ailleurs appelée dans son audition « direction des contenus et des opérations ». Le contenu constitue en effet le gage du maintien de « l'engagement » des utilisateurs.

Ainsi, TikTok encadre les vidéos diffusées par des « bonnes pratiques », en matière de durée, de fréquence de publication ou de stratégie éditoriale ; elle pose des « codes » et une « grammaire »238(*). Surtout, elle reconnait amplifier manuellement certains contenus239(*).

« Lorsque nous sommes partenaires d'un événement ou que nous soutenons un programme, nous éditorialisons cet événement. Par exemple, quand nous sommes partenaires du festival de Cannes, nous identifions certains contenus qui nous paraissent être les plus intéressants, car nous voyons qu'ils sont aimés par la communauté, et nous allons les mettre en avant grâce à un petit logo qui s'appelle "officiel" ».

« Cela nous permet d'apporter un avis éditorial sur certains contenus et de nous assurer que les meilleurs partenaires qui font les meilleurs efforts voient leurs contenus valorisés ».

« Les données qu'on collecte sur le moteur de recherche sont des données qui nous permettent uniquement de cibler pour, sur le plan éditorial, pousser un contenu particulier ».

TikTok reconnaît aller plus loin qu'un cadre classique de modération puisqu'elle indique opérer une réduction de la visibilité de certains contenus pour « limiter la diffusion de contenus qui, bien que n'enfreignant pas les Règles communautaires de TikTok, peuvent toutefois ne pas convenir à un large public »240(*).

Dans ces conditions, il y a lieu de s'interroger sur le statut d'hébergeur qu'elle revendique et l'absence totale de responsabilité deTikTok au titre des contenus qu'elle diffuse sur son fil.

Ce sujet n'est pas nouveau, mais il se pose avec une plus grande acuité pour TikTok compte tenu de ses pratiques qui lui confère un rôle actif sur les contenus mis en ligne. Par analogie, le statut de simple hébergeur a été écarté s'agissant de la plateforme Ebay en raison du fait qu'elle n'avait pas exercé une simple activité d'hébergement mais qu'elle avait, indépendamment de toute option choisie par les vendeurs, joué un rôle actif de nature à leur conférer la connaissance ou le contrôle des données qu'elles stockaient241(*). Ou plus récemment, la Cour de cassation a reconnu la responsabilité d'un site qui, « par son assistance, consistant notamment à optimiser la présentation des offres à la vente en cause et à promouvoir celles-ci, ce qui reposait sur sa connaissance ou son contrôle des données stockées, avait un rôle actif »242(*).

Une assimilation des plateformes qui effectuent de la recommandation algorithmique de contenus à des éditeurs avait été proposée par le rapporteur en mars 2021 et adoptée par le Sénat lors de la discussion de la loi confortant le respect des principes de la République243(*). La commission des affaires européennes a également fait sienne cette analyse dans sa résolution européenne sur la proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques244(*).

Lors de son audition, le chercheur M. Marc Faddoul s'est déclaré favorable à ce rapprochement de responsabilité dans la mesure où un algorithme comme YouTube, par exemple, a plus de pouvoir éditorial sur la circulation d'information que, sans doute, les grands journaux américains ou français. Le choix des thèmes qui reçoivent ce traitement d'informations présélectionnées ou préfiltrées constitue en soi une édition.

Cette analyse est d'autant plus vraie dans le cas de TikTok qui agit de manière ciblée sur le fonctionnement de son algorithme.

La commission d'enquête réitère donc la recommandation émise par ses membres Mme Florence Blatrix Contat et Mme Catherine Morin-Desailly en décembre 2021 dans leur rapport d'information accompagnant la proposition de résolution européenne précitée245(*), qui souhaitaient que le RSN aille plus loin qu'une reconnaissance circonstanciée de responsabilité au regard du droit de la consommation des plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels.

Par ailleurs, si le RSA met à la charge des plateformes numériques la lutte contre les fausses informations, les régulateurs nationaux devant seulement vérifier que ces plateformes mettent en oeuvre les moyens qui leur incombent à cette fin, il demeure utile qu'une personne qui remarque un « contenu » particulièrement trompeur et dangereux puisse le dénoncer directement aux pouvoir publics. Ceci ne concerne pas uniquement TikTok, mais le présent rapport illustre les difficultés particulières rencontrées par la plateforme pour supprimer les contenus de ce type.

Actuellement, il est possible de dénoncer une fausse information de deux manières selon le média par lequel elle est diffusée. S'il s'agit de la radio ou de la télévision, la fausse information peut être signalée auprès de l'Arcom. S'il s'agit d'une information diffusée sur une plateforme numérique, elle peut être signalée, comme tous les autres types d'infraction, à la plateforme Pharos placée auprès du ministère de l'intérieur. Toutefois, cette faculté reste théorique. En effet, sur le site de la plateforme Pharos, l'item « fausse information » n'est pas présent parmi la liste des infractions (telles que le terrorisme, l'escroquerie bancaire, la pédopornographie, etc) parmi lesquelles il faut obligatoirement choisir pour effectuer une déclaration. Il apparaît donc nécessaire de modifier ce formulaire de déclaration et, pour Pharos, de prendre davantage en compte cette problématique.

Par ailleurs, lors des émeutes consécutives à la mort de Nahel M., le 26 juin 2023, les réseaux sociaux Snapchat et TikTok ont joué, de l'avis de nombreux observateurs, un rôle important d'amplification des émeutes et de leur niveau de violence, avec un grand nombre de vidéos montrant des scènes inacceptables de violences urbaines et de pillage, démontrant de nouveau les failles des politiques de modération des contenus des réseaux sociaux. Ce sujet a d'emblée été pris en compte au plus haut niveau de l'Etat puisque le président de la République a demandé publiquement à ces plateformes d'avoir une modération plus proactive des contenus pouvant inciter à la violence. Le chef de l'Etat a ainsi évoqué « une forme de mimétisme de la violence, ce qui chez les plus jeunes conduit à une forme de sortie du réel ». TikTok et Snapchat ont également été utilisés pour organiser certains rassemblements violents ou des pillages. Les représentants de Snapchat et TikTok ont été reçus au ministère de l'Intérieur le 30 juin.

Cet épisode montre, s'il en était besoin, le rôle très important que peut jouer TikTok dans de tels événements susceptibles de provoquer de graves troubles à l'ordre public ou à la sécurité des personnes et des biens, allant jusqu'aux incendies de bâtiments publics. La jeunesse des participants aux émeutes a souvent été relevée : la plupart d'entre eux auraient entre 14 et 18 ans, âge qui constitue justement le « coeur de cible » de TikTok. Ceci met particulièrement en relief les risques que représente une application ainsi largement diffusée, dont les contenus, comme il a été démontré, pourraient être biaisés au profit d'autorités chinoises soucieuses d'alimenter des troubles susceptibles d'affaiblir l'image de la démocratie. Il est d'autant plus nécessaire que TikTok cesse de se contenter de renvoyer à l'application de ses règles communautaires et vise une bien meilleure efficacité dans la modération, la lutte contre la désinformation et l'utilisation de sa plateforme pour des appels à l'émeute. Un tel contrôle doit s'effectuer a priori et non a posteriori.

Recommandation n° 13 : D'ores et déjà, traiter en éditeur TikTok à travers son fil « Pour Toi » et tenir la société responsable de son contenu.

Recommandation n° 14 : Créer un nouveau régime européen de responsabilité renforcée pour les fournisseurs de services intermédiaires utilisant des algorithmes d'ordonnancement des contenus, à raison de cette utilisation.

Recommandation n° 15 : Demander à la plateforme Pharos de prendre davantage en compte les infractions liées à la diffusion de fausses informations et adapter le formulaire internet de déclaration d'infractions en conséquence.

Recommandation n° 16 : Exiger des plateformes numériques une modération a priori en cas de graves troubles à l'ordre public et d'utilisation de ces plateformes par les auteurs de ces troubles pour les organiser ou y inciter. Prévoir la possibilité, pour l'autorité administrative, s'il est constaté des émeutes et des incitations manifestes à la violence contre des personnes, à la dégradation des bâtiments ou des installations publiques ou à l'intrusion en leur sein, d'émettre des injonctions de retrait à l'encontre de tout service de réseau social en ligne pour retirer ou bloquer l'accès de ces contenus, à l'instar des dispositions qui existent déjà pour lutter contre la pédopornographie ou le terrorisme en ligne.


* 238 Voir l'audition de Marlène Masure.

* 239 Les citations qui suivent proviennent de cette même audition.

* 240 Réponse à un questionnaire.

* 241 Voir par exemple, Cour de cassation, Chambre commerciale, 3 mai 2012, pourvoi n° 11-10.508.

* 242 Cour de cassation, Chambre commerciale, 1 juin 2022, pourvoi n° 20-21.74.

* 243 Amendement n°250 rect. sexies adopté le 30 mars 2021 et reconnaissant la responsabilité civile et pénale des plateformes utilisant des algorithmes pour « classer, ordonner, promouvoir, recommander, amplifier, ou modifier » la diffusion ou l'affichage de contenus.

* 244 Résolution n° 70 (2021-2022), devenue résolution du Sénat le 14 janvier 2022.

* 245 Proposition de résolution n° 275 (2021-2022) de Mmes Florence Blatrix Contat et Catherine Morin-Desailly, déposée au Sénat le 8 décembre 2021. Consulter l'Essentiel.

Les thèmes associés à ce dossier