D. ENCADRER LES ALGORITHMES DE RECOMMANDATION ET DE MODÉRATION

Constat : Les algorithmes de recommandation et de modération, comme ceux déployés sur TikTok, sont devenus les « gardiens » de l'information en ligne d'une partie très importante de la population.

Ainsi que l'a expliqué M. Benoit Loutrel aux membres de la commission d'enquête, « grâce au RSN, nous allons pouvoir exiger une "transparence sortante", c'est-à-dire révéler une information en leur possession concernant l'intention mise dans leurs algorithmes, mais aussi une "transparence entrante", où de l'extérieur nous pourrons révéler des informations qu'ils n'ont pas - leurs algorithmes ont-ils des effets non intentionnels ? - ou des éléments qu'ils essaient de nous cacher ». Sur ces effets non intentionnels, beaucoup reste à faire selon M. Marc Faddoul car les plateformes se concentrent surtout sur le fait de savoir si l'algorithme crée et maintient de l'engagement.

Il n'est d'ailleurs pas certain que les mesures prises par le RSN suffisent à « moraliser » l'algorithme de TikTok, qui est construit pour être « addictif ». Comme le soulignait M. Tariq Krim, la couche de régulation risque bien de rester superficielle si l'algorithme est conçu dès la première brique pour maximiser l'engagement et la « rétention » de l'utilisateur.

Devant la commission d'enquête, l'ARCOM a insisté sur la nécessité d'exiger de TikTok de communiquer publiquement ses réponses aux interrogations des différents régulateurs. Compte tenu des moyens limités des autorités de régulation, les actions entreprises par l'entreprise doivent en effet être jugées collectivement, y compris par le monde académique. M. Benoit Loutrel précise ainsi que les moyens de l'ARCOM sont « dérisoires au regard de la puissance de ces plateformes et de la multiplicité des sujets (...) Nous veillons soigneusement à ne pas nous enfermer dans un dialogue « portes fermées » avec ces plateformes »235(*)

TikTok a certes indiqué à l'ARCOM la mise en place d'un programme d'accès aux données pour les chercheurs, comme l'y oblige le RSN, via des interfaces de programmation d'application (API). Force est cependant de constater que très peu de précisions sont apportées pour permettre la mise en oeuvre effective de cet engagement. L'ARCOM a ainsi, sans succès, demandé des compléments d'information : « nous leur avons demandé où était l'information sur ce sujet, si elle était rendue publique, quels étaient les laboratoires qui pouvaient s'en saisir, s'ils pourront mener des recherches de façon indépendante »236(*).

En outre, lors d'un déplacement récent au Centre de transparence irlandais de l'entreprise, les représentants de l'ARCOM ont réitéré leur demande auprès des responsables de TikTok : ce ne sont pas seulement quelques scientifiques spécialistes des données ou les membres des autorités de régulation qui doivent pouvoir comprendre les intentions et les effets de l'algorithme, mais aussi tous les instituts de recherche qui le souhaiteraient. L'ARCOM n'a pas obtenu d'engagement de TikTok sur ce point.

Dans un second temps, les études qui seront rendues possibles par la transparence des algorithmes exigée par le RSN devront permettre de déterminer si celui de TikTok est compatible avec une absence de risque systémique au sens du Règlement, mais aussi, complétées par des études sanitaires, s'il ne représente pas, en soi, un danger pour la santé psychologique des enfants et des adolescents (cf. ci-dessous). Dans ce dernier cas, le régulateur européen devra en tirer les conséquences en activant le mécanisme de réaction aux crises touchant la sécurité ou la santé publique prévu par le RSN.

Toutefois, compte tenu de l'importance prises par les algorithmes de recommandation et de modération qui peuvent modeler les aspirations de chacun et influer sur le fonctionnement de la démocratie, il semble important d'aller plus loin et d'arrêter au niveau européen un cadre minimal de règles en matière d'éthique et de respect des droits fondamentaux, obligatoires qui seraient à intégrer dès la conception (« by design ») de ces algorithmes. Faute d'une telle évolution, le régulateur risque d'avoir toujours un temps de retard sur les plateformes numériques. Dans ce domaine, la position maximaliste serait d'exiger une interopérabilité des algorithmes et une ouverture à la concurrence du marché des algorithmes. Le modèle même de TikTok en serait affecté, mais il n'est pas exclu que le recul acquis sur le fonctionnement des algorithmes et sur leurs effets conduise in fine à une telle décision.

En tout état de cause, la commission d'enquête souhaite reprendre une recommandation déjà formulée par Mme Florence Blatrix Contat et Mme Catherine Morin-Desailly dans le rapport d'information sur le RSN237(*), qui semble toujours aussi appropriée.

Recommandation n° 11 :  Exiger de TikTok que la société crée des API et y ouvre un large accès à l'ensemble des organismes de recherche qui le souhaiteraient, en communiquant sur cette politique afin que le monde académique et la société civile puissent évaluer le respect de ses obligations au regard du RSN.

Recommandation n° 12 : S'assurer de la légalité et de la sécurité des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité utilisés par les plateformes en ligne en mettant en place, au niveau européen, des normes minimales en matière d'éthique et de respect des droits fondamentaux, obligatoires pour tous les algorithmes, dès leur création (sécurité et légalité par construction ou « safety and legacy by design »).


* 235 Audition Benoit Loutrel, 16 mars 2023.

* 236 Audition Benoit Loutrel, 16 mars 2023.

* 237 Rapport d'information n° 274 (2021-2022).

Les thèmes associés à ce dossier