Question de Mme HAVET Nadège (Finistère - RDPI) publiée le 06/11/2025
Mme Nadège Havet appelle l'attention de Mme la ministre déléguée auprès du ministre de l'économie, des finances et de la souveraineté industrielle, énergétique et numérique, chargée de l'intelligence artificielle et du numérique sur l'application du droit français aux entreprises et opérateurs dits de technologie sociale.
Récemment, une média régional s'est fait le relai d'une sage-femme qui a déposé plainte après avoir vu ses comptes, sur deux réseaux dits sociaux, supprimés. En cause, sa publication d'un reportage de France 3 Picardie sur l'interruption volontaire de grossesse (IVG) médicamenteuse dans lequel elle intervenait.
Cette dernière a pu dénoncer une censure arbitraire alors que ses comptes ont non seulement été bloqués, en quelques minutes, mais ensuite définitivement retirés deux jours plus tard, sans explication claire, si ce n'est une violation des « standards de la communauté ».
Alors que le contenu informait sur un droit devenu constitutionnel en France, depuis la loi n° 2024-200 du 8 mars 2024 relative à la liberté de recourir à l'interruption volontaire de grossesse, elle s'interroge sur la légalité d'une telle censure par une entreprise étrangère, multinationale américaine, de même que sur le respect des procédures européennes en matière de notification détaillée et de défense.
Alors que la Commission européenne réfléchit à des sanctions pour ce type de pratiques, elle rappelle que la problématique de la régulation des réseaux sociaux, entre dysfonctionnements et biais idéologiques, est primordiale pour le respect de notre souveraineté et de notre démocratie.
- page 5522
Réponse du Ministère délégué auprès du ministre de l'économie, des finances et de la souveraineté industrielle, énergétique et numérique, chargé de l'intelligence artificielle et du numérique publiée le 05/02/2026
Le Gouvernement est activement engagé en faveur de la construction d'un espace numérique sûr et respectueux des droits et libertés fondamentales de nos concitoyens et partage les inquiétudes soulevées ici. Dans ce cas particulier, le Gouvernement avait signalé la situation à l'Arcom et la plateforme concernée avait rouvert les comptes concernés. Dès 2022, les autorités françaises se sont pleinement investies dans la négociation du règlement européen sur les services numériques (RSN) dont l'adoption a permis de renforcer significativement le cadre juridique applicable aux plateformes numériques offrant leurs services sur le marché européen, en encadrant notamment leur activité de modération. En vertu du RSN, les plateformes sont désormais assujetties à des obligations de transparence renforcées. A ce titre, elles doivent fournir aux utilisateurs des informations claires, simples, intelligibles et facilement accessibles pour les utilisateurs sur leurs politiques, leurs procédures et leurs outils de modération, dans leurs conditions générales d'utilisation (article 14 du RSN). Dans le cadre de leur activité de modération, elles doivent par ailleurs prendre des mesures objectives et proportionnées, en tenant dûment compte des droits fondamentaux des utilisateurs (article 14 du RSN), tels que le droit à la liberté d'expression et d'information, le droit au respect de la vie privée, le droit à la non-discrimination ou le droit à un recours effectif. Au titre du RSN, si une plateforme décide de suspendre ou supprimer le compte d'un utilisateur ou de restreindre la visibilité d'un contenu, elle doit informer l'utilisateur de sa décision, des raisons de celle-ci et des possibilités de recours disponibles pour la contester, compte tenu des conséquences négatives que de telles décisions peuvent avoir pour l'utilisateur y compris en ce qui concerne l'exercice de son droit fondamental à la liberté d'expression (article 17 du RSN). Elle doit également prévoir un système interne de traitement des réclamations qui permette à l'utilisateur de contester facilement cette décision (article 20 du RSN). En cas de litige, l'utilisateur peut se tourner vers un organisme de règlement extrajudiciaire indépendant et certifié (article 21 du RSN) ou saisir le juge national. Dans un objectif de transparence, les plateformes en ligne doivent par ailleurs soumettre leurs décisions de modération et les exposés des motifs associés à la Commission européenne, en vue de leur inclusion dans une base de données accessible au public et gérée par la Commission (article 24 du RSN). Ainsi, toute personne peut désormais consulter les décisions de modération prises par les plateformes en ligne au sein de l'Union (https://transparency.dsa.ec.europa.eu/). Chaque année, les plateformes doivent aussi publier un rapport de transparence contenant diverses informations sur les activités de modération auxquelles elles se sont livrées entre le 1er janvier et le 31 décembre : nombre de signalements reçus, délai de traitement médian, nombre et type de mesures de modération prises, recours ou non à des outils automatisés, nombre de litiges transmis aux organes de règlement extrajudiciaire, etc. (articles 15 et 24 du RSN). A cet égard, les très grandes plateformes en ligne - qui comptent plus de 45 millions d'utilisateurs mensuels actifs dans l'Union - sont soumises à des exigences renforcées. Leurs rapports de transparence doivent être publiés au moins tous les 6 mois et contenir des informations supplémentaires sur les ressources humaines dédiées à la modération, leurs qualifications et connaissances linguistiques ou l'accompagnement et la formation dont elles bénéficient (article 42 du RSN). Outre ces exigences de transparence, le RSN fixe des obligations renforcées à la charge de ces très grands acteurs en raison des risquessystémiques qu'ils font peser sur les utilisateurs, notamment pour l'exercice de leurs droits fondamentaux et, en particulier, de leur liberté d'expression et d'information. Ils ont ainsi pour obligation de recenser, analyser et évaluer de manière digilente ces risques, et de mettre en place des mesures raisonnables, proportionnées et efficaces pour les atténuer, par exemple, en adaptant leurs processus de modération et/ou en renforçant leurs processus internes (articles 34 et 35 du RSN). En cas de manquement, les plateformes s'exposent à de lourdes sanctions financières pouvant atteindre jusqu'à 6 % de leur chiffre d'affaires mondial. A cet égard, la Commission européenne a ouvert à l'encontre de plusieurs acteurs (AliExpress, Facebook, Instagram, X notamment) des procédures formelles d'enquête qui portent spécifiquement sur la transparence de leur politique de modération ainsi que l'efficacité de leurs systèmes internes de signalement des contenus et de traitement des plaintes. L'une de ces procédures d'enquête a récemment conduit la plateforme AliExpress à prendre une série d'engagements juridiquement contraignants en vue de renforcer la transparence de ses décisions de modération et d'améliorer l'accessibilité et l'efficacité de son système interne de réclamation. L'application effective de ces engagements est désormais placée sous le contrôle de la Commission européenne, par l'intermédiaire d'un mandataire indépendant. X a également fait l'objet d'une sanction de 120 millions d'euros à l'issue d'une procédure d'enquête ouverte par la Commission. Les autorités françaises suivent avec attention la mise en oeuvre de ces engagements ainsi que les suites données à ces différentes procédures d'enquêtes, en veillant à ce que les exigences prévues par le cadre réglementaire européen soient pleinement et efficacement mises en oeuvre, dans le respect des droits et libertés fondamentales des concitoyens.
- page 699
Page mise à jour le