V. MARDI 16 JANVIER 2024 - AUDITION DE REPRÉSENTANTS DES RÉSEAUX SOCIAUX X (EX-TWITTER), META (FACEBOOK, INSTAGRAM ET WHATSAPP), TIKTOK ET SNAPCHAT

M. François-Noël Buffet, président, rapporteur. - Notre mission d'information sur les émeutes survenues à compter du 27 juin 2023 a pour objectif d'aboutir à la meilleure compréhension possible de ce qui s'est passé. La commission des lois est chargée des grands sujets régaliens et de sécurité, mais nous prenons en compte le contexte général, dans un cadre très large.

Tous nos interlocuteurs nous ont dit que les réseaux avaient joué à plein, ce qui a amplifié les événements, par mimétisme notamment, même si d'autres aspects sont bien sûr à prendre en compte, liés à la sociologie, aux quartiers, à l'urbanisme notamment. Notre rapport, qui sera publié dans les prochains mois, comportera des recommandations, législatives ou réglementaires. Au besoin, les travaux d'autres commissions prolongeront nos travaux.

Mme Élisa Borry-Estrade, responsable des affaires publiques de Meta en France. - Par nature, les réseaux sociaux sont des plateformes qui offrent des lieux d'expression et une voix à chaque individu. Chez Meta, nous sommes très attachés à cette idée : permettre aux communautés de se fédérer autour de passions et d'intérêts communs. Les réseaux sociaux sont largement utilisés dans les milieux militants, politiques et associatifs, rendant le débat public accessible en un clic.

Pour autant, la liberté d'expression - et c'est très important de le rappeler - n'est pas sans limites. Tout d'abord, le droit s'applique. Le numérique est un secteur hautement régulé en France et en Europe. On connaît bien le règlement général sur la protection des données (RGPD), en vigueur depuis plusieurs années. Le Digital Services Act (DSA) est plus récent. Demain, le Digital Markets Act (DMA) entrera en application, et bien d'autres régulations sont en cours d'élaboration. Nous aurons notamment l'occasion de parler du projet de loi visant à sécuriser et réguler l'espace numérique (Sren).

Avant ces régulations, en l'absence d'un cadre juridique universel, les plateformes avaient édicté leurs propres standards. Il s'agit de règles qui définissent ce qui peut être partagé sur les réseaux sociaux. Chaque plateforme a ses règles, et celles-ci sont riches et fournies. Sur le sujet qui nous intéresse aujourd'hui, j'en évoquerai quelques-unes en particulier.

Tout d'abord, parmi les contenus que nous interdisons, il y a tout ce qui est relatif aux incitations à la violence. Le but est de réduire le risque de dommages potentiels hors ligne. Nous allons jusqu'à la suppression de contenus ou, dans les cas les plus extrêmes, à la désactivation du compte. Nous interdisons aussi toute forme de coordination dans le but de nuire. Nos utilisateurs n'ont pas le droit de faciliter ou de promouvoir des activités criminelles ou préjudiciables qui visent des personnes, des biens, des entreprises ou des animaux.

Nous proscrivons également les contenus violents et graphiques. Pour protéger contre les images choquantes, nous supprimons les contenus particulièrement violents : je pense surtout aux cas extrêmes, comme des images de corps de personnes décédées. Le contenu graphique peut être autorisé avec des restrictions, qui prennent la forme d'étiquettes ou d'avertissements, pour préserver les utilisateurs. C'est notamment le cas dans le cadre de conflits, pour sensibiliser ou condamner certaines actions.

Chez Meta, nous appliquons l'ensemble de nos règles grâce à une combinaison de moyens humains et technologiques. Un peu plus de 40 000 personnes travaillent chez nous sur les enjeux de sécurité et de sûreté, dont environ 15 000 modérateurs. Depuis 2016, nous avons investi plus de 20 milliards de dollars dans ce domaine. C'est plus que n'importe quelle plateforme, à la fois en valeur absolue et proportionnellement à notre taille. Des millions de contenus sont retirés chaque jour dans le monde, et nous rendons compte de cette activité dans un rapport de transparence trimestriel qui est public et accessible en ligne.

En consultant ces rapports, on constate que, sur la période de juillet à septembre 2023, qui suit immédiatement la mort du jeune Nahel, 8,5 millions de contenus incitant à la violence ont été retirés de Facebook dans le monde, dont 87,3 % avaient été détectés par nos systèmes automatiques. L'utilisation des outils proactifs est très importante dans la détection et le retrait des contenus problématiques. Si l'on regarde l'ensemble des contenus violents sur la même période, par exemple sur Instagram, plus de 4 millions ont été retirés dans le monde, dont plus de 98 % de manière proactive.

Le rapport de transparence comporte aussi des données concernant les requêtes que nous recevons des autorités, pays par pays. Celles-ci nous saisissent via un portail dédié aux forces de l'ordre, en place depuis plusieurs années, qui permet de centraliser leurs demandes, de les qualifier, d'apprécier leur validité et de veiller au respect du cadre légal : nous ne souhaitons pas divulguer des données en réponse à des demandes illégitimes. Nous veillons à traiter le plus rapidement possible chaque demande. Ce portail fonctionne vingt-quatre heures sur vingt-quatre, sept jours sur sept, avec des personnes d'astreinte. Pendant la période qui nous intéresse aujourd'hui, les autorités ne nous ont pas signalé de points de blocage particuliers : ces systèmes ont fonctionné normalement. En France, sur l'ensemble de l'année 2022, toutes requêtes confondues, nous avons traité plus de 25 450 demandes. Sur la période de janvier à juin 2023, le chiffre dépassait les 12 000 requêtes. Pour le second semestre 2023, nous n'avons pas encore le chiffre exact. Le taux de conformité a dépassé 94 %.

Vous nous demandez des statistiques sur les contenus partagés liés aux émeutes. Nous ne mesurons pas ce type de contenus événement par événement, ou pays par pays, car nous nous concentrons sur les violations de nos politiques mondiales. Ces chiffres sont donc englobés dans les chiffres internationaux que nous publions tous les trimestres. Nous concentrons nos efforts sur un retrait aussi efficace et rapide que possible de tels contenus.

La société Bloom, citée par Jean-Noël Barrot, a révélé que l'activité sur les réseaux sociaux liée aux violences urbaines avait représenté un peu moins de 15 % de l'activité totale pendant cette semaine-là. Dans l'interview au journal Le Monde qui mentionnait cette étude, le ministre avait ajouté que les contenus appelant au calme qui avaient alors été partagés étaient huit fois plus nombreux que les contenus incitant à la violence. Les forces de l'ordre, avec lesquelles nous échangeons au quotidien, confirment qu'il n'y a pas eu une abondance de contenus violents ou haineux pendant cette période. Cela témoigne, sans doute, de l'efficacité des processus en place.

Pour conclure, j'évoquerai la réglementation. Le DSA impose aux plateformes de prendre des mesures, et de faire preuve d'une certaine transparence dans l'application de leur politique de modération. Les catégories retenues ne vont pas dans le détail d'événements spécifiques, pays par pays, et nous veillons à rendre compte en fonction des catégories exigées. Nous sommes très vigilants sur l'application de ce règlement.

Cela m'amène à évoquer l'article 5 du projet de loi Sren, qui concerne le bannissement des services numériques. Nous avions émis des réserves sur cette mesure, qui contreviendrait au principe de spécificité du DSA. La Commission européenne s'est fait l'écho de nos réserves, dans une lettre signée par le commissaire Thierry Breton. Au niveau national, il existe des possibilités très intéressantes pour mieux lutter contre ces phénomènes. Nous étions notamment très favorables à une proposition figurant à l'article 5 bis, qui consiste à introduire une amende forfaitaire dès la première infraction.

Mme Claire Dilé, directrice des affaires publiques de X (ex-Twitter) en Europe. - Twitter, désormais appelé X, reflète ce qui se passe dans le monde et donc les événements en cours, ainsi que leur évolution. Notre mission est de promouvoir et de défendre la conversation publique, ce qui a permis une libération de la parole dans plusieurs pays, sachant que notre plateforme est accessible à peu près partout dans le monde. Toutefois, notre service peut être utilisé de manière négative, et donc comporter des risques pour les utilisateurs. C'est la raison pour laquelle nous avons mis en place des règles strictes, claires et publiques, et que nous avons à coeur de les faire respecter. Nous nous conformons également à la réglementation existante en France et au niveau européen.

Je souhaite aborder trois points, qui correspondent aux éléments que nous avons partagés avec Jean-Noël Barrot au cours de l'été. Je commencerai par évoquer les dynamiques d'intégration sociale que nous avons pu observer au cours de ces événements, étant entendu que nous ne pratiquons pas de surveillance généralisée de notre service. Puis, je présenterai les mesures que nous avons mises en place en tant que plateforme. Enfin, je vous donnerai quelques chiffres, afin que vous puissiez estimer nos actions, en matière de modération proactive et de réponse aux réquisitions des forces de l'ordre.

Nous avons constaté un pic de conversations au début des violences, autour du 23 et du 24 juin 2023 - surtout le vendredi 24 et au début du week-end. Puis, progressivement et de façon graduelle, nous avons observé une diminution du nombre de contenus appelant des actions de modération parce que susceptibles de violer nos règles ou la loi française. La conversation sur Twitter a évolué du commentaire sur le décès de Nahel Merzouk à des commentaires politiques, en passant par des appels à la violence et d'incitations à la haine envers les émeutiers. Il y a notamment eu des appels à des rassemblements au cours desquels les violences ont été commises.

Je rappelle que nos règles proscrivent les appels à la violence, l'incitation à la haine, les discours de haine, la vente de biens et de service illégaux - notamment d'armes - ainsi que le harcèlement. De la même manière, nous modérons les contenus sensibles, choquants pour les utilisateurs. Nous répondons aux signalements reçus de la part de nos utilisateurs.

Nous répondons également aux réquisitions des forces de l'ordre, dans le cadre d'une coopération essentielle. Il s'agit soit de demandes de retrait de contenus, soit de demandes d'information sur des comptes d'utilisateurs qui ont pu commettre des violences, avec un mandat de réquisition, soit de demandes de préservation des données pour les besoins d'une enquête. Nous mettons à disposition des autorités un portail dédié, et nous avons une coopération opérationnelle dans ce cadre, notamment pour la remontée de certains cas prioritaires.

À la suite de la réunion du 30 juin 2023 avec les ministres de l'intérieur et du numérique, nous avons sensibilisé nos équipes sur l'importance du sujet, sur la situation en France et sur les risques encourus par les personnes sur le territoire, et nous avons alerté notre direction américaine, notamment Linda Yaccarino, la directrice générale, et Elon Musk, le propriétaire. Nous avons aussi fait évoluer certaines de nos règles relatives aux appels à des rassemblements pouvant déboucher sur des violences.

Nous avons également effectué un suivi proactif et évolutif de nombreux mots dièses liés aux événements, en nous concentrant sur des mots-clés comme Nahel ou les noms des villes concernées. Nous avons octroyé à la cellule de crise du ministère de l'intérieur, à titre exceptionnel, l'accès à notre portail réservé aux forces de l'ordre. Enfin, nous nous sommes tenus à la disposition des différents ministères et de Pharos, y compris pendant le week-end, qu'il s'agisse de notre directeur général ou de moi-même, vingt-quatre heures sur vingt-quatre.

Pendant l'été, nous avons fait un point de suivi sur notre coopération opérationnelle pendant l'épisode des violences urbaines de juin avec les différentes entités des forces de l'ordre impliquées, afin d'effectuer un retour d'expérience et de discuter de possibles points d'amélioration, tant sur le taux de réponse aux réquisitions que sur des points de coopération plus opérationnels.

Pour lutter contre la désinformation, nous avons procédé à la labellisation de médias synthétiques et manipulés. Un faux communiqué de presse du ministère de l'intérieur avait circulé sur X. Nous avons pu l'identifier, le labelliser en indiquant très clairement qu'il s'agissait d'un faux et répliquer cette identification sur 84 tweets. Nous avons également vu que notre outil « community notes », alors simplement ouvert à contribution en France, a permis de contextualiser de nombreux contenus. Je donnerai deux exemples, mais il y en a davantage.

Sur le premier contenu, on voyait un tireur embusqué, un « sniper », sur un toit de Paris, mais celui-ci n'utilisait pas un fusil à pompe, et un expert en armes a pu spécifier qu'il ne s'agissait pas d'un vrai fusil. Sur le second, une scène du film Fast and Furious avait été reprise dans le contexte des émeutes. Nous l'avons contextualisée. Enfin, nous avons certifié plusieurs comptes gouvernementaux, afin que ceux-ci puissent avoir un accès facilité à l'Application Programming Interface (API) de Twitter au cours des violences.

La modération proactive nous a conduits à intervenir sur des centaines de contenus. Si les émeutes ont été un phénomène important, nous avons constaté moins de violations des règles que ce à quoi nous aurions pu nous attendre. Nous avons suspendu 39 comptes de manière permanente, et labellisé 84 tweets comme médias synthétiques et manipulés.

Entre le 27 juin et le 7 juillet 2023, nous avons répondu à 64 demandes d'information de la part des forces de l'ordre françaises et à sept demandes d'urgence en lien direct avec les émeutes. Dans ces derniers cas, nous n'attendons pas un mandat des forces de l'ordre pour donner les informations sur un utilisateur, parce qu'il y a un risque pour l'intégrité physique ou la vie d'une personne. Le taux d'action positive en réponse à ces réquisitions est de 87,5 %, et le délai d'action est à peu près d'une semaine.

Nous n'avons pas reçu de demande de préservation des données. De telles demandes nous permettent de préserver des données pendant plus de 90 jours, dans le cadre du RGPD. Nous n'avons pas fait de communication proactive sur ce que nous avons pu observer sur notre plateforme. Enfin, nous avons reçu 485 demandes de retrait et notre taux d'action a été de 67,9 %, sachant que 68 tweets ont été retirés spontanément pas leurs auteurs. Nos délais d'intervention étaient de quelques heures.

Pour l'année 2023, nous avons reçu 2 095 demandes de retrait, et notre taux d'action a été de 62 %. Nous avons reçu 4 461 demandes d'information, avec un taux d'action de 41,8 %.

M. Éric Garandeau, directeur des affaires publiques de TikTok en France. -Sur la plateforme TikTok, qui a désormais six ans, les utilisateurs viennent se divertir, s'informer, mais aussi présenter une passion ou découvrir un métier. Nous faisons vivre de plus en plus de personnes : une étude récente montre que TikTok a contribué à la création de 12 000 emplois, pour une activité de 1,4 milliard d'euros en France.

Nos règles sont assez similaires à celles qui ont été exposées par mes collègues. Nous proscrivons tous les contenus violents, haineux, antisémites, racistes, les appels à la dégradation de biens ou à s'en prendre à autrui, en tant que personne physique, en tant que groupe d'individus, ou à s'en prendre à l'autorité publique ou à des administrations.

Nous portons aussi une attention toute particulière aux utilisateurs mineurs de la plateforme. Nous essayons d'avoir le moins possible d'utilisateurs de moins de 13 ans, qui est l'âge limite pour entrer sur la plateforme. Pour les jeunes entre 13 et 18 ans, nous filtrons ce qu'ils peuvent voir. La plateforme n'offre que des fonctionnalités réduites aux 13-16 ans. Par exemple, ils n'ont pas de messagerie et leurs comptes sont privés par défaut.

Les émeutes sont arrivées dans la rue d'abord, et ensuite sur les plateformes. Celles-ci sont simplement des miroirs de la société, ni plus ni moins. On utilisait autrefois le téléphone, la télévision, la presse. Aujourd'hui, on utilise les plateformes pour s'informer et aussi, largement, pour appeler au calme, ce qui est rassurant, même si des minorités cherchent à mettre de l'huile sur le feu.

Dès que nous avons vu survenir les difficultés, nous avons mis en place une équipe spéciale, composée de treize personnes à temps plein, chargée spécifiquement de veiller sur ce qui se passait en France. Plusieurs départements de TikTok sont intervenus, notamment notre entité Trust and Safety, qui met en oeuvre les recommandations législatives, comme le DSA, et compte environ 40 000 personnes, dont 682 modérateurs en langue française. L'équipe spéciale s'efforçait de détecter des tendances, pour anticiper, et de vérifier les faits, tout en faisant de la veille sur les autres plateformes.

Nous avons coopéré activement avec le Gouvernement et participé à toutes les réunions. Dès le 30 juin, le ministre de l'intérieur nous a demandé de porter une attention particulière sur ce qui allait arriver au cours du week-end. Nous avons eu aussi des échanges réguliers avec le cabinet de Jean-Noël Barrot, le ministre chargé du numérique.

Pour détecter ces contenus, nous appliquons d'abord nos règles générales, au moyen de la modération automatique. Une intelligence artificielle passe en revue toutes les publications en permanence pour détecter tout ce qui peut être gênant : violence, incitation à la violence, incitation à la dégradation de biens... Nous avons ainsi pu modérer les images des faits survenus entre la victime et le policier qui a été mis en accusation, déclencheurs des émeutes. Nous avons aussi vérifié tous les contenus qui pouvaient présenter des menaces envers le policier en question. Nous avons retiré tous les contenus qui montraient des pillages, et ceux qui étaient générés par de l'intelligence artificielle et représentaient la victime ou le policier accusé.

Nous avons veillé à nous coordonner à la fois sur les vidéos et sur les contenus en direct, qui peuvent poser des problèmes et auxquels nous avons porté une attention particulière. Nous surveillons certains mots-clés, mais les utilisateurs, qui se savent sous surveillance, rivalisent d'ingéniosité pour faire passer des messages. Certains insèrent le mot-clé dans leur biographie, par exemple, ou y fixent les rendez-vous. Nous nous sommes toutefois efforcés de bloquer les informations sur des lieux et des horaires de rendez-vous en vue de la réalisation d'actions violentes, grâce à une équipe supplémentaire focalisée sur ce point. Nous avons notamment empêché l'utilisation du moteur de recherche de TikTok pour chercher des événements ou des lieux précis, où se déroulaient les émeutes.

Nous avons vu émerger de nouvelles tendances après le premier week-end, qui a été très violent. Certaines vidéos affirmaient que l'état d'urgence avait été déclaré, ou montraient des actions de destruction de biens ou de vol à l'étalage qui s'étaient produites le week-end. Nous avons veillé à éliminer ces contenus. Pour lutter contre la désinformation, nous nous reposons sur des vérificateurs de faits indépendants, notamment l'Agence France Presse (AFP). Nous avons reçu des rapports d'actualité flash de l'AFP sur toutes les dernières tendances en matière de désinformation, qui nous permettaient d'être proactifs en matière de veille sur TikTok.

Nous pouvons caractériser toutes les vidéos retirées comme de l'incitation à la violence, mais il est difficile de vous donner des chiffres exacts sur le nombre de contenus concernant les émeutes par rapport à ce qui relève d'une forme de violence habituelle. Les vidéos qui ont été retirées en application de nos règles contre les défis dangereux, la désinformation, les contenus choquants ou visuellement explicites, les comportements violents ou les activités criminelles, entre le 15 juin et le 31 juillet 2023, sont au nombre de 190 841. Le nombre de contenus détectés et retirés automatiquement fut de 81 285, et le nombre de contenus détectés et retirés manuellement, après signalement, a été de 109 556.

Par ailleurs, 3 161 vidéos supplémentaires ont été repérées en dehors de la modération ordinaire et retirées. Pour 975 vidéos, les conséquences ont été, soit un avertissement à l'utilisateur, soit une non-éligibilité au fil « Pour toi », ce qui permet de freiner fortement la diffusion. Enfin, de nombreux comptes ont été interdits, notamment pour commerce illégal de mortiers d'artifice.

S'agissant de la coopération avec les forces de l'ordre et le Gouvernement, nous avons reçu 33 réquisitions, ayant bénéficié d'un traitement accéléré - 1 heure et 30 minutes - du fait du contexte.

Pour conclure, les réseaux sociaux sont les miroirs de la société : au moment des faits, tout le monde s'interrogeait ; la plupart des personnes ayant utilisé TikTok l'ont fait pour partager ou visionner des contenus à caractère informatif. C'est un rôle important des plateformes !

Mme Sarah Bouchahoua, responsable des affaires publiques de Snapchat. - Créée en 2011, Snapchat est une plateforme de communication visuelle dont l'objectif est de reproduire les interactions quotidiennes entre parents et amis. Elle a été conçue de sorte que la compétition entre utilisateurs, que ce soit par le nombre d'abonnés, de like ou la mise en avant de contenus sensationnels, ne l'emporte pas face à l'authenticité et la protection de la communauté. Vie privée et confidentialité par défaut en sont les deux principes fondamentaux. En conséquence, nous n'utilisons pas de diffusion en direct (live streaming) et ne permettons pas le partage en masse de contenus de manière incontrôlée ou non vérifiée.

Snapchat a suivi heure par heure le déroulé des événements afin de prendre toute mesure adéquate, proportionnée et nécessaire pour protéger la communauté. Nous avons mobilisé une équipe de plus de 100 personnes, issues de différents services et localisées partout dans le monde, avec deux points d'appui à Paris et Londres. Bien que l'équipe ait été multilingue, seul l'usage du français a été nécessaire pour vérifier l'ensemble des contenus signalés.

Notre approche s'est articulée autour d'une modération rapide et efficace des contenus signalés ; du maintien d'échanges fluides et continus avec les autorités publiques ; d'un traitement prioritaire des requêtes et demandes d'informations. Nous avons répondu dans les plus brefs délais aux demandes émanant des autorités françaises, et avons participé à toutes les réunions organisées par le ministère de l'intérieur, le ministère chargé du numérique ou encore le groupe de travail parlementaire transpartisan sur les émeutes.

S'agissant de la modération des contenus, comme je l'ai indiqué, notre principe de confidentialité et sécurité par défaut constitue un rempart structurel contre toute diffusion massive, virale et incontrôlée de contenus illicites. La plateforme Snapchat n'est en réalité pas adaptée aux contenus politiques ou militants. L'incitation à la violence et à la haine y est explicitement interdite par les règles communautaires, avec un mécanisme de signalement mis à disposition des utilisateurs, mais aussi des non-utilisateurs par le biais du site support.

Notre modération repose sur une approche proportionnelle, protectrice des droits fondamentaux - comme la liberté d'expression et la liberté d'information - et essentiellement humaine. Ainsi, à notre connaissance, aucun contenu lié aux émeutes n'a été détecté ou retiré de notre plateforme de manière automatique, sans intervention humaine.

J'en viens à la collaboration avec les forces de l'ordre. Un canal prioritaire a été mis en place avec les autorités françaises afin de retirer le plus rapidement possible tout contenu illégal et répondre tout aussi rapidement aux réquisitions judiciaires. Snapchat a facilité les demandes émises par Pharos, ainsi que la transmission d'informations sensibles demandées par le ministère de l'intérieur.

Sur la dynamique des émeutes, je rejoins les précédents propos : les signalements ont faibli à partir du troisième jour, le vendredi 30 juin 2023. Nous avons par ailleurs constaté que nos efforts en matière de diligence de traitement et de modération portaient leurs fruits, plusieurs manifestants ayant proposé des migrations vers d'autres réseaux sociaux plus complaisants.

En tant que plateforme en ligne, nous sommes conscients de l'impact de cette nouvelle forme de communication au sein de la société. Estimant avoir fait tout notre possible en matière de protection des droits de nos utilisateurs et des valeurs démocratiques, nous estimons que toute modération doit se faire à la lumière de nos droits fondamentaux. Pour autant, les libertés d'expression, d'information et de conscience ne sont pas absolues : nos règles communautaires reflètent ainsi les limites inscrites dans les droits nationaux et internationaux. Elles ont été mises à jour récemment, après l'entrée en vigueur du DSA.

Le phénomène des émeutes s'est essentiellement concentré sur la carte (Map) et la messagerie privée. Cette dernière relevant du domaine des conversations privées, donc du secret des correspondances, il nous est impossible d'agir en l'absence de signalement d'un utilisateur ou d'une autorité.

En revanche, sur la partie Map, nous avons renforcé notre vigilance et notre modération, notamment sur les zones sensibles comme les banlieues de Paris, Marseille ou Toulouse. Pour rappel, cette fonctionnalité présente, sur une carte du monde entier, les publications (stories) publiques de nos utilisateurs. Elle n'offre pas de possibilité de diffuser des contenus en direct. Il s'agit de comptes rendus de terrain, mettant en avant des moments de vie de notre communauté. Je vous donnerai ultérieurement les chiffres, mais la différence entre signalements et retraits de contenus tient au fait que, comme indiqué par TikTok, la majorité de ces contenus avait pour but d'informer la communauté et ne comportait aucune infraction.

Par ailleurs, conformément aux articles 34 et 35 du règlement européen DSA, Snapchat, en tant que très large plateforme, a remis son premier rapport sur les risques systémiques à la Commission européenne. Le sujet des émeutes y est abordé et, à cette occasion, nous avons constaté que nos politiques et procédures ont correctement fonctionné.

Le besoin de répondre aux crises violentes est compréhensible, mais nous veillons à éviter toute censure proactive des contenus de notre carte dans les situations de crise : cela pourrait, d'une part, mettre en danger notre communauté dans des zones qui paraîtraient sûres parce que nous aurions de nous-mêmes supprimé des contenus et, d'autre part, porter préjudice à la protection des droits fondamentaux.

En revanche, la coopération avec les parties prenantes externes nous semble essentielle pour travailler à l'atténuation des risques. C'est pourquoi notre entreprise a signé plusieurs codes volontaires aux niveaux national et international, et s'engage activement dans les discussions internationales sur le développement des bonnes pratiques. Nous poursuivons nos efforts de surveillance, de minimisation des risques et de mise en place de processus efficaces.

Quelques chiffres, pour finir, que je vous communique à titre confidentiel et avec les mêmes précautions que mes prédécesseurs, à savoir qu'il est difficile d'établir le lien direct entre les contenus violents et les émeutes. Ces chiffres sont les suivants : 17 340 signalements durant cette période ; 2 007 contenus supprimés en conséquence et près de 50 utilisateurs ayant fait l'objet d'une suspension de compte. Enfin, dans les deux semaines ayant suivi les émeutes, nous avons comptabilisé environ 95 requêtes judiciaires émanant des autorités judiciaires, que nous avons traitées dans les heures ou minutes ayant suivi.

Mme Corinne Narassiguin. - Nous comprenons votre souci de préserver votre modèle économique et de trouver l'équilibre entre liberté d'expression et respect des réglementations, celles-ci étant plus strictes en Europe par rapport au reste du monde, et en France par rapport au reste de l'Europe. Pouvez-vous vraiment, en tant qu'organisations globales, vous adapter aux demandes spécifiques françaises ?

J'entends l'argument concernant le caractère informatif des vidéos et, sur ce fondement, la difficulté pour vous de les retirer. Mais on ne peut pas non plus faire comme si la diffusion instantanée de cette information sur les réseaux sociaux n'avait pas eu d'effet de contagion, d'émulation. Cet élément nous fait passer dans une autre dimension au regard d'émeutes ayant eu lieu par le passé en France.

Au-delà, on sait aussi que de nombreuses organisations ont été mises en place au travers de messageries privées. Je pense, par exemple, à des groupes de jeunes de mon département de la Seine-Saint-Denis qui se dispersaient à l'arrivée des forces de l'ordre pour se reformer ailleurs grâce à des boucles WhatsApp. Notre protection en la matière n'est pas très bonne, avec un cadre juridique sinon inexistant, du moins peu efficace.

M. François-Noël Buffet, président, rapporteur. - Pendant ces événements importants, avez-vous constaté une augmentation anormale des flux sur vos réseaux ?

Mme Audrey Linkenheld. - Ma question s'adresse à la représentante de X. Vous avez expliqué avoir reçu environ 4 000 demandes d'information, avec un « taux d'action », pour reprendre vos termes, de 41 %. Ce taux ne me paraît pas très élevé. Comment expliquez-vous sa faiblesse ?

Mme Béatrice Oeuvrard, responsable des affaires publiques de Meta France. - Nous n'avons pas recensé de pic d'activité sur nos plateformes, que ce soit Facebook ou Instagram. Cela rejoint un rapport commandé par le garde des sceaux et le ministre de l'intérieur, montrant la très faible utilisation des plateformes par les auteurs de violences urbaines : le taux est de 1 % pour WhatsApp, 0,6 % pour Facebook et 2 % pour Instagram.

Par ailleurs, nous appliquons le droit français à bien des niveaux. Avant même le DSA, nous nous conformions à des dispositifs français, tels que la loi du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN) ou encore la loi du 24 août 2021 confortant le respect des principes de la République. En tant que plateforme globale, nous recherchons une harmonisation, mais nous savons nous adapter aux spécificités locales.

Concernant spécifiquement WhatsApp, des réglementations s'appliquent déjà : le code de la sécurité intérieure, le code des postes et communications électroniques, la directive ePrivacy du 12 juillet 2002. Parmi les 25 000 requêtes citées précédemment, une bonne partie concerne cette plateforme : nous sommes effectivement en mesure de transmettre des métadonnées et, sur cet aspect précis, WhatsApp ne diffère pas des autres. Nous avons également pris des mesures pour limiter les effets de bord, comme l'impossibilité d'avoir des groupes de plus de 1 025 utilisateurs. Toutes les plateformes ne font pas ces efforts !

Mme Élisa Borry-Estrade. - Je précise que ce nombre de 25 000 correspond au nombre de requêtes reçues sur une année, uniquement en France.

Mme Béatrice Oeuvrard. - En 2016, le nombre de réquisitions s'élevait à 9 000. Ce nombre ne cesse donc d'augmenter, pour un taux de conformité atteignant 84 %. Les raisons pour lesquelles nous ne pouvons pas délivrer les informations demandées sont le plus souvent une adresse erronée, une adresse située hors de France ou un compte supprimé.

Mme Claire Dilé. - Pour compléter les propos précédents, le fait d'être une entité globale avec des règles de fonctionnement s'appliquant sur l'ensemble de la plateforme ne nous empêche pas de nous conformer aux réglementations européenne et française. Un contenu considéré comme illégal en France sera retiré sur le seul territoire français. Avec l'entrée en vigueur du DSA, nous avons aussi créé un formulaire permettant de signaler un contenu contraire à la législation européenne, auquel cas la suppression s'appliquera sur la totalité de ce territoire.

Par ailleurs, nous sommes conscients du phénomène d'émulation. C'est pourquoi, d'ailleurs, nous avons pu modifier notre façon de modérer des contenus appelant à se rassembler au moment de la crise. Considérant que de tels rassemblements, dans le contexte particulier de la France à ce moment-là, pouvaient conduire à des phénomènes de violence, nous avons fait pencher notre curseur un peu plus vers la sécurité et un peu moins vers la liberté d'expression.

Je ne reviens pas sur la question de la messagerie privée, la réponse donnée ayant été très exhaustive.

S'agissant du taux d'action de 41 %, il arrive parfois que nous manquions d'éléments de contexte pour pouvoir donner une réponse positive. Nous travaillons avec les forces de l'ordre de manière très décentralisée et elles-mêmes n'ont pas toujours des demandes parfaitement contextualisées. Par ailleurs, sur un plan opérationnel, deux éléments-clés vont déterminer notre réponse : le lien de rattachement à la sécurité nationale et le lien de rattachement au pays. Enfin, nous n'avons pas toujours les bonnes informations de compte pour nous permettre de remonter à l'utilisateur : les forces de l'ordre nous communiquent un nom affiché en ligne (displayname), par exemple, ce qui n'est pas forcément la carte d'identité sur X. Par souci de transparence, nous comptabilisons toutes les réponses négatives, même si cela réduit notre taux de conformité, et nous dialoguons avec les différents services pour améliorer nos résultats.

S'agissant du flux des événements, le sujet a été largement au centre des discussions sur X au cours de la semaine, ce qui n'est pas anormal pour une plateforme de conversation publique.

Mme Béatrice Oeuvrard. - Concernant les propositions, nous nous sommes étonné que le groupe de contact permanent mis en place à la suite des attentats de 2015 et piloté par le ministre de l'intérieur n'ait pas été réuni de nouveau. C'est dommage de ne se voir qu'en temps de crise, alors qu'un tel groupe peut permettre un sérieux travail en amont.

Mme Sarah Bouchahoua. - Effectivement, malgré l'annonce de Jean-Noël Barrot et Gérald Darmanin, le groupe de contact permanent ne s'est pas réuni. Or, il faut travailler, surtout avec l'arrivée des jeux Olympiques et Paralympiques qui suscite certaines craintes. Ce dont nous avons besoin, c'est d'un travail collectif réunissant, certes, les plateformes, mais aussi les autorités, les représentants de la société civile et les citoyens eux-mêmes. Prenons l'exemple des amendes forfaitaires - projet engagé, mais non abouti. Nous pensons, au sein de Snapchat, qu'un acteur malveillant le restera jusqu'à ce qu'il soit condamné ; si nous bannissons son compte de notre plateforme, il changera simplement de réseau social, pour une plateforme plus complaisante. Pourquoi, donc, ne pas travailler sur cette idée d'amende forfaitaire pour tenter d'éduquer, de sensibiliser et, surtout, de condamner ?

M. François-Noël Buffet, président, rapporteur. - Merci de votre participation.

Partager cette page