COM(2020) 825 final  du 15/12/2020


La Commission européenne a présenté le 15 décembre dernier deux propositions de règlements, le Digital Services Act (DSA) et le Digital Markets Act (DMA), qui visent à revoir les règles du marché unique du numérique, définies en l'état, pour l'essentiel, par la directive « e-commerce » de 20001(*), et récemment complétées par un règlement dit « platforms to business » (P2B) de 20192(*).

Ces deux textes ont pour objectif de définir les responsabilités des grandes plateformes et d'encadrer leurs comportements anti-concurrentiels.

La proposition de règlement COM(2020) 825 relatif à un marché intérieur des services numériques vise à modifier la directive « e-commerce » afin de renforcer et d'actualiser les règles horizontales définissant les responsabilités et obligations des prestataires de services numériques dans l'Union, en particulier en ce qui concerne le retrait des contenus illicites au regard du droit de l'Union ou des législations nationales3(*).

Sans remettre en cause le principe, inscrit dans la directive « e-commerce », de responsabilité limitée des intermédiaires4(*), elle introduirait des obligations de vigilance (due diligence), qui se traduiraient notamment par des obligations de moyens et de transparence. Ces obligations seraient graduées en fonction de la nature (hébergeurs passifs ou plateformes) et de la taille des acteurs concernés. La proposition prévoit également des modalités de contrôle, et introduit un cadre harmonisé au sein duquel les États membres pourraient déterminer les sanctions applicables en cas d'infraction au règlement.

Le texte ne comprend pas de définition de ce qu'est un contenu5(*) « illégal », cette définition étant renvoyée aux législations européennes et nationales pertinentes ; il crée en revanche un cadre pour que tout contenu défini par ces dernières comme illégal soit traité de manière uniforme dans les différents pays de l'Union.

La proposition maintient également le principe, énoncé dans la directive « e-commerce », du pays d'origine6(*), même si ce dernier fait l'objet d'aménagements : les autorités judiciaires ou administratives nationales de l'État de destination7(*) seraient désormais autorisées à adresser directement aux fournisseurs de services intermédiaires des injonctions concernant des éléments de contenu illicites spécifiques, sur la base de leur droit national ou du droit de l'Union pertinent, sans nécessité de passer par l'autorité compétente du pays d'établissement8(*).

Dans la lignée de l'évaluation faite par la Commission de l'application de la directive « e-commerce », qui a pointé le fait que le manque de coopération entre États membres avait amoindri l'efficience de cette dernière, des mécanismes de coopération spécifiques entre États membres seraient mis en place. Ainsi la proposition :

- crée un Comité européen des services numériques, composé des coordinateurs pour les services numériques de chaque État membre, responsables de l'application et du contrôle du règlement ;

- ouvre la possibilité pour le coordinateur pour les services numériques d'un pays de destination de :

o rechercher et obtenir des informations qui se trouvent sur le territoire de l'État membre d'établissement du fournisseur visé, y compris dans le cadre d'enquêtes conjointes, conformément aux procédures relatives à la coopération transfrontière9(*) ;

o demander au coordinateur de l'État membre d'établissement d'un fournisseur, en cas de soupçon d'infraction, de prendre les mesures adéquates ; en l'absence d'action de la part du coordinateur de l'État membre d'établissement, la Commission pourrait être saisie par le coordinateur de l'État membre de destination et adresser à son tour une injonction d'agir au coordinateur pour les services numériques du pays d'établissement10(*).

- prévoit, en ce qui concerne spécifiquement les très grandes plateformes11(*), que la Commission - agissant de sa propre initiative - ou le Comité européen des services numériques - agissant de sa propre initiative ou à la demande d'au moins trois coordinateurs nationaux - puisse recommander au coordinateur de l'État membre d'établissement d'enquêter sur une infraction présumée12(*) ; la Commission pourrait également infliger des sanctions, notamment en cas de défaut d'action du coordinateur national compétent à la suite d'une demande de la Commission.

La Commission appuie sa proposition sur l'article 114 du Traité sur le fonctionnement de l'Union européenne (TFUE), qui autorise l'Union à adopter des mesures destinées à assurer le bon fonctionnement du marché intérieur. Les services numériques utilisés en Europe sont actuellement soumis à des règles en matière de modération des contenus fondés à la fois sur certaines dispositions sectorielles à l'échelle de l'Union (règlement sur le retrait des contenus terroristes...) et des règles adoptées à l'échelon national, avec des différences substantielles entre ces différents dispositifs en ce qui concerne les obligations imposées ainsi que les mécanismes d'exécution déployés, ce qui aboutit à un ensemble de réglementations fragmenté, qui peut créer de l'insécurité juridique et faire obstacle à la libre circulation des services au sein du marché unique. De ce point de vue, l'action de l'Union est justifiée, étant la plus à même d'adopter des règles harmonisées en matière de procédure de retrait et d'obligations en matière de transparence, dans un secteur numérique par nature transfrontière, sans toutefois entamer les compétences des États membres en matière de définition - dans le respect du droit de l'Union - des contenus illicites.

En outre, les pouvoirs de contrôle et de sanction ne seraient exercés par la Commission que de manière subsidiaire, notamment en cas de défaut d'action de la part des autorités du pays d'établissement du fournisseur concerné, et toujours en lien avec le Comité européen des services numériques.

La proposition ne semble donc pas contraire au principe de subsidiarité, et le groupe de travail sur la subsidiarité a décidé de ne pas intervenir plus avant sur ce texte au titre de l'article 88-6 de la Constitution.


* 1 Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »).

* 2 Règlement (UE) 2019/1150 du Parlement européen et du Conseil du 20 juin 2019 promouvant l'équité et la transparence pour les entreprises utilisatrices de services d'intermédiation en ligne.

* 3 La proposition concerne également les places de marché en ligne, pour lesquelles elle prévoit notamment une amélioration de la traçabilité des utilisateurs professionnels, en vue de mieux faire respecter la législation de l'Union en matière de protection des consommateurs et de sécurité des produits.

* 4 En vertu duquel ces derniers ne peuvent être tenus responsables de la publication de contenus illicites que si, après signalement, ces derniers ne sont pas retirés ou rendus inaccessibles.

* 5 Contenu au sens strict, mais également, dans le cas des places de marché par exemple, produits ou services.

* 6 En vertu duquel l'État membre compétent demeurerait celui dans lequel est établi le fournisseur de services intermédiaires concerné.

* 7 A savoir l'État de résidence de l'utilisateur final.

* 8 Article 8 ; l'article 9 prévoit la même exception concernant les injonctions faites aux fournisseurs de services intermédiaires de fournir des informations.

* 9 Article 46.

* 10 Article 45.

* 11 Définies à l'article 25 comme celles qui captent au moins 10% de la population européenne (soit actuellement 45 millions d'utilisateurs actifs en moyenne chaque mois).

* 12 Article 50.


Examen dans le cadre de l'article 88-4 de la Constitution

Texte déposé au Sénat le 03/02/2021
Examen : 08/12/2021 (commission des affaires européennes)

Ce texte a fait l'objet de la proposition de résolution : Proposition de résolution européenne sur la proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Digital Services Act) (2021-2022) : voir le dossier legislatif


· Économie, finances, fiscalité

Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques) et modifiant la directive 2000/31/CE

COM(2021) 30 final - Texte E15481

(Extrait du compte rendu de la réunion de commission des affaires européennes du 7 octobre 2021)

Examen du rapport de la proposition de résolution européenne et de l'avis politique de Mmes Florence Blatrix Contat et Catherine Morin-Desailly

M. Alain Cadec, président. - (...) Depuis déjà plusieurs années, le Sénat se préoccupe de la puissance grandissante des géants du numérique, dans notre monde où l'ensemble des activités deviennent digitales. Dès 2013, notre collègue Catherine Morin-Desailly avait, au nom de notre commission, publié un rapport alarmiste sur ce sujet intitulé L'Union européenne, colonie du monde numérique ?, dont le seul titre a rencontré un certain écho. Le temps écoulé depuis lors n'a pas démenti ses craintes : Google, Apple, Facebook, Amazon et Microsoft (les Gafam) ont pris un pouvoir croissant sur nos économies et même sur nos vies.

Ce constat préoccupant a conduit en 2019 à la constitution au Sénat d'une commission d'enquête sur les moyens de reconquérir notre souveraineté numérique dans le cyberespace, devenu un lieu d'affrontement mondial où s'exercent luttes d'influence et conflits d'intérêts. La révolution des données a fait émerger, en plus des Gafam américains, de puissants acteurs numériques chinois, Baidu, Alibaba, Tencent et Xiaomi (Batx), qui atteignent un nombre d'utilisateurs et une puissance financière leur permettant de rivaliser avec les États, voire de les déstabiliser politiquement. Le rapport de notre collègue Gérard Longuet appelait ainsi à un « devoir de souveraineté numérique » pour retrouver notre autonomie informationnelle.

Cet impératif a pris une dimension nouvelle avec la pandémie intervenue ensuite, laquelle a encore accéléré la transition numérique, transformé nos modes de vie et mis au jour nos dépendances par rapport ces outils.

C'est pourquoi il devenait urgent que l'Union européenne se dote d'une stratégie globale pour reprendre pied dans le cyberespace. Après les premières amendes sévères infligées aux Gafam à l'instigation de Margrethe Vestager, commissaire en charge de la concurrence, le commissaire européen Thierry Breton s'est montré particulièrement déterminé à forger de nouveaux outils juridiques pour réguler les marchés et services numériques.

Ainsi la Commission européenne a présenté en décembre 2020 deux projets de règlements européens, le Digital Markets Act (DMA), qui définit quelles plateformes ont un caractère systémique et quelles obligations leur appliquer, et le Digital Services Act (DSA), qui fixe des obligations légales aux entreprises du numérique, en proportion de leur taille. Les rapporteures Catherine Morin-Desailly et Florence Blatrix Contat se sont d'abord penchées sur le DMA et vont aujourd'hui nous présenter leur rapport sur ce texte, assorti d'une proposition de résolution européenne et d'un avis politique.

Mme Catherine Morin-Desailly, rapporteure. - Vous avez remis en perspective nos travaux dans ceux qui sont conduits plus largement par le Sénat. Je regrette néanmoins que l'on oublie souvent de mentionner le rapport très important de la mission commune d'information « Nouveau rôle et nouvelle stratégie pour l'Union européenne dans la gouvernance mondiale de l'Internet » et assorti d'une cinquantaine de propositions, publié par le Sénat en 2014. Ce rapport transpartisan, qui a précédé celui de la commission d'enquête, a été fondateur.

M. André Gattolin. - C'était la première fois que l'on exprimait le besoin d'une stratégie industrielle européenne.

Mme Catherine Morin-Desailly, rapporteure. - Exactement !

Nous avons, avec ma collègue Florence Blatrix Contat, auditionné beaucoup de personnes et effectué un travail dense sur une matière à la fois complexe et austère. La régulation des plateformes numériques est, vous le savez tous, l'un des défis majeurs de notre époque. Ces plateformes sont des acteurs privés non européens extrêmement puissants : leurs pratiques sont très opaques et elles n'entendent pas assumer leurs responsabilités, alors qu'elles sont des vecteurs massifs de diffusion d'informations, de produits et de services. Il est largement temps de réagir.

Cette situation, vous le savez, me préoccupe depuis longtemps, et le Sénat vient d'adopter une proposition de loi visant à garantir le libre choix du consommateur dans le cyberespace, sur l'initiative de notre collègue Sophie Primas, en prenant appui sur nos travaux antérieurs. L'Allemagne s'est engagée dans une voie parallèle. Pour éviter la fragmentation des législations et assurer une protection harmonisée du marché intérieur, une approche européenne est indispensable.

Fortement encouragée par plusieurs États membres, dont la France, la Commission européenne a procédé à plusieurs consultations publiques et études sur la réponse à apporter. Elle a finalement présenté, le 15 décembre 2020, deux propositions législatives. La première, baptisée DSA (Digital Services Act) entend protéger les droits fondamentaux des utilisateurs et qualifier les responsabilités des services numériques. La seconde, dite DMA (Digital Markets Act) pose les bases d'un rééquilibrage des relations entre les plateformes et leurs utilisateurs - aussi bien les entreprises que les consommateurs finaux.

Après une première communication sur la désinformation en ligne, ma collègue et moi-même reviendrons prochainement devant vous pour vous présenter nos observations sur le premier texte. Nous allons, aujourd'hui, nous concentrer sur le second, le DMA, qui vise les très grandes plateformes. Leur comportement entrave le développement des entreprises qui les utilisent pour proposer leurs produits et services, bride l'innovation et la compétitivité, tend à enfermer les utilisateurs finaux dans leurs écosystèmes, verrouillant ainsi le marché.

Notre rapport écrit rappelle brièvement comment ces grandes plateformes sont parvenues à développer un pouvoir de marché inégalé à ce jour : à partir d'un service initial, elles ont pris appui sur les effets de réseau, en exploitant massivement les données qu'elles recueillent grâce à des algorithmes aussi sophistiqués qu'opaques et, enfin, acquièrent leurs concurrents potentiels - ce que l'on appelle les « killer acquisitions ».

Le droit de la concurrence permet de sanctionner des comportements anticoncurrentiels au terme de longues enquêtes _ plus de 7 ans pour sanctionner les abus de position dominante de Google_ qui doivent établir la preuve de leurs effets distorsifs. Mais il ne permet pas de rétablir un environnement concurrentiel sur le marché numérique.

C'est donc, enfin, une approche différente qui est proposée par le DMA : cibler les très grands acteurs, qualifiés de « contrôleurs d'accès » en « gatekeepers », ceux qui proposent un ou plusieurs services de plateforme essentiels, et les soumettre à un ensemble d'obligations et d'interdictions, dont le respect est contrôlé par la Commission européenne.

Cette approche, dite ex ante, présente le grand avantage de ne pas permettre d'ouvrir des discussions sur les effets des comportements prohibés et de s'appliquer de plein droit.

La démarche va dans le bon sens ; elle est de nature à constituer une première étape importante dans la régulation des plateformes structurantes. Nous avons procédé à un ensemble d'auditions, dont la liste figure en annexe du rapport, et nous avons suivi très attentivement les discussions en cours, tant au Parlement européen qu'au Conseil. Nous en concluons que le cadre de régulation devrait être précisé et renforcé sur un certain nombre de points.

Mme Florence Blatrix Contat, rapporteure. - Ce texte va dans le bon sens, mais mérite d'être renforcé sur un certain nombre de points.

Premier point : la définition des plateformes concernées. Le texte prévoit d'appliquer une présomption au-delà d'un certain nombre d'utilisateurs actifs et d'un niveau de puissance financière. Il propose en outre des critères d'appréciation pour les plateformes qui n'atteindraient pas ces seuils. L'approche est satisfaisante, car elle permettra d'accélérer la désignation des contrôleurs d'accès et limitera fortement les possibilités de contestation.

Plusieurs compléments et précisions nous semblent toutefois devoir être apportés. Si le fait de viser les très grandes plateformes paraît de bonne méthode, l'approche retenue ne prend pas suffisamment en compte les écosystèmes des plateformes. C'est pourquoi nous proposons d'identifier, à côté des services de plateformes essentiels, des services secondaires - comme le cloud, la publicité en ligne ou les navigateurs -, qui devraient être pris en compte pour qualifier les contrôleurs d'accès. Par ailleurs, les modalités de calcul des seuils de qualification devraient être définies en annexe du règlement, plutôt que d'être renvoyées à des actes délégués. Les opérateurs auraient ainsi plus de visibilité et la mise en oeuvre du texte serait plus rapide.

De manière générale, la plupart des délais prévus par le texte en matière de déclaration de l'atteinte des seuils, de désignation des contrôleurs d'accès par la Commission et de mise en conformité pourraient être utilement réduits et assortis de sanctions en cas de non-respect.

Deuxième point : les obligations des contrôleurs d'accès. Elles figurent dans deux articles : le premier définit sept obligations ou interdictions horizontales, applicables de plein droit, tandis que le second en prévoit onze, qui sont, dit-il, « susceptibles d'être précisées » dans un dialogue entre la Commission et les acteurs concernés. Il s'agit ici de prohiber des pratiques, identifiées comme anticoncurrentielles, à partir d'un certain nombre de cas sanctionnés par la Commission au titre du droit de la concurrence.

Notre rapport écrit détaille les améliorations qui nous sembleraient devoir être apportées. Notre proposition de résolution européenne les reprend. Notamment nous mettons l'accent sur le nécessaire renforcement de la portée effective de l'interdiction d'utiliser les données de l'utilisateur sans son consentement préalable en prohibant en particulier expressément les techniques de contournement appelées « dark patterns ».

Il faut aussi aller plus loin dans l'indispensable rééquilibrage des relations entre les plateformes et les entreprises utilisatrices.

Nous suggérons ainsi notamment que l'interdiction faites aux plateformes d'imposer des clauses de parité, qui empêchent les entreprises utilisatrices de proposer des prix inférieurs sur leur propre site, soit étendue aux services commerciaux hors ligne qu'elles proposent et que l'interdiction d'obliger les entreprises utilisatrices à recourir aux services d'identification du contrôleur d'accès soit étendue à tous les services accessoires, en particulier aux services de paiement sur lesquels des marges très élevées sont perçues par les contrôleurs d'accès.

Dans le même esprit, nous demandons que les droits à l'interopérabilité et à la portabilité des données soient techniquement faciles à mettre en oeuvre, de même que la désinstallation des applications préinstallées. Il y va de la liberté des utilisateurs, et cela permet de casser les écosystèmes.

Pour éviter les contournements des interdictions et obligations, il conviendrait également d'interdire tout comportement qui aurait en pratique le même objet ou un effet équivalent à celui des pratiques visées.

Mme Catherine Morin-Desailly, rapporteure. - Troisième point : les modalités de mise en oeuvre de la régulation des grandes plateformes.

L'objectif d'une application harmonisée du texte à l'échelle du marché intérieur justifie bien sûr le rôle central attribué à la Commission. Pour autant, il nous est apparu, notamment à travers nos entretiens avec les services de la Commission et avec plusieurs régulateurs sectoriels, qu'une coordination forte avec ces régulateurs sectoriels et leurs structures de coopération au niveau européen est indispensable pour assurer une mise en oeuvre efficace et cohérente de la régulation proposée.

En effet, les moyens humains que la Commission prévoit d'affecter à cette nouvelle mission, à l'horizon de 2025, sont de toute évidence insuffisants - on parle de 80 équivalents temps plein (ETP) - , et il serait dommage que la Commission se prive des compétences humaines et techniques développées à l'échelle nationale, par exemple au sein de l'Autorité de la concurrence française ou du Pôle d'expertise de la régulation numérique (PEReN), rattaché à la direction générale des entreprises (DGE) du ministère de l'économie et des finances.

Il serait donc utile de prévoir que la Commission peut, par exemple, déléguer à des autorités nationales les enquêtes de marché pour la désignation des contrôleurs d'accès.

Par ailleurs, les autorités nationales peuvent dans certains cas détecter au plus près du terrain des pratiques contraires au règlement ou qui le privent d'effets. Si elles identifient de telles pratiques ou si elles en sont saisies par des utilisateurs, ou encore si elles constatent que le contrôleur d'accès ne respecte pas ses engagements ou les mesures correctives qui lui ont été imposées, ces autorités devraient pouvoir alerter la Commission, laquelle serait alors tenue d'ouvrir une enquête sous trois mois, sauf à justifier que la question est déjà à l'étude ou que la difficulté signalée ne relève pas du champ d'application des obligations prévues par le règlement.

Au-delà, nous proposons que soit créée une structure de coordination entre ces autorités sous la forme d'un réseau européen de la régulation numérique réunissant les autorités nationales sectorielles : ce réseau faciliterait les échanges entre ces autorités et la Commission sur les pratiques identifiées et sur l'articulation avec les règles sectorielles. Il faut en outre prévenir tout risque de double poursuite et donc choisir la voie la mieux adaptée pour répondre aux comportements préjudiciables identifiés, par exemple le droit de la concurrence ou celui de la protection des données à caractère personnel.

Mme Florence Blatrix Contat, rapporteure. - Quatrième point : le rôle qui doit être donné aux entreprises utilisatrices et aux consommateurs dans la mise en oeuvre de cette régulation, dont ils sont censés être les bénéficiaires. Curieusement, la proposition de DMA ne comporte aucune mention de ces acteurs, alors qu'ils sont les premières victimes des comportements listés, qu'ils sont donc bien placés pour les identifier et pour apprécier l'efficacité des remèdes proposés.

Il nous semble, de ce fait, indispensable de prévoir des guichets nationaux de dépôt de signalements. Il paraîtrait en outre pertinent que la Commission puisse, en tant que de besoin, associer les entreprises utilisatrices à la définition des modalités de mise en oeuvre des obligations prévues par le règlement et, surtout, des mesures correctives qu'elle peut imposer.

Cinquième point : le contrôle des acquisitions réalisées par les grandes plateformes, souvent pour empêcher la concurrence de prospérer, est déterminant en raison de l'effet taille. Ces opérations, le plus souvent en deçà des seuils de contrôle des concentrations, échappent à tout contrôle, au niveau national comme au niveau européen, alors qu'elles se comptent par centaines au cours des dernières années.

Le contrôle des concentrations relève du droit de la concurrence, qui exige l'unanimité des États membres pour être modifié. Le DMA se contente donc d'imposer la notification préalable de toute acquisition envisagée par un acteur systémique. La direction générale de la concurrence de la Commission (DGCOMP) nous a indiqué, à cet égard, qu'elle ferait application de la nouvelle lecture de l'article 22 du règlement de 2003 sur le contrôle des concentrations, qui permet de ne pas tenir compte des seuils. Il nous semble que, pour assurer une application efficace de ce contrôle, la Commission devrait informer les autorités nationales de concurrence compétentes lorsqu'une acquisition lui est notifiée par un acteur systémique.

Avant de laisser ma collègue conclure, je souhaiterais saluer la démarche engagée et former le souhait qu'elle ne soit pas affadie, mais, au contraire, renforcée, selon les modalités juridiques et techniques que nous vous proposons. Les travaux avancent, même si c'est parfois avec difficulté. La présidence slovène souhaite un accord politique avant la fin de l'année. De leur côté, les commissions parlementaires ont beaucoup travaillé et les discussions vont bon train. Un accord devrait donc pouvoir être trouvé sous la présidence française début 2022, ce qui permettrait une entrée en vigueur rapide.

Mme Catherine Morin-Desailly, rapporteure. - Un dernier mot pour souligner l'originalité de la démarche européenne, qui pourrait servir de modèle au niveau international, à un moment où même les États-Unis comment enfin à se préoccuper de réguler ces grands acteurs dont le pouvoir de marché est incontestablement excessif.

J'observe par ailleurs qu'un débat se développe de l'autre côté de l'Atlantique sur l'opportunité d'un démantèlement de ces grandes plateformes systémiques. Le DMA évoque la possibilité d'imposer des cessions si aucune mesure ne permet de rétablir la contestabilité du marché. La commissaire chargée de la concurrence, Margrethe Vestager, estime que cette éventualité ne peut être envisagée qu'« en dernier recours ». Comme vous le savez, le commissaire Thierry Breton, lors de son audition, s'est montré plus allant et il me semble qu'il ne faut pas s'interdire une réflexion sur ce sujet.

Ce texte est très attendu. Plusieurs d'entre nous avaient effectué des démarches en ce sens et demandé la réouverture de la directive e-commerce, qui conférait une non-responsabilité et une non-redevabilité aux plateformes. Il n'en demeure pas moins que nous devons rester lucides et modestes au regard de l'omnipotence et de l'hégémonie des plateformes.

Plus fondamentalement, le modèle des plateformes, qui capitalisent sur la publicité et l'exploitation massive des données des citoyens, et qui, ce faisant, organisent un système de collecte, de surveillance et de marketing de ces données pour tirer un maximum de profits, est très préoccupant et sans doute pas soutenable. Je vous renvoie à la récente audition de Frances Haugen, ancienne employée de Facebook, par le Committee on Commerce du Sénat américain. Selon elle, les plateformes privilégient sans état d'âme le profit par rapport à la sécurité de leurs utilisateurs, au mépris de toute morale. Les Sénateurs Républicains et Démocrates sont unis pour le dénoncer avec elle.

L'Europe, qui a été lente à réagir sur ces sujets, est désormais à l'avant-garde via le règlement général sur la protection des données (RGPD) et les directives sur le droit d'auteur et les droits voisins, qui sont importantes pour la survie économique et le pluralisme de la presse. La France, dont l'Autorité de la concurrence a condamné Google, aiguillonne l'Union en ce sens, mais nous restons tout de même bien faibles...

M. Alain Cadec, président. - Je vous félicite au nom de la commission pour la qualité de votre rapport. On peut en effet lire dans la presse de ce matin qu'une ancienne salariée de Facebook « accuse le géant mondial de mettre sciemment en danger les jeunes générations et d'accentuer les tensions sociales ». Cela va très loin ! Il faut donc être vigilants et agir.

M. André Gattolin. - La directive e-commerce s'est traduite dans le droit français par la loi du 21 juin 2004 pour la confiance dans l'économie numérique, dont le discours sous-jacent était : « Ne donnons aucune responsabilité éditoriale et de contrôle aux fournisseurs d'accès, car il s'agit d'une industrie jeune et peu profitable qu'il convient de ne pas entraver si nous voulons qu'elle se développe en Europe. » Depuis lors sont apparus les réseaux sociaux et les plateformes, mais on se fonde encore sur ces textes !

Au-delà de la législation se pose le problème du modèle économique, que l'Union européenne a du mal à penser. Lorsque nous procédions, avec Colette Mélot, à des auditions sur la question de la protection des consommateurs dans le cadre de la vente à distance, notamment, la Commission nous avait conseillé d'interroger l'association d'industriels DigitalEurope. Or celle-ci compte parmi ses membres, certes quelques entreprises comme Thales, mais surtout Google, Facebook, etc. Et pour ce qui concerne le règlement e-privacy, que l'on attend, on peut s'inquiéter du lien que les 30 principaux cabinets spécialisés en Europe entretiennent avec les plateformes, alors même qu'ils sont appelés à fournir des expertises complémentaires à celles de la Commission.

Sur les pratiques des plateformes, Bruno Retailleau et moi-même avions déjà dénoncé en 2013, dans notre rapport d'information intitulé Jeux vidéo : une industrie culturelle innovante pour nos territoires, le monopole de la distribution exercé par quelques groupes - aujourd'hui Apple et Amazon -, qui exigent des budgets de promotion colossaux et 40 % des revenus, exerçant en cela une forme de censure. Nous avions recommandé, pour riposter, la création d'une plateforme à la fois publique et privée afin de favoriser la production française et européenne, et proposé 15 % de droits sur les jeux. Hélas, nous n'avons pas été entendus.

La Convention sur la cybercriminalité date de 2001. Un premier protocole additionnel est intervenu ; un deuxième est en préparation. En la matière, on constate des injonctions contradictoires. D'un côté, on veut renforcer la capacité des États à se protéger en imposant des obligations aux plateformes et aux réseaux sociaux ; de l'autre, on incite à protéger les données personnelles. Or la Russie reproche au protocole « ouvert » - il a déjà été signé par 66 pays, mais pas les États-Unis -, équilibré, négocié par les Vingt-Sept, qui prévoit de consacrer 10 000 milliards de dollars en 2025 à la protection des États contre le cybercrime, d'attaquer les libertés individuelles...

Je félicite les deux rapporteures, dont j'approuve totalement les propos.

M. Jean-Michel Houllegatte. - Je félicite également les rapporteures. Le Sénat se préoccupe de ce sujet depuis 2013, à juste titre. Je souhaite poser trois questions.

Quelles sont vos recommandations quant aux seuils de chiffres d'affaires ?

Dans le domaine du numérique, la guerre n'est pas perdue. On sait que les Gafam rachètent les start-up, à l'instar de Facebook acquérant WhatsApp. Que prévoyez-vous pour éviter que les start-up européennes émergentes, très prometteuses, ne soient absorbées par les jeux capitalistiques d'acquisition qui tuent toute concurrence ?

La présidence française en 2022 sera déterminante. Quelles sont les marges de manoeuvre pour faire évoluer ce texte dans ce calendrier ?

Mme Florence Blatrix Contat, rapporteure. - Il nous a semblé que les seuils de chiffres d'affaires prévus pour qualifier les très grandes plateformes de contrôleurs d'accès étaient pertinents. Nous ne proposons donc pas de les modifier, car il faut se concentrer sur les plus grands acteurs.

Mme Catherine Morin-Desailly, rapporteure. - Le rachat systématique par les Gafam de nos « pousses » prometteuses, faute de stratégie de développement et de politique industrielle au niveau européen, est un sujet préoccupant. L'absorption de tout ce qui pourrait représenter une concurrence fait d'ailleurs partie de leur stratégie.

Le rapport de 2015 de notre mission commune d'information faisait état de la nécessité d'avoir une politique industrielle française et européenne en la matière, laquelle fait toujours défaut aujourd'hui. Nos règles de concurrence facilitent la consolidation de ces plateformes. Quand l'écosystème était en cours de constitution, dans les années 1990, les Américains avaient pris des mesures législatives et fiscales pour soutenir leurs entreprises et en faire des leaders mondiaux. Toutes les technologies d'Apple ont été financées par l'État fédéral ! En Europe, alors même que l'un des précurseurs du web est un ingénieur français, Louis Pouzin, on a laissé faire ! Il faudrait assumer une préférence communautaire lorsque l'on passe des marchés publics locaux et nationaux, et choisir des entreprises françaises ou à dimension européenne - potentiellement internationale -, pour leur permettre de se développer.

Il n'y a pas eu de débat au Parlement sur la plateforme des données de santé qui a été créée voilà un an et demi, alors même qu'il s'agit de données extrêmement sensibles. Elle a été confiée, sans appel d'offres spécifique, à Microsoft, sous le prétexte officiel qu'il n'y avait pas d'entreprise française capable de gérer ces données. Cette réponse de M. le secrétaire d'État Cédric O avait d'ailleurs jeté le trouble sur les réseaux sociaux... Or il y avait OVH, ou encore Dassault Systèmes dont le Président directeur général, Bernard Charlès, s'était ému auprès d'Emmanuel Macron de ne pas avoir été approché.

Au niveau communautaire, le commissaire Thierry Breton, très allant sur le sujet, a une vision lucide, claire et ambitieuse. Or nous continuons à fournir nos données aux Gafam ! Je regrette ainsi la signature, hier, de l'accord stratégique entre Google Cloud et Thales, alors même que les données de l'aviation sont, elles aussi, sensibles, et cela dans le cadre du « Cloud de confiance » qu'a présenté Bruno Le Maire : on invite nos entreprises à contractualiser avec des géants qui savent soi-disant mieux faire que nous, ainsi, nous explique-t-on, les données seraient sécurisées. Juridiquement, c'est faux, puisque le Cloud Act et surtout le Foreign Intelligence Surveillance Act (FISA) permettent de transférer les données des Européens sans leur assentiment. J'y vois une « gafamisation » de nos administrations : plutôt que de faire confiance à nos start-up, on laisse les plateformes monter en puissance.

Mme Florence Blatrix Contat, rapporteure. - Je le redis, le contrôle des concentrations relève du droit de la concurrence et exige l'unanimité des États membres pour être modifié. La proposition de règlement, que nous soutenons fortement sur ce point, prévoit de desserrer cet étau en faisant en sorte que ce contrôle puisse être exercé en deçà des seuils actuels. Il s'agit, me semble-t-il, d'une avancée.

J'ajoute qu'il appartient à chaque État européen de créer son propre écosystème, un écosystème favorable, pour que les jeunes pousses se développent sans céder à la tentation d'une union aux grandes plateformes.

M. Patrice Joly. - Je souhaite poser deux questions au sujet du traitement des données personnelles.

La première porte sur la conception des algorithmes, qui orientent la réponse apportée aux utilisateurs, ce qui, d'une certaine manière, les formate. La connaissance des éléments pris en compte pour élaborer ces algorithmes me paraît essentielle. Quel est votre point de vue à ce sujet ?

La seconde a trait à l'aspect formel des autorisations d'utilisation des données. Le recueil du consentement des personnes prend souvent la forme d'un règlement de plusieurs pages qui, par sa longueur, nous dissuade d'en prendre connaissance. Il me semble que l'on a fixé un cadre qui, en apparence seulement, donne satisfaction, et qui, en réalité, ne permet pas d'atteindre l'objectif visé.

Mme Florence Blatrix Contat, rapporteure. - Les algorithmes sont un enjeu majeur, qui a peut-être été pris en compte trop tardivement. En France, il existe des acteurs, comme le PEReN, qui travaillent à en comprendre le fonctionnement. Au niveau européen, la Commission a un droit d'accès aux algorithmes dans le cadre d'enquêtes et en cas de dysfonctionnement avéré. C'est un premier pas qui doit permettre de limiter leur influence.

Mme Catherine Morin-Desailly, rapporteure. - Les algorithmes sont la clé du succès des plateformes. C'est d'ailleurs la raison pour laquelle celles-ci ne veulent surtout pas en dévoiler la composition. On sait à quel point ils influent sur le choix des consommateurs, mais aussi façonnent les opinions publiques : on assiste ainsi à une montée en puissance des propos haineux et à une radicalisation des opinions.

Quant aux autorisations d'utilisation des données, elles sont effectivement très opaques. Cela étant, même si c'est fastidieux, il faut reconnaître que cette procédure est une avancée : il y a encore peu de temps, nous ne pouvions même pas approuver l'utilisation de nos données personnelles par un tiers.

M. Victorin Lurel. - Je reconnais que la théorie de William Baumol sur la concurrence suffisante constitue un réel apport doctrinal, mais la notion de « marchés contestables », traduite de l'anglais, me pose problème. N'existe-t-il pas une traduction plus conforme aux enjeux juridiques auxquels nous sommes confrontés ?

En outre, comment concilier dans les faits ces « marchés contestables », qui visent un optimum, et l'équité ? En quoi cette proposition de résolution change-t-elle fondamentalement le modèle économique actuel ?

Mme Florence Blatrix Contat, rapporteure. - En réalité, un marché contestable est imparfait et n'est pas un optimum. Cette notion ne me semble donc pas poser de problème particulier.

L'idée consiste à limiter les barrières à l'entrée d'un marché pour que de nouveaux entrants puissent y accéder. Notre proposition traduit une sorte de politique des petits pas, mais cette stratégie me paraît nécessaire ; surtout, elle est vraisemblablement la seule envisageable aujourd'hui. Je citerai à cet égard l'exemple des applications que l'on peut facilement désinstaller.

Mme Catherine Morin-Desailly, rapporteure. - Le texte vise à recréer les conditions d'un marché loyal entre les compétiteurs, les entreprises. En outre, je le redis, il ne modifie en rien le modèle économique actuel.

Cela étant, le changement de modèle économique est un enjeu qu'il conviendra d'aborder, car ce modèle n'est, de mon point de vue, pas soutenable à terme. D'ailleurs, on constate qu'il suscite des débats nourris et de plus en plus nombreux partout dans le monde, y compris dans les enceintes internationales, je pense notamment à l'Assemblée parlementaire de la francophonie.

Ne soyons pas fatalistes : à nous d'agir avec une volonté politique ferme et inébranlable pour avancer sur ces sujets. La récente audition de Frances Haugen aux États-Unis nous autorise même à être optimistes : pour la première fois, Républicains et Démocrates étaient parfaitement d'accord sur le diagnostic et s'accordaient sur la nécessité de changer les choses.

Mme Gisèle Jourda. - Je remercie les rapporteures pour ce travail remarquable sur un thème particulièrement complexe, et dont les ramifications sont multiples.

Mme Catherine Morin-Desailly, rapporteure. - J'ai une dernière suggestion à faire : dans la mesure où c'est techniquement envisageable, il me semblerait utile que notre commission puisse auditionner Frances Haugen.

M. Alain Cadec, président. - Je vous remercie, madame la rapporteure. Nous transmettrons votre demande au président Jean-François Rapin.

La commission des affaires européennes autorise la publication du rapport et adopte, à l'unanimité, la proposition de résolution européenne n° 33 (2021-2022) ( disponible en ligne sur le site du Sénat) dans la rédaction issue de ses travaux, ainsi que l'avis politique qui en reprend les termes et qui sera adressé à la Commission européenne.

· Numérique

Digital Services Act - Rapport, proposition de résolution européenne et avis politique

(Extrait du compte rendu de la réunion de commission des affaires européennes du 8 décembre 2022)

M. Jean-François Rapin, président. - Nous abordons aujourd'hui deux sujets qui sont d'importance majeure, car ils contribuent à restaurer l'autonomie stratégique de l'Union européenne dans sa dimension économique : d'une part, en matière de services numériques, d'autre part en matière d'équité concurrentielle sur le marché intérieur.

Sur le volet numérique, nous savons l'ambition affichée par la Commission européenne pour permettre à l'Union européenne d'accomplir sa transition numérique. Le commissaire Thierry Breton, que nous avons auditionné il y a un mois, et, pour plusieurs d'entre nous, rencontré jeudi dernier à Bruxelles, nous l'a confirmé : une prise de conscience de la Commission, mais aussi des États membres, a enfin lieu, concernant notre dépendance envers les Gafam et les dangers associés à leur position dominante sur le marché européen - dangers à la fois pour notre souveraineté, pour nos entreprises innovantes, pour nos données et pour nos consommateurs. Cette prise de conscience a conduit à deux propositions de règlements fin 2020 : l'une sur les marchés numériques, le Digital Markets Act (DMA), et l'autre sur les services numériques, le Digital Services Act (DSA). Nous avons déjà adopté il y a deux mois une proposition de résolution sur la première.

Aujourd'hui, nos rapporteures Florence Blatrix Contat et Catherine Morin-Desailly nous en proposent une sur la seconde. Un accord a été trouvé au Conseil sur ce texte, mais il est encore en discussion au Parlement européen, qui soutient des exigences plus fermes à l'égard des plateformes.

Mme Catherine Morin-Desailly, rapporteure. - Vous l'avez rappelé, la régulation des plateformes numériques est l'un des défis majeurs d'aujourd'hui. Ces dernières occupent une place primordiale dans les modes de consommation, l'accès à l'information et les relations sociales ; elles sont même devenues des lieux incontournables pour le débat public. Cet usage généralisé des services numériques est une source majeure de risques, avec la prolifération, sur internet, de propos haineux, de désinformation, de produits contrefaits ou dangereux et d'activités illicites.

Face à cette nouvelle situation, le cadre de responsabilité des fournisseurs de services numériques établi par la directive sur le commerce électronique de 2000, dite « e-commerce », n'est plus suffisant. Malgré des progrès technologiques considérables, les plateformes n'ont pas réussi à démontrer leur capacité et leur volonté de trouver les solutions pour affronter ces enjeux. En fait, elles ont même démontré le contraire, comme l'a mis en évidence la lanceuse d'alerte Frances Haugen, le 10 novembre dernier, lors de son audition devant notre commission, en commun avec la commission de la culture.

Nous avons longtemps déploré les atermoiements au niveau européen sur ce sujet, sur lequel Sénat demande depuis longtemps une intervention. Cependant, sous la présidence de Mme von der Leyen, la Commission européenne a fini par faire de la régulation des plateformes une de ses priorités. Le 15 décembre 2020, elle a ainsi présenté deux propositions de règlement pour revoir les règles du marché unique numérique.

Avec notre collègue Florence Blatrix Contat, nous vous avions présenté, le 7 octobre dernier, nos observations et nos recommandations sur le DMA, qui encadre les comportements anticoncurrentiels des grands acteurs du numérique. Nous allons aujourd'hui vous faire part de notre réflexion sur le DSA, qui définit les responsabilités des acteurs du numérique quant aux contenus qu'ils diffusent.

Nous avons eu maintes fois l'occasion de débattre de ces questions, qui nous préoccupent depuis longtemps, dans l'hémicycle, par exemple à propos de la loi relative à la lutte contre la manipulation de l'information, couramment appelée loi « infox », en 2018, lors des débats sur la proposition de loi de la députée Laetitia Avia, en 2020, ou, plus récemment, à propos du volet numérique du projet de loi sur le respect des principes républicains.

Je me réjouis donc que ce sujet, par nature transfrontière, soit enfin traité au niveau européen. Pour imposer nos règles aux Gafam, nous avons besoin de la masse critique que représentent nos 450 millions de consommateurs.

Mme Florence Blatrix Contat, rapporteure. - La proposition de DSA vise à créer un environnement en ligne plus sûr et plus responsable : elle introduit, pour les fournisseurs de services en ligne, de nouvelles obligations de modération des contenus, ainsi que des obligations de vigilance, notamment en matière de transparence. Ces obligations seront graduées en fonction de la taille et de la nature des opérateurs, suivant une approche basée sur le risque.

Concrètement, un mécanisme numérique de notification et action, harmonisé à l'échelle européenne, permettra d'engager plus facilement la responsabilité des hébergeurs. Toutefois le principe de leur responsabilité limitée, hérité de la directive « e-commerce », n'est pas remis en cause. Les activités de modération, y compris algorithmiques, feront l'objet de rapports de transparence. Des mesures spécifiques concernant la transparence en matière de publicité ciblée concerneront l'ensemble des plateformes.

En outre, les plateformes en ligne qui touchent plus de 10 % de la population européenne seront soumises à des obligations renforcées, en vue de prévenir les risques systémiques posés par l'utilisation de leurs services : auto-évaluation des risques, mesures d'atténuation, audits indépendants de leurs systèmes de gestion des risques, mais aussi large ouverture de leurs données et de leurs algorithmes aux autorités de régulation et à la communauté académique.

Ces avancées vont dans le bon sens. Cependant, après plus d'une vingtaine d'auditions, nous sommes convaincues que de nombreux points méritent d'être précisés, complétés et renforcés : vous pourrez en trouver le détail dans notre rapport.

Nous souhaitons insister aujourd'hui sur trois d'entre eux. En premier lieu, le renforcement de la lutte contre les contenus illicites et préjudiciables en ligne doit s'accompagner de garanties fortes pour préserver la liberté d'expression.

Par pragmatisme, le règlement confie en première approche aux plateformes, donc à des acteurs privés, la modération de l'énorme masse de contenus qui transitent sur leurs services. Il faut donc a minima s'assurer qu'elles mettent en oeuvre des moyens à la hauteur des enjeux, qui leur permettent d'effectuer cette modération d'une manière efficace, et qui correspondent aux objectifs du règlement. Aussi faut-il exiger que figurent dans les rapports de transparence des indications chiffrées sur les moyens humains et technologiques que les plateformes consacrent à la modération, avec une ventilation par pays et par langue.

En outre, il serait souhaitable de tenir compte des caractéristiques propres à l'espace en ligne, différent de l'espace public du monde réel, car déformé par l'amplification algorithmique. La lutte contre les propos illicites eux-mêmes devrait donc s'accompagner de mesures visant à lutter spécifiquement contre leur viralité. En d'autres termes, il faut encadrer les modalités de diffusion - ce que les Anglo-saxons appellent freedom of reach - plutôt que les contenus eux-mêmes - freedom of speech. Nous proposons donc que les plateformes puissent, par exemple, réduire la visibilité d'un contenu qui n'est pas manifestement illicite, le temps de procéder à des vérifications.

Il nous semble également crucial, face à la menace que représente la désinformation, que les risques d'atteinte au pluralisme des médias soient mieux pris en compte. Ces risques devraient être spécifiquement examinés par les grandes plateformes lors de leur examen annuel des risques systémiques. En outre, les plateformes devraient assurer une visibilité renforcée des informations émanant de sources fiables, notamment journalistiques.

Le deuxième point est la nécessité d'aller jusqu'au bout de l'approche par le risque qu'a retenue la Commission. Dans cette optique, nous recommandons que les critères d'audience soient mieux pris en compte pour déterminer le régime d'obligations des différents opérateurs. Les autorités de régulation devraient ainsi pouvoir, par exemple, soumettre à des obligations renforcées les plateformes très populaires parmi les enfants. D'une manière générale, la protection des enfants nous semble un angle mort du texte, ce qui est particulièrement dommageable lorsqu'on voit, par exemple, les ravages du harcèlement scolaire en ligne, que l'actualité nous rappelle souvent.

Mme Catherine Morin-Desailly, rapporteure. - Le troisième point, qui est le plus structurant, est la nécessité de mieux prendre en compte le fonctionnement même des plateformes en ligne, et le modèle économique sous-jacent. Ce dernier, nous le savons, repose sur l'accumulation de très grandes masses de données, en particulier personnelles, qui sont ensuite exploitées par des algorithmes de recommandation des contenus et d'adressage de la publicité : il s'agit de maximiser le temps passé par l'utilisateur sur les plateformes et, en conséquence, les revenus de ces dernières. Ce système aboutit inévitablement à favoriser les contenus les plus clivants et les plus contestables, qui provoquent le plus de réactions, mais qui enferment aussi les utilisateurs dans des bulles de contenus. Leurs comportements, qu'ils soient commerciaux, sociaux ou politiques, s'en trouvent modifiés.

Il est donc crucial, en premier lieu, que les utilisateurs retrouvent leur autonomie dans l'espace en ligne. Cela passe par la maîtrise de leurs données. Nous rappelons à cet égard qu'une application stricte du règlement général sur la protection des données (RGPD) permettrait déjà de limiter certaines pratiques abusives en matière de ciblage. Cela n'est pas toujours le cas aujourd'hui.

Le projet de la Commission prévoit d'informer les utilisateurs des données utilisées et des paramètres de ciblage publicitaire et d'adressage des contenus. Ces derniers pourraient également être modifiés et désactivés. Nous souhaitons aller plus loin, avec une désactivation par défaut de ces fonctions, et la possibilité à tout moment de les désactiver aisément. C'est particulièrement indispensable pour les mineurs. Les utilisateurs devraient en outre être informés de toute modification substantielle des algorithmes d'ordonnancement des contenus.

Deuxième élément : les algorithmes utilisés par les plateformes ne doivent plus être une boîte noire. Ce point crucial a été confirmé par de nombreuses personnes que nous avons auditionnées. Le DSA propose d'importantes avancées en matière d'accès aux données pour les autorités de régulation et pour les chercheurs. Les critères et les motifs d'accès devraient cependant être élargis, pour permettre la participation de chercheurs indépendants - et pas seulement ceux qui sont chapeautés par les plateformes -, et la détection et l'évaluation de tous types de risques.

Surtout, compte tenu de leur caractère incontournable - on pourrait presque parler, en utilisant un anglicisme, de « facilité publique » -, les grands acteurs du numérique ne devraient pas pouvoir opposer le secret des affaires aux autorités de régulation et aux chercheurs agréés par les autorités. En revanche, des mécanismes pour éviter la divulgation de ces informations confidentielles pourraient bien sûr être mis en place.

En outre, les représentants que nous avons auditionnés du Pôle d'expertise de la régulation numérique (PEReN), récemment mis en place par le Gouvernement, nous ont indiqué l'importance de prévoir la possibilité de tester les algorithmes « en transparence faible » : il s'agit de lancer un grand nombre de requêtes puis d'analyser les réactions de l'algorithme, pour en déduire ses principales caractéristiques. Ce processus est en effet beaucoup moins coûteux qu'une analyse exhaustive des données.

Dans tous les cas, gardons à l'esprit qu'il ne s'agit pas uniquement de vérifier comment les algorithmes influent sur tel ou tel risque spécifique : le fonctionnement même des plateformes et leur modèle économique, donc celui des algorithmes, constituent le principal risque systémique, et elles doivent en répondre. En effet, en sélectionnant et en classant les contenus, puis en en déterminant la présentation et en augmentant la visibilité de certains d'entre eux au détriment d'autres, les plateformes, par le biais de leurs algorithmes, jouent bien un rôle actif qui peut s'apparenter à celui d'un éditeur.

C'est pourquoi nous souhaitons une véritable réforme du régime européen de responsabilité des hébergeurs, pour créer un régime de responsabilité renforcée pour les plateformes qui utilisent des algorithmes d'ordonnancement des contenus. Je rappelle d'ailleurs que le Sénat l'avait déjà appelée de ses voeux dans une résolution de 2018, sans succès. De ce point de vue, le DSA manque cruellement d'ambition.

Les algorithmes devraient également respecter un socle de normes éthiques intégrées dès l'étape du développement, selon les principes de legacy et de safety by design. Je ne sais pas si ces dispositions doivent plutôt trouver leur place dans le DSA ou dans la future législation de l'Union sur l'intelligence artificielle, actuellement en discussion, mais il est certain qu'au vu des risques induits, les algorithmes utilisés par les grandes plateformes en ligne devraient faire l'objet d'un contrôle strict, qui pourrait par exemple prendre la forme d'audits réguliers obligatoires.

Mme Florence Blatrix Contat, rapporteure. - Même si le texte ne concrétise pas toutes les ambitions affichées, les progrès sont indéniables. Les amendes qui pourront être infligées aux opérateurs en cas d'infraction au règlement, jusqu'à 6 % de leur chiffre d'affaires mondial, sont d'ailleurs dissuasives.

J'ajoute qu'aux termes du règlement, la Commission européenne aura le pouvoir, subsidiairement par rapport aux autorités de régulation nationale, d'enquêter sur les très grandes plateformes et de leur infliger elle-même des sanctions. C'est une très bonne chose au regard du manque d'empressement de certaines autorités nationales à traiter des plaintes concernant, par exemple, la protection des données personnelles, notamment l'Irlande. Nous serions d'ailleurs favorables à ce que la Commission dispose de la juridiction exclusive sur ces très grandes plateformes comme le prévoit, du reste, le dernier compromis au Conseil.

Il y a une prise de conscience, au niveau mondial, de la nécessité de réformer le régime de responsabilité des plateformes : même les États-Unis, après des années de laisser-faire, envisagent sérieusement de resserrer le champ d'application du fameux article 230 du Communications Decency Act, qui accorde aux plateformes une immunité quasi totale pour les contenus publiés par leurs utilisateurs.

Dans ce contexte, alors que les États-Unis deviennent plus ambitieux, il est essentiel que l'Europe légifère la première, selon ses valeurs et ses principes, pour fixer un « étalon-or » mondial, selon l'expression de Frances Haugen devant le Parlement européen. Ainsi, nous serons capables d'inspirer d'autres pays. Même si les trilogues qui devraient s'engager en janvier s'annoncent difficiles, nous espérons toujours une adoption du DSA sous présidence française de l'Union européenne, au premier semestre 2022.

Je voudrais pour finir souligner qu'il faut absolument assurer la robustesse et l'adaptabilité du DSA face aux évolutions prévisibles des technologies et aux nouveaux services numériques - je pense en particulier aux univers virtuels, les fameux « métavers » évoqués par Mark Zuckerberg. En effet, il aura fallu vingt ans pour rouvrir la directive « e-commerce », et l'Union ne remettra probablement pas la réglementation numérique sur le métier avant de nombreuses années. Soyons donc ambitieux pour ce texte.

M. Pierre Laurent. - Je rejoins pleinement vos préconisations. Sur les modalités de contrôle, dans le texte de la proposition de résolution, de quel comité est-il question, s'agissant du partage du pouvoir de sanction de la Commission européenne ?

Mme Catherine Morin-Desailly, rapporteure. - Il s'agit du comité réunissant les coordinateurs pour les services numériques de chaque Etat membre, qui seront chargés de l'application et du contrôle du règlement.

M. Ludovic Haye. - Je salue l'excellent travail de nos collègues. Les axes de progression sont réels et vos propositions permettront de protéger les consommateurs et les enfants, souvent les premières victimes de cette addiction aux écrans.

Aujourd'hui, des cadres existent déjà contre ces addictions et ces dérapages. Cependant, les parents ne respectent pas toujours, par exemple, la préconisation de non-exposition avant 13 ans. Comment les faire appliquer ?

Par ailleurs, comme vous, je pense que le DSA manque d'ambition, mais il est vrai que ce n'est qu'en portant ce sujet au niveau européen que nous pourrons avancer.

Enfin, je suis plus dubitatif sur les algorithmes, qui sont à la base du développement des Gafam. Même si je souhaite comme vous la transparence des algorithmes, ne risque-t-on pas une fin de non-recevoir, sous prétexte de protéger les secrets de fabrication, au même titre par exemple que la recette du Coca-Cola ?

M. Jean-Michel Houllegatte. - Vous parlez de plusieurs régulateurs : qui sera le gendarme ? Quels moyens sont prévus pour assurer le contrôle effectif des régulateurs ? L'Europe les accompagnera-t-elle ?

Mme Florence Blatrix Contat, rapporteure. - Nous fixons des garde-fous pour les mineurs. La législation et les campagnes nationales d'information seront les plus efficaces.

Sur les algorithmes, nous devons au moins afficher une volonté, sans quoi nous n'aboutirons pas, et nous devons aboutir : Frances Haugen nous a clairement dit que Facebook pouvait modifier les algorithmes.

Mme Catherine Morin-Desailly, rapporteure. - Rien ne remplace l'éducation donnée par les parents. On ne peut pas mettre un gendarme dans chaque famille ! Il faut acculturer les parents aux dangers d'internet et de ses plateformes comme Facebook, Youtube Instagram ou le chinois TikTok... Le Conseil supérieur de l'audiovisuel (CSA), qui réalise des campagnes d'information, a un rôle particulier à jouer, mais il manque de moyens pour informer le jeune public, comme j'en avais déjà fait état lors de l'examen de ma proposition de loi visant à lutter contre l'exposition précoce des enfants aux écrans.

Ce que nous proposons sur les algorithmes, c'est que les plateformes, en tant qu'espaces publics, se conforment à des règles. Les chercheurs que nous avons auditionnés nous ont confirmé, comme Frances Haugen, que les plateformes utilisent sciemment les algorithmes pour faire du profit au détriment de la sécurité, notamment des enfants. Il faut donc leur imposer des audits externes réguliers en se basant sur cette qualité d'espace public.

C'est aussi le but des principes de safety et legacy by design, qui reviennent à dire que, pour tout déploiement d'un produit, d'une plateforme ou d'une évolution, une enquête préalable doit évaluer les risques potentiels, comme on le fait pour les médicaments. S'il faut vingt20 ans pour rouvrir le règlement, nous n'y arriverons jamais ! Il faut donc anticiper.

Sur la première question de Jean-Michel Houllegatte, le cadre européen est complémentaire du cadre national. Nous avons dans la loi française une définition des contenus illicites, que le règlement ne modifie pas. De même, il sera toujours possible de porter plainte pour diffamation, par exemple, ainsi que le prévoit la loi en France. Le règlement renforce aussi les autorités de régulation - ce sera sans doute l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en France qui aura le rôle de coordinateur pour les services numériques. Les autorités nationales de régulation veilleront par exemple à ce que les plateformes mettent en oeuvre les moyens demandés par le règlement pour retirer les contenus nécessaires. Ces régulateurs se coordonneront au niveau européen.

M. Jean-Michel Houllegatte. - Sur les moyens, l'Union européenne va-t-elle aider les régulateurs ? Le maillon faible me semble l'Irlande, qui héberge les plateformes sans avoir la capacité de les contrôler.

Mme Florence Blatrix Contat, rapporteure. - C'est pourquoi nous voulons sortir du seul cadre national, en donnant à la Commission davantage de moyens pour agir sur les grandes plateformes. Il faudra certainement plus que les 50 personnes actuellement prévues par la Commission pour assurer le contrôle du règlement.

Pour revenir sur la question des mineurs, une législation nationale sera sans doute nécessaire. Aux États-Unis, certains enfants portent plainte contre leurs parents pour avoir exposé des images d'eux alors qu'ils étaient mineurs.

M. Ludovic Haye. - On parle souvent d'internet comme d'une autoroute de l'information. Or, pour conduire un véhicule, il faut un permis. De même, pour naviguer sur internet, un certain nombre d'informations sont nécessaires. Certaines écoles font passer un permis internet. Sans qu'il faille le rendre obligatoire, cela me semble un service à rendre aux enfants.

Les cookies sont aux algorithmes ce que l'eau est aux moulins. On atteint désormais des démarches liberticides : certains sites refusent l'accès sans acceptation de la fenêtre pop-up proposant les cookies. Je tenais à le signaler.

Mme Catherine Morin-Desailly, rapporteure. - Cette proposition de législation européenne est une étape à saluer, même si on ne sait pas vraiment les résultats qu'elle permettra d'obtenir et que, comme nous l'ont indiqué beaucoup de personnes auditionnées, il s'agit sans doute d'une occasion manquée. Mais avec nos propositions de résolution, très ambitieuses, nous voulons poser les termes du débat pour la suite.

La puissance des géants du net est telle qu'il est compliqué de légiférer. Le secteur de la presse se trouve démuni et anxieux pour son avenir : Google se repose sur des accords au cas par cas, mais n'applique pas la législation européenne ou française, par exemple celle relative aux droits voisins.

M. Didier Marie. - Je pose la question du poids du lobbying des Gafam dans l'élaboration des textes. La Commission résiste-t-elle, ou bien doit-elle composer ?

Mme Florence Blatrix Contat, rapporteure. - Dans notre travail, nous n'avons guère été soumises au lobbying. Le sujet est brûlant et les autorités européennes veulent avancer sur le sujet. Le Conseil a abouti à un accord ambitieux, le Parlement est volontaire.

Mme Catherine Morin-Desailly, rapporteure. - Le poids du lobbying reste cependant très inquiétant. L'avocat spécialisé qui, jusqu'à il y a peu, défendait les éditeurs de presse les a abandonnés après avoir été acheté par Google.

Le président de la Radio-télévision belge de la Communauté française (RTBF) confiait les difficultés à trouver, à Bruxelles, des avocats spécialistes qui ne soient pas affiliés aux Gafam. Nous observons là une vraie technique d'infiltration de leur part.

M. André Gattolin. - À Bruxelles, les 30 cabinets privés spécialisés en droit du numérique sont presque tous en contrat avec Google, Facebook ou d'autres opérateurs de même envergure. Les institutions européennes ne trouvent donc pas les ressources juridiques dont elles ont besoin.

La commission des affaires européennes autorise, à l'unanimité, la publication du rapport d'information et adopte, à l'unanimité, la proposition de résolution européenne, disponible en ligne sur le site du Sénat, ainsi que l'avis politique qui en reprend les termes et qui sera adressé à la Commission européenne.

Avis politique sur la proposition de résolution européenne en application de l'article 73 quater du Règlement sur la proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques
(Législation sur les services numériques - Digital Services Act - DSA),
COM(2020) 825 final

La commission des affaires européennes du Sénat,

Vu le traité sur le fonctionnement de l'Union européenne (TFUE), et notamment ses articles 16 et 114,

Vu la charte des droits fondamentaux de l'Union européenne, et notamment ses articles 8, 11, 21, 22, 35, 36 et 38,

Vu la convention de sauvegarde des droits de l'homme et des libertés fondamentales, 2000/C 364/01, et notamment ses articles 10, 11 et 16, son protocole additionnel, et notamment son article 3, et le protocole n° 12,

Vu la convention du Conseil de l'Europe pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel du 28 janvier 1981 et son protocole additionnel du 8 novembre 2001 (« Convention 108 + »), notamment son article 6,

Vu la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »),

Vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation des données, abrogeant la directive 95/46/CE (règlement général sur la protection des données - RGPD),

Vu l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique,

Vu l'article L. 111-7 du code de la consommation, introduit par l'article 49 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique,

Vu la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information,

Vu la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet,

Vu l'article 42 de la loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République,

Vu l'arrêt « Google France et Google » de la Cour de Justice de l'Union européenne rendu le 23 mars 2010, C-236/08,

Vu l'arrêt « L'Oreal contre eBay » de la Cour de Justice de l'Union européenne rendu le 12 juillet 2011, C-324/09,

Vu l'arrêt « SABAM » de la Cour de Justice de l'Union européenne rendu le 16 février 2012, C-360/10,

Vu la recommandation de la Commission du 1er mars 2018 sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne, C(2018) 1177 final,

Vu la communication de la Commission européenne au Parlement européen, au Comité économique et social européen et au Comité européen des Régions du 26 avril 2018 intitulée « Lutter contre la désinformation en ligne : une approche européenne », COM(2018) 236 final,

Vu la communication conjointe au Parlement européen, au Conseil européen, au Conseil, au Comité économique et social européen et au Comité des régions du 5 décembre 2018, intitulée « Plan d'action contre la désinformation », JOIN(2018) 36,

Vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020, intitulée « Façonner l'avenir numérique de l'Europe », COM(2020) 67 final,

Vu la communication conjointe au Parlement européen, au Conseil européen, au Conseil, au Comité économique et social européen et au Comité des régions du 3 décembre 2020, relative au plan d'action pour la démocratie européenne, COM(2020) 790 final,

Vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 26 mai 2021, intitulé « Orientations de la Commission européenne visant à renforcer le code européen de bonnes pratiques contre le désinformation », COM(2021) 262 final,

Vu la proposition de règlement du Parlement européen et du Conseil relative à un marché unique des services numériques (législation sur les services numériques) et modifiant la directive 2000/31/CE, COM(2020) 825 final,

Vu la proposition de règlement du Parlement européen et du Conseil relatif aux marchés contestables et équitables dans le secteur numérique (législation sur les marchés numériques), COM(2020) 842 final,

Vu la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l'intelligence artificielle (législation sur l'intelligence artificielle) et modifiant certains actes législatifs de l'Union, COM(2021) 206 final,

Vu l'avis du Contrôleur européen de la protection des donnée (CEPD 1/2021 du 10 février 2021 sur la proposition de Législation sur les services numériques,

Vu la résolution du Parlement européen du 25 octobre 2018 sur l'exploitation des données des utilisateurs de Facebook par Cambridge Analytica et les conséquences en matière de protection des données (2018/2855(RSP),

Vu la résolution du Parlement européen du 20 octobre 2020, intitulée « Améliorer le fonctionnement du marché unique » (2020/2018(INL)),

Vu la résolution du Parlement européen du 20 octobre 2020, relative à l'adaptation des règles de droit commercial et civil pour les entités commerciales exerçant des activités en ligne (2020/2019(INL)),

Vu la résolution du Parlement européen du 20 octobre 2020 sur la législation relative aux services numériques et les questions liées aux droits fondamentaux (2020/2022(INI)),

Vu les consultations publiques lancées par la Commission européenne le 2 juin 2020 sur le Paquet dit Digital Services Act portant, respectivement, sur l'approfondissement du marché intérieur et la clarification des responsabilités des services numériques et sur un instrument de régulation ex ante des grandes plateformes en ligne à effets de réseau significatifs se comportant comme des gatekeepers dans le Marché intérieur,

Vu le code de conduite européen sur la lutte contre les discours haineux illégaux en ligne (2016),

Vu la sixième évaluation du code de conduite pour la lutte contre les discours haineux illégaux en ligne (2021),

Vu le code européen de bonnes pratiques contre la désinformation (2018),

Vu l'évaluation du code européen de bonnes pratiques contre la désinformation, SWD(2020) 180 final,

Vu la résolution européenne du Sénat n° 68 (1999-2000) du 5 février 2000, sur la proposition de directive du Parlement européen et du Conseil relative à certains aspects juridiques du commerce électronique dans le marché intérieur,

Vu la résolution européenne du Sénat n° 31 (2018-2019) du 30 novembre 2018, sur la responsabilisation partielle des hébergeurs de services numériques,

Vu la résolution européenne du Sénat n° 32 (2021-2022) du 12 novembre 2021 sur la proposition de règlement sur les marchés numériques (DMA),

Vu le rapport d'information du Sénat n° 443 (2012-2013) de Mme Catherine MORIN DESAILLY, fait au nom de la commission des affaires européennes, L'Union européenne, colonie du monde numérique ?, déposé le 20 mars 2013,

Vu le rapport d'information du Sénat n° 696 (2013-2014) de Mme Catherine MORIN DESAILLY, fait au nom de la mission commune d'information sur la gouvernance mondiale de l'Internet, L'Europe au secours de l'Internet : démocratiser la gouvernance de l'Internet en s'appuyant sur une ambition politique et industrielle européenne, déposé le 8 juillet 2014,

Vu le rapport d'information du Sénat n° 326 (2017-2018) de M. André GATTOLIN et Mme Colette MELOT, fait au nom de la commission des affaires européennes, Quelle protection pour les consommateurs européens à l'ère du numérique ?, déposé le 21 février 2018,

Vu le rapport du Sénat n° 677 (2017-2018) de Mme Catherine MORIN-DESAILLY, fait au nom de la commission de la culture, de l'éducation et de la communication, sur la proposition de loi relative à la lutte contre les fausses informations, déposé le 18 juillet 2018,

Vu le rapport du Sénat n° 731 (2017-2018) de Mme Catherine MORIN-DESAILLY, sénatrice, et M. Bruno STRUDER, député, fait au nom de la commission mixte paritaire, sur la proposition de loi relative à la lutte contre la manipulation de l'information, déposé le 26 septembre 2018,

Vu le rapport du Sénat n° 75 (2018-2019) de Mme Catherine MORIN DESAILLY, fait au nom de la commission de la culture, de l'éducation et de la communication, sur la proposition de loi relative à la lutte contre les fausses informations, déposé le 24 octobre 2018,

Vu le rapport du Sénat n° 7 (2019-2020) de M. Gérard LONGUET, fait au nom de la commission d'enquête sur la souveraineté numérique, Le devoir de souveraineté numérique, déposé le 1er octobre 2019,

Vu les rapports du Sénat n° 645 (2018-2019) et n° 299 (2019-2020) de M. Christophe-André FRASSA, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale la culture, de l'éducation et de la communication, sur la proposition de loi visant à lutter contre les contenus haineux sur internet, déposés le 11 décembre 2019 et le 5 février 2020,

Vu le rapport du Sénat n° 239 (2019-2020) de M. Christophe-André FRASSA, sénateur, et Mme Laetitia AVIA, députée, fait au nom de la commission mixte paritaire, sur la proposition de loi visant à lutter contre les contenus haineux sur internet, déposé le 8 janvier 2020,

Vu le rapport du Sénat n° 454 (2010-2021) de Mmes Jacqueline EUSTACHE BRINIO et Dominique VERIEN, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale, sur le projet de loi confortant le respect des principes de la République, déposé le 18 mars 2021,

Vu le rapport d'information du Sénat n° 34 (2021-2022) de Mmes Florence BLATRIX CONTAT et Catherine MORIN DESAILLY, fait au nom de la commission des affaires européennes, Proposition de règlement sur les marchés numériques (DMA), déposé le 7 octobre 2021,

Sur l'opportunité de la proposition de règlement

Considérant les profondes évolutions de l'écosystème numérique depuis l'adoption de la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000, sur le commerce, notamment la place primordiale prise par les hébergeurs - au sens de ladite directive - dans les relations sociales, les modes de consommation, l'accès à l'information et le débat public, et la domination des géants américains du numérique ;

Considérant que la prolifération des contenus illicites sur internet, du harcèlement en ligne et de la désinformation constituent les ferments d'une désagrégation du corps social, et constituent des risques majeurs pour l'équilibre de nos démocraties ;

Considérant, en conséquence, que les règles libérales établies par la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000, en vue de favoriser l'émergence de nouveaux acteurs du numérique - en particulier le principe de responsabilité limitée des hébergeurs -, ne sont plus adaptées aux évolutions de l'écosystème numérique et ne répondent plus aux enjeux de sécurité de l'environnement numérique ;

Considérant que les codes de conduite volontaire établis aux niveaux européen et nationaux n'ont pas fait la preuve de leur efficacité et que les fournisseurs de services numériques n'ont pas démontré leur volonté de trouver des solutions technologiques et opérationnelles permettant de répondre aux objectifs affichés ;

Accueille favorablement l'initiative prise par la Commission de proposer une législation sur les services numériques, visant à renforcer les obligations des fournisseurs de services intermédiaires en vue de créer un environnement en ligne plus sûr ;

Estime pertinente la double approche fondée, pour les contenus illégaux, sur le renforcement des obligations concrètes de modération, et, pour les contenus illégaux et les contenus légaux susceptibles d'être préjudiciables, sur des obligations de vigilance renforcée, notamment en matière de transparence et de moyens ;

Approuve l'approche graduelle en fonction de la nature et de la taille des fournisseurs de services intermédiaires concernés, et notamment la prise en compte des risques systémiques spécifiques posés par les très grandes plateformes en ligne ;

Approuve le montant dissuasif des sanctions financières susceptibles d'être infligées par les régulateurs nationaux ou la Commission aux opérateurs de services en ligne en cas d'infraction au règlement, y compris pour manquement à leurs obligations de vigilance (art. 42, 59 et 60) ;

Sur les types d'acteurs concernés

Considérant l'absence de mention explicite des moteurs de recherche dans la proposition de règlement ;

Considérant que le caractère quasi-monopolistique des grands moteurs de recherche en Europe les met vis-à-vis des utilisateurs dans une position de verrouillage de l'accès à l'information et aux contenus ;

Demande que les moteurs de recherche soient soumis aux obligations communes à l'ensemble des intermédiaires établies par le règlement, et que les très grands moteurs de recherche, définis sur le même critère de nombre d'utilisateurs que les très grandes plateformes, soient soumis en outre aux obligations spécifiques à ces dernières ;

Sur les exemptions pour les petites entreprises

Considérant que l'imposition de charges administratives trop lourdes à des petites et moyennes entreprises et à de jeunes entreprises risquerait d'entraver l'innovation, le développement et le passage à l'échelle d'acteurs européens du numérique,

Considérant que les exemptions prévues par le projet de règlement (art. 13 (2) et 16) concernent principalement des obligations de transparence, sans remettre en cause les conditions d'engagement de la responsabilité des acteurs concernés, ni l'imposition, pour les hébergeurs, d'un mécanisme de notification et action harmonisé ;

Considérant que le franchissement des seuils d'exemption prévus entraînera automatiquement, aux termes du règlement, la soumission aux obligations de droit commun établies par ce dernier ;

Considérant les risques de préjudices individuels, directs et immédiats, susceptibles d'être causés aux consommateurs par la vente en ligne de produits et services illicites ou dangereux ;

Considérant que les critères d'exemption reposent sur des critères de chiffre d'affaire et de nombre de salariés qui ne rendent que très partiellement compte du poids réel de ces plateformes dans l'écosystème numérique ;

Soutient les exemptions prévues pour les petites et microentreprises, à l'exception néanmoins des obligations relatives à la vente de produits et services en ligne, notamment à la traçabilité des professionnels (art. 22) ;

Recommande dans tous les cas qu'un critère d'audience soit privilégié pour évaluer l'opportunité ou non d'exempter une plateforme en ligne de certaines obligations administratives ;

Sur les critères de définition des « très grandes plateformes »

Considérant la nécessité d'une méthodologie de calcul des seuils robuste, afin de se prémunir contre toute pratique de contournement des seuils qualifiant les « très grandes plateformes » et déclenchant les obligations et modalités de contrôle afférentes ;

Considérant que le nombre d'utilisateurs en valeur absolue est un indicateur insuffisant pour déterminer le risque de création ou d'aggravation de risques systémiques ;

Demande une clarification en annexe du règlement de la méthodologie de calcul des seuils et du nombre mensuel moyen d'utilisateurs actifs, notamment de l'assiette utilisée pour déterminer le nombre d'utilisateurs actifs ;

Recommande le recours à des tiers certifiés pour déterminer le nombre de bénéficiaires actifs des plateformes en ligne ;

Souhaite, dans la logique d'une approche fondée sur le risque, la mise en place d'un mécanisme permettant de soumettre, au cas par cas, aux obligations spécifiques prévues à la section 4 du chapitre III, des plateformes en ligne n'atteignant pas les seuils fixés à l'article 25, sur la base de critères complémentaires prenant notamment en compte la part d'audience de ces plateformes dans certaines catégories de population, notamment en fonction de critères géographiques ;

Estime que ces critères complémentaires devraient notamment tenir compte du ciblage de publics vulnérables, notamment des mineurs ;

Sur les mécanismes de retrait des contenus illicites

Considérant le maintien, dans le règlement, de l'interdiction de soumettre les fournisseurs de services intermédiaires à une obligation de surveillance généralisée des contenus (art. 7) ;

Considérant que, conformément au principe de responsabilité limitée des hébergeurs, la possibilité d'engager la responsabilité d'un hébergeur pour la présence d'un contenu illicite sur ses services dépend concrètement de la possibilité de l'informer de la présence de ce contenu illicite ;

Considérant que confier l'appréciation du caractère illicite des contenus, en première approche, à des opérateurs de service en ligne qui sont des entités privées, est susceptible de porter gravement atteinte à la liberté d'expression, a fortiori lorsqu'il s'agit de contenus qui ne sont pas manifestement illicites ;

Considérant que les mesures de lutte et de protection contre les utilisations abusives prévues dans le projet de règlement (art. 20) concernent exclusivement des mesures qui peuvent être prises par les plateformes à l'encontre des utilisateurs, sans que soit prise en compte l'éventualité de modération abusives de la part des plateformes elles-mêmes ;

Considérant que les mécanismes d'amplification des contenus sur les plateformes en ligne créent un espace public en ligne dont les caractéristiques sont différentes de l'espace public dans le monde réel ;

Approuve la mise en place obligatoire, pour tous les hébergeurs, d'un mécanisme de notification et action harmonisé dans l'ensemble de l'Union (art. 14) ;

Estime qu'afin que ce mécanisme soit réellement « facile d'accès et d'utilisation », une normalisation plus poussée, notamment en matière de visibilité, est nécessaire ; le mécanisme de signalement devrait notamment être obligatoirement placé à proximité immédiate du contenu faisant l'objet d'un signalement ;

Estime que lorsque le caractère illicite d'un contenu n'est pas manifeste, les plateformes en ligne devraient être invitées dans un premier temps à réduire la visibilité de ce dernier, sans toutefois le supprimer, le temps de vérifier son caractère illicite ;

Souhaite que la fermeture de certaines catégories de comptes d'intérêt général, dont ceux de personnalités politiques, ne puisse intervenir que sur décision de justice, et non, comme prévu actuellement, sur simple décision de la plateforme (art. 20) ;

Suggère que les données pertinentes pour l'évaluation du respect de la liberté d'expression par les fournisseurs de services intermédiaires puissent être conservées et mises à la disposition de chercheurs et auditeurs indépendants agréés, ainsi que des régulateurs, dans le respect de la protection des données à caractère personnel ;

Sur les signaleurs de confiance

Considérant la quantité de notifications reçues par les fournisseurs de services intermédiaires en ligne et l'inégale gravité de l'illicéité des contenus notifiés et la nécessité de se prémunir contre les notifications abusives,

Considérant l'enjeu considérable que constitue la lutte contre la contrefaçon sur internet, qu'il s'agisse de marchandises ou de contenus de médias ou culturels ;

Approuve l'instauration d'un statut de « signaleurs de confiance », dont les notifications devront être traitées « de manière prioritaire et dans les meilleurs délais » ;

Suggère la suppression du critère de représentation des « intérêts collectifs » pour les « signaleurs de confiance », afin que ce statut puisse, dans les conditions établies par le règlement, être reconnu à certaines grandes entreprises et certains syndicats professionnels ou organismes de gestion des droits ;

Sur les obligations de transparence concernant la modération et les obligations de vigilance

Considérant l'insuffisance des informations, notamment sur les activités de modération, fournies par les opérateurs de service en ligne, y compris dans les rapports de transparence qu'ils publient volontairement au titre des codes de conduite auxquels ils adhèrent ;

Considérant en outre l'inégalité des performances des algorithmes de modération, mais aussi l'inégal engagement des ressources humaines consacrées par les très grandes plateformes, en fonction des différentes langues, cultures et législations des pays qu'elles ciblent ;

Exige que ces rapports de transparence publiés par les opérateurs de services en ligne aux termes des articles 13, 23 et 33, comprennent des informations sur les moyens financiers, notamment humains, engagés pour se conformer aux obligations de modération et aux autres obligations de vigilance prévues par le règlement, et a minima une ventilation des informations et données exigibles par État membre et par langue ;

Doute néanmoins de la fiabilité de rapports de transparence rédigés par les opérateurs eux-mêmes ;

Approuve l'obligation faite aux très grandes plateformes de se soumettre annuellement à un audit indépendant ;

Invite à préciser les garanties relatives à l'indépendance des auditeurs des très grandes plateformes,

Sur l'accès aux données

Considérant qu'il est indispensable que les régulateurs puissent disposer de toutes les données nécessaires pour contrôler le respect du règlement par les opérateurs de services en ligne ;

Considérant en outre la nécessité d'une évaluation externe des risques systémiques représentés par les très grandes plateformes en ligne, s'appuyant notamment sur les compétences du milieu académique ;

Approuve l'obligation faite aux très grandes plateformes en ligne de fournir aux autorités de régulation nationales ou à la Commission les données nécessaires pour contrôler et évaluer le respect du règlement (art. 31 (1)), ainsi que de fournir l'accès à leurs données à des chercheurs agréés, aux fins de procéder à des recherches contribuant à identifier et à la comprendre les risques représentés posés par leurs services (art. 31 (2) ;

Estime que les régulateurs nationaux devraient se voir garantir des pouvoirs d'accès aux données égaux à ceux de la Commission ;

Juge indispensable que l'accès aux données des très grandes plateformes ne soit pas limité aux chercheurs affiliés à des établissements universitaires (art. 31 (4)), mais soit garanti à tout chercheur, y compris des chercheurs indépendants agréés ;

S'oppose à la possibilité pour une très grande plateforme de refuser l'accès aux données au motif de la protection d'informations confidentielles ou de la sécurité de son service (art. 31 (7)), sauf à démontrer que ces données ne sont pas nécessaires aux fins de la demande ;

Souhaite que les actes délégués (art. 31 (5)) qui établiront les conditions techniques de mise à disposition des données, tout en tenant dûment compte de la nécessité de concilier la protection des données à caractère personnel et le secret des affaires, n'aboutissent pas à limiter abusivement dans les faits l'accès aux données, notamment en faisant peser sur les chercheurs des charges de mise en conformité excessives ;

Recommande, la mise en place de protocoles de tests d'algorithmes sur la base des données disponibles publiquement sur les très grandes plateformes, au profit des autorités de régulation et des chercheurs, en complément de la mise à disposition des données par l'intermédiaire de bases de données en ligne ou d'interfaces de programme d'application (art. 31 (3)) ;

Estime indispensable de ne pas conserver le caractère limitatif de la liste de motifs d'ouverture des données aux chercheurs agréés prévue à l'article 26 (1), afin de permettre la détection par ces derniers de l'ensemble des risques systémiques susceptibles d'être représentés par les très grandes plateformes en ligne ;

Sur certaines catégories de risques spécifiques

Sur la protection des consommateurs

Considérant l'existence d'une règlementation sectorielle spécifique en matière de protection du consommateur, au niveau européen comme au niveau national ;

Considérant que la prolifération, sur les places de marché en ligne, de produits contrefaits et illicites, est susceptible de mettre gravement en danger la santé des consommateurs ;

Considérant que de nombreux fournisseurs de service en ligne fournissent, à titre accessoire, des services de vente en ligne, ou de redirection vers des sites marchands, ainsi que de publicité ;

Estime utile de soumettre à des obligations horizontales spécifiques l'ensemble des plateformes en ligne permettant la mise en relation d'un client et d'un vendeur professionnel et la conclusion de contrats de vente de biens ou de services avec un vendeur professionnel ;

Approuve, en conséquence, les dispositions concernant la traçabilité des vendeurs (art. 22) ;

Estime que, dans certains cas, notamment lorsqu'elles ne se sont pas conformées à cette obligation de vérifier l'identité du vendeur, les plateformes en ligne permettant la conclusion de contrats de vente devraient pouvoir être tenues pour responsables des dommages causés par la vente de produits illicites, notamment lorsqu'il s'agit de produits dangereux ;

Estime que les risques pour la protection des consommateurs devraient faire partie des risques systémiques évalués annuellement par les très grandes plateformes (art. 26) ;

Sur le pluralisme des médias

Considérant qu'il n'existe au niveau européen aucune définition des « médias » permettant de garantir la qualité et l'indépendance des services habituellement classés dans cette catégorie, et a fortiori des services se qualifiant comme tels ;

Considérant le rôle majeur joué par des entités étrangères se présentant comme des médias dans les campagnes coordonnées de désinformation qui ont récemment visé l'Europe ;

Considérant l'enjeu crucial, pour l'avenir des démocraties européennes, que représente la lutte contre la désinformation en ligne ;

Considérant que le soutien à un journalisme de qualité et la promotion d'informations émanant de sources fiables est un facteur efficace de lutte contre la désinformation ;

Considérant que les législations en faveur de la liberté et du pluralisme de la presse relèvent de l'échelon national ;

Souhaite que les risques d'atteinte au pluralisme des médias soient ajoutés à la liste des risques systémiques qui devraient être évalués annuellement par les très grandes plateformes (art. 26) ;

Suggère que les plateformes en ligne, et notamment les très grandes plateformes, soient tenues d'assurer une visibilité améliorée des informations d'intérêt public émanant de sources fiables, notamment de sources journalistiques et de médias, sur la base de normes et de critères co-construits avec les acteurs du secteur ;

Estime nécessaire que soit affirmée explicitement la possibilité pour les législateurs nationaux d'adopter des mesures favorisant le pluralisme des médias sur internet ;

Sur la protection des enfants

Considérant que l'exposition des enfants aux contenus illicites, haineux ou inappropriés sur internet est particulièrement préjudiciable à leur développement, à leur équilibre et à leur bien-être ;

Demande que les atteintes à la santé physique et psychique des enfants soient ajoutées à la liste des risques systémiques évalués annuellement pas les très grandes plateformes (art. 26) ;

Suggère que les évaluations des autres risques systémiques comportent systématiquement une section concernant plus spécifiquement les enfants ;

Estime que la protection des publics vulnérables, en particulier des enfants, devrait faire l'objet d'une réflexion particulière dans le cadre des codes de conduite mentionnés aux articles 35 et 36 ;

Souhaite que les très grandes plateformes soient invitées à collaborer avec les autorités de régulation nationales et européennes pertinentes et les instances académiques, en vue de l'établissement de normes pour l'établissement d'un droit à l'oubli renforcé pour les mineurs ;

Demande que, parmi les normes qui seront établies par la Commission européenne aux termes de l'article 34 de la proposition de DSA, figure la mise en place de systèmes de contrôle de l'âge des utilisateurs ;

Sur le modèle économique des plateformes et le rôle des algorithmes

Considérant que le modèle économique des plateformes, en particulier des réseaux sociaux, est basé sur l'économie de l'attention et repose sur la rémunération par la vente d'espaces publicitaires ;

Considérant que ce modèle, qui incite les plateformes à maximiser par tous les moyens le temps passé par les utilisateurs sur leurs services, jusqu'à porter atteinte à leur bien-être et leur sécurité, favorise la propagation de contenus violents et clivants, qui provoquent un engagement maximal des utilisateurs ;

Considérant que l'asymétrie d'information entre les plateformes et leurs utilisateurs, notamment en ce qui concerne les paramètres de fonctionnement des systèmes de recommandation des contenus et les données à caractère personnel utilisées pour le ciblage, est à l'origine de l'enfermement des utilisateurs dans des bulles de contenus de plus en plus polarisées ;

Estime nécessaire d'ajouter à la liste des risques systémiques qui devraient être évalués annuellement (art. 26) et atténués (art. 27) par les très grandes plateformes les risques découlant du fonctionnement même des algorithmes de recommandation et des systèmes publicitaires ;

Sur les systèmes algorithmiques

Approuve l'obligation faite aux très grandes plateformes en ligne de fournir aux utilisateurs des informations sur les principaux paramètres utilisés par les systèmes de recommandation des contenus, la possibilité de les modifier et de les désactiver (art. 29) ;

Demande la désactivation par défaut des systèmes de recommandation ;

Souligne que cette désactivation par défaut est particulièrement souhaitable pour les mineurs ;

Estime que les utilisateurs devraient être informés clairement de toute modification touchant les systèmes de recommandation ;

Estime nécessaire que les algorithmes d'intelligence artificielle utilisés par les très grandes plateformes en ligne aux fins d'ordonnancement de contenus et de modération soient rendus publics avant leur mise en service, et à chaque modification substantielle, aux fins de détection par des chercheurs des risques systémiques potentiels induits par leur fonctionnement, moyennant la mise en place de garanties appropriées concernant le secret des affaires ;

Souhaite que, dans le cadre de la procédure d'audit prévue à l'article 28, les algorithmes d'ordonnancement des contenus et de modération des très grandes plateformes puissent faire l'objet d'audits réguliers de la part d'auditeurs indépendants, et que ces derniers puissent émettre à leur sujet des recommandations auxquelles les très grandes plateformes devraient se conformer, sauf à se justifier ;

Souhaite que les algorithmes d'intelligence artificielle utilisés par les fournisseurs de services numériques, et en particulier les très grandes plateformes en ligne, fassent l'objet d'une attention particulière dans l'élaboration de la future législation de l'Union sur l'intelligence artificielle ;

Sur le profilage et la publicité ciblée

Considérant que la publicité en ligne peut présenter des risques importants, quand elle concerne des produits ou contenus eux-mêmes illicites ou préjudiciables, ou qu'elle constitue une incitation financière à la publication, à la promotion ou à l'amplification de contenus, services ou activités illicites ou préjudiciables en ligne ;

Considérant que l'affichage ciblé de publicités en ligne, sur la base de données à caractère personnel, est susceptible de porter préjudice à l'égalité de traitement des citoyens ;

Considérant qu'une application stricte du règlement général sur la protection des données (RGPD) permettrait de limiter certaines pratiques contestables en matière de publicité ciblée, comme le ciblage publicitaire sur la base de données à caractère personnel inférées à partir des interactions des utilisateurs avec certains contenus ;

Accueille très favorablement les dispositions visant à améliorer la transparence des systèmes de publicité en ligne sur les plateformes (art. 24 et 30) ;

Souhaite, afin d'en assurer une meilleure efficacité, une harmonisation minimale de l'affichage signalant le caractère publicitaire de certaines communications ;

Estime que les utilisateurs devraient avoir accès à la fois aux paramètres de ciblage déterminés par l'annonceur et au détail de leurs données personnelles utilisées pour le ciblage ;

Estime que l'identité du financeur de la publicité devrait, le cas échéant, être indiquée, en plus de l'identité de l'annonceur, à la fois en temps réel pour chaque publicité spécifique (art. 24) et dans les registres de transparence prévus à l'article 30 ;

Rappelle que l'usage de données à caractère personnel pour le ciblage publicitaire devrait faire l'objet d'un choix éclairé de la part de l'utilisateur, conformément aux dispositions du RGPD ;

Demande la désactivation par défaut du ciblage publicitaire pour l'ensemble des utilisateurs, et l'interdiction de la publicité ciblée à destination des mineurs ;

Sur la réforme du régime de responsabilité

Considérant l'utilisation par certaines catégories d'hébergeurs au sens de la directive sur le commerce électronique précitée, notamment les plateformes en ligne, d'algorithmes d'ordonnancement des contenus, et leurs conséquences sur la visibilité de ces contenus ;

Considérant que le régime actuel de responsabilité des hébergeurs ne rend pas compte du rôle actif ainsi joué par ces acteurs dans le partage et la dissémination des contenus en ligne ;

Déplore que le règlement ne remette pas en cause le principe de responsabilité limitée des hébergeurs, y compris des plateformes et des très grandes plateformes en ligne ;

Appelle à nouveau à créer un régime européen de responsabilité renforcée spécifique pour les fournisseurs de service intermédiaire utilisant des algorithmes d'ordonnancement des contenus, à raison de ladite utilisation ;

Souhaite l'établissement au niveau européen de normes en matière d'éthique et de respect des droits fondamentaux, qui devraient être respectées lors de l'élaboration des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité ciblée utilisés par les fournisseurs de service intermédiaires, selon un principe de legacy et safety by design ;

Estime que la responsabilité des fournisseurs de services intermédiaires utilisant de tels algorithmes devrait pouvoir être directement engagée en cas de non-respect de ces normes ;

Sur les modalités de contrôle

Considérant le maintien dans le règlement du principe du pays d'origine ;

Considérant qu'en conséquence, les décisions concernant les fournisseurs de services intermédiaires relèvent en dernier recours du coordinateur des services numériques du pays d'établissement du service, hormis pour les très grandes plateformes, pour lesquelles la Commission est habilitée à intervenir directement, notamment en cas de défaut d'action de la part du coordinateur des services numériques compétent ;

Considérant que la prise de décision concernant la mise en oeuvre d'une procédure de surveillance renforcée pour une très grande plateforme par le coordinateur des services numériques compétent, après que le Comité ou la Commission lui a recommandé d'enquêter sur une infraction présumée, n'est enfermée dans aucun délai ;

Considérant que les dysfonctionnements observés dans la mise en oeuvre du mécanisme des autorités cheffes de file prévu par le RGPD ont abouti à une application non uniforme du règlement dans les différents États membres ;

Considérant en outre l'inégale dotation en moyens humains et matériels des autorités de contrôle nationales, impliquant leur inégale diligence à faire appliquer le règlement ;

Considérant que les autorités nationales de régulation du numérique ont chacune acquis des compétences sectorielles et une connaissance de l'écosystème précieuses, dans l'optique du contrôle de la mise en oeuvre du règlement ;

Considérant la nécessité d'assurer la pleine effectivité du règlement et de réduire les délais d'enquête, notamment en ce qui concerne les très grandes plateformes ;

Considérant que les risques systémiques posés par les très grandes plateformes concernent l'ensemble de l'Union ;

Estime que la Commission devrait dans tous les cas pouvoir se substituer en dernier ressort au coordinateur des services numériques du pays d'établissement du fournisseur de services intermédiaire concerné pour faire cesser une infraction ;

Estime que la Commission devrait, pour les très grandes plateformes, détenir le monopole du pouvoir d'enquête et de sanction, tout en partageant le pouvoir d'initiative avec le Comité ;

Remarque toutefois l'insuffisance des moyens humains prévus, au sein de la Commission, pour le contrôle du respect du règlement, au regard du haut degré de technicité requis et de la nécessité de faire appel à des compétences variées, dans des secteurs divers ;

Appelle donc à une meilleure association des autorités de régulation nationales des pays de destination et des pays d'origine du service aux enquêtes et autres actions de contrôle de la Commission concernant le respect du règlement par les très grandes plateformes, notamment le suivi du respect par ces dernières des engagements pris, en ce qui concerne le territoire national ;

Estime que, de manière générale, le rôle des autorités de régulation des pays de destination devrait être renforcé, notamment afin qu'elles puissent être interrogées sur des points de droit national par les autorités de régulation des pays d'établissement, et qu'elles puissent être associées aux enquêtes concernant des faits affectant leur territoire, notamment dans le domaine de la consommation ;

Ajoute que les réseaux des autorités de régulation nationales sectorielles devraient également être mieux associés au contrôle du respect du règlement par les très grandes plateformes, notamment par le biais d'avis sur les rapports de transparence et les rapports d'audit des très grandes plateformes ;

Sur les délais et l'adaptabilité du règlement

Considérant l'urgence, pour l'Union européenne, d'établir des normes strictes et ambitieuses en matière de lutte contre les contenus illicites et préjudiciables en ligne, capables à la fois d'améliorer la sécurité de ses propres citoyens, et de constituer un référentiel au niveau international ;

Considérant l'évolution rapide des technologies et des équilibres de marché dans le monde numérique ;

Souhaite que le règlement sur les services numériques soit adopté dans les meilleurs délais ;

S'oppose fermement à toute extension du délai d'applicabilité du règlement, après son entrée en vigueur ;

Recommande de réduire le délai d'évaluation du règlement et du fonctionnement du Comité respectivement de cinq ans et trois ans à deux ans ;

Souhaite que les différentes parties prenantes soient invitées à évaluer d'ores et déjà, puis régulièrement, la robustesse du règlement face aux évolutions prévisibles de l'environnement en ligne, notamment le développement des applications des plateformes de mondes virtuels.