Rapport d'information n° 274 (2021-2022) de Mmes Florence BLATRIX CONTAT et Catherine MORIN-DESAILLY , fait au nom de la commission des affaires européennes, déposé le 8 décembre 2021

Disponible au format PDF (1 Moctet)

Synthèse du rapport (334 Koctets)


N° 274

SÉNAT

SESSION ORDINAIRE DE 2021-2022

Enregistré à la Présidence du Sénat le 8 décembre 2021

RAPPORT D' INFORMATION

FAIT

au nom de la commission des affaires européennes (1) sur la proposition de législation européenne sur les services numériques (DSA),

Par Mmes Florence BLATRIX CONTAT et Catherine MORIN-DESAILLY,

Sénatrices

(1) Cette commission est composée de : M. Jean-François Rapin , président ; MM. Alain Cadec, Cyril Pellevat, André Reichardt, Didier Marie, Mme Gisèle Jourda, MM. Claude Kern, André Gattolin, Henri Cabanel, Pierre Laurent, Mme Colette Mélot, M. Jacques Fernique , vice-présidents ; M. François Calvet, Mme Marta de Cidrac, M. Jean-Yves Leconte , secrétaires ; MM. Pascal Allizard, Jean-Michel Arnaud, Jérémy Bacchi, Mme Florence Blatrix Contat, MM. Philippe Bonnecarrère, Pierre Cuypers, Laurent Duplomb, Christophe-André Frassa, Mme Joëlle Garriaud-Maylam, M. Daniel Gremillet, Mmes Pascale Gruny, Véronique Guillotin, Laurence Harribey, MM. Ludovic Haye, Jean-Michel Houllegatte, Patrice Joly, Mme Christine Lavarde, MM. Dominique de Legge, Pierre Louault, Victorin Lurel, Franck Menonville, Mme Catherine Morin-Desailly, M. Louis-Jean de Nicolaÿ, Mmes Elsa Schalck, Patricia Schillinger .

L'ESSENTIEL

AMPLIFIER LA LÉGISLATION EUROPÉENNE
SUR LES SERVICES NUMÉRIQUES (DSA)1 ( * ),
POUR SÉCURISER L'ENVIRONNEMENT EN LIGNE

Depuis l'adoption, en 2000, de la directive sur le commerce électronique , pierre angulaire de la réglementation européenne du marché unique numérique 2 ( * ) , des services numériques nouveaux ont vu le jour, contribuant à de profondes transformations économiques et sociétales. Les marchés numériques sont désormais dominés par une poignée de grands acteurs, surtout américains , qui semblent échapper à toute forme de régulation.

L'usage généralisé des services numériques est aussi devenu une source de risques : la prolifération, sur internet, de propos haineux, de contenus de désinformation, de produits contrefaits ou dangereux, et d'activités illicites en tout genre, est susceptible d'affecter gravement les individus , mais aussi de fragiliser les sociétés dans leur ensemble.

Face à ces nouveaux défis et à cette nouvelle situation, le régime de responsabilité des hébergeurs établi par la directive (dit « régime de responsabilité limité »), qui visait à favoriser l'innovation et la croissance des acteurs européens du numérique, dans un secteur alors en pleine expansion, n'est plus adapté , d'autant que le juge l'a progressivement appliqué à des services et modèles d'affaires qui n'existaient pas au moment de son adoption , comme les réseaux sociaux ou les places de marché en ligne.

Devant l' insuffisance des résultats donnés par l'autorégulation des acteurs du numériques, et en complément de la dizaine de réglementations sectorielles adoptées au niveau européen ces dernières années, la Commission européenne a proposé en décembre 2020 une « législation sur les services numériques », dite DSA , afin de créer les conditions d'un environnement en ligne plus sûr. Il s'agit également d' éviter une fragmentation réglementaire préjudiciable au marché unique numérique .

LE DSA APPROFONDIT ET COMPLÈTE LA DIRECTIVE SUR LE COMMERCE ÉLECTRONIQUE

Réaffirmant les deux principes clefs de la directive sur le commerce électronique que sont le principe du pays d'origine - selon lequel un fournisseur de services en ligne doit respecter la législation du pays où il établit, et non du pays de destination du service - et la responsabilité limitée des hébergeurs , la proposition de DSA repose sur une double approche : d'une part, pour les contenus illicites, renforcer les obligations concrètes de modération , et d'autre part, pour l'ensemble des contenus préjudiciables - licites ou non - sur des obligations de vigilance ( due diligence ) , notamment en matière de transparence et de moyens. Ces obligations sont graduées en fonction de la nature et de la taille des opérateurs.

Plus précisément, le texte crée un mécanisme électronique de notification et d'action harmonisé à l'échelle de l'Union, permettant d' engager plus facilement la responsabilité des hébergeurs, s'ils ne retirent pas rapidement un contenu illicite dûment notifié ; il institutionnalise aussi un statut de « signaleurs de confiance » qualifiés, dont les signalements devraient être traités en priorité.

Des obligations graduées de transparence, tant envers les utilisateurs qu'envers les autorités de contrôle et de régulation , sont introduites, en matière notamment de politique de modération et de publicité ciblée.

Les très grandes plateformes , comptant plus de 45 millions d'utilisateurs mensuels au sein de l'Union, sont soumises à des obligations renforcées , en raison des risques sociétaux systémiques qu'elles représentent : évaluation annuelle de ces risques et mise en place obligatoire de mesures d'atténuation, transparence des données et des systèmes algorithmiques .

Pour tous les opérateurs, les infractions au règlement pourraient être sanctionnées jusqu'à 6 % de leur chiffre d'affaire annuel mondial .

UNE APPROCHE PAR LE RISQUE PERTINENTE,
MAIS À PRÉCISER ET RENFORCER

• Préciser les catégories d'acteurs concernés, en tenant compte des risques posés

Ø Inclure les moteurs de recherche dans le règlement et soumettre les « très grands moteurs de recherche » à des obligations similaires à celles des très grandes plateformes.

• La proposition prévoit d' exempter les petites entreprises de certaines obligations , tandis que les plateformes dépassant une certaine audience à l'échelle européenne seraient soumises à des obligations renforcées .

Ø Privilégier un critère d'audience aux critères de chiffre d'affaire et de nombre d'employés, pour déterminer les exemptions ; supprimer ces exemptions pour les dispositions relatives à la vente en ligne , en raison des risques individuels encourus par les consommateurs en cas de produit ou service dangereux.

Ø En vue d'une meilleure sécurité juridique, et pour ne pas retarder inutilement la désignation des très grandes plateformes, annexer au règlement la méthodologie de calcul des seuils qualifiant les très grandes plateformes, plutôt que de renvoyer à des actes délégués pris par la Commission européenne.

Ø Confier la mesure du nombre d'utilisateurs des très grandes plateformes à des tiers certifiés plutôt que de se fonder sur les chiffres fournis par les plateformes elles-mêmes.

Ø Permettre aux régulateurs de soumettre au cas par cas d'autres plateformes aux obligations renforcées des très grandes plateformes, notamment à raison de leur taux de pénétration chez les jeunes publics .

• Au-delà des places de marché en ligne, de nombreux fournisseurs de services sur internet permettent de conclure des contrats de vente en ligne , y compris à titre accessoire. La prolifération des produits et services contrefaits ou non conformes est susceptible d' affecter gravement la santé et la sécurité des consommateurs

Ø Permettre , dans certains cas, l'engagement de la responsabilité des plateformes qui permettent la conclusion de contrats de vente en ligne dès lors qu'elles auraient manqué aux obligations de diligence prévues par le règlement, notamment concernant la traçabilité des professionnels utilisant leurs services .

• Faciliter les notifications, pour pouvoir engager plus facilement la responsabilité des hébergeurs

Ø Créer un « bouton » d'accès à l'interface de notification des contenus présumés illicites commun à tous les hébergeurs.

Ø Élargir la définition des « signaleurs de confiance » , afin que ce statut puisse être accordé à certaines entités représentant des intérêts particuliers, telles que des marques, des sociétés de gestion de droits d'auteur, ou des journalistes, dans le cadre d'activités de vérification de faits.

• Aller plus loin dans la transparence

Ø Exiger des fournisseurs de services en ligne des données chiffrées sur les moyens technologiques, financiers et humains qu'elles allouent à la modération, ventilés par pays et par langue .

Ø Compléter les obligations de transparence en matière de publicité ciblée.

Ø Garantir aux autorités de régulation et aux chercheurs un accès aux données des très grandes plateformes suffisant :

o supprimer la condition d'affiliation universitaire, afin de permettre à des chercheurs indépendants de bénéficier du statut de chercheurs agréés ;

o élargir le champ des recherches pouvant justifier l'accès de chercheurs aux données des très grandes plateformes ;

o rendre le secret des affaires en principe inopposable aux demandes d'accès aux données par les autorités de régulation et les chercheurs agréés.

• Renforcer les mécanismes de contrôle et de sanction

Au vu des risques spécifiques posés par les très grandes plateformes , la proposition prévoit un mécanisme de contrôle spécifique, selon lequel la Commission européenne interviendrait, subsidiairement aux autorités du pays d'origine.

Ø Afin de pallier l'inégale diligence des différentes autorités de régulation nationales à faire appliquer les régulations numériques, confier à la Commission européenne le monopole du pouvoir d'enquête et de sanction sur les très grandes plateformes.

Ø Renforcer les effectifs affectés, au sein de la Commission , au contrôle des très grandes plateformes.

Ø Mieux associer les autorités nationales de régulation des pays d'origine et de destination aux enquêtes de la Commission et au respect des engagements pris par les très grandes plateformes, notamment pour ce qui concerne leur territoire national.

UNE OCCASION MANQUÉE DE RÉFORMER RÉELLEMENT
LE CADRE JURIDIQUE POUR LES GÉANTS DU NET

• Mieux prendre en compte les spécificités du modèle économique des grandes plateformes en ligne

Le modèle économique des grandes plateformes repose sur l'exploitation par des algorithmes, aussi puissants qu'opaques , de très grandes quantités de données - en particulier de données à caractère personnel -, utilisées pour le ciblage des contenus et des publicités, en vue de maximiser le temps passé par l'utilisateur sur leurs services et, partant, les revenus publicitaires des plateformes.

Ø Créer un nouveau régime européen de responsabilité renforcée pour les fournisseurs de services intermédiaires utilisant des algorithmes d'ordonnancement des contenus , à raison de ladite utilisation.

Ø Renforcer l'autonomisation des utilisateurs en :

o désactivant par défaut les systèmes de publicité ciblée et de recommandations de contenus ;

o facilitant l'accès aux informations les concernant .

Ø S'assurer de la légalité et de la sécurité des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité utilisés par les plateformes en ligne en :

o mettant en place, au niveau européen, des normes minimales en matière d'éthique et de respect des droits fondamentaux, obligatoires pour tous les algorithmes, dès leur création ( legacy by design ) ;

o rendant publics les algorithmes, aux fins de recherche par des tiers des risques potentiels pour les droits fondamentaux, avant leur première utilisation et après chaque modification substantielle ;

o prévoyant des audits réguliers des algorithmes auto-apprenants .

Ø Ajouter les risques induits par les systèmes algorithmiques , notamment de recommandation des contenus, et de sélection et affichage de la publicité à la liste des risques systémiques que les très grandes devront évaluer annuellement.

Ø Afin de protéger au maximum la liberté d'expression, se concentrer sur la lutte contre la viralité des contenus illicites : inviter les plateformes à d'emblée réduire la visibilité des contenus signalés , si leur caractère illicite n'est pas manifeste.

• Introduire des mesures spécifiques de protection des enfants :

Ø Prendre systématiquement en compte les mineurs dans l'évaluation et l'atténuation des risques .

Ø Désactiver par défaut les systèmes de recommandation des contenus et interdire la publicité ciblée pour les mineurs.

Ø Instaurer un droit à l'oubli pour les mineurs.

• Garantir dès à présent l'adaptabilité du règlement aux futures évolutions des usages, technologies et marchés numériques

Ø S'assurer de la robustesse des concepts et dispositions du règlement, face aux services numériques émergents .

Ø Réduire le délai d'évaluation du règlement de cinq ans deux ans .

CONCLUSION

En tout état de cause, au vu de l' urgence , pour l'Union, à établir un cadre efficace de lutte contre les contenus illicites et préjudiciables en ligne , propre à constituer un référentiel au niveau mondial , une adoption rapide, sous présidence française de l'Union européenne, serait souhaitable , même si les discussions en cours, tant au Parlement européen qu'au Conseil, invitent à moins d'optimisme qu'initialement prévu.

I. UN TEXTE DE RÉGULATION NOVATEUR ET NÉCESSAIRE, VISANT À ASSURER UN ENVIRONNEMENT EN LIGNE SÛR ET RESPONSABLE

A. LE CADRE EUROPÉEN DE RÉGLEMENTATION DES SERVICES NUMÉRIQUES N'EST PLUS ADAPTÉ À L'INTERNET DES ANNÉES 2020

1. La réglementation européenne sur les services numériques repose sur la directive sur le commerce électronique de 2000

Le cadre législatif européen actuel repose sur la directive 2000/31/CE, dite « directive sur le commerce électronique » ou « directive e-commerce » 3 ( * ) , transposée en France par la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN).

La directive sur le commerce électronique de 2000 repose sur deux principes clefs : la liberté de fournir des services électroniques et la liberté d'établissement.

Elle établit notamment, pour les « hébergeurs » 4 ( * ) , un régime de responsabilité limité , aux termes duquel un hébergeur ne peut être tenu pour responsable des contenus et activités illicites présents sur ses services, à condition qu'il n'ait pas eu connaissance de leur présence et de leur caractère illicite, ou que, en ayant eu effectivement connaissance, il ait agi « promptement » pour les retirer ou les rendre inaccessibles 5 ( * ) .

Elle pose également le principe d'une interdiction de surveillance généralisée des contenus et de recherche active, de la part des prestataires de services de la société de l'information, de contenus ou activités illicites 6 ( * ) .

Les prestataires de services de la société de l'information doivent se conformer à la législation de leur pays d'établissement 7 ( * ) : ce principe dit « du pays d'origine » est devenu, depuis 20 ans, l'une des pierres angulaires du marché unique des services numériques.

2. Une évolution rapide des pratiques d'internet depuis l'adoption de la directive sur le commerce électronique l'a rendue inadaptée
a) L'écosystème des fournisseurs de services en ligne a été profondément modifié depuis 20 ans

Depuis 2000, l'écosystème des fournisseurs de services en ligne a profondément évolué : au moment de l'adoption de la directive sur le commerce électronique, Google, fondé à peine deux ans plus tôt (1998), répondait à moins de 20 millions de requêtes quotidiennes, contre plusieurs milliards aujourd'hui. Le moteur de recherches, qui détient aujourd'hui plus de 90 % des parts de marché au niveau mondial, venait tout juste de lancer sa première version multilingue.

Amazon, créée en 1994, mais devenue accessible en ligne seulement en 1997, vendait encore principalement des livres, et ne possédait de sites internet spécifiques, en Europe, que pour le Royaume-Uni et l'Allemagne.

Plusieurs géants de l'internet n'existaient pas , comme Facebook (lancé en 2004), YouTube (2005), Twitter (2006), mais aussi Linkedin (2002), Airbnb (2008), ou encore Instagram (2010), Snapchat (2011) ou TikTok (2017). Depuis, Facebook est passé de 430 millions d'utilisateurs mensuels dans le monde en 2010 à près de 3 milliards aujourd'hui - dont plus de 400 millions en Europe -, et Twitter de 30 millions à près de 200 millions.

Le régime de responsabilité mis en place par la directive sur le commerce électronique visait explicitement à favoriser l'innovation et à permettre la croissance des acteurs européens alors en développement, en évitant de leur imposer des charges trop lourdes. Force est de constater qu'il a surtout profité aux acteurs américains, devenus entretemps des géants .

b) Le cadre législatif établi par la directive sur le commerce électronique n'est pas adapté aux nouveaux acteurs d'internet

En l'absence de textes plus précis, la Cour de Justice de l'Union européenne (CJUE) a appliqué les dispositions de la directive sur le commerce électronique à des services et des modèles d'affaires qui n'existaient pas au moment de son adoption. Elle a notamment estimé que pouvaient bénéficier du régime de responsabilité limitée un réseau social (affaire SABAM 8 ( * ) , affaire Glawischnig 9 ( * ) ), une place de marché en ligne (affaire L'Oréal v. eBay 10 ( * ) ) ou un service de publicité par mots-clefs (affaire Google France et Google v. Vuitton 11 ( * ) ).

3. Face à la prolifération des contenus illicites, l'Union européenne et les États membres ont mis en place des réglementations complémentaires

De manière générale, l'usage des services numériques s'est profondément répandu : en 2018, environ trois quarts des citoyens européens se déclarent utilisateurs réguliers des réseaux sociaux (70 % ) , des services de commerce en ligne (72 %) et des plateformes de vidéos ou de musique en ligne (76 %) 12 ( * ) .

Concomitamment, le nombre de contenus illicites sur internet s'est considérablement accru : à titre d'illustration, la Commission européenne cite, dans son étude d'impact, l'explosion du nombre de signalements d'images pédopornographiques en ligne, passé de 23 000 en 2010 à plus de 725 000 en 2019 13 ( * ) .

a) Au niveau européen, des réglementations sectorielles complémentaires

Pour répondre aux nouveaux défis posés par les acteurs d'internet, notamment en termes de prolifération des contenus illicites et préjudiciables, mais aussi de lutte contre la vente via internet de produits contrefaits, non conformes ou dangereux, certains types de contenus ont fait l'objet, au niveau européen, de réglementations sectorielles : il s'agit par exemple des contenus sous droit d'auteur 14 ( * ) , des contenus de médias audiovisuels 15 ( * ) , ou encore des contenus à caractère terroriste 16 ( * ) ou pédopornographiques 17 ( * ) .

Plusieurs textes concernant la sécurité des produits et la protection des consommateurs 18 ( * ) , ou encadrant les pratiques commerciales 19 ( * ) , comportent également des dispositions spécifiques concernant la lutte contre certains contenus illicites en ligne.

En dehors de ces réglementations sectorielles, l'autorégulation a pour l'instant été privilégiée , avec par exemple l'élaboration d'un code de conduite européen sur la lutte contre les discours haineux illégaux en ligne (2016) et un code européen de bonnes pratiques contre la désinformation (2018), ce dernier ne concernant pas seulement des contenus illicites, mais également des contenus licites mais préjudiciables.

b) Au niveau national

Du fait de l' insuffisante précision de certaines dispositions de la directive sur le commerce électronique , ces dernières ont pu être interprétées diversement tant par les législateurs nationaux que par les tribunaux, aboutissant de facto à une fragmentation réglementaire et jurisprudentielle au sein de l'Union.

En outre, conformément au principe du pays d'origine, les États membres de destination du service ne peuvent, au titre de la directive sur le commerce électronique, restreindre les services de la société de l'information que dans des circonstances très spécifiques (notamment pour des motifs de protection de la santé ou de la sécurité publique, de protection des consommateurs, et de prévention, détection et poursuites en matière pénales 20 ( * ) ).

Néanmoins, au vu des risques croissants liés à la prolifération de contenus illicites et préjudiciables en ligne, certains États membres ont récemment souhaité introduire dans leur législation nationale des obligations complémentaires concernant le retrait de certains contenus, pour les fournisseurs de services en ligne ciblant leur territoire :

- en Allemagne, la loi NetzDG , en vigueur depuis 2018, impose aux réseaux sociaux ayant plus de deux millions d'utilisateurs enregistrés en Allemagne un retrait des contenus illicites sous 7 jours, délai réduit à 24 heures pour les contenus manifestement illicites , sous peine d'amende pouvant aller jusqu'à 50 millions d'euros, et les soumet à des obligations de transparence renforcée ;

- en France, la proposition de loi visant à lutter contre la haine sur internet (« PPL Avia ») prévoyait à l'origine, pour les services accessibles depuis la France , notamment pour les plus grandes plateformes, une obligation de retrait dans les 24 heures des contenus de haine manifestement illicites , sous peine d'une amende pouvant aller jusqu'à 4 % du chiffre d'affaires annuel mondial de l'opérateur, ainsi qu'une simplification des procédures de notification.

Elle introduisait également des obligations de moyens et de transparence pour les grandes plateformes , en ce qui concerne la lutte contre les contenus haineux illicites.

Le Conseil constitutionnel a cependant censuré ces dispositions, jugées attentatoires à la liberté d'expression 21 ( * ) .

Plus récemment, l'article 42 de la loi confortant le respect des principes de la République , promulguée le 24 août 2021 22 ( * ) , procède à la « transposition par anticipation » des dispositions pertinentes de la future législation européenne sur les services numériques, pour toutes les plateformes en ligne visant le territoire français dépassant un certain nombre d'utilisateurs, qu'elles soient ou non établies en France, sous peine d'amende pouvant aller jusqu'à 20 millions d'euros ou 6 % de leur chiffre d'affaires annuel ;

- le Royaume-Uni - qui a désormais quitté l'Union - s'apprête également à légiférer : la proposition de loi sur la sécurité en ligne ( Online Safety Bill ) , présentée le 12 mai dernier et actuellement en discussion au Parlement britannique, vise à introduire un devoir de vigilance pour les plateformes en ligne, vis-à-vis à la fois des contenus illégaux et préjudiciables, sous peine d'amende pouvant aller jusqu'à 18 millions de livres ou 10 % de leur chiffre d'affaire annuel.

Vos rapporteures ont pu auditionner M. Damian Collins, député aux Communes, président de la Commission mixte sur la proposition de loi sur la sécurité en ligne ( Chair of the Joint Committee on the Draft Online Safety Bill ).

4. Face au risque de fragmentation juridique, la Commission européenne a proposé un nouveau projet de règlement sur les services numériques

Pour faire face à cette fragmentation juridique, et conformément à sa communication de février 2020 intitulée « Façonner l'avenir numérique de l'Europe » 23 ( * ) , la Commission européenne a présenté le 15 décembre 2020 une proposition de règlement relatif à un marché intérieur des services numériques (« législation sur les services numériques ») , également appelé Digital Services Act - DSA 24 ( * ) , conjointement à sa proposition de règlement relatif aux marchés numériques ( Digital Markets Acts - DMA 25 ( * ) ).

Alors que ce second texte vise à assurer une concurrence plus équitable entre les acteurs du numérique, quelle que soit leur taille, en rééquilibrant les relations entre les grandes plateformes et les entreprises utilisatrices, le DSA vise à modifier et compléter la directive sur le commerce électronique afin de renforcer et d' actualiser les règles horizontales définissant les responsabilités et obligations des prestataires de services numériques dans l'Union , en particulier en ce qui concerne le retrait des contenus illicites au regard du droit de l'Union ou des États membres.

Pour ce faire, le texte introduit un ensemble clair d'obligations applicables aux fournisseurs de services en ligne, applicables dans toute l'Union, et prévoit des modalités de contrôle .

Si la finalité affichée du texte est de mettre fin au « Far West » numérique, selon l'expression du commissaire européen au marché intérieur, et de mettre en place les conditions d'une lutte plus efficace contre les activités illégales et d'une meilleure protection des droits fondamentaux des citoyens européens, le texte vise aussi à lever les obstacles à la libre circulation des services eu sein de l'Union, au bénéfice de la compétitivité des entreprises opérant en Europe 26 ( * ) .

La proposition est d'ailleurs fondée sur l' article 114 du traité sur le fonctionnement de l'Union européenne (TFUE) , qui prévoit la mise en place de mesures destinées à assurer le bon fonctionnement du marché intérieur.

B. LA PROPOSITION DE LÉGISLATION SUR LES SERVICES NUMÉRIQUES PRÉCISE LES CONDITIONS DE MISE EN oeUVRE DE LA DIRECTIVE SUR LE COMMERCE ÉLECTRONIQUE ET INTRODUIT DE NOUVELLES OBLIGATIONS POUR LES OPÉRATEURS DE SERVICE EN LIGNE

1. Une approche fondée sur le risque, adaptée au nouvel écosystème numérique
a) Les principes clefs de la directive sur le commerce électronique de 2000 sont maintenus

Le texte ne remet pas en cause le principe de responsabilité limitée des fournisseurs de services intermédiaires, en particulier des hébergeurs (art. 5), repris de l'article 14 de la directive sur le commerce électronique 27 ( * ) : ces derniers ne peuvent être tenus responsables des informations présentes sur leurs services, sauf si, ayant eu connaissance de leur caractère illicite, ils n'ont pas agi promptement pour les retirer ou les rendre inaccessibles.

Corollairement, est réaffirmée l' interdiction de surveillance généralisée des contenus par les fournisseurs de services intermédiaires en ligne (art. 7) 28 ( * ) . Le seul fait, pour les fournisseurs, de se livrer à la recherche et à la modération de contenus illicites ne les rend pas par nature inéligibles à l'exemption de responsabilité (art. 6 : clause dite « du bon Samaritain » ), affermissant un principe établi dans la directive de 2000 29 ( * ) et confirmé par la jurisprudence 30 ( * ) .

Le texte ne comporte pas de définition des contenus « illicites » , renvoyant aux législations européennes et nationales pertinentes.

Il est sans préjudice des législations pertinentes de l'Union sur la protection des données à caractère personnel et la confidentialité des communications , qu'il vient compléter sans les modifier, ni des différentes législations européennes sectorielles visant à protéger des catégories spécifiques de contenus, notamment la directive sur le droit d'auteur 31 ( * ) et la directive sur les services de médias audiovisuels 32 ( * ) .

b) Une approche par le risque, adaptée aux nouveaux acteurs du monde numérique

La proposition adopte une double approche fondée, pour les contenus illicites, sur le renforcement des obligations concrètes de modération , et, pour les contenus illicites et les contenus licites susceptibles d'être préjudiciables, sur des obligations de vigilance ( due diligence ) , notamment en matière de transparence et de moyens.

Ces obligations sont graduées en fonction de la nature et de la taille des fournisseurs de services en ligne concernés.

Ainsi, le texte impose à l' ensemble des fournisseurs de services intermédiaires un certain nombre de prescriptions (chap. III, section 1), telles que la désignation d'un point de contact unique (art. 10) et de représentants légaux (art. 11) dans l'Union, ainsi que des obligations de transparence minimales concernant les conditions générales d'utilisation (art. 12) et de retrait de contenus (art. 13), et l'obligation de répondre aux injonctions d'agir contre des contenus illicites et de fournir des informations émanant d'autorités nationales administratives ou judiciaires (art. 8 et 9).

En ce qui concerne les hébergeurs, la proposition distingue en leur sein une nouvelle catégorie d'acteurs, les « plateformes en ligne » 33 ( * ) , définies comme des hébergeurs qui, en plus de stocker des informations, les diffusent au public (art. 2 (h)) 34 ( * ) .

Le texte prévoit donc, en plus des obligations communes à tous les fournisseurs de services intermédiaires, des obligations applicables aux seuls hébergeurs (chap. III, section 2), auxquelles s'ajoutent des obligations supplémentaires pour les seules plateformes (chap. III, section 3)

Enfin, des obligations renforcées , notamment des obligations de vigilance, sont prévues pour les très grandes plateformes , définies comme dépassant un seuil de 45 millions d'utilisateurs, susceptibles de représenter des risques systémiques (chap. III, section 4).

2. L'introduction de nouvelles obligations positives pour les fournisseurs de services en ligne
a) Des obligations en matière de retrait des contenus illicites
(1) Un mécanisme de notification et action permettant d'engager plus facilement la responsabilité des intermédiaires

Afin de permettre aux utilisateurs de signaler des contenus illicites, l'ensemble des hébergeurs sera tenu de mettre en place un « mécanisme de notification et d'action » facilitant la soumission par voie électronique d'un socle minimal d'informations permettant l'identification du contenu et l'appréciation de son caractère illicite (art. 14). Ces notifications devraient être traitées par les fournisseurs « en temps opportun » (art. 14 (6)).

Ce mécanisme permettra d' engager plus facilement la responsabilité des hébergeurs , s'ils ne retirent pas rapidement un contenu illicite dûment notifié. En effet, l'une des conditions permettant d'engager leur responsabilité étant leur connaissance effective de la présence d'un tel contenu et de son caractère illicite, l'obligation faite aux hébergeurs de retirer un contenu illicite dépend concrètement de la possibilité de les informer de ces deux éléments 35 ( * ) . Or l'imprécision de la directive sur le commerce électronique sur la notion de « connaissance effective » avait abouti à ce qu'en 2019, neuf États membres seulement avaient mis en place un tel mécanisme de notification et action 36 ( * ) , seuls quatre d'entre eux ayant en outre précisé dans leur législation les informations minimales requises.

La procédure de retrait des contenus illicites en France

Actuellement, en France, la procédure de demande de retrait de contenus illicites en ligne est régie par l'article 6 de la loi pour la confiance dans l'économie numérique (LCEN) 37 ( * ) : le retrait du contenu litigieux doit d'abord être demandé à son auteur, s'il est joignable ; en cas de refus, ou si l'auteur est injoignable, le retrait peut être demandé à l'hébergeur.

En cas de refus explicite de l'hébergeur de retirer un contenu illicite à la suite d'une notification respectant le formalisme décrit au 5 du I dudit article, ou en l'absence de réponse, il est possible de porter plainte contre l'hébergeur, sur la même base légale que contre l'auteur du contenu incriminé. La responsabilité de l'hébergeur ne peut cependant, dans ce cas, être engagée que si le contenu qui n'a pas été retiré était « manifestement illicite ».

L'auteur du contenu peut, lui, faire l'objet d'une plainte (éventuellement contre X) parallèlement à la procédure de demande de retrait.

En cas d'urgence et de préjudice évident, il est possible de demander à un juge de statuer selon la procédure accélérée au fond (8 du I de l'article 6 de la LCEN), pour faire retirer un contenu par l'hébergeur, sans que ce dernier soit pour cela sanctionné pénalement, cette procédure remplaçant le référé depuis l'entrée en vigueur de la loi confortant le respect des principes de la République, en août 2021.

(2) Une meilleure information des utilisateurs du service

Les hébergeurs devront informer les utilisateurs dont les contenus seront retirés des motifs et circonstances du retrait - que ce dernier fasse suite à une notification ou résulté d'une détection par d'autres moyens, y compris des moyens automatisés (art. 15) -, et des voies de recours.

Les plateformes en ligne devront en outre mettre en place un système interne de traitement des réclamations (art. 17) ; leurs utilisateurs pourront également saisir, en cas de litige, des organes de règlement extrajudiciaire des litiges impartiaux et indépendants 38 ( * ) (art. 18). Afin de faciliter leur utilisation par les bénéficiaires du service, ils doivent être faciles d'accès et, pour les seconds, non onéreux.

Est également institué un statut de « signaleurs de confiance » ( trusted flaggers ) (art. 19), dont les plateformes en ligne devront traiter les notifications en priorité , notamment d'un point de vue des délais. Ce statut est déjà reconnu, souvent de gré à gré, par un certain nombre de plateformes, dans le cadre des codes de conduite. Le règlement prévoit que ce statut sera accordé par les autorités du pays d'établissement de l'entité qui en fera la demande, moyennant des critères d'expertise dans la détection, l'identification et la notification des contenus illicites, d'indépendance et de représentation des intérêts collectifs.

Enfin, les plateformes seront autorisées à suspendre les comptes fournissant fréquemment des contenus manifestement illicites (art. 20 (1)), ainsi que le traitement des notifications des utilisateurs, en cas d'utilisation abusive (art. 20 (2 et 3)).

b) Des obligations de transparence renforcées
(1) En matière de modération des contenus, pour l'ensemble des intermédiaires

Le texte introduit des obligations de transparence accrues, graduées en fonction de leur nature et de la taille des opérateurs. Sont ainsi prévues :

- pour l'ensemble des intermédiaires, une base commune d'obligations en matière de transparence :

o mention claire, dans les conditions générales d'utilisation (CGU) , des politiques, procédures et outils de modération , en précisant les cas où la prise de décision est fondée sur des algorithmes et les cas de réexamen par un humain (art. 12) ;

o publication annuelle d'un rapport sur les modalités et les résultats de leurs activités de modération (y compris la modération volontaire) 39 ( * ) (art. 13) ;

- pour les plateformes 40 ( * ) , en outre : l'obligation d'ajouter dans le rapport sur la modération des informations sur les litiges transmis aux organes de règlement extrajudiciaire des litiges, le nombre de suspensions de comptes, ainsi que le recours à des moyens automatisés de traitement (art. 23) ;

- pour les très grandes plateformes : une publication du rapport semestrielle, et non annuelle (art. 33 (1)).

(2) En matière de publicité

Le règlement prévoit que, sur les plateformes en ligne, les utilisateurs devront être informés clairement et en temps réel du caractère publicitaire des annonces , de l'identité de l'annonceur, ainsi que des paramètres de ciblage utilisés (art. 24).

En outre, les très grandes plateformes devront mettre en place un registre public des publicités diffusées sur leurs services, accessible en ligne, contenant notamment l'identité de l'annonceur, les principaux paramètres de ciblage et le nombre d'utilisateurs touchés, ventilés le cas échéant selon ces paramètres (art. 30).

c) Des obligations renforcées pour les très grandes plateformes

Considérant que les très grandes plateformes en ligne opérant à l'échelle européenne sont susceptibles d'engendrer des risques sociétaux aux effets négatifs disproportionnés, du fait de leur caractère systémique, la proposition les soumet à des obligations supplémentaires.

(1) Évaluation et atténuation des risques systémiques

Les très grandes plateformes seront soumises à des obligations de transparence renforcées en ce qui concerne les risques systémiques susceptibles d'être causés par le fonctionnement et l'utilisation de leurs services : ces risques devront être évalués annuellement , dans les domaines de la diffusion de contenus illicites , des atteintes aux droits fondamentaux (notamment liberté d'expression, vie privée, discrimination, droits de l'enfant), et de la manipulation intentionnelle de leurs services susceptibles d'impacter négativement la santé publique, les mineurs, la sécurité publique ou le fonctionnement démocratique (art. 26).

Elles devront mettre en oeuvre des mesures d'atténuation de ces risques systémiques (art. 27).

L'ensemble de ces éléments devrait être rendu public, de même que les rapports d'audit concernant le respect par les très grandes plateformes de leurs obligations au titre du règlement (art. 33).

(2) Procédures d'aide au respect du règlement

Chaque très grande plateforme devra nommer un responsable de la conformité , chargé en première approche de contrôler qu'elle respecte ses obligations au titre du règlement (art. 32).

Les très grandes plateformes seront en outre soumises chaque année, à leurs frais, à un audit indépendant , afin de vérifier leur respect des obligations prévues par le règlement, mais aussi de leurs engagements dans le cadre des codes de conduite volontaires (art. 28). Elles devront dûment tenir compte des recommandations consécutives à cet audit, sauf à se justifier.

(3) Mesures de transparence complémentaires pour les systèmes de recommandation et les données

Les très grandes plateformes devraient indiquer clairement à leurs utilisateurs les principaux paramètres de leurs systèmes algorithmiques de recommandation et leur permettre de les modifier (art. 29).

Par ailleurs, elles seraient tenues de rendre leurs données accessibles aux autorités de régulation et de contrôle nationales et européennes compétentes, aux fins de contrôle du respect du règlement, ainsi qu' aux chercheurs travaillant sur l'identification et la compréhension des risques systémiques présentés par les très grandes plateformes (art. 31).

3. Un système de contrôle et de sanctions à deux étages
a) Au niveau national, la création d'un coordinateur pour les services numériques

Afin d'assurer la bonne mise en oeuvre du règlement, ce dernier crée dans chaque Etat membre un « coordinateur pour les services numériques » (CSN - en anglais digital services coordinator ( DSC ) ), chargé de la coordination au niveau national de l'application et du contrôle du règlement, et de la coopération avec ses homologues, au sein d'un Comité européen des services numériques, et avec la Commission européenne (art. 38 et 39).

Chaque CSN est doté, à l'endroit de chacun des fournisseurs de services intermédiaires établi dans son État membre, de pouvoirs d'enquêtes pour infractions supposées au règlement - y compris pouvoirs d'interrogatoire et d'inspection sur site (art. 41 § 1), et d'accès aux données nécessaires (art. 31 (1)), ainsi que de pouvoirs d'exécution (art. 41 § 2), lui permettant de prendre des mesures provisoires en cas de risque de préjudice grave, d'accepter des engagements, de prendre des mesures correctives pour faire cesser une infraction, et d'imposer des amendes et des astreintes.

Le montant de ces dernières est déterminé par chaque État membre, à concurrence, respectivement, de 6 % du chiffre d'affaire annuel mondial et 5 % du chiffre d'affaires quotidien (art. 42).

En dernier recours, et en cas d'infraction pénale grave impliquant une menace pour la vie ou la sécurité des personnes, le CSN est investi du droit de demander à l'autorité judiciaire compétente d'ordonner la limitation temporaire de l'accès des utilisateurs concernés par l'infraction, ou la limitation temporaire (et renouvelable) du service lui-même (art. 41 (3)), après procédure contradictoire.

b) La Commission européenne jouerait un rôle de recours, en ce qui concerne la juridiction sur les très grandes plateformes

Compte tenu des risques spécifiques qu'elles posent, des dispositions spécifiques régiraient le contrôle des très grandes plateformes (chap. IV, section 3).

Un système de « surveillance renforcée » serait ainsi mis en oeuvre par le CSN compétent s'il estime qu'une très grande plateforme a enfreint l'une des obligations spécifiques aux très grandes plateformes établies dans la section 4 du chapitre III du règlement, avec le soutien de la Commission et du Comité. Au terme de cette procédure, si l'infraction n'a pas cessé, la Commission prendrait prendre le relais du CSN (art. 50 (4)).

Elle pourrait également intervenir de sa propre initiative , sur recommandation du Comité (art. 51), ou sur demande du CSN du pays d'établissement de la très grande plateforme (art. 46 (2)).

La Commission serait dotée, envers les très grandes plateformes, de prérogatives étendues en matière d'enquêtes - y compris pouvoirs d'interrogatoire et d'inspection sur site (art. 52 à 54), ainsi que d'accès aux données, algorithmes et systèmes informatiques et aux explications concernant ces dernières (art. 54 (3) et 31 (1)).

Elle est également habilitée à prendre des mesures provisoires , en cas de risque de préjudice grave (art. 55), accepter des engagements (art. 56) et prendre des mesures de contrôle pour s'assurer de la bonne mise en oeuvre du règlement par une très grande plateforme (art. 57).

S'il apparaît que les règles posées par le règlement ou les engagements pris par une très grande plateforme n'ont pas été respectées (art. 58), la Commission pourra infliger des amendes , à concurrence de 6 % du chiffre d'affaire annuel mondial (art. 59), et des astreintes, à concurrence de 5 % du chiffre d'affaire quotidien (art. 60).

Le montant des amendes qui pourront être infligées par le CSN compétent ou par la Commission aux fournisseurs de services intermédiaires en cas d'infraction est ainsi bien supérieur à ceux prévus dans la loi française avant la « pré-transposition » du DSA en août 2021 41 ( * ) , et paraissent tout à fait dissuasifs.

II. UNE LÉGISLATION NOVATRICE MAIS À RENFORCER

La proposition de règlement constitue une première réponse relativement ambitieuse à la prolifération des contenus illicites et préjudiciables sur internet. Elle mériterait cependant d'être précisée et amendée sur plusieurs points.

Le périmètre des acteurs concernés devrait être précisé afin de mieux adapter les obligations au niveau de risque (A). Les dispositions concernant la modération devraient être amendées afin de les rendre plus efficaces et de mieux garantir la liberté d'expression (B). Les spécificités posées par les systèmes algorithmiques devraient être mieux prises en compte (C). Enfin, les modalités de contrôle du règlement devraient être améliorées (D).

A. MIEUX ADAPTER LE PÉRIMÈTRE DU RÈGLEMENT À LA RÉALITE DES RISQUES EN LIGNE

1. Élargir le périmètre des opérateurs de service en ligne concernés
a) Les moteurs de recherche

Les moteurs de recherche ne sont pas explicitement inclus dans la proposition de la Commission. Il semble cependant justifié de les soumettre a minima aux obligations communes prévues par le règlement pour l'ensemble des fournisseurs de services intermédiaires.

Ø Inclure les moteurs de recherche dans la liste des fournisseurs de services intermédiaires concernés par le règlement.

En effet, les moteurs de recherche les plus répandus, loin de simplement transmettre des informations, contribuent, par le biais de leurs algorithmes d'ordonnancement des résultats de recherche, à classer et sélectionner ces contenus . Surtout, la position quasi monopolistique du moteur de recherches de Google, qui capte plus de 90 % des recherches sur internet, en fait un véritable « contrôleur » de l'accès à l'information . Il serait donc souhaitable, ainsi du reste que l'a proposé le Gouvernement français lors des négociations au Conseil, que les moteurs de recherche dépassant un certain nombre d'utilisateurs au sein de l'Union puissent être soumis aux mêmes obligations que celles imposées aux très grandes plateformes, notamment en termes d'évaluation et d'atténuation des risques systémiques.

Ø Soumettre les très grands moteurs de recherche à des obligations supplémentaires calquées sur celles des très grandes plateformes.

b) Les services de vente en ligne

La vente de produits contrefaits, non conformes et dangereux constitue un enjeu majeur, dans la recherche d'un environnement en ligne plus sûr .

Or la dernière enquête sur la sécurité des produits de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), publiée le 15 octobre 2021, a montré que près des deux tiers des produits vendus en ligne sur les dix places de marché en ligne les plus utilisées en France étaient n'étaient pas conformes à la réglementation , près de 30 % étant en outre dangereux. Il convient qu'au-delà des obligations qui incombent aux vendeurs eux-mêmes, les places de marché puissent également être contrôlées.

Plus récemment, la DGCCRF a, sur la base du droit des consommateurs 42 ( * ) , demandé, en dernier recours, le déréférencement du site de vente en ligne Wish , en raison de la non-conformité d'un nombre important de produits.

Dans la proposition de règlement présentée par la Commission européenne, les dispositions spécifiques à la vente en ligne sont réduites à la portion congrue :

- par exception au principe de responsabilité limitée des hébergeurs , il serait possible d'engager celle d'une plateforme permettant la vente en ligne, lorsque le consommateur pourrait être amené à croire que la transaction s'effectue avec la plateforme elle-même (art. 5 (3)) ;

- les plateformes permettant la vente en ligne seraient également tenues de vérifier , dans la mesure du raisonnable, l'identité, les coordonnées et la qualité des vendeurs utilisant leurs services et d'organiser leur interface de manière à permettre à ces derniers de se conformer à la législation européenne en matière de protection des consommateurs et de sécurité des produits (art. 22).

La modestie de ces mesures se justifie par l'existence d'une abondante réglementation sectorielle, existante et à venir 43 ( * ) , au niveau européen comme au niveau national : les relations entre les consommateurs et les entreprises restent, en l'état actuel des choses, liées à la réglementation européenne générale concernant la protection des consommateurs 44 ( * ) , ainsi que, au plan national, au Code de la consommation.

Néanmoins, prenant acte du fait qu'au-delà des places de marché en ligne, de nombreux fournisseurs de services sur internet, permettent, quand bien même il ne s'agit pas de leur activité principale, de conclure des contrats de vente en ligne (y compris les réseaux sociaux, par exemple Facebook Marketplace 45 ( * ) ), vos rapporteures partagent l'opinion de la plupart des associations de consommateurs, selon laquelle le DSA peut être un bon instrument pour introduire un certain nombre de dispositions horizontales en matière de vente en ligne , en complément des autres textes européens spécifiques. Les dispositions concernant spécialement les services de vente en ligne devraient s'appliquer à l'ensemble des plateformes en ligne permettant la mise en relation d'un client et d'un vendeur professionnel et la conclusion de contrats de vente de biens ou de services avec un vendeur professionnel, au-delà des seules places de marché en ligne, dont c'est l'activité principale.

En outre, lorsqu'elle ne se sont pas conformées aux obligations concernant la traçabilité des professionnels utilisant leurs services prévues par le règlement (art. 22), et qu'en conséquence, aucun tiers basé dans l'Union ne peut être tenu responsable pour les dommages causés à un consommateur, la responsabilité des plateformes ayant permis la conclusion du contrat de vente devrait pouvoir être engagée , notamment lorsqu'il s'agit de produits dangereux.

Ø Permettre que les plateformes en ligne permettant la conclusion de contrats de vente puissent être tenues pour responsables des dommages causés par la vente de produits illicites par le biais de leurs services, lorsqu'elles ont manqué à leurs obligations de diligence.

Par ailleurs, afin d'améliorer la lutte contre la vente de produits contrefaits en ligne, il serait utile de retirer des critères de définition des « signaleurs de confiance » la « représent[ation] des intérêts collectifs » (art. 19). Cela permettrait à des entreprises particulièrement affectées par la contrefaçon, autant qu'à des groupements professionnels défendant leurs intérêts, de bénéficier, après accord des autorités de régulation nationales compétentes, d'un traitement préférentiel de leurs signalements, propre à accélérer le signalement et le retrait de produits contrefaits.

Ø Élargir la définition des « signaleurs de confiance » afin de permettre à des entreprises d'y prétendre.

2. Détermination des seuils pour les petits opérateurs et les très grandes plateformes
a) Les petites entreprises et microentreprises bénéficient de certaines exemptions
(1) Revoir la définition des petites entreprises pouvant être exemptées de certaines obligations

Dans un souci de ne pas faire peser sur les petites entreprises, et en particulier sur les startups, une charge administrative trop lourde , susceptible d'entraver leur développement, la proposition de la Commission dispense les petites entreprises et microentreprises 46 ( * ) de l'ensemble des obligations applicables spécifiquement aux plateformes (art. 16), ainsi que de la publication du rapport de transparence sur la modération prévu à l'article 13 (art. 13 (2).

Dans sa résolution de 2018 sur la responsabilité partielle des hébergeurs 47 ( * ) , le Sénat avait déploré que le même souci d'alléger la charge pesant sur les petites entreprises numériques, alors en plein développement, ait abouti 20 ans plus tard à l'écrasement de l'écosystème européen par les GAFAM. La situation est cependant ici différente, dans la mesure où le franchissement de certains seuils prévus par le règlement induira immédiatement une soumission aux obligations de droit commun .

En outre, les exemptions prévues pour les petites plateformes ne concernent pas la mise en place du mécanisme de notification et action ni, a fortiori , les conditions d'engagement de leur responsabilité .

Ainsi, même si vos rapporteures remarquent que certaines dispositions, comme les obligations de transparence concernant la publicité ciblée et les systèmes de recommandation, intégrées dès la conception ( by design ), n'engendreraient quasiment aucun coût supplémentaire pour les petits opérateurs , dans la mesure où ces coûts seraient absorbés dans le développement des systèmes 48 ( * ) , elles conviennent que d'autres dispositions risqueraient de représenter une charge excessive pour les petites entreprises.

En revanche, elles s'interrogent sur les critères retenus pour qualifier les entreprises exemptées d'obligations. En effet, dans l'écosystème numérique, l'audience d'une plateforme n'est pas forcément proportionnelle à son chiffre d'affaire ou à son nombre d'employés . La Commission ayant choisi une approche fondée sur le risque, il semblerait plus pertinent, à défaut de pouvoir matériellement procéder à l'évaluation du risque pour chaque petite entreprise, de retenir comme critère d'exemption un critère d'audience, plus simple à mesure.

Ø Substituer aux critères de chiffre d'affaire et de nombre d'employés un critère d'audience, pour qualifier les petites entreprises dont les obligations seraient allégées.

(2) Restreindre ces exemptions pour la vente en ligne

Compte tenu des risques de préjudices individuels directs et immédiats susceptibles d'être causés par la vente en ligne de produits ou services illicites , en particulier de produits dangereux , il semble en revanche inapproprié que les obligations spécifiques applicables aux activités de vente en ligne soient différenciées en fonction de la taille des opérateurs. De telles exemptions ne sont d'ailleurs pas prévues dans les réglementations sectorielles concernant la protection des consommateurs.

En outre, une telle approche pourrait in fine aboutir à miner la confiance des consommateurs envers les petites places de marché en ligne , réputées plus permissives, et entraver leur développement, leur portant ainsi préjudice sur le long terme.

Ø Supprimer les exemptions prévues pour les petites entreprises, en ce qui concerne les obligations relatives à la vente en ligne.

b) Définition des très grandes plateformes

Les très grandes plateformes sont définies à l'article 25 du règlement comme ayant un nombre mensuel moyen d'utilisateurs actifs dans l'Union supérieur ou égal à 10 % de la population, soit actuellement 45 millions (art. 25 (1)).

(1) Préciser les modalités de calcul du seuil en annexe du règlement

Cette assiette de 45 millions d'utilisateurs devrait être précisée , afin d' éviter que des sociétés détenant plusieurs types de services , telles que par exemple Facebook et Instagram, Google et YouTube, ne requalifient opportunément certaines parties de leurs activités afin d'échapper aux obligations spécifiques associées au franchissement de ce seuil.

De manière plus générale, en vue d'une meilleure sécurité juridique , vos rapporteures recommandent - comme elles l'avaient, du reste, demandé dans leur proposition de résolution européenne sur la proposition de règlement sur les marchés numériques (DMA) 49 ( * ) - que la méthodologie pour calculer le nombre mensuel moyen d'utilisateurs actifs soit annexée au règlement, plutôt que déterminée ultérieurement par actes délégués (art. 25 (3)).

Cela aurait en outre l'avantage de ne pas retarder l'entrée en application des règles spécifiques applicables aux très grandes plateformes après entrée en vigueur du règlement.

La Commission conserverait par ailleurs la possibilité d'adopter ultérieurement des actes délégués pour ajuster le seuil en fonction des variations de la population européenne.

Ø Annexer au règlement la méthodologie de calcul des seuils qualifiant les « très grandes plateformes »

(2) Confier la mesure du nombre d'utilisateurs à des tiers

Le règlement prévoit actuellement que la qualification de « très grande plateforme » soit déterminée par l'autorité de régulation nationale du pays d'établissement du fournisseur (art. 25 (4)), sur la base de déclarations faites par les plateformes elles-mêmes (art. 23 (2) et (3)).

Même si les autorités nationales seraient habilitées à demander aux plateformes relevant de leur compétence des informations complémentaires et des justifications quant aux chiffres transmis, il serait préférable que le calcul du nombre d'utilisateurs des plateformes soit effectué par des tiers certifiés par les autorités nationales compétentes.

Ø Confier la mesure du nombre d'utilisateurs à des tiers certifiés.

(3) Prendre en compte des critères complémentaires pour désigner les plateformes présentant des risques systémiques

Le critère d'audience retenu par la Commission européenne pour qualifier les « très grandes plateformes », susceptibles de présenter des risques systémiques, a l'avantage d'une relative simplicité .

Il apparaît cependant insuffisant pour déterminer l'ampleur des risques systémiques représentés par telle ou telle plateforme, car il ne prend pas en compte :

- d'éventuelles disparités régionales au sein de l'Union : dans certains pays ou certaines régions d'Europe, des plateformes de taille relativement modeste en valeur absolue pourraient avoir un taux de pénétration important, présentant ainsi des risques systémiques susceptibles d'affecter l'ensemble de l'Union ;

- de la nature des publics visés : des services s'adressant spécifiquement à de jeunes publics , plus vulnérables - comme le réseau TikTok, dont près de 40 % des utilisateurs seraient âgés de 13 à 17 ans - sont susceptibles de poser des risques systémiques accrus.

Une analyse plus fine devrait pouvoir être proposée, tenant compte, notamment, du type de services proposé par la plateforme, et des publics visés. Ces critères complémentaires devraient pouvoir être pris en compte par les régulateurs nationaux et européen pour déterminer au cas par cas si une plateforme n'atteignant pas le seuil de 45 millions d'utilisateurs devrait néanmoins être soumise aux mêmes obligations renforcées que les très grandes plateformes .

Ø Permettre aux autorités de régulation de soumettre certaines plateformes n'atteignant pas le seuil de 45 millions d'utilisateurs aux mêmes obligations renforcées que les très grandes plateformes, sur la base de critères complémentaires, notamment le taux de pénétration chez les mineurs.

B. VEILLER À CE QUE L'OBJECTIF D'UNE MODÉRATION EFFICACE NE PORTE PAS ATTEINTE À LA LIBERTÉ D'EXPRESSION

1. Renforcer les mesures de signalement et de transparence prévues par le règlement
a) Assurer une meilleure accessibilité du mécanisme de notification et action

La mise en place d'un mécanisme harmonisé à l'échelle de l'Union, d'accès et d'utilisation simple, constitue sans aucun doute un progrès important . L'obligation, pour les fournisseurs, de permettre une notification par la seule voie électronique (art. 14 (1)) représente en particulier une simplification particulièrement bienvenue .

Afin d'aller jusqu'au bout de cette logique, il serait utile de préciser que l'accès à l'interface de notification des contenus illicites devrait obligatoirement se situer à proximité de chacun des contenus, et faire l'objet d'un design harmonisé sur les différents services d'hébergement, pour faciliter son identification par les internautes et son utilisation 50 ( * ) .

Ø Créer un « bouton » de notification harmonisé.

Afin d'élargir le spectre des entités qui pourraient être reconnues comme « signaleurs de confiance » , et conformément à ce qui a été recommandé précédemment concernant la lutte contre la contrefaçon, il est recommandé de supprimer la condition de représentation des intérêts collectifs , afin que les autorités compétentes puissent accorder ce statut, au moins pour certaines catégories de contenus, à des entités représentant des intérêts particuliers, telles que les sociétés de gestion de droits d'auteur, ou des journalistes, dans le cadre d'activités de vérification de faits.

En ce qui concerne les délais accordés aux hébergeurs pour décider de retirer ou non un contenu après notification, la proposition de la Commission prévoit actuellement un traitement des notifications « en temps opportun » , sans davantage de précision (art. 14 (6)).

Actuellement, selon la 6 e évaluation du code de conduite de l'Union pour la lutte contre les discours haineux illégaux en ligne 51 ( * ) , les grandes plateformes 52 ( * ) traitent 91 % des notifications en moins de 48 heures, et 81 % en moins de 24 heures, moins de 1% des notifications demandant un délai de traitement supérieur à une semaine.

Si les situations sont très contrastées en fonction des hébergeurs, notamment de leur taille, et de la qualité des notifications, vos rapporteures estiment que l'introduction d'un délai maximal pour le traitement et, le cas échéant, le retrait des contenus notifiés, en instituant une obligation de résultat, comporterait le double inconvénient :

- d' inciter les hébergeurs à la précipitation pour évaluer certains contenus dont l'illicéité n'est pas évidente et nécessite un examen approfondi, au risque de favoriser la sur-censure, au détriment de la libre expression et de les empêcher de prioriser le retrait des contenus illicites les plus préjudiciables , comme l'avait du reste souligné notre collège Christophe-André Frassa dans son rapport sur la proposition de loi « Avia » 53 ( * ) ;

- de constituer, à terme, une norme moins-disante , quand certaines notifications concernant des contenus manifestement illicites pourraient être traités dans des délais beaucoup plus courts 54 ( * ) ; un délai fixe, quel qu'il soit, risquerait d'être rapidement en décalage avec les progrès technologiques , notamment de traitement des notifications par des algorithmes d'intelligence artificielle.

Il est donc suggéré de conserver la formulation actuelle, tout en renforçant les obligations de moyens mis en oeuvre par les hébergeurs pour traiter les notifications.

b) Améliorer la transparence

Les révélations de Mme Frances Haugen, ancienne ingénieure chez Facebook et lanceuse d'alerte, devant la commission des affaires européennes, le 10 novembre dernier, ont mis en évidence à la fois les insuffisances de la modération algorithmique 55 ( * ) et les moindres ressources humaines et technologiques mises à disposition par le réseau social pour lutter contre les contenus illégaux et préjudiciables publiés dans les autres langues que l'anglais 56 ( * ) .

En conséquence, afin de permettre au régulateur d'évaluer plus finement les activités de modération conduites par les hébergeurs, il apparaît indispensable de préciser que ces rapports de transparence devront inclure des informations chiffrées sur les moyens, notamment humains , mis à disposition pour se conformer aux obligations découlant du règlement, en particulier concernant la modération, et une ventilation de ces données par pays et par langue .

Compte tenu de l'incertaine fiabilité des rapports de transparence publiés par les opérateurs eux-mêmes, ces données devraient par ailleurs faire l'objet de vérifications de la part de tiers , par exemple, au moins pour les très grandes plateformes, dans le cadre des audits obligatoires prévus à l'article 31.

Dans un second temps, sur la base de ces rapports, des obligations de moyens renforcées pourraient être envisagées.

Ø Inclure dans les rapports de transparence des données chiffrées sur les moyens humains et technologiques mis à disposition pour la modération, ventilés par langue et par pays.

2. Mettre en place davantage de garde-fous contre les atteintes à la liberté d'expression
a) Dans le cadre de la procédure de retrait des contenus

La procédure de retrait des contenus prévue par le règlement fait en effet reposer sur les intermédiaires, qui sont des acteurs privés, l'essentiel de la modération des contenus, chargés de l'appréciation de leur caractère illicite, sur la base des informations fournies par le notifiant. S'il est certain que, dans l'absolu, confier en première approche l'appréciation de la licéité d'un contenu à des acteurs privés, n'est pas satisfaisant, l'énorme quantité de contenus à traiter, rend matériellement impossible un traitement de chaque cas particulier par un juge : les représentants de Google France ont par exemple indiqué à vos rapporteures que chaque trimestre, au niveau mondial, 40 à 50 millions de vidéos étaient supprimées sur YouTube.

Des garde-fous sont certes prévus dans le texte : outre le rappel des droits généraux comme le droit à un recours effectif, le texte prévoit la nécessité que les notifications demandant un retrait soient dûment justifiées , avec mention de la disposition législative dont l'infraction est présumée (art. 14 (2)) ainsi que l' information de l'auteur du contenu retiré quant aux motifs du retrait et aux voies de recours (y compris juridictionnels) possibles (art. 15 (1)). Dans une logique de gestion systémique du risque de notifications abusives, susceptible de porter atteinte à la liberté d'expression, les plateformes sont également autorisées à suspendre les comptes qui sont utilisés pour soumettre fréquemment des notifications abusives (art. 20 (2)).

L'information systématique des auteurs de contenus retirés, au plus tard au moment du retrait, est, en particulier, un pas important vers davantage de transparence, d'autant que seront concernés à la fois les retraits consécutifs à une notification, et ceux résultant des activités de modération volontaire, y compris algorithmique (art. 15 (1)).

Cependant, un déséquilibre persiste du fait que la responsabilité des hébergeurs ne peut, en l'état actuel du texte, être engagée qu'en cas de non-retrait de contenus illicites signalés, tandis qu'elle ne peut l'être en cas de suppression abusive de contenus licites .

Le risque de retraits abusifs est particulièrement important pour la modération algorithmique , comme l'a par exemple montré l'expérience de YouTube pendant la pandémie de covid-19 au printemps 2020 : alors qu'en raison des mesures de confinement, l'utilisation de logiciels de reconnaissance de contenus avait été renforcée pour pallier l'absence de modérateurs humains, le nombre de vidéos supprimées avait été multiplié par deux, et plus de 160 000 d'entre elles avaient dû être remises en ligne après réexamen, avec un taux de remise en ligne après contestation deux fois supérieur à la normale 57 ( * ) .

Or la détection et la modération de contenus illicites et préjudiciables reposent de plus en plus sur l'intelligence artificielle : alors qu'en 2014, Facebook assurait ne pas rechercher activement les contenus problématiques et ne procéder à des actions de modération que sur signalement 58 ( * ) , la plateforme a lancé en 2017 l'utilisation d'algorithmes d'intelligence artificielle pour détecter les contenus haineux, et affirme que les performances de ces technologies se sont considérablement améliorées depuis cette date, passant de 23 % de contenus haineux détectés à 98 %.

Face à ces insuffisances, il est indispensable de tenir compte des spécificités de l'espace informationnel tel qu'il est construit par les plateformes en ligne. De fait, l'espace hors ligne et l'espace en ligne ne fonctionnent pas de la même manière : sur les plateformes, en particulier les plateformes de réseaux sociaux, les risques induits par les contenus illicites et préjudiciables sont modulés - presque toujours à la hausse - par les mécanismes d'amplification algorithmique, qui les rendent plus visibles.

Ainsi, afin de mieux combattre la viralité des contenus illicites, tout en protégeant au maximum la liberté d'expression , il est proposé de tirer parti du fonctionnement des algorithmes d'ordonnancement des contenus : lorsque le caractère illicite d'un contenu signalé n'est pas manifeste, les plateformes devraient avoir la possibilité de réduire sa visibilité, sans toutefois le supprimer, le temps de vérifier s'il est illicite. Dans la même optique, les mécanismes de repartage de ces contenus pourraient être temporairement désactivés.

Ø Inviter les plateformes, dans un premier temps, à réduire temporairement la visibilité des contenus signalés dont le caractère illicite n'est pas manifeste, plutôt que de les supprimer.

b) Encadrer les fermetures de comptes

Le projet de DSA autorise les plateformes à suspendre, « pendant une période de temps raisonnable et après avoir émis un avertissement préalable », les comptes fournissant fréquemment des contenus manifestement illégaux (art. 20).

Si l'intention de combattre la propagation de contenus illégaux est sans aucun doute louable, le Conseil constitutionnel, dans son avis sur la PPL « Avia », avait souligné qu' « [e]n l'état actuel des moyens de communication et eu égard au développement généralisé des services de communication au public en ligne ainsi qu'à l'importance prise par ces services pour la participation à la vie démocratique et l'expression des idées et des opinions, [l]e droit [à la liberté d'expression] implique la liberté d'accéder à ces services et de s'y exprimer » 59 ( * ) .

La suppression par Facebook, Twitter et divers autres réseaux sociaux du compte du président des États-Unis, Donald Trump, en janvier 2021, a par exemple provoqué de vives controverses quant à la modération des comptes de responsables politiques. Jusqu'à cette date en effet, les contenus publiés sur les comptes des chefs d'État et de gouvernement bénéficiaient d'un traitement particulier de la part de Facebook, puisqu'au nom de l'intérêt général, ils pouvaient rester en ligne même lorsqu'ils étaient contraires aux CGU du service, même en cas de messages violents ou haineux.

ÀA la fin février 2021, Facebook et Instagram ont également fermé tous les comptes liés à l'armée birmane , après sa prise de pouvoir à la faveur d'un coup d'État, prenant prétexte de la diffusion sur ces comptes d'accusations de fraude électorale et d'appels à des violences contre les minorités rohingya et les manifestants pro-démocratie. Ces fermetures, intervenues après plusieurs années de laisser-faire, ont également été dénoncées comme des immixtions directes du réseau social dans l'équilibre démocratique du pays, d'autant plus inacceptables que les révélations de Mme Sophie Zhang, ancienne employée chez Facebook et lanceuse d'alerte, ont clairement montré le peu de diligence de Facebook à fermer de faux comptes soutenant des chefs d'État controversés, par exemple au Honduras.

Afin de se prémunir contre cette immixtion directe des plateformes dans le débat démocratique, vos rapporteures estiment donc souhaitable qu' a minima , la fermeture de comptes d'intérêt général - tels que ceux d'organisations internationales ou européennes - et de responsables politiques , ne puisse intervenir que sur décision judiciaire .

Ø Interdire la fermeture de comptes d'intérêt général et de responsables politiques, sauf sur décision judiciaire.

C. S'ATTAQUER À LA RACINE DU MAL : LE MODÈLE ÉCONOMIQUE DÉLÉTÈRE DES PLATEFORMES EN LIGNE

Ainsi que les rapporteures l'ont déjà souligné dans leur rapport sur la proposition de règlement sur les marchés numériques, le modèle économique des très grandes plateformes repose sur l'exploitation par des algorithmes aussi puissants qu'opaques de très grandes quantités de données - en particulier de données à caractère personnel -, utilisées pour le ciblage des contenus et des publicités, en vue de maximiser le temps passé par l'utilisateur sur leurs services et donc son temps d'exposition à la publicité et, partant, les revenus des plateformes.

L'universitaire américaine Shoshana Zuboff a mis en évidence comment un dévoiement de ce phénomène d'exploitation de l'économie de l'attention aboutit à ce qu'elle qualifie de « capitalisme de surveillance » 60 ( * ) : des scandales comme Cambridge Analytica, la prise du Capitole ou, plus récemment, les révélations de Frances Haugen sur Facebook, ont mis en évidence que les visées lucratives des GAFAM aboutissent à ce que, non contents de capter les données des utilisateurs pour obtenir des informations sur eux, ils les exploitent pour modifier ou conditionner leurs comportements, non seulement économiques, mais aussi sociaux et politiques . Ce faisant, ils menacent le libre arbitre des individus et , indirectement , l'équilibre des démocraties .

Cela est d'autant plus dommageable que les utilisateurs n'ont pas concrètement connaissance des « lois » qui leur sont appliquées sur ces services ; ces dernières sont en effet beaucoup plus complexes que l'aperçu qui en est donnée dans les CGU, et découlent des algorithmes utilisés , selon la formule fameuse de l'universitaire américain Lawrence Lessig, « Code is Law ».

Ainsi, comme l'a souligné, lors de son audition, le Dr Rebeka Tromble, professeur associée à l'université Georges Washington de Washington et spécialiste des algorithmes et de leurs impacts sur le débat public, la modération n'est qu'un outil, qui ne permettra pas, à lui seul, de mettre fin à la prolifération de contenus illicites et préjudiciables en ligne .

Il est donc nécessaire de réformer le modèle même de fonctionnement des plateformes en ligne, ainsi que leur modèle économique

1. Améliorer l'accès aux données et aux algorithmes
a) Permettre aux utilisateurs de déterminer les paramètres des algorithmes de recommandation des contenus

Aux termes du projet de règlement, les utilisateurs de très grandes plateformes en ligne devraient être mieux informés de la manière dont fonctionnent les algorithmes des systèmes de recommandation : ils devraient avoir accès, dans les CGU, aux « principaux paramètres » utilisés dans les systèmes de recommandation des contenus , et être informés de la possibilité de modifier voire de supprimer le profilage (art. 29).

Faire obligation aux très grandes plateformes de permettre la désactivation du profilage des utilisateurs en vue de l'adressage de contenus spécifiques est une avancée importante vers l'autonomisation des utilisateurs dans le cyberespace, qui pourraient ainsi manifeste r plus aisément leur refus d'être enfermés , par le jeu des recommandations, dans des bulles de contenus de plus en plus polarisées.

Comme pour le mécanisme de notification et d'action, afin que cette disposition soit efficace, sa mise en oeuvre doit être concrètement simple pour l'utilisateur : l'accès à l'interface permettant la modulation et la désactivation du système de recommandation devrait être simple , et pourrait utilement faire l'objet d'une normalisation, dans les conditions prévues par l'article 34.

En outre, ces systèmes de recommandation de contenus devraient être désactivés par défaut et, conformément au règlement général sur la protection des données, leur activation devrait faire l'objet d'un consentement spécifique et éclairé.

Ø Faciliter l'accès aux interfaces de modulation des paramètres des systèmes de recommandation.

Ø Désactiver par défaut les systèmes de recommandation.

b) Garantir un meilleur accès aux données et aux algorithmes pour les autorités de contrôle et les chercheurs

La proposition accorde d'importants droits d'accès aux données aux autorités de contrôle nationales et européenne (art. 31 (1)). La Commission serait par exemple autorisée, dans le cadre de ses pouvoirs d'inspection, à exiger d'une très grande plateforme toutes les explications nécessaires, notamment sur le système informatique, les algorithmes et la gestion des données de la plateforme en question (art. 54).

Des chercheurs pourraient également , sur demande des autorités de régulation nationales, se voir garantir l'accès aux données nécessaires pour identifier et comprendre les risques systémiques présentés par les très grandes plateformes (art. 31 (2)).

Ces dispositions sont bienvenues, mais méritent d'être précisées, afin de maximiser leur impact .

Afin d'élargir le spectre des chercheurs éligibles , il serait souhaitable de supprimer la condition d'affiliation à un établissement universitaire (art. 31 (4)), afin de permettre la participation de chercheurs indépendants, mais aussi de jeunes chercheurs qui n'ont pas forcément une position statutaire dans un établissement académique.

Enfin, compte tenu des caractéristiques particulières des très grandes plateformes en ligne, devenues de fait de quasi espaces publics, et de la gravité des risques systémiques engendrés, vos rapporteures estiment que ces très grandes plateformes ne devraient pas pouvoir opposer le secret des affaires aux demandes d'accès aux données , y compris de la part de chercheurs, sauf à prouver l'inutilité des données demandées aux fins de la requête. Dans ce cas, la charge de la preuve devrait revenir à la très grande plateforme.

Les sujets de recherche pouvant justifier un tel accès aux données ne devraient en outre pas être limités aux risques systémiques au sens de l'article 26 du règlement .

En plus d'une amélioration générale de la connaissance des risques systémiques présentés par les très grandes plateformes et de la compréhension de leur fonctionnement, élargir l'accès des chercheurs agréés aux données des plateformes contribuera à améliorer le contrôle du respect du règlement , puisque les études réalisées par des chercheurs agréés pourront notamment être utilisées par les auditeurs indépendants mentionnés à l'article 28 (considérant 60).

Les conditions d'accès de ces derniers aux données devraient d'ailleurs être précisées, tout comme les garanties concernant leur indépendance vis-à-vis des très grandes plateformes.

Enfin, considérant la difficulté - et, pour ainsi dire, l'impossibilité pratique - de traiter de grandes masses de données brutes et d'analyser intégralement des codes sources, les représentants du Pôle d'Expertise de la Régulation Numérique (PEReN) ont mentionné l'intérêt de garantir pour les chercheurs et les régulateurs la possibilité de tester les algorithmes des plateformes « en transparence faible » : il s'agit de lancer un grand nombre de requêtes et d'évaluer les réactions de l'algorithme, afin d'en déduire ses principales caractéristiques de fonctionnement .

À cette fin, il serait utile qu'en plus d'un accès aux données via des bases de données en ligne ou des interfaces de programme d'application (API) (art. 31(3)), les très grandes plateformes soient tenues de permettre concrètement la réalisation de ces tests « en transparence faible ».

Ø Supprimer la condition d'affiliation universitaire pour les chercheurs agréés pouvant prétendre à l'accès aux données des très grandes plateformes.

Ø Préciser les garanties d'indépendance des auditeurs des très grandes plateformes.

Ø Intégrer, dans les actes délégués qui établiront les conditions techniques de mise à disposition de leurs données par les très grandes plateformes, des protocoles de tests d'algorithmes sur la base des données disponibles publiquement.

Ø Prendre en compte, dans la détermination des conditions techniques de mise à disposition des données, la protection des données à caractère personnel et le secret des affaires, tout en s'assurant que les chercheurs auront accès aisément à l'ensemble des données dont ils ont besoin.

Ø Élargir le champ des recherches pouvant justifier l'accès de chercheurs aux donnés des très grandes plateformes.

c) S'assurer de la sécurité des algorithmes

Par nature, les algorithmes d'intelligence artificielle, utilisés dans les systèmes de recommandation des contenus, se modifient et s'ajustent en permanence. Frances Haugen elle-même, lors de son audition au Sénat, a estimé que l'algorithme de recommandation de Reels (qui permet de partager de courtes vidéos sur Instagram), « qui n'était pas programmé pour être raciste », « a compris » que les contenus concernant les personnes de couleur étaient dans l'ensemble moins visionnés que les autres, et a donc réduit leur visibilité, puisqu'ils ne permettaient pas de maximiser le temps passé par les utilisateurs sur l'application.

Cette situation n'est pas acceptable. Aussi, il est indispensable de mettre en oeuvre, au niveau européen, des normes minimales en matière d'éthique et de respect des droits fondamentaux , qui devraient être respectées lors de l'élaboration des algorithmes d'ordonnancement des contenus, mais aussi de modération et d'adressage de la publicité, selon un principe de legacy by design . La responsabilité des plateformes mettant en oeuvre ces algorithmes devrait pouvoir être engagée dans le cas où leurs algorithmes ne respecteraient pas ces normes .

Le projet de règlement sur l'intelligence artificielle 61 ( * ) , actuellement en cours de discussion au niveau européen, qui vise précisément à s'assurer que les systèmes d'intelligence artificielle utilisés dans l'Union soient sûrs et respectent les droits fondamentaux, devrait, à cet égard, tenir dûment compte des risques systémiques engendrés par l'usage de tels algorithmes par les très grandes plateformes en ligne, et clarifier les responsabilités de ces dernières à cet égard.

Sans préjuger des conclusions des négociations sur ce règlement, vos rapporteures recommandent dans tous les cas que les algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité utilisés par les très grandes plateformes en ligne soient soumis avant leur utilisation à des protocoles de tests, y compris de la part de chercheurs, afin d'évaluer les risques potentiels liés à leur usage.

En outre, les révélations de Frances Haugen ont montré que les très grandes plateformes comme Facebook ajustent en permanence leurs algorithmes, effectuant de fait des essais « grandeur nature » et en direct sur leurs utilisateurs, sans analyser préalablement les risques induits . Or, même des modifications ciblées peuvent avoir d'importantes conséquences sur le fonctionnement du système (« effets de bord »). Des tests de conformité devraient donc être effectués après chaque modification substantielle dans le paramétrage des algorithmes, préalablement à leur utilisation.

Les utilisateurs qui ont consenti à l'activation des systèmes de recommandation devraient en outre être clairement informés à chacune de ces modifications .

Enfin, compte tenu du caractère auto-apprenant des algorithmes d'intelligence artificielle, vos rapporteures recommandent que ces derniers fassent l'objet d'audits réguliers , afin de déterminer si leur fonctionnement n'induit pas de risque pour les droits fondamentaux .

Ø Prévoir l'engagement de la responsabilité des très grandes plateformes si leurs algorithmes ne respectent pas des normes européennes en matière d'éthique et de respect des droits fondamentaux, selon le principe de legacy by design .

Ø Rendre publics les algorithmes avant leur utilisation, aux fins de recherche par des tiers des risques potentiels posés pour les droits fondamentaux

Ø Ajouter le fonctionnement des algorithmes dans le champ des audits annuels obligatoires prévus à l'article 28, notamment au regard des risques pour les droits fondamentaux.

Ø Informer les utilisateurs des modifications substantielles des algorithmes utilisés par les très grandes plateformes.

d) Aller vers la démonétisation des contenus illicites et préjudiciables
(1) Renforcer les dispositions concernant la publicité ciblée

Ainsi qu'exposé précédemment, le règlement prévoit des obligations de transparence concernant la publicité pour les plateformes (art. 24 et 30).

Les éléments qui devront être portés à la connaissance des utilisateurs devraient être complétés :

Ø en plus de l'identité de la personne pour le compte de laquelle la publicité est affichée, préciser l'identité du financeur.

Une telle précision serait particulièrement utile, par exemple, dans le cas des publicités politiques en ligne 62 ( * ) .

Il semble en outre utile de rappeler qu' une application stricte du RGPD permettrait déjà de limiter certaines pratiques abusives, par exemple l'utilisation, pour le ciblage publicitaire, de données inférées des données à caractère personnel fournies par les utilisateurs aux plateformes ou de leurs interactions avec certains contenus. Le consentement à l'utilisation des données à caractère personnel aux fins de publicité ciblée devrait en outre être spécifique . Une manière simple de s'assurer d'un tel consentement serait de désactiver, par défaut, le ciblage publicitaire.

Le consentement devrait en outre pouvoir être retiré aisément à tout moment.

Ø Préciser que les « principaux paramètres utilisés pour déterminer le bénéficiaire auquel la publicité est présentée » comprennent à la fois les paramètres de ciblage déterminés par l'annonceur et les données personnelles de l'utilisateur sur la base desquelles la publicité lui a été adressée.

Ø Permettre la désactivation, à tout moment, des systèmes de publicité ciblée.

Ø Désactiver par défaut les systèmes de publicité ciblée.

(2) Encourager des méthodes alternatives au ciblage

Bien que fermement convaincues de la nocivité du modèle économique des plateformes en ligne reposant sur la vente de la publicité, vos rapporteures ont été sensibles à l'argument selon lequel la publicité ciblée constitue un mode de financement important pour les fournisseurs de service en ligne, y compris pour les petites entreprises . Une interdiction totale et immédiate de la publicité ciblée affecterait probablement davantage ces dernières que les GAFAM, qui ont déjà entrepris de mettre au point des alternatives 63 ( * ) .

Néanmoins, au vu de leur vulnérabilité, la publicité ciblée est particulièrement préjudiciable aux mineurs : il semble donc nécessaire de l'interdire.

Ø Interdire la publicité ciblée pour les mineurs.

En outre, il est indispensable d' encourager le développement de méthodes alternatives au ciblage publicitaire tel qu'il est aujourd'hui pratiqué par la plupart des plateformes : la Commission devrait inviter les différentes parties prenantes à se saisir du sujet afin de dresser un diagnostic solide, et de soutenir l'innovation dans ce domaine.

2. Compléter la liste des risques systémiques représentés par les très grandes plateformes en ligne

La liste des risques systémiques que les très grandes plateformes devront évaluer annuellement, prévue à l'article 26 du texte, est limitative . Or elle devrait être complétée, en prenant en compte à la fois des thématiques spécifiques et le fonctionnement même des très grandes plateformes .

a) Mieux prendre en compte le modèle économique et le fonctionnement des plateformes dans l'évaluation et l'atténuation des risques systémiques

L'article 26 de la proposition prévoit que, lors de l'évaluation annuelle des risques systémiques qu'elles présentent, les très grandes plateformes devront « t[enir] notamment compte de la manière dont les systèmes de modération des contenus, systèmes de recommandation et systèmes de sélection et d'affichage de la publicité influencent tout risque systémique ». Symétriquement, l'adaptation des systèmes de recommandation et les mesures ciblées destinées à limiter l'affichage de publicités sont explicitement mentionnées, parmi les mesures possibles d'atténuation des risques systémiques (art. 27 (1) (a) et (b)).

Or, vos rapporteures considèrent que le principal risque systémique présenté par les plateformes découle du fonctionnement même de leurs algorithmes, et de leur modèle économique . La formulation retenue par l'article 26, en invitant à une évaluation uniquement thématique des risques, invite les très grandes plateformes à se dispenser d'une évaluation globale des risques qu'elles représentent.

En particulier, limiter l'évaluation des risques d'effets négatifs sur la protection de la santé publique, des mineurs, du discours civique, des processus électoraux et de la sécurité publique aux seuls cas de manipulation intentionnelle du service implique une grave méconnaissance des risques potentiellement posés dans ces domaines par le fonctionnement même des très grandes plateformes.

Ø Ajouter les risques induits par les systèmes algorithmiques, notamment de recommandation des contenus et de sélection et affichage de la publicité, à la liste des risques systémiques que les très grandes plateformes devront évaluer annuellement.

En outre, et a fortiori , la liste des risques systémiques qui pourraient être évalués par des chercheurs agréés, sur la base de données fournies par les très grandes plateformes, ne devrait pas être limitative, dans la mesure où ces recherches devraient précisément permettre l'identification de nouveaux risques.

Ø Supprimer le caractère limitatif de la liste de motifs d'ouverture des données aux chercheurs aux fins de détection des risques systémiques représentés par les très grandes plateformes en ligne.

b) Évaluer et mettre en place des mesures d'atténuation pour trois types de risques supplémentaires
(1) Les atteintes à la liberté d'expression et d'information et au pluralisme des médias

Parmi les risques systémiques mentionnés à l'article 26 figurent les effets négatifs « pour l'exercice des droits fondamentaux », relatifs notamment « à la liberté d'expression et d'information » (art. 26 (1)). Le pluralisme des médias devrait également faire l'objet d'une mention explicite.

L'opportunité d'exclure de la modération par les fournisseurs de service en ligne les contenus de médias et les contenus journalistiques a été vivement débattue ces dernières semaines au Parlement européen 64 ( * ) .

Bien que très attachées au soutien à la presse et aux médias, vos rapporteures estiment qu'en l'absence de définition, au niveau européen, de contenus de médias et de presse - définition permettant de garantir la qualité et surtout l'indépendance des entités se présentant comme tels -, une telle mesure risquerait de favoriser la prolifération de contenus de désinformatio n.

Si le cas de Russia Today , chaîne de télévision financée par l'État russe et « média d'influence », vient immédiatement à l'esprit, l'ONG EUDisinfoLab, spécialisée dans l'analyse et la lutte en matière de désinformation, a également signalé, dans sa réponse écrite, le cas du journal France Soir , mis en cause à l'occasion de la crise sanitaire dans la circulation de nombreuses informations et banni de Google, alors qu'il continue à bénéficier, sur Twitter, du statut de « compte certifié ».

Ainsi, s'il apparaîtrait utile d'engager, au niveau européen, une réflexion d'ensemble sur la définition des contenus de presse et de médias, il semblerait plus utile, dans le cadre plus limité du DSA, d'introduire, pour les très grandes plateformes en ligne, une obligation générale de promouvoir des sources d'information d'intérêt général fiables , en particulier des sources journalistiques (comme cela est par exemple prévu dans les protocoles de crise prévus à l'article 37).

Ø Instaurer une obligation pour les plateformes d'assurer une visibilité améliorée des informations d'intérêt public émanant de sources fiables, notamment de sources journalistiques et de médias, sur la base de normes et de critères co-construits avec les acteurs du secteur.

(2) La protection des consommateurs

Les possibles atteintes à la protection des consommateurs pourraient être ajoutées à la liste des risques systémiques soumis à évaluation annuelle par les grandes plateformes (art. 26 (1)), tant pour les très grandes plateformes ayant pour principal objet la vente en ligne que pour les autres types de très grandes plateformes , soit parce qu'elles permettent ce type d'activité de manière accessoire, soit parce qu'il est possible via leurs services de parvenir sur des sites de vente en ligne, soit en raison des publicités qu'elles diffusent.

(3) La protection des publics vulnérables

Selon l'exposé des motifs de la proposition de loi sur le contrôle parental récemment déposée à l'Assemblée nationale 65 ( * ) , l' âge moyen auquel les enfants accèdent à leur premier smartphone est de neuf ans et neuf mois , et 82 % des enfants de 10 à 14 ans déclarent se rendre régulièrement sur internet sans leurs parents.

Selon une étude de 2018, plus de la moitié des enfants de 11 à 18 ans avaient déjà été exposés à des propos, images ou vidéos illicites ou préjudiciables en ligne 66 ( * ) : 25 % d'entre eux avaient déjà été exposés à des scènes de torture ou de violence, et 34 % à de la pornographie. Près de la moitié (48 %) de ces contenus préjudiciables ont été rencontrés par les mineurs sur les réseaux sociaux .

Compte tenu de leurs vulnérabilités particulières , tant physiques que psychiques, les enfants et les adolescents devraient être mieux protégés contre ces contenus.

En outre, au-delà des seuls contenus illégaux, préjudiciables ou choquants, les documents internes de Facebook révélés par Frances Haugen indiquent par exemple que, pour un tiers des adolescentes consultant Instagram , l'application provoque une dégradation de l'image de soi 67 ( * ) . Le fonctionnement même des réseaux sociaux peut donc constituer une menace pour la santé et le bien-être des jeunes publics - menace en l'occurrence sciemment ignorée par Facebook.

Or, l'unique prise en compte spécifique des jeunes publics dans le DSA figure dans la liste des risques systémiques évalués annuellement par les très grandes plateformes, à savoir les « effet[s] négatif[s] pour l'exercice des droits fondamentaux relatifs [...] aux droits de l'enfant » (art. 26 (1) (b)), et les effets négatifs sur la protection des mineurs causés par une manipulation intentionnelle du service (art. 26 (1) (c)).

Outre ces deux items limitatifs, le public des mineurs devrait faire l'objet d'une attention spécifique dans le cadre de l'évaluation de chaque risque systémique : par exemple, les effets négatifs sur la santé publique devraient être examinés pour la population générale, et en ce qui concerne spécifiquement les enfants.

En outre, la protection des mineurs devrait être a minima mentionnée comme une priorité dans les codes de conduite mentionnés à l'article 35, au même titre que la concurrence ou la protection des données à caractère personnel (art. 35 (1)), ainsi que dans le code de conduite sur la publicité en ligne mentionné à l'article 36.

Ø Prendre systématiquement en compte les mineurs dans toutes les mesures d'évaluation et d'atténuation des risques.

En outre, compte tenu du risque d'enfermement dans des bulles informationnelles particulièrement préjudiciables à leur équilibre et à leur bien-être et susceptibles de favoriser le harcèlement en ligne, il semble nécessaire de désactiver par défaut , pour les mineurs, les systèmes de recommandation des contenus .

En ce qui concerne la publicité , d'autres textes européens concernant la régulation de l'espace en ligne, comme la directive sur les services de médias audiovisuels, prévoient des dispositions plus sévères pour les mineurs, compte tenu de leur vulnérabilité particulière. Il semblerait cohérent d'introduire le même type de restrictions dans le DSA, notamment en interdisant la publicité ciblée pour les mineurs .

Ø Désactiver par défaut les systèmes de recommandation des contenus pour les mineurs.

Ø Interdire la publicité ciblée pour les mineurs.

En outre, il serait souhaitable d'instaurer un « droit à l'oubli » pour les mineurs , leur permettant à tout moment d'effacer l'ensemble des contenus dont ils pourraient regretter la publication sur les réseaux sociaux. Une réflexion pourrait être encouragée, au niveau européen, entre les différentes parties prenantes, afin d'établir les conditions et modalités pratiques de mise en oeuvre d'un tel droit à l'oubli. Concrètement, il pourrait par exemple s'agir de limiter les partages de contenus publiés par des enfants, mais également, en tirant profit de l'intelligence artificielle, d'identifier les types de contenus dont la publication est le plus souvent regrettée par les enfants, afin d'afficher un avertissement au moment de la publication.

La Commission devrait également encourager le développement de normes concernant le contrôle de l'âge sur internet .

Ø Instaurer un « droit à l'oubli » pour les mineurs sur internet.

Ø Développer des normes européennes concernant le contrôle de l'âge sur internet.

Il est regrettable que la stratégie européenne sur les droits de l'enfant , présentée au printemps dernier 68 ( * ) , ne comporte que des dispositions éparses concernant la protection des enfants dans l'environnement en ligne . Une initiative spécifique de l'Union dans ce domaine serait la bienvenue , afin de compléter les quelques éléments contenus dans le projet de DSA.

c) Réformer le régime de responsabilité des plateformes en ligne

Comme indiqué dans la première partie du rapport, le DSA, s'il facilite les conditions de mise en cause de la responsabilité des hébergeurs, n'en modifie pas les contours, et la Cour de Justice de l'Union européenne (CJUE) applique les dispositions de la directive sur le commerce électronique concernant la responsabilité des hébergeurs à des services et des modèles d'affaires qui n'existaient pas au moment de son adoption.

Or ce statut d'« hébergeur » ne reflète par le caractère actif de plateformes - en particulier les réseaux sociaux et places de marché, mais aussi, par exemple, les plateformes de partage de vidéos ou de musique - qui, par le biais notamment d' algorithmes d'ordonnancement des contenus , jouent bien un rôle de sélection des contenus, en augmentant la visibilité de certains au détriment d'autres, sur la base de paramètres déterminés par les plateformes et dans leur intérêt.

Une distinction entre le régime de responsabilité applicable aux hébergeurs passifs et aux plateformes utilisant des algorithmes d'ordonnancement des contenus serait donc pertinente, mais la nouvelle catégorie de « plateformes en ligne » définie dans le DSA ne détermine que des obligations de diligence supplémentaires, sans remettre en cause le régime de responsabilité de ces dernières, qui sont toujours considérées, de ce point de vue, comme de simples hébergeurs.

Vos deux rapporteures appellent donc à réformer le régime européen de responsabilité des fournisseurs de services en ligne, pour créer un nouveau régime de responsabilité renforcée pour les plateformes utilisant des algorithmes d'ordonnancement des contenus , conformément au souhait déjà exprimé par le Sénat dans sa résolution européenne de 2018 sur la responsabilité des hébergeurs de services en ligne 69 ( * ) .

De ce point de vue, le DSA apparaît comme une occasion manquée de mettre les plateformes , et en particulier les grands réseaux sociaux, devant leurs responsabilités .

Ø Créer un régime européen de responsabilité renforcée spécifique pour les fournisseurs de services intermédiaires utilisant des algorithmes d'ordonnancement des contenus, à raison de ladite utilisation.

D. RENFORCER LA GOUVERNANCE ET LES MESURES DE CONTRÔLE, NOTAMMENT POUR LES TRÈS GRANDES PLATEFORMES

1. Mieux aménager le principe du pays d'origine

L'évaluation faite par la Commission de l'application de la directive sur le commerce électronique de 2000 a pointé les effets négatifs du manque de coopération entre États membres ; parallèlement, le système des autorités « cheffes de file », prévu par le RGPD, n'a pas donné non plus entièrement satisfaction. Tout en conservant le principe du pays d'origine, la proposition de DSA met donc en place des mécanismes de coopération entre Etats membres, qui accordent une place relativement importante aux Etats de destination du service.

Par dérogation au principe du pays d'origine , la proposition prévoit que les fournisseurs de services intermédiaires sont tenus de répondre aux injonctions de retrait de contenus (art. 8) et aux demandes d'informations (art. 9) émanant d'autorités judiciaires ou administratives des pays de destination , qui n'ont alors pas à passer par les autorités du pays d'origine.

Il s'agit, pour la Commission, de clarifier l'obligation pour les fournisseurs de services intermédiaires de répondre à ces injonctions, alors que nombre d'entre eux ne répondent actuellement que très partiellement aux demandes émanant d'autorités extérieures à leur pays d'établissement, en invoquant notamment le respect soit du principe du pays d'origine, soit de la réglementation européenne en matière de protection des données.

Ces deux articles de la proposition de règlement, d'harmonisation minimale, dépendent, pour leur mise en oeuvre concrète, du système juridique de chaque État membre.

Il importe que les utilisateurs puissent déposer une plainte à l'encontre du fournisseur , pour violation du règlement, auprès d'un État membre de destination , la plaine étant transmise par le CSN, après évaluation, à son homologue du pays d'établissement (art. 43) : sans remettre en cause le principe du pays d'origine, cette disposition est de nature à favoriser les saisines, mais également une meilleure information des autorités du pays de destination.

Un mécanisme d'enquêtes conjointes (art. 46) permettra également, sans préjudice des tâches et pouvoirs respectifs des CSN des différents États membres, la coopération et le partage d'informations, pour des affaires concernant des fournisseurs de services intermédiaires opérant dans plusieurs États membres.

Enfin, le CSN du pays de destination 70 ( * ) pourra demander au CSN du pays d'origine d'ouvrir une enquête (art. 45 (1)). Après un délai déterminé, en cas d'absence de réponse ou de désaccord sur les mesures prises, le CSN du pays de destination pourra saisir la Commission , qui pourra demander au CSN du pays d'origine de réexaminer le cas et d'adopter les mesures propres à assurer le respect du règlement.

Cette association des autorités du pays de destination et de la Commission permettra sans doute de pallier en partie l'inégale diligence des autorités de certains États membres à faire appliquer le règlement . Il est cependant regrettable qu'en l'absence de mesures adéquates de la part du CSN du pays d'origine, à la fin du processus, aucune autorité nationale ou européenne ne puisse se substituer à lui, pour assurer l'application du règlement et faire cesser l'infraction.

Ø Prévoir que la Commission européenne ait la possibilité, en dernier ressort, de se substituer au CSN du pays d'origine d'un fournisseur, afin de prendre les mesures propres à faire cesser une infraction au règlement.

2. Renforcer le rôle de la Commission européenne pour le contrôle des très grandes plateformes
a) Confier le contrôle des très grandes plateformes exclusivement à la Commission européenne

Ainsi qu'indiqué précédemment, la Commission européenne pourrait, au terme d'une procédure de « surveillance renforcée », prendre la suite du CSN du pays d'origine du service, en cas de poursuite de l'infraction (art. 50 (4)). Elle pourrait également intervenir de sa propre initiative, sur recommandation du Comité (art. 51), ou sur demande du CSN du pays d'établissement de la très grande plateforme (art. 46 (2)).

Eu égard au retour d'expérience du RGPD, très inégalement appliqué par les différentes autorités de contrôle nationales, et du caractère systémique des risques représentés, au niveau européen, par les très grandes plateformes, ce renforcement du pouvoir de contrôle de la Commission est bienvenu . Néanmoins, afin d'assurer une mise en oeuvre plus efficace de ces mesures de contrôle, il serait souhaitable de :

Ø Confier à la seule Commission européenne le contrôle par les très grandes plateformes du respect du règlement.

Cela permettrait en outre de réduire le délai de traitement des affaires, ce qui serait d'autant plus précieux que, si les délais de la procédure de surveillance renforcée sont, à compter de la décision initiale du CSN, strictement encadrés par le règlement, ce dernier est seulement tenu, lorsqu'il agit sur recommandation de la Commission ou du Comité, de prendre une décision « dans un délai raisonnable ».

b) S'assurer que la Commission européenne dispose de moyens suffisants pour assurer le respect du règlement

Afin d'être en mesure d'exercer effectivement ces prérogatives, il sera nécessaire de s'assurer que la Commission dispose de moyens - notamment humains - suffisants . Les 50 ETP actuellement prévus , qui devraient être principalement obtenus par redéploiements de poste à l'intérieur des services de la Commission, paraissent insuffisants , compte tenu de la complexité des matières à traiter et des moyens colossaux des géants du numérique.

Pour pallier ce manque de moyens, la Commission devrait mieux s'appuyer sur les ressources déjà existantes au niveau national . En effet, les régulateurs nationaux sectoriels, tels que les contrôleurs des données à caractère personnel, les régulateurs des communications électroniques ou les régulateurs de l'audiovisuel, ont développé une expertise utile, dans chacun des domaines couverts par le règlement, et pratiquent couramment l'échange d'informations et la coopération transfrontière.

Ainsi, alors que le règlement ne prévoit pour l'instant qu'une transmission d'informations de la part des CSN compétents, à l'appui de la Commission, en amont des enquêtes de cette dernière (art. 51 (3) et (4)), 52 (5)), la Commission devrait pouvoir faire appel aux compétences des autorités nationales lors de ses propres enquêtes , et même leur déléguer des enquêtes.

Les autorités nationales pourraient également être impliquées dans le suivi du respect par les très grandes plateformes de leurs engagements sur le territoire national. À ce titre, il serait nécessaire de leur garantir un meilleur accès aux données, en précisant notamment que leurs pouvoirs d'enquête comprennent le droit d'exiger que les fournisseurs de services intermédiaires concernés, et a minima , donc, les très grandes plateformes, fournissent des explications sur leur système d'information, leurs algorithmes et leur gestion des données.

Cette collaboration devrait concerner à la fois les autorités compétentes du pays d'établissement, mais également du pays de destination.

Enfin chacun des réseaux de régulateurs compétents devrait par ailleurs être destinataire des rapports de transparence et pouvoir les évaluer .

Ø Confier à la Commission européenne le monopole du pouvoir d'enquête et de sanction, concernant les très grandes plateformes

3. Réduire les délais de mise en oeuvre
a) Réduire le délai de traitement pour une entrée en vigueur rapide

Au vu de l'urgence, pour l'Union européenne, d'établir des normes strictes et ambitieuses en matière de lutte contre les contenus illicites et préjudiciables en ligne, afin d'améliorer la sécurité de ses propres citoyens et de constituer un référentiel au niveau international, un aboutissement rapide des négociations au niveau européen est souhaitable, dans le meilleur des cas sous présidence française du Conseil de l'Union européenne , au premier semestre 2022.

La proposition de la Commission de rendre applicable le règlement trois mois après son entrée en vigueur est également bienvenue. Toute extension de ce délai serait au contraire regrettable .

b) Garantir l'adaptabilité du règlement

Alors que l'inadaptation des dispositions de la directive sur le commerce électronique de 2000 aux rapides mutations du monde numérique intervenues depuis son adoption a été constatée pendant de longues années, il aura fallu plus de 20 ans pour que soit adoptée une nouvelle législation européenne sur les services numériques. Encore cette dernière ne remet-elle pas en cause les principes fondateurs de la directive de 2000.

Ce retour d'expérience montre à quel point il est nécessaire de garantir dès à présent l'adaptabilité de la future législation sur les services numériques aux évolutions à venir , à la fois en termes d'écosystème et d'équilibre des marchés numériques, mais également d'évolutions des technologies et des services fournis par les intermédiaires.

A l'heure où Facebook - rebaptisé Meta - annonce la création du « metaverse », un monde virtuel immersif où il serait possible à l'utilisateur d'effectuer une large partie de ses activités quotidiennes, en particulier professionnelles ou de loisir 71 ( * ) , sous la forme d'un avatar ou d'un hologramme, il est en effet nécessaire de s'assurer de la robustesse de la future législation face à ces nouveaux services en ligne, et de sa pertinence .

Il faut remarquer, à cet égard, que le Comité européen des services numériques se voit confier des tâches de soutien et de participation à l'identification des questions émergentes dans les matières relevant du règlement (art. 47 (2) (b)) et 49 (1) (e)).

De façon cohérente, afin de mieux appréhender ces évolutions et les nouvelles problématiques qu'elles soulèveront, il est proposé de :

Ø Réduire le délai d'évaluation du règlement et du fonctionnement du Comité respectivement de cinq ans et trois ans à deux ans (art. 73).

EXAMEN EN COMMISSION

La commission des affaires européennes s'est réunie le mercredi 8 décembre 2021, sous la présidence de M. Jean-François Rapin, président, pour l'examen du présent rapport.

M. Jean-François Rapin , président . - Nous abordons aujourd'hui deux sujets qui sont d'importance majeure, car ils contribuent à restaurer l'autonomie stratégique de l'Union européenne dans sa dimension économique : d'une part, en matière de services numériques, d'autre part en matière d'équité concurrentielle sur le marché intérieur.

Sur le volet numérique, nous savons l'ambition affichée par la Commission européenne pour permettre à l'Union européenne d'accomplir sa transition numérique. Le commissaire Thierry Breton, que nous avons auditionné il y a un mois, et, pour plusieurs d'entre nous, rencontré jeudi dernier à Bruxelles, nous l'a confirmé : une prise de conscience de la Commission, mais aussi des États membres, a enfin lieu, concernant notre dépendance envers les Gafam et les dangers associés à leur position dominante sur le marché européen - dangers à la fois pour notre souveraineté, pour nos entreprises innovantes, pour nos données et pour nos consommateurs. Cette prise de conscience a conduit à deux propositions de règlements fin 2020 : l'une sur les marchés numériques, le Digital Markets Act (DMA), et l'autre sur les services numériques, le Digital Services Act (DSA). Nous avons déjà adopté il y a deux mois une proposition de résolution sur la première.

Aujourd'hui, nos rapporteures Florence Blatrix Contat et Catherine Morin-Desailly nous en proposent une sur la seconde. Un accord a été trouvé au Conseil sur ce texte, mais il est encore en discussion au Parlement européen, qui soutient des exigences plus fermes à l'égard des plateformes.

Mme Catherine Morin-Desailly , rapporteure . - Vous l'avez rappelé, la régulation des plateformes numériques est l'un des défis majeurs d'aujourd'hui. Ces dernières occupent une place primordiale dans les modes de consommation, l'accès à l'information et les relations sociales ; elles sont même devenues des lieux incontournables pour le débat public. Cet usage généralisé des services numériques est une source majeure de risques, avec la prolifération, sur internet, de propos haineux, de désinformation, de produits contrefaits ou dangereux et d'activités illicites.

Face à cette nouvelle situation, le cadre de responsabilité des fournisseurs de services numériques établi par la directive sur le commerce électronique de 2000, dite « e-commerce », n'est plus suffisant. Malgré des progrès technologiques considérables, les plateformes n'ont pas réussi à démontrer leur capacité et leur volonté de trouver les solutions pour affronter ces enjeux. En fait, elles ont même démontré le contraire, comme l'a mis en évidence la lanceuse d'alerte Frances Haugen, le 10 novembre dernier, lors de son audition devant notre commission, en commun avec la commission de la culture.

Nous avons longtemps déploré les atermoiements au niveau européen sur ce sujet, sur lequel Sénat demande depuis longtemps une intervention. Cependant, sous la présidence de Mme von der Leyen, la Commission européenne a fini par faire de la régulation des plateformes une de ses priorités. Le 15 décembre 2020, elle a ainsi présenté deux propositions de règlement pour revoir les règles du marché unique numérique.

Avec notre collègue Florence Blatrix Contat, nous vous avions présenté, le 7 octobre dernier, nos observations et nos recommandations sur le DMA, qui encadre les comportements anticoncurrentiels des grands acteurs du numérique. Nous allons aujourd'hui vous faire part de notre réflexion sur le DSA, qui définit les responsabilités des acteurs du numérique quant aux contenus qu'ils diffusent.

Nous avons eu maintes fois l'occasion de débattre de ces questions, qui nous préoccupent depuis longtemps, dans l'hémicycle, par exemple à propos de la loi relative à la lutte contre la manipulation de l'information, couramment appelée loi « infox », en 2018, lors des débats sur la proposition de loi de la députée Laetitia Avia, en 2020, ou, plus récemment, à propos du volet numérique du projet de loi sur le respect des principes républicains.

Je me réjouis donc que ce sujet, par nature transfrontière, soit enfin traité au niveau européen. Pour imposer nos règles aux Gafam, nous avons besoin de la masse critique que représentent nos 450 millions de consommateurs.

Mme Florence Blatrix Contat , rapporteure . - La proposition de DSA vise à créer un environnement en ligne plus sûr et plus responsable : elle introduit, pour les fournisseurs de services en ligne, de nouvelles obligations de modération des contenus, ainsi que des obligations de vigilance, notamment en matière de transparence. Ces obligations seront graduées en fonction de la taille et de la nature des opérateurs, suivant une approche basée sur le risque.

Concrètement, un mécanisme numérique de notification et action, harmonisé à l'échelle européenne, permettra d'engager plus facilement la responsabilité des hébergeurs. Toutefois le principe de leur responsabilité limitée, hérité de la directive « e-commerce », n'est pas remis en cause. Les activités de modération, y compris algorithmiques, feront l'objet de rapports de transparence. Des mesures spécifiques concernant la transparence en matière de publicité ciblée concerneront l'ensemble des plateformes.

En outre, les plateformes en ligne qui touchent plus de 10 % de la population européenne seront soumises à des obligations renforcées, en vue de prévenir les risques systémiques posés par l'utilisation de leurs services : auto-évaluation des risques, mesures d'atténuation, audits indépendants de leurs systèmes de gestion des risques, mais aussi large ouverture de leurs données et de leurs algorithmes aux autorités de régulation et à la communauté académique.

Ces avancées vont dans le bon sens. Cependant, après plus d'une vingtaine d'auditions, nous sommes convaincues que de nombreux points méritent d'être précisés, complétés et renforcés : vous pourrez en trouver le détail dans notre rapport.

Nous souhaitons insister aujourd'hui sur trois d'entre eux. En premier lieu, le renforcement de la lutte contre les contenus illicites et préjudiciables en ligne doit s'accompagner de garanties fortes pour préserver la liberté d'expression.

Par pragmatisme, le règlement confie en première approche aux plateformes, donc à des acteurs privés, la modération de l'énorme masse de contenus qui transitent sur leurs services. Il faut donc a minima s'assurer qu'elles mettent en oeuvre des moyens à la hauteur des enjeux, qui leur permettent d'effectuer cette modération d'une manière efficace, et qui correspondent aux objectifs du règlement. Aussi faut-il exiger que figurent dans les rapports de transparence des indications chiffrées sur les moyens humains et technologiques que les plateformes consacrent à la modération, avec une ventilation par pays et par langue.

En outre, il serait souhaitable de tenir compte des caractéristiques propres à l'espace en ligne, différent de l'espace public du monde réel, car déformé par l'amplification algorithmique. La lutte contre les propos illicites eux-mêmes devrait donc s'accompagner de mesures visant à lutter spécifiquement contre leur viralité. En d'autres termes, il faut encadrer les modalités de diffusion - ce que les Anglo-saxons appellent freedom of reach - plutôt que les contenus eux-mêmes - freedom of speech . Nous proposons donc que les plateformes puissent, par exemple, réduire la visibilité d'un contenu qui n'est pas manifestement illicite, le temps de procéder à des vérifications.

Il nous semble également crucial, face à la menace que représente la désinformation, que les risques d'atteinte au pluralisme des médias soient mieux pris en compte. Ces risques devraient être spécifiquement examinés par les grandes plateformes lors de leur examen annuel des risques systémiques. En outre, les plateformes devraient assurer une visibilité renforcée des informations émanant de sources fiables, notamment journalistiques.

Le deuxième point est la nécessité d'aller jusqu'au bout de l'approche par le risque qu'a retenue la Commission. Dans cette optique, nous recommandons que les critères d'audience soient mieux pris en compte pour déterminer le régime d'obligations des différents opérateurs. Les autorités de régulation devraient ainsi pouvoir, par exemple, soumettre à des obligations renforcées les plateformes très populaires parmi les enfants. D'une manière générale, la protection des enfants nous semble un angle mort du texte, ce qui est particulièrement dommageable lorsqu'on voit, par exemple, les ravages du harcèlement scolaire en ligne, que l'actualité nous rappelle souvent.

Mme Catherine Morin-Desailly , rapporteure . - Le troisième point, qui est le plus structurant, est la nécessité de mieux prendre en compte le fonctionnement même des plateformes en ligne, et le modèle économique sous-jacent. Ce dernier, nous le savons, repose sur l'accumulation de très grandes masses de données, en particulier personnelles, qui sont ensuite exploitées par des algorithmes de recommandation des contenus et d'adressage de la publicité : il s'agit de maximiser le temps passé par l'utilisateur sur les plateformes et, en conséquence, les revenus de ces dernières. Ce système aboutit inévitablement à favoriser les contenus les plus clivants et les plus contestables, qui provoquent le plus de réactions, mais qui enferment aussi les utilisateurs dans des bulles de contenus. Leurs comportements, qu'ils soient commerciaux, sociaux ou politiques, s'en trouvent modifiés.

Il est donc crucial, en premier lieu, que les utilisateurs retrouvent leur autonomie dans l'espace en ligne. Cela passe par la maîtrise de leurs données. Nous rappelons à cet égard qu'une application stricte du règlement général sur la protection des données (RGPD) permettrait déjà de limiter certaines pratiques abusives en matière de ciblage. Cela n'est pas toujours le cas aujourd'hui.

Le projet de la Commission prévoit d'informer les utilisateurs des données utilisées et des paramètres de ciblage publicitaire et d'adressage des contenus. Ces derniers pourraient également être modifiés et désactivés. Nous souhaitons aller plus loin, avec une désactivation par défaut de ces fonctions, et la possibilité à tout moment de les désactiver aisément. C'est particulièrement indispensable pour les mineurs. Les utilisateurs devraient en outre être informés de toute modification substantielle des algorithmes d'ordonnancement des contenus.

Deuxième élément : les algorithmes utilisés par les plateformes ne doivent plus être une boîte noire. Ce point crucial a été confirmé par de nombreuses personnes que nous avons auditionnées. Le DSA propose d'importantes avancées en matière d'accès aux données pour les autorités de régulation et pour les chercheurs. Les critères et les motifs d'accès devraient cependant être élargis, pour permettre la participation de chercheurs indépendants - et pas seulement ceux qui sont chapeautés par les plateformes -, et la détection et l'évaluation de tous types de risques.

Surtout, compte tenu de leur caractère incontournable - on pourrait presque parler, en utilisant un anglicisme, de « facilité publique » -, les grands acteurs du numérique ne devraient pas pouvoir opposer le secret des affaires aux autorités de régulation et aux chercheurs agréés par les autorités. En revanche, des mécanismes pour éviter la divulgation de ces informations confidentielles pourraient bien sûr être mis en place.

En outre, les représentants que nous avons auditionnés du Pôle d'expertise de la régulation numérique (PEReN), récemment mis en place par le Gouvernement, nous ont indiqué l'importance de prévoir la possibilité de tester les algorithmes « en transparence faible » : il s'agit de lancer un grand nombre de requêtes puis d'analyser les réactions de l'algorithme, pour en déduire ses principales caractéristiques. Ce processus est en effet beaucoup moins coûteux qu'une analyse exhaustive des données.

Dans tous les cas, gardons à l'esprit qu'il ne s'agit pas uniquement de vérifier comment les algorithmes influent sur tel ou tel risque spécifique : le fonctionnement même des plateformes et leur modèle économique, donc celui des algorithmes, constituent le principal risque systémique, et elles doivent en répondre. En effet, en sélectionnant et en classant les contenus, puis en en déterminant la présentation et en augmentant la visibilité de certains d'entre eux au détriment d'autres, les plateformes, par le biais de leurs algorithmes, jouent bien un rôle actif qui peut s'apparenter à celui d'un éditeur.

C'est pourquoi nous souhaitons une véritable réforme du régime européen de responsabilité des hébergeurs, pour créer un régime de responsabilité renforcée pour les plateformes qui utilisent des algorithmes d'ordonnancement des contenus. Je rappelle d'ailleurs que le Sénat l'avait déjà appelée de ses voeux dans une résolution de 2018, sans succès. De ce point de vue, le DSA manque cruellement d'ambition.

Les algorithmes devraient également respecter un socle de normes éthiques intégrées dès l'étape du développement, selon les principes de legacy et de safety by design . Je ne sais pas si ces dispositions doivent plutôt trouver leur place dans le DSA ou dans la future législation de l'Union sur l'intelligence artificielle, actuellement en discussion, mais il est certain qu'au vu des risques induits, les algorithmes utilisés par les grandes plateformes en ligne devraient faire l'objet d'un contrôle strict, qui pourrait par exemple prendre la forme d'audits réguliers obligatoires.

Mme Florence Blatrix Contat , rapporteure . - Même si le texte ne concrétise pas toutes les ambitions affichées, les progrès sont indéniables. Les amendes qui pourront être infligées aux opérateurs en cas d'infraction au règlement, jusqu'à 6 % de leur chiffre d'affaires mondial, sont d'ailleurs dissuasives.

J'ajoute qu'aux termes du règlement, la Commission européenne aura le pouvoir, subsidiairement par rapport aux autorités de régulation nationale, d'enquêter sur les très grandes plateformes et de leur infliger elle-même des sanctions. C'est une très bonne chose au regard du manque d'empressement de certaines autorités nationales à traiter des plaintes concernant, par exemple, la protection des données personnelles, notamment l'Irlande. Nous serions d'ailleurs favorables à ce que la Commission dispose de la juridiction exclusive sur ces très grandes plateformes comme le prévoit, du reste, le dernier compromis au Conseil.

Il y a une prise de conscience, au niveau mondial, de la nécessité de réformer le régime de responsabilité des plateformes : même les États-Unis, après des années de laisser-faire, envisagent sérieusement de resserrer le champ d'application du fameux article 230 du Communications Decency Act , qui accorde aux plateformes une immunité quasi totale pour les contenus publiés par leurs utilisateurs.

Dans ce contexte, alors que les États-Unis deviennent plus ambitieux, il est essentiel que l'Europe légifère la première, selon ses valeurs et ses principes, pour fixer un « étalon-or » mondial, selon l'expression de Frances Haugen devant le Parlement européen. Ainsi, nous serons capables d'inspirer d'autres pays. Même si les trilogues qui devraient s'engager en janvier s'annoncent difficiles, nous espérons toujours une adoption du DSA sous présidence française de l'Union européenne, au premier semestre 2022.

Je voudrais pour finir souligner qu'il faut absolument assurer la robustesse et l'adaptabilité du DSA face aux évolutions prévisibles des technologies et aux nouveaux services numériques - je pense en particulier aux univers virtuels, les fameux « métavers » évoqués par Mark Zuckerberg. En effet, il aura fallu vingt ans pour rouvrir la directive « e-commerce », et l'Union ne remettra probablement pas la réglementation numérique sur le métier avant de nombreuses années. Soyons donc ambitieux pour ce texte.

M. Pierre Laurent . - Je rejoins pleinement vos préconisations. Sur les modalités de contrôle, dans le texte de la proposition de résolution, de quel comité est-il question, s'agissant du partage du pouvoir de sanction de la Commission européenne ?

Mme Catherine Morin-Desailly , rapporteure . - Il s'agit du comité réunissant les coordinateurs pour les services numériques de chaque État membre, qui seront chargés de l'application et du contrôle du règlement.

M. Ludovic Haye . - Je salue l'excellent travail de nos collègues. Les axes de progression sont réels et vos propositions permettront de protéger les consommateurs et les enfants, souvent les premières victimes de cette addiction aux écrans.

Aujourd'hui, des cadres existent déjà contre ces addictions et ces dérapages. Cependant, les parents ne respectent pas toujours, par exemple, la préconisation de non-exposition avant 13 ans. Comment les faire appliquer ?

Par ailleurs, comme vous, je pense que le DSA manque d'ambition, mais il est vrai que ce n'est qu'en portant ce sujet au niveau européen que nous pourrons avancer.

Enfin, je suis plus dubitatif sur les algorithmes, qui sont à la base du développement des Gafam. Même si je souhaite comme vous la transparence des algorithmes, ne risque-t-on pas une fin de non-recevoir, sous prétexte de protéger les secrets de fabrication, au même titre par exemple que la recette du Coca-Cola ?

M. Jean-Michel Houllegatte . - Vous parlez de plusieurs régulateurs : qui sera le gendarme ? Quels moyens sont prévus pour assurer le contrôle effectif des régulateurs ? L'Europe les accompagnera-t-elle ?

Mme Florence Blatrix Contat , rapporteure . - Nous fixons des garde-fous pour les mineurs. La législation et les campagnes nationales d'information seront les plus efficaces.

Sur les algorithmes, nous devons au moins afficher une volonté, sans quoi nous n'aboutirons pas, et nous devons aboutir : Frances Haugen nous a clairement dit que Facebook pouvait modifier les algorithmes.

Mme Catherine Morin-Desailly , rapporteure . - Rien ne remplace l'éducation donnée par les parents. On ne peut pas mettre un gendarme dans chaque famille ! Il faut acculturer les parents aux dangers d'internet et de ses plateformes comme Facebook, Youtube Instagram ou le chinois TikTok... Le Conseil supérieur de l'audiovisuel (CSA), qui réalise des campagnes d'information, a un rôle particulier à jouer, mais il manque de moyens pour informer le jeune public, comme j'en avais déjà fait état lors de l'examen de ma proposition de loi visant à lutter contre l'exposition précoce des enfants aux écrans.

Ce que nous proposons sur les algorithmes, c'est que les plateformes, en tant qu'espaces publics, se conforment à des règles. Les chercheurs que nous avons auditionnés nous ont confirmé, comme Frances Haugen, que les plateformes utilisent sciemment les algorithmes pour faire du profit au détriment de la sécurité, notamment des enfants. Il faut donc leur imposer des audits externes réguliers en se basant sur cette qualité d'espace public.

C'est aussi le but des principes de safety et legacy by design , qui reviennent à dire que, pour tout déploiement d'un produit, d'une plateforme ou d'une évolution, une enquête préalable doit évaluer les risques potentiels, comme on le fait pour les médicaments. S'il faut vingt20 ans pour rouvrir le règlement, nous n'y arriverons jamais ! Il faut donc anticiper.

Sur la première question de Jean-Michel Houllegatte, le cadre européen est complémentaire du cadre national. Nous avons dans la loi française une définition des contenus illicites, que le règlement ne modifie pas. De même, il sera toujours possible de porter plainte pour diffamation, par exemple, ainsi que le prévoit la loi en France. Le règlement renforce aussi les autorités de régulation - ce sera sans doute l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en France qui aura le rôle de coordinateur pour les services numériques. Les autorités nationales de régulation veilleront par exemple à ce que les plateformes mettent en oeuvre les moyens demandés par le règlement pour retirer les contenus nécessaires. Ces régulateurs se coordonneront au niveau européen.

M. Jean-Michel Houllegatte . - Sur les moyens, l'Union européenne va-t-elle aider les régulateurs ? Le maillon faible me semble l'Irlande, qui héberge les plateformes sans avoir la capacité de les contrôler.

Mme Florence Blatrix Contat , rapporteure . - C'est pourquoi nous voulons sortir du seul cadre national, en donnant à la Commission davantage de moyens pour agir sur les grandes plateformes. Il faudra certainement plus que les 50 personnes actuellement prévues par la Commission pour assurer le contrôle du règlement.

Pour revenir sur la question des mineurs, une législation nationale sera sans doute nécessaire. Aux États-Unis, certains enfants portent plainte contre leurs parents pour avoir exposé des images d'eux alors qu'ils étaient mineurs.

M. Ludovic Haye . - On parle souvent d'internet comme d'une autoroute de l'information. Or, pour conduire un véhicule, il faut un permis. De même, pour naviguer sur internet, un certain nombre d'informations sont nécessaires. Certaines écoles font passer un permis internet. Sans qu'il faille le rendre obligatoire, cela me semble un service à rendre aux enfants.

Les cookies sont aux algorithmes ce que l'eau est aux moulins. On atteint désormais des démarches liberticides : certains sites refusent l'accès sans acceptation de la fenêtre pop-up proposant les cookies. Je tenais à le signaler.

Mme Catherine Morin-Desailly , rapporteure . - Cette proposition de législation européenne est une étape à saluer, même si on ne sait pas vraiment les résultats qu'elle permettra d'obtenir et que, comme nous l'ont indiqué beaucoup de personnes auditionnées, il s'agit sans doute d'une occasion manquée. Mais avec nos propositions de résolution, très ambitieuses, nous voulons poser les termes du débat pour la suite.

La puissance des géants du net est telle qu'il est compliqué de légiférer. Le secteur de la presse se trouve démuni et anxieux pour son avenir : Google se repose sur des accords au cas par cas, mais n'applique pas la législation européenne ou française, par exemple celle relative aux droits voisins.

M. Didier Marie . - Je pose la question du poids du lobbying des Gafam dans l'élaboration des textes. La Commission résiste-t-elle, ou bien doit-elle composer ?

Mme Florence Blatrix Contat , rapporteure . - Dans notre travail, nous n'avons guère été soumises au lobbying. Le sujet est brûlant et les autorités européennes veulent avancer sur le sujet. Le Conseil a abouti à un accord ambitieux, le Parlement est volontaire.

Mme Catherine Morin-Desailly , rapporteure . - Le poids du lobbying reste cependant très inquiétant. L'avocat spécialisé qui, jusqu'à il y a peu, défendait les éditeurs de presse les a abandonnés après avoir été acheté par Google.

Le président de la Radio-télévision belge de la Communauté française (RTBF) confiait les difficultés à trouver, à Bruxelles, des avocats spécialistes qui ne soient pas affiliés aux Gafam. Nous observons là une vraie technique d'infiltration de leur part.

M. André Gattolin . - À Bruxelles, les 30 cabinets privés spécialisés en droit du numérique sont presque tous en contrat avec Google, Facebook ou d'autres opérateurs de même envergure. Les institutions européennes ne trouvent donc pas les ressources juridiques dont elles ont besoin.

La commission des affaires européennes autorise, à l'unanimité, la publication du rapport d'information et adopte, à l'unanimité, la proposition de résolution européenne, disponible en ligne sur le site du Sénat , ainsi que l'avis politique qui en reprend les termes et qui sera adressé à la Commission européenne.

PROPOSITION DE RÉSOLUTION EUROPÉENNE

Le Sénat,

Vu l'article 88-4 de la Constitution,

Vu le traité sur le fonctionnement de l'Union européenne (TFUE), et notamment ses articles 16 et 114,

Vu la charte des droits fondamentaux de l'Union européenne, et notamment ses articles 8, 11, 21, 22, 35, 36 et 38,

Vu la convention de sauvegarde des droits de l'homme et des libertés fondamentales, 2000/C 364/01, et notamment ses articles 10, 11 et 16, son protocole additionnel, et notamment son article 3, et le protocole n° 12,

Vu la convention du Conseil de l'Europe pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel du 28 janvier 1981 et son protocole additionnel du 8 novembre 2001 (« Convention 108 + »), notamment son article 6,

Vu la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »),

Vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation des données, abrogeant la directive 95/46/CE (règlement général sur la protection des données - RGPD),

Vu l'article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique,

Vu l'article L. 111-7 du code de la consommation, introduit par l'article 49 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique,

Vu la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information,

Vu la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet,

Vu l'article 42 de la loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République,

Vu l'arrêt « Google France et Google » de la Cour de Justice de l'Union européenne rendu le 23 mars 2010, C-236/08,

Vu l'arrêt « L'Oreal contre eBay » de la Cour de Justice de l'Union européenne rendu le 12 juillet 2011, C-324/09,

Vu l'arrêt « SABAM » de la Cour de Justice de l'Union européenne rendu le 16 février 2012, C-360/10,

Vu la recommandation de la Commission du 1 er mars 2018 sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne, C(2018) 1177 final,

Vu la communication de la Commission européenne au Parlement européen, au Comité économique et social européen et au Comité européen des Régions du 26 avril 2018 intitulée « Lutter contre la désinformation en ligne : une approche européenne », COM(2018) 236 final,

Vu la communication conjointe au Parlement européen, au Conseil européen, au Conseil, au Comité économique et social européen et au Comité des régions du 5 décembre 2018, intitulée « Plan d'action contre la désinformation », JOIN(2018) 36,

Vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020, intitulée « Façonner l'avenir numérique de l'Europe », COM(2020) 67 final,

Vu la communication conjointe au Parlement européen, au Conseil européen, au Conseil, au Comité économique et social européen et au Comité des régions du 3 décembre 2020, relative au plan d'action pour la démocratie européenne, COM(2020) 790 final,

Vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 26 mai 2021, intitulé « Orientations de la Commission européenne visant à renforcer le code européen de bonnes pratiques contre le désinformation », COM(2021) 262 final,

Vu la proposition de règlement du Parlement européen et du Conseil relative à un marché unique des services numériques (législation sur les services numériques) et modifiant la directive 2000/31/CE, COM(2020) 825 final,

Vu la proposition de règlement du Parlement européen et du Conseil relatif aux marchés contestables et équitables dans le secteur numérique (législation sur les marchés numériques), COM(2020) 842 final,

Vu la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l'intelligence artificielle (législation sur l'intelligence artificielle) et modifiant certains actes législatifs de l'Union, COM(2021) 206 final,

Vu l'avis du Contrôleur européen de la protection des donnée (CEPD 1/2021 du 10 février 2021 sur la proposition de Législation sur les services numériques,

Vu la résolution du Parlement européen du 25 octobre 2018 sur l'exploitation des données des utilisateurs de Facebook par Cambridge Analytica et les conséquences en matière de protection des données (2018/2855(RSP),

Vu la résolution du Parlement européen du 20 octobre 2020, intitulée « Améliorer le fonctionnement du marché unique » (2020/2018(INL)),

Vu la résolution du Parlement européen du 20 octobre 2020, relative à l'adaptation des règles de droit commercial et civil pour les entités commerciales exerçant des activités en ligne (2020/2019(INL)),

Vu la résolution du Parlement européen du 20 octobre 2020 sur la législation relative aux services numériques et les questions liées aux droits fondamentaux (2020/2022(INI)),

Vu les consultations publiques lancées par la Commission européenne le 2 juin 2020 sur le Paquet dit Digital Services Act portant, respectivement, sur l'approfondissement du marché intérieur et la clarification des responsabilités des services numériques et sur un instrument de régulation ex ante des grandes plateformes en ligne à effets de réseau significatifs se comportant comme des gatekeepers dans le Marché intérieur,

Vu le code de conduite européen sur la lutte contre les discours haineux illégaux en ligne (2016),

Vu la sixième évaluation du code de conduite pour la lutte contre les discours haineux illégaux en ligne (2021),

Vu le code européen de bonnes pratiques contre la désinformation (2018),

Vu l'évaluation du code européen de bonnes pratiques contre la désinformation, SWD(2020) 180 final,

Vu la résolution européenne du Sénat n° 68 (1999-2000) du 5 février 2000, sur la proposition de directive du Parlement européen et du Conseil relative à certains aspects juridiques du commerce électronique dans le marché intérieur,

Vu la résolution européenne du Sénat n° 31 (2018-2019) du 30 novembre 2018, sur la responsabilisation partielle des hébergeurs de services numériques,

Vu la résolution européenne du Sénat n° 32 (2021-2022) du 12 novembre 2021 sur la proposition de règlement sur les marchés numériques (DMA),

Vu le rapport d'information du Sénat n° 443 (2012-2013) de Mme Catherine MORIN-DESAILLY, fait au nom de la commission des affaires européennes, L'Union européenne, colonie du monde numérique ? , déposé le 20 mars 2013,

Vu le rapport d'information du Sénat n° 696 (2013-2014) de Mme Catherine MORIN-DESAILLY, fait au nom de la mission commune d'information sur la gouvernance mondiale de l'Internet, L'Europe au secours de l'Internet : démocratiser la gouvernance de l'Internet en s'appuyant sur une ambition politique et industrielle européenne , déposé le 8 juillet 2014,

Vu le rapport d'information du Sénat n° 326 (2017-2018) de M. André GATTOLIN et Mme Colette MELOT, fait au nom de la commission des affaires européennes, Quelle protection pour les consommateurs européens à l'ère du numérique ? , déposé le 21 février 2018,

Vu le rapport du Sénat n° 677 (2017-2018) de Mme Catherine MORIN-DESAILLY, fait au nom de la commission de la culture, de l'éducation et de la communication, sur la proposition de loi relative à la lutte contre les fausses informations, déposé le 18 juillet 2018,

Vu le rapport du Sénat n° 731 (2017-2018) de Mme Catherine MORIN-DESAILLY, sénatrice, et M. Bruno STRUDER, député, fait au nom de la commission mixte paritaire, sur la proposition de loi relative à la lutte contre la manipulation de l'information, déposé le 26 septembre 2018,

Vu le rapport du Sénat n° 75 (2018-2019) de Mme Catherine MORIN-DESAILLY, fait au nom de la commission de la culture, de l'éducation et de la communication, sur la proposition de loi relative à la lutte contre les fausses informations, déposé le 24 octobre 2018,

Vu le rapport du Sénat n° 7 (2019-2020) de M. Gérard LONGUET, fait au nom de la commission d'enquête sur la souveraineté numérique, Le devoir de souveraineté numérique , déposé le 1 er octobre 2019,

Vu les rapports du Sénat n° 645 (2018-2019) et n° 299 (2019-2020) de M. Christophe-André FRASSA, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale la culture, de l'éducation et de la communication, sur la proposition de loi visant à lutter contre les contenus haineux sur internet, déposés le 11 décembre 2019 et le 5 février 2020,

Vu le rapport du Sénat n° 239 (2019-2020) de M. Christophe-André FRASSA, sénateur, et Mme Laetitia AVIA, députée, fait au nom de la commission mixte paritaire, sur la proposition de loi visant à lutter contre les contenus haineux sur internet, déposé le 8 janvier 2020,

Vu le rapport du Sénat n° 454 (2010-2021) de Mmes Jacqueline EUSTACHE-BRINIO et Dominique VERIEN, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale, sur le projet de loi confortant le respect des principes de la République, déposé le 18 mars 2021,

Vu le rapport d'information du Sénat n° 34 (2021-2022) de Mmes Florence BLATRIX CONTAT et Catherine MORIN-DESAILLY, fait au nom de la commission des affaires européennes, Proposition de règlement sur les marchés numériques (DMA) , déposé le 7 octobre 2021,

Sur l'opportunité de la proposition de règlement

Considérant les profondes évolutions de l'écosystème numérique depuis l'adoption de la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000, sur le commerce, notamment la place primordiale prise par les hébergeurs - au sens de ladite directive - dans les relations sociales, les modes de consommation, l'accès à l'information et le débat public, et la domination des géants américains du numérique ;

Considérant que la prolifération des contenus illicites sur internet, du harcèlement en ligne et de la désinformation constituent les ferments d'une désagrégation du corps social, et constituent des risques majeurs pour l'équilibre de nos démocraties ;

Considérant, en conséquence, que les règles libérales établies par la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000, en vue de favoriser l'émergence de nouveaux acteurs du numérique - en particulier le principe de responsabilité limitée des hébergeurs -, ne sont plus adaptées aux évolutions de l'écosystème numérique et ne répondent plus aux enjeux de sécurité de l'environnement numérique ;

Considérant que les codes de conduite volontaire établis aux niveaux européen et nationaux n'ont pas fait la preuve de leur efficacité et que les fournisseurs de services numériques n'ont pas démontré leur volonté de trouver des solutions technologiques et opérationnelles permettant de répondre aux objectifs affichés ;

Accueille favorablement l'initiative prise par la Commission de proposer une législation sur les services numériques, visant à renforcer les obligations des fournisseurs de services intermédiaires en vue de créer un environnement en ligne plus sûr ;

Estime pertinente la double approche fondée, pour les contenus illégaux, sur le renforcement des obligations concrètes de modération, et, pour les contenus illégaux et les contenus légaux susceptibles d'être préjudiciables, sur des obligations de vigilance renforcée, notamment en matière de transparence et de moyens ;

Approuve l'approche graduelle en fonction de la nature et de la taille des fournisseurs de services intermédiaires concernés, et notamment la prise en compte des risques systémiques spécifiques posés par les très grandes plateformes en ligne ;

Approuve le montant dissuasif des sanctions financières susceptibles d'être infligées par les régulateurs nationaux ou la Commission aux opérateurs de services en ligne en cas d'infraction au règlement, y compris pour manquement à leurs obligations de vigilance (art. 42, 59 et 60) ;

Sur les types d'acteurs concernés

Considérant l'absence de mention explicite des moteurs de recherche dans la proposition de règlement ;

Considérant que le caractère quasi-monopolistique des grands moteurs de recherche en Europe les met vis-à-vis des utilisateurs dans une position de verrouillage de l'accès à l'information et aux contenus ;

Demande que les moteurs de recherche soient soumis aux obligations communes à l'ensemble des intermédiaires établies par le règlement, et que les très grands moteurs de recherche, définis sur le même critère de nombre d'utilisateurs que les très grandes plateformes, soient soumis en outre aux obligations spécifiques à ces dernières ;

Sur les exemptions pour les petites entreprises

Considérant que l'imposition de charges administratives trop lourdes à des petites et moyennes entreprises et à de jeunes entreprises risquerait d'entraver l'innovation, le développement et le passage à l'échelle d'acteurs européens du numérique,

Considérant que les exemptions prévues par le projet de règlement (art. 13 (2) et 16) concernent principalement des obligations de transparence, sans remettre en cause les conditions d'engagement de la responsabilité des acteurs concernés, ni l'imposition, pour les hébergeurs, d'un mécanisme de notification et action harmonisé ;

Considérant que le franchissement des seuils d'exemption prévus entraînera automatiquement, aux termes du règlement, la soumission aux obligations de droit commun établies par ce dernier ;

Considérant les risques de préjudices individuels, directs et immédiats, susceptibles d'être causés aux consommateurs par la vente en ligne de produits et services illicites ou dangereux ;

Considérant que les critères d'exemption reposent sur des critères de chiffre d'affaire et de nombre de salariés qui ne rendent que très partiellement compte du poids réel de ces plateformes dans l'écosystème numérique ;

Soutient les exemptions prévues pour les petites et microentreprises, à l'exception néanmoins des obligations relatives à la vente de produits et services en ligne, notamment à la traçabilité des professionnels (art. 22) ;

Recommande dans tous les cas qu'un critère d'audience soit privilégié pour évaluer l'opportunité ou non d'exempter une plateforme en ligne de certaines obligations administratives ;

Sur les critères de définition des « très grandes plateformes »

Considérant la nécessité d'une méthodologie de calcul des seuils robuste, afin de se prémunir contre toute pratique de contournement des seuils qualifiant les « très grandes plateformes » et déclenchant les obligations et modalités de contrôle afférentes ;

Considérant que le nombre d'utilisateurs en valeur absolue est un indicateur insuffisant pour déterminer le risque de création ou d'aggravation de risques systémiques ;

Demande une clarification en annexe du règlement de la méthodologie de calcul des seuils et du nombre mensuel moyen d'utilisateurs actifs, notamment de l'assiette utilisée pour déterminer le nombre d'utilisateurs actifs ;

Recommande le recours à des tiers certifiés pour déterminer le nombre de bénéficiaires actifs des plateformes en ligne ;

Souhaite, dans la logique d'une approche fondée sur le risque, la mise en place d'un mécanisme permettant de soumettre, au cas par cas, aux obligations spécifiques prévues à la section 4 du chapitre III, des plateformes en ligne n'atteignant pas les seuils fixés à l'article 25, sur la base de critères complémentaires prenant notamment en compte la part d'audience de ces plateformes dans certaines catégories de population, notamment en fonction de critères géographiques ;

Estime que ces critères complémentaires devraient notamment tenir compte du ciblage de publics vulnérables, notamment des mineurs ;

Sur les mécanismes de retrait des contenus illicites

Considérant le maintien, dans le règlement, de l'interdiction de soumettre les fournisseurs de services intermédiaires à une obligation de surveillance généralisée des contenus (art. 7) ;

Considérant que, conformément au principe de responsabilité limitée des hébergeurs, la possibilité d'engager la responsabilité d'un hébergeur pour la présence d'un contenu illicite sur ses services dépend concrètement de la possibilité de l'informer de la présence de ce contenu illicite ;

Considérant que confier l'appréciation du caractère illicite des contenus, en première approche, à des opérateurs de service en ligne qui sont des entités privées, est susceptible de porter gravement atteinte à la liberté d'expression, a fortiori lorsqu'il s'agit de contenus qui ne sont pas manifestement illicites ;

Considérant que les mesures de lutte et de protection contre les utilisations abusives prévues dans le projet de règlement (art. 20) concernent exclusivement des mesures qui peuvent être prises par les plateformes à l'encontre des utilisateurs, sans que soit prise en compte l'éventualité de modération abusives de la part des plateformes elles-mêmes ;

Considérant que les mécanismes d'amplification des contenus sur les plateformes en ligne créent un espace public en ligne dont les caractéristiques sont différentes de l'espace public dans le monde réel ;

Approuve la mise en place obligatoire, pour tous les hébergeurs, d'un mécanisme de notification et action harmonisé dans l'ensemble de l'Union (art. 14) ;

Estime qu'afin que ce mécanisme soit réellement « facile d'accès et d'utilisation », une normalisation plus poussée, notamment en matière de visibilité, est nécessaire ; le mécanisme de signalement devrait notamment être obligatoirement placé à proximité immédiate du contenu faisant l'objet d'un signalement ;

Estime que lorsque le caractère illicite d'un contenu n'est pas manifeste, les plateformes en ligne devraient être invitées dans un premier temps à réduire la visibilité de ce dernier, sans toutefois le supprimer, le temps de vérifier son caractère illicite ;

Souhaite que la fermeture de certaines catégories de comptes d'intérêt général, dont ceux de personnalités politiques, ne puisse intervenir que sur décision de justice, et non, comme prévu actuellement, sur simple décision de la plateforme (art. 20) ;

Suggère que les données pertinentes pour l'évaluation du respect de la liberté d'expression par les fournisseurs de services intermédiaires puissent être conservées et mises à la disposition de chercheurs et auditeurs indépendants agréés, ainsi que des régulateurs, dans le respect de la protection des données à caractère personnel ;

Sur les signaleurs de confiance

Considérant la quantité de notifications reçues par les fournisseurs de services intermédiaires en ligne et l'inégale gravité de l'illicéité des contenus notifiés et la nécessité de se prémunir contre les notifications abusives,

Considérant l'enjeu considérable que constitue la lutte contre la contrefaçon sur internet, qu'il s'agisse de marchandises ou de contenus de médias ou culturels ;

Approuve l'instauration d'un statut de « signaleurs de confiance », dont les notifications devront être traitées « de manière prioritaire et dans les meilleurs délais » ;

Suggère la suppression du critère de représentation des « intérêts collectifs » pour les « signaleurs de confiance », afin que ce statut puisse, dans les conditions établies par le règlement, être reconnu à certaines grandes entreprises et certains syndicats professionnels ou organismes de gestion des droits ;

Sur les obligations de transparence concernant la modération et les obligations de vigilance

Considérant l'insuffisance des informations, notamment sur les activités de modération, fournies par les opérateurs de service en ligne, y compris dans les rapports de transparence qu'ils publient volontairement au titre des codes de conduite auxquels ils adhèrent ;

Considérant en outre l'inégalité des performances des algorithmes de modération, mais aussi l'inégal engagement des ressources humaines consacrées par les très grandes plateformes, en fonction des différentes langues, cultures et législations des pays qu'elles ciblent ;

Exige que ces rapports de transparence publiés par les opérateurs de services en ligne aux termes des articles 13, 23 et 33, comprennent des informations sur les moyens financiers, notamment humains, engagés pour se conformer aux obligations de modération et aux autres obligations de vigilance prévues par le règlement, et a minima une ventilation des informations et données exigibles par État membre et par langue ;

Doute néanmoins de la fiabilité de rapports de transparence rédigés par les opérateurs eux-mêmes ;

Approuve l'obligation faite aux très grandes plateformes de se soumettre annuellement à un audit indépendant ;

Invite à préciser les garanties relatives à l'indépendance des auditeurs des très grandes plateformes,

Sur l'accès aux données

Considérant qu'il est indispensable que les régulateurs puissent disposer de toutes les données nécessaires pour contrôler le respect du règlement par les opérateurs de services en ligne ;

Considérant en outre la nécessité d'une évaluation externe des risques systémiques représentés par les très grandes plateformes en ligne, s'appuyant notamment sur les compétences du milieu académique ;

Approuve l'obligation faite aux très grandes plateformes en ligne de fournir aux autorités de régulation nationales ou à la Commission les données nécessaires pour contrôler et évaluer le respect du règlement (art. 31 (1)), ainsi que de fournir l'accès à leurs données à des chercheurs agréés, aux fins de procéder à des recherches contribuant à identifier et à la comprendre les risques représentés posés par leurs services (art. 31 (2) ;

Estime que les régulateurs nationaux devraient se voir garantir des pouvoirs d'accès aux données égaux à ceux de la Commission ;

Juge indispensable que l'accès aux données des très grandes plateformes ne soit pas limité aux chercheurs affiliés à des établissements universitaires (art. 31 (4)), mais soit garanti à tout chercheur, y compris des chercheurs indépendants agréés ;

S'oppose à la possibilité pour une très grande plateforme de refuser l'accès aux données au motif de la protection d'informations confidentielles ou de la sécurité de son service (art. 31 (7)), sauf à démontrer que ces données ne sont pas nécessaires aux fins de la demande ;

Souhaite que les actes délégués (art. 31 (5)) qui établiront les conditions techniques de mise à disposition des données, tout en tenant dûment compte de la nécessité de concilier la protection des données à caractère personnel et le secret des affaires, n'aboutissent pas à limiter abusivement dans les faits l'accès aux données, notamment en faisant peser sur les chercheurs des charges de mise en conformité excessives ;

Recommande, la mise en place de protocoles de tests d'algorithmes sur la base des données disponibles publiquement sur les très grandes plateformes, au profit des autorités de régulation et des chercheurs, en complément de la mise à disposition des données par l'intermédiaire de bases de données en ligne ou d'interfaces de programme d'application (art. 31 (3)) ;

Estime indispensable de ne pas conserver le caractère limitatif de la liste de motifs d'ouverture des données aux chercheurs agréés prévue à l'article 26 (1), afin de permettre la détection par ces derniers de l'ensemble des risques systémiques susceptibles d'être représentés par les très grandes plateformes en ligne ;

Sur certaines catégories de risques spécifiques

Sur la protection des consommateurs

Considérant l'existence d'une règlementation sectorielle spécifique en matière de protection du consommateur, au niveau européen comme au niveau national ;

Considérant que la prolifération, sur les places de marché en ligne, de produits contrefaits et illicites, est susceptible de mettre gravement en danger la santé des consommateurs ;

Considérant que de nombreux fournisseurs de service en ligne fournissent, à titre accessoire, des services de vente en ligne, ou de redirection vers des sites marchands, ainsi que de publicité ;

Estime utile de soumettre à des obligations horizontales spécifiques l'ensemble des plateformes en ligne permettant la mise en relation d'un client et d'un vendeur professionnel et la conclusion de contrats de vente de biens ou de services avec un vendeur professionnel ;

Approuve, en conséquence, les dispositions concernant la traçabilité des vendeurs (art. 22) ;

Estime que, dans certains cas, notamment lorsqu'elles ne se sont pas conformées à cette obligation de vérifier l'identité du vendeur, les plateformes en ligne permettant la conclusion de contrats de vente devraient pouvoir être tenues pour responsables des dommages causés par la vente de produits illicites, notamment lorsqu'il s'agit de produits dangereux ;

Estime que les risques pour la protection des consommateurs devraient faire partie des risques systémiques évalués annuellement par les très grandes plateformes (art. 26) ;

Sur le pluralisme des médias

Considérant qu'il n'existe au niveau européen aucune définition des « médias » permettant de garantir la qualité et l'indépendance des services habituellement classés dans cette catégorie, et a fortiori des services se qualifiant comme tels ;

Considérant le rôle majeur joué par des entités étrangères se présentant comme des médias dans les campagnes coordonnées de désinformation qui ont récemment visé l'Europe ;

Considérant l'enjeu crucial, pour l'avenir des démocraties européennes, que représente la lutte contre la désinformation en ligne ;

Considérant que le soutien à un journalisme de qualité et la promotion d'informations émanant de sources fiables est un facteur efficace de lutte contre la désinformation ;

Considérant que les législations en faveur de la liberté et du pluralisme de la presse relèvent de l'échelon national ;

Souhaite que les risques d'atteinte au pluralisme des médias soient ajoutés à la liste des risques systémiques qui devraient être évalués annuellement par les très grandes plateformes (art. 26) ;

Suggère que les plateformes en ligne, et notamment les très grandes plateformes, soient tenues d'assurer une visibilité améliorée des informations d'intérêt public émanant de sources fiables, notamment de sources journalistiques et de médias, sur la base de normes et de critères co-construits avec les acteurs du secteur ;

Estime nécessaire que soit affirmée explicitement la possibilité pour les législateurs nationaux d'adopter des mesures favorisant le pluralisme des médias sur internet ;

Sur la protection des enfants

Considérant que l'exposition des enfants aux contenus illicites, haineux ou inappropriés sur internet est particulièrement préjudiciable à leur développement, à leur équilibre et à leur bien-être ;

Demande que les atteintes à la santé physique et psychique des enfants soient ajoutées à la liste des risques systémiques évalués annuellement pas les très grandes plateformes (art. 26) ;

Suggère que les évaluations des autres risques systémiques comportent systématiquement une section concernant plus spécifiquement les enfants ;

Estime que la protection des publics vulnérables, en particulier des enfants, devrait faire l'objet d'une réflexion particulière dans le cadre des codes de conduite mentionnés aux articles 35 et 36 ;

Souhaite que les très grandes plateformes soient invitées à collaborer avec les autorités de régulation nationales et européennes pertinentes et les instances académiques, en vue de l'établissement de normes pour l'établissement d'un droit à l'oubli renforcé pour les mineurs ;

Demande que, parmi les normes qui seront établies par la Commission européenne aux termes de l'article 34 de la proposition de DSA, figure la mise en place de systèmes de contrôle de l'âge des utilisateurs ;

Sur le modèle économique des plateformes et le rôle des algorithmes

Considérant que le modèle économique des plateformes, en particulier des réseaux sociaux, est basé sur l'économie de l'attention et repose sur la rémunération par la vente d'espaces publicitaires ;

Considérant que ce modèle, qui incite les plateformes à maximiser par tous les moyens le temps passé par les utilisateurs sur leurs services, jusqu'à porter atteinte à leur bien-être et leur sécurité, favorise la propagation de contenus violents et clivants, qui provoquent un engagement maximal des utilisateurs ;

Considérant que l'asymétrie d'information entre les plateformes et leurs utilisateurs, notamment en ce qui concerne les paramètres de fonctionnement des systèmes de recommandation des contenus et les données à caractère personnel utilisées pour le ciblage, est à l'origine de l'enfermement des utilisateurs dans des bulles de contenus de plus en plus polarisées ;

Estime nécessaire d'ajouter à la liste des risques systémiques qui devraient être évalués annuellement (art. 26) et atténués (art. 27) par les très grandes plateformes les risques découlant du fonctionnement même des algorithmes de recommandation et des systèmes publicitaires ;

Sur les systèmes algorithmiques

Approuve l'obligation faite aux très grandes plateformes en ligne de fournir aux utilisateurs des informations sur les principaux paramètres utilisés par les systèmes de recommandation des contenus, la possibilité de les modifier et de les désactiver (art. 29) ;

Demande la désactivation par défaut des systèmes de recommandation ;

Souligne que cette désactivation par défaut est particulièrement souhaitable pour les mineurs ;

Estime que les utilisateurs devraient être informés clairement de toute modification touchant les systèmes de recommandation ;

Estime nécessaire que les algorithmes d'intelligence artificielle utilisés par les très grandes plateformes en ligne aux fins d'ordonnancement de contenus et de modération soient rendus publics avant leur mise en service, et à chaque modification substantielle, aux fins de détection par des chercheurs des risques systémiques potentiels induits par leur fonctionnement, moyennant la mise en place de garanties appropriées concernant le secret des affaires ;

Souhaite que, dans le cadre de la procédure d'audit prévue à l'article 28, les algorithmes d'ordonnancement des contenus et de modération des très grandes plateformes puissent faire l'objet d'audits réguliers de la part d'auditeurs indépendants, et que ces derniers puissent émettre à leur sujet des recommandations auxquelles les très grandes plateformes devraient se conformer, sauf à se justifier ;

Souhaite que les algorithmes d'intelligence artificielle utilisés par les fournisseurs de services numériques, et en particulier les très grandes plateformes en ligne, fassent l'objet d'une attention particulière dans l'élaboration de la future législation de l'Union sur l'intelligence artificielle ;

Sur le profilage et la publicité ciblée

Considérant que la publicité en ligne peut présenter des risques importants, quand elle concerne des produits ou contenus eux-mêmes illicites ou préjudiciables, ou qu'elle constitue une incitation financière à la publication, à la promotion ou à l'amplification de contenus, services ou activités illicites ou préjudiciables en ligne ;

Considérant que l'affichage ciblé de publicités en ligne, sur la base de données à caractère personnel, est susceptible de porter préjudice à l'égalité de traitement des citoyens ;

Considérant qu'une application stricte du règlement général sur la protection des données (RGPD) permettrait de limiter certaines pratiques contestables en matière de publicité ciblée, comme le ciblage publicitaire sur la base de données à caractère personnel inférées à partir des interactions des utilisateurs avec certains contenus ;

Accueille très favorablement les dispositions visant à améliorer la transparence des systèmes de publicité en ligne sur les plateformes (art. 24 et 30) ;

Souhaite, afin d'en assurer une meilleure efficacité, une harmonisation minimale de l'affichage signalant le caractère publicitaire de certaines communications ;

Estime que les utilisateurs devraient avoir accès à la fois aux paramètres de ciblage déterminés par l'annonceur et au détail de leurs données personnelles utilisées pour le ciblage ;

Estime que l'identité du financeur de la publicité devrait, le cas échéant, être indiquée, en plus de l'identité de l'annonceur, à la fois en temps réel pour chaque publicité spécifique (art. 24) et dans les registres de transparence prévus à l'article 30 ;

Rappelle que l'usage de données à caractère personnel pour le ciblage publicitaire devrait faire l'objet d'un choix éclairé de la part de l'utilisateur, conformément aux dispositions du RGPD ;

Demande la désactivation par défaut du ciblage publicitaire pour l'ensemble des utilisateurs, et l'interdiction de la publicité ciblée à destination des mineurs ;

Sur la réforme du régime de responsabilité

Considérant l'utilisation par certaines catégories d'hébergeurs au sens de la directive sur le commerce électronique précitée, notamment les plateformes en ligne, d'algorithmes d'ordonnancement des contenus, et leurs conséquences sur la visibilité de ces contenus ;

Considérant que le régime actuel de responsabilité des hébergeurs ne rend pas compte du rôle actif ainsi joué par ces acteurs dans le partage et la dissémination des contenus en ligne ;

Déplore que le règlement ne remette pas en cause le principe de responsabilité limitée des hébergeurs, y compris des plateformes et des très grandes plateformes en ligne ;

Appelle à nouveau à créer un régime européen de responsabilité renforcée spécifique pour les fournisseurs de service intermédiaire utilisant des algorithmes d'ordonnancement des contenus, à raison de ladite utilisation ;

Souhaite l'établissement au niveau européen de normes en matière d'éthique et de respect des droits fondamentaux, qui devraient être respectées lors de l'élaboration des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité ciblée utilisés par les fournisseurs de service intermédiaires, selon un principe de legacy et safety by design ;

Estime que la responsabilité des fournisseurs de services intermédiaires utilisant de tels algorithmes devrait pouvoir être directement engagée en cas de non-respect de ces normes ;

Sur les modalités de contrôle

Considérant le maintien dans le règlement du principe du pays d'origine ;

Considérant qu'en conséquence, les décisions concernant les fournisseurs de services intermédiaires relèvent en dernier recours du coordinateur des services numériques du pays d'établissement du service, hormis pour les très grandes plateformes, pour lesquelles la Commission est habilitée à intervenir directement, notamment en cas de défaut d'action de la part du coordinateur des services numériques compétent ;

Considérant que la prise de décision concernant la mise en oeuvre d'une procédure de surveillance renforcée pour une très grande plateforme par le coordinateur des services numériques compétent, après que le Comité ou la Commission lui a recommandé d'enquêter sur une infraction présumée, n'est enfermée dans aucun délai ;

Considérant que les dysfonctionnements observés dans la mise en oeuvre du mécanisme des autorités cheffes de file prévu par le RGPD ont abouti à une application non uniforme du règlement dans les différents États membres ;

Considérant en outre l'inégale dotation en moyens humains et matériels des autorités de contrôle nationales, impliquant leur inégale diligence à faire appliquer le règlement ;

Considérant que les autorités nationales de régulation du numérique ont chacune acquis des compétences sectorielles et une connaissance de l'écosystème précieuses, dans l'optique du contrôle de la mise en oeuvre du règlement ;

Considérant la nécessité d'assurer la pleine effectivité du règlement et de réduire les délais d'enquête, notamment en ce qui concerne les très grandes plateformes ;

Considérant que les risques systémiques posés par les très grandes plateformes concernent l'ensemble de l'Union ;

Estime que la Commission devrait dans tous les cas pouvoir se substituer en dernier ressort au coordinateur des services numériques du pays d'établissement du fournisseur de services intermédiaire concerné pour faire cesser une infraction ;

Estime que la Commission devrait, pour les très grandes plateformes, détenir le monopole du pouvoir d'enquête et de sanction, tout en partageant le pouvoir d'initiative avec le Comité ;

Remarque toutefois l'insuffisance des moyens humains prévus, au sein de la Commission, pour le contrôle du respect du règlement, au regard du haut degré de technicité requis et de la nécessité de faire appel à des compétences variées, dans des secteurs divers ;

Appelle donc à une meilleure association des autorités de régulation nationales des pays de destination et des pays d'origine du service aux enquêtes et autres actions de contrôle de la Commission concernant le respect du règlement par les très grandes plateformes, notamment le suivi du respect par ces dernières des engagements pris, en ce qui concerne le territoire national ;

Estime que, de manière générale, le rôle des autorités de régulation des pays de destination devrait être renforcé, notamment afin qu'elles puissent être interrogées sur des points de droit national par les autorités de régulation des pays d'établissement, et qu'elles puissent être associées aux enquêtes concernant des faits affectant leur territoire, notamment dans le domaine de la consommation ;

Ajoute que les réseaux des autorités de régulation nationales sectorielles devraient également être mieux associés au contrôle du respect du règlement par les très grandes plateformes, notamment par le biais d'avis sur les rapports de transparence et les rapports d'audit des très grandes plateformes ;

Sur les délais et l'adaptabilité du règlement

Considérant l'urgence, pour l'Union européenne, d'établir des normes strictes et ambitieuses en matière de lutte contre les contenus illicites et préjudiciables en ligne, capables à la fois d'améliorer la sécurité de ses propres citoyens, et de constituer un référentiel au niveau international ;

Considérant l'évolution rapide des technologies et des équilibres de marché dans le monde numérique ;

Souhaite que le règlement sur les services numériques soit adopté dans les meilleurs délais ;

S'oppose fermement à toute extension du délai d'applicabilité du règlement, après son entrée en vigueur ;

Recommande de réduire le délai d'évaluation du règlement et du fonctionnement du Comité respectivement de cinq ans et trois ans à deux ans ;

Souhaite que les différentes parties prenantes soient invitées à évaluer d'ores et déjà, puis régulièrement, la robustesse du règlement face aux évolutions prévisibles de l'environnement en ligne, notamment le développement des applications des plateformes de mondes virtuels ;

Invite le Gouvernement à soutenir ces orientations et à les faire valoir dans les négociations à venir.

ANNEXE

Le Sénat appelle depuis longtemps à un renforcement du régime de responsabilité des intermédiaires de services en ligne

• Il a exprimé des réserves dès l'origine quant au régime de responsabilité allégée prévu par la directive sur le commerce électronique

Dès 1999, à l'occasion de sa saisine sur le projet de directive sur le commerce électronique, dans le cadre de l'article 88-4 de la Constitution, le rapporteur au nom de la délégation aux affaires européennes, M. René Trégouët, avait alors qualifié l'approche de la Commission sur la responsabilité des intermédiaires de « trop laxiste » et, sans s'opposer à la proposition, avait appelé à trouver une solution plus ambitieuse, fondée sur des obligations de vigilance renforcée de la part des intermédiaires concernés 72 ( * ) .

• Il a appelé, en 2013 et 2014, à une gouvernance européenne du numérique et à une démocratisation de la gouvernance d'internet

Deux rapports présentés par Mme Catherine Morin-Desailly, respectivement au nom de la commission des affaires européennes 73 ( * ) , et de la mission commune d'information sur la gouvernance mondiale de l'internet 74 ( * ) , ont fait valoir la nécessité d'une gouvernance et d'une régulation européennes, dans un monde numérique dominé par de grands acteurs privés non européens, afin que l'Europe ne devienne pas une « colonie du monde numérique », et invité à mettre en place une gouvernance mondiale d'internet fondée sur les valeurs démocratiques et le respect des droits fondamentaux.

• Il a appelé en 2018 à une révision du régime de responsabilité des hébergeurs

À la suite du scandale Cambridge Analytica, le Sénat, constatant l'évolution de l'écosystème numérique au profit des grands acteurs américains et l'absence de volonté de ces derniers de corriger les risques qu'entraîne l'utilisation de leurs services pour les systèmes démocratiques, a demandé une évolution du régime européen de responsabilité des intermédiaires de services en ligne tel que résultant de la directive sur le commerce électronique, tout en soulignant la nécessité de protéger la liberté d'expression et le développement du marché intérieur 75 ( * ) .

• En 2018, il a mis en évidence le rôle néfaste du modèle économique des plateformes en ligne dans la diffusion des fausses informations

A l'occasion de l'examen de la proposition de loi relative à la lutte contre les fausses informations 76 ( * ) , la commission de la culture du Sénat a mis en évidence le caractère délibéré de l'exploitation des fausses informations sur internet par les plateformes, dans un but économique, soulignant que le statut juridique des plateformes tel qu'établi par le droit européen constituait un verrou à l'engagement de leurs responsabilités dans ce domaine 77 ( * ) .

• En 2019, il s'est opposé à la création d'une obligation de suppression de certains contenus en 24 heures et recommandé de s'attaquer à la viralité et au financement des acteurs nocifs par la publicité

Alors que la proposition de loi « Avia » 78 ( * ) posait l'obligation pour les plateformes de supprimer certains contenus haineux manifestement illicites sous 24 heures après notification (facilitée), et créait un nouveau délit de non-retrait pénalement réprimé, la commission des lois du Sénat a réaffirmé la nécessité de mieux responsabiliser les grandes plateformes, tout en mettant en garde contre les atteintes prévisibles causées par de telles dispositions à la liberté d'expression (sur-censure par les plateformes, impossibilité de prioriser, dans un délai de 24 heures, les contenus selon leur nocivité, risque d'instrumentalisation des signalements par des groupes de pression) 79 ( * ) .

La commission des lois avait également souligné la nécessité de « mieux s'attaquer à la viralité, coeur du problème », et au financement des acteurs nocifs par la publicité.

• En 2020, il a exprimé ses réserves quant à la compatibilité des mesures de « pré-transposition » du DSA avec le cadre juridique européen en vigueur

Alors que le nouvel article 19 bis du projet de loi confortant le respect des principes de la République 80 ( * ) , introduit par amendement du Gouvernement à l'Assemblée nationale, entendait « pré-transposer », pour les seules grandes plateformes visant la France, l'essentiel des obligations figurant dans la proposition de DSA, la commission des lois du Sénat a exprimé ses doutes quant à cette dérogation au principe du pays d'origine, établi par la directive sur le commerce électronique de 2000, sans par ailleurs apporter de modifications substantielles au texte 81 ( * ) .

LISTE DES PERSONNES ENTENDUES82 ( * )

Instances européennes

Commission européenne

M. Prabhat Agarwal, chef de l'unité F2 de la Direction générale des réseaux de communication, du contenu et des technologies (DG CONNECT)

M. Julien Mousnier, chef de l'unité « Droits des citoyens et des consommateurs et État de droit » du secrétariat général de la Commission européenne.

Conseil de l'Europe

M. Thomas Schneider, vice-président du Comité directeur sur les médias et la société de l'information (CDMSI)

Contrôleur européen de la protection des données (CEPD)

M. Brendan Van Alsenoy, Chef adjoint de l'Unité Policy and Consultation

Bureau européen des unions de consommateurs (BEUC)

Mme Vanessa Turner, conseillère

Services de l'État

Direction générale des entreprises (Ministère de l'économie et des finances) -
Pôle d'expertise de la régulation numérique (PEReN)

M. Nicolas Deffieux, directeur du Pôle

M. Lucas Verney, Data scientist

Secrétariat général des affaires européennes (SGAE)

Mme Constance Deler, chef du secteur Parlement

M. Tanguy Larher, chef de file Stratégie numérique

M. Marc Gillot, adjoint au chef de file Stratégie numérique

Autorités françaises de régulation

Conseil national du numérique (deux auditions)

M. Vincent Toubiana, secrétaire général adjoint

Mme Marylou Le Roy, responsable des affaires juridiques et des relations institutionnelles

Mme Joëlle Toledano, professeure des universités, associée à la chaire « Gouvernance et régulation » de Paris IX-Dauphine, membre du Conseil national du numérique

M. Jean Cattan, secrétaire général

Conseil supérieur de l'audiovisuel

M. Roch-Olivier Maistre, président

Mme Michèle Léridon, conseillère

Parlementaires

M . Damian Collins, député à la Chambre des Communes britannique, président de la Commission mixte sur la proposition de loi sur la sécurité en ligne ( Online Safety Bill)

Entreprises

Facebook

M. Anton Maria Battesti, responsable des affaires publiques France

Google

M. Benoît Tabaka, directeur des affaires publiques France

M. Tariq Krim, entrepreneur du numériqu e

Syndicats professionnels

European Publishers Councils

Mme Angela Mills Wade, directeur exécutif

Experts et thinktanks

M. Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique

Mme Christiane Féral-Schuhl, avocat

Mme Rebeka Tromble, directrice de l'Institut pour les données, la démocratie et la politique à l'université Georges Washington de Washington (Etats-Unis)

IDFRIGHTS

M. Jean-Marie Cavada, président

Mme Colette Bouckaert, secrétaire générale

La Quadrature du Net

M. Arthur Messaud, juriste

M. Martin Drago, juriste

EUDisinfoLab

M. Alexandre Alaphilippe, directeur exécutif (réponse écrite)

Lanceurs d'alerte

Mme Frances Haugen, ancienne ingénieure chez Facebook, lanceuse d'alerte (audition publique)


* 1 Proposition de règlement du Parlement européen et du Conseil du 15 décembre 2020 relatif aux marchés numériques (Législation sur les services numériques - ou Digital Services Act , dit DSA), COM(2020) 825 final.

* 2 Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique»).

* 3 Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »).

* 4 Défini comme un service de la société de l'information consistant à « stocker des informations fournies par un destinataire du service ».

* 5 Directive 2000/31/CE précitée, art. 14.

* 6 Directive 2000/31/CE précitée, art. 15.

* 7 Directive 2000/31/CE précitée, art. 3.

* 8 Affaire C-360/10, SABAM c/ Netlog NV, 16 février 2012.

* 9 Affaire C-18/18, Eva Glawischnig-Piesczek c/ Facbook Ireland Limited, 3 octobre 2019.

* 10 Affaire C-324/09, L'Oreal c/ eBay, 12 juillet 2011.

* 11 Affaires C-236/08 à C-238/08, Google France et Google c/ Vuitton, 23 mars 2010.

* 12 Étude d'impact accompagnant la proposition de règlement du Parlement européen et du Conseil relative à un marché intérieur des services numériques (Législation sur les services numériques) et modifiant la directive 2000/31/CE, SWD(2020) 348 final, p. 84.

* 13 Étude d'impact précitée, p. 85.

* 14 Directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d'auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE.

* 15 Directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive Services de médias audiovisuels), modifiée.

* 16 En cours d'adoption (proposition de règlement européen et du Conseil du 12 septembre 2018, relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne, COM(2018) 640 final), à la suite notamment de la directive (UE) 2017/541 relative à la lutte contre le terrorisme, qui comprenait déjà des dispositions sur ce point.

* 17 Directive 2011/93/UE du Parlement européen et du Conseil du 13 décembre 2011 relative à la lutte contre les abus sexuels et l'exploitation sexuelle des enfants, ainsi que la pédopornographie et remplaçant la décision-cadre 2004/68/JAI du Conseil.

* 18 Directive 2011/83/UE du Parlement européen et du Conseil du 25 octobre 2011 relative aux droits des consommateurs, modifiant la directive 93/13/CEE du Conseil et la directive 1999/44/CE du Parlement européen et du Conseil et abrogeant la directive 85/577/CEE du Conseil et la directive 97/7/CE du Parlement européen et du Conseil ; règlement (UE) 2019/1020 du Parlement européen et du Conseil du 20 juin 2019 sur la surveillance du marché et la conformité des produits, et modifiant la directive 2004/42/CE et les règlements (CE) n° 765/2008 et (UE) n° 305/2011.

* 19 Directive 2005/29/CE du Parlement européen et du Conseil du 11 mai 2005 relative aux pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur et modifiant la directive 84/450/CEE du Conseil et les directives 97/7/CE, 98/27/CE et 2002/65/CE du Parlement européen et du Conseil et le règlement (CE) n° 2006/2004 du Parlement européen et du Conseil («directive sur les pratiques commerciales déloyales») ; directive (UE) 2019/770 du Parlement européen et du Conseil du 20 mai 2019 relative à certains aspects concernant les contrats de fourniture de contenus numériques et de services numériques.

* 20 Directive 2000/31/UE précitée, art. 3 (4). De telles restrictions doivent faire l'objet d'une notification à la Commission européenne et aux autres États membres.

* 21 La Commission européenne avait par ailleurs exprimé sa préoccupation quant à la conformité des dispositions prévues à la directive sur le commerce électronique précitée.

* 22 Loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République.

* 23 Communication de la Commission au Parlement européen, au Conseil, au Comité économique et social et au Comité des régions intitulée « Façonner l'avenir numérique de l'Europe », COM(2020) 67 final.

* 24 Proposition de règlement du 15 décembre 2020 du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques) et modifiant la directive 2000/31/CE, COM(2020) 825.

* 25 Ce dernier texte a fait l'objet de la part de vos rapporteures d'un rapport (rapport d'information du Sénat n° 34 (2021-2022) de Mmes Florence Blatrix Contat et Catherine Morin-Desailly, au nom de la commission des affaires européennes, Proposition de règlement sur les marchés numériques (DMA) , déposé le 7 octobre 2021), et d'une proposition de résolution européenne (proposition européenne n° 33 (2021-2022), devenue résolution européenne du Sénat n° 32 (2021-2022) du 12 novembre 2022).

* 26 La Commission estime en effet que l'harmonisation des règles relatives aux fournisseurs de services en ligne permettraient de faire économiser environ 400 000 euros par an de coûts de mise en conformité à une entreprise de taille moyenne et jusqu'à 4 à 11 millions d'euros par an pour une entreprise opérant dans plus de 10 États membres ; elle anticipe aussi une augmentation du commerce électronique transfrontière de 1 à 1,8 % (étude d'impact précitée, p. 49).

* 27 Excepté lorsque, pour les plateformes de vente en ligne, le consommateur « peut être amené à croire que les informations, le produit ou le service » sont fournis directement par la plateforme, et non par un vendeur tiers (art. 5.3)).

* 28 L'article 15 de la directive sur le commerce électronique posait déjà une telle interdiction.

* 29 Considérant 40 : « Les dispositions de la présente directive sur la responsabilité ne doivent pas faire obstacle au développement et à la mise en oeuvre effective, par les différentes parties concernées, de systèmes techniques de protection et d'identification ainsi que d'instruments techniques de surveillance rendus possibles par les techniques numériques, dans le respect des limites établies par les directives 95/45/CE et 97/66/CE. ».

* 30 Affaires C-360/10, SABAM c/ Netlog NV, 16 février 2012 et C-70/10, Scarlet Extended SA contre Société belge des auteurs, compositeurs et éditeurs SCRL (SABAM), 24 novembre 2011.

* 31 Directive (UE) 2019/790 précitée.

* 32 Directive (UE) 2010/13/UE, modifiée .

* 33 Tandis qu'aux termes de la directive sur le commerce électronique, l'hébergeur se contentait de « stocker des informations fournies par un destinataire du service » (art. 14 (1)).

* 34 En France, la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique a imposé des obligations particulières à une catégorie particulière de services de communication au public en ligne reposant sur un service de classement, de référencement ou de mise en relation, appelés opérateurs de plateforme en ligne (Code de la consommation, nouvel article L. 111-7).

* 35 La CJUE a eu l'occasion de préciser qu'il était nécessaire, pour que la responsabilité d'un hébergeur puisse être engagée, qu'il ait non seulement une connaissance de l'existence d'un contenu illicite, mais également de son caractère illicite (aff. C-326/08 à C6238/08 précitées), et que cette connaissance, pour être effective, devait avoir fait l'objet d'une notification suffisamment précise et étayée (aff. C-324/09 précitée).

* 36 Allemagne, Espagne, Finlande, France, Grèce, Hongrie, Italie, Lituanie et Suède ; excepté pour l'Allemagne, la France, la Lituanie et la Suède, le mécanisme ne concerne que les infractions au droit d'auteur (étude d'impact précitée, p. 94).

* 37 Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique ; les infractions en matière de terrorisme, pédophilie, crime contre l'humanité suivent une procédure particulière.

* 38 Certifiés par les autorités du pays d'origine du service.

* 39 Sauf pour les microentreprises et petites entreprises, au sens de la recommandation 2003/361/CE.

* 40 À l'exception des microentreprises et petites entreprises, au sens de la recommandation 2003/361/CE.

* 41 375 000 € maximum, pour une personne morale, en cas de manquement aux obligations établies par l'article 6 de la LCEN ; la loi sur le respect des principes de la République a introduit dans la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication, depuis août 2021, une amende maximale, pour les grandes plateformes ciblant le territoire français, correspondant à 6 % de leur chiffre d'affaire annuel mondial.

* 42 Art. L. 521-3-1 du Code de la consommation.

* 43 Cf. ci-dessus. D'autres textes en discussion, comme le futur règlement général sur la sécurité des produits (RGSP) (proposition de règlement du Parlement européen et du Conseil relatif à la sécurité générale des produits, modifiant le règlement (UE) n° 1025/2012 du Parlement européen et du Conseil et abrogeant la directive 87/357/CEE du Conseil et la directive 2001/95/CE du Parlement européen et du Conseil, COM(2021) 346 final), contiennent des dispositions spécifiques sur ce sujet.

Les relations entre les vendeurs professionnels utilisant des plateformes de vente en ligne et ces dernières ont déjà fait l'objet d'une réglementation européenne, via le règlement « P2B », entré en application en juillet 2020, qui prévoit pour les plateformes des obligations de transparence et d'équité envers leurs utilisateurs professionnels.

* 44 Directive (UE) 2019/2161 du Parlement européen et du Conseil du 27 novembre 2019 modifiant la directive 93/13/CEE du Conseil et les directives 98/6/CE, 2005/29/CE et 2011/83/UE du Parlement européen et du Conseil en ce qui concerne une meilleure application et une modernisation des règles de l'Union en matière de protection des consommateurs.

* 45 Dans la proposition de RGSP, par exemple, les réseaux sociaux ayant une activité de place de marché sont également couverts.

* 46 Au sens de l'annexe de la recommandation 2003/361/CE, soit employant moins de 50 employés et réalisant un chiffre d'affaire annuel inférieur à 10 M€.

* 47 Résolution européenne du Sénat n° 31 (2018-2019) du 30 novembre 2018, sur la responsabilisation partielle des hébergeurs.

* 48 Étude d'impact, p. 52.

* 49 Proposition de résolution européenne n° 33 (2021-2022) précitée, devenue résolution européenne du Sénat n° 32 (2021-2022) précitée.

* 50 L'art. 34 (a) soutient le développement de normes pour la soumission électronique, mais uniquement sur une base volontaire.

* 51 Évaluation conduite par la Commission européenne en mars et avril 2021, sur un échantillon de 4 500 notifications.

* 52 Facebook, YouTube, Twitter, Instagram, Jeuxvideo.com et TikTok.

* 53 Rapport du Sénat n° 645 (2018-2019) de M. Christophe-André FRASSA, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale, sur la proposition de loi visant à lutter contre les contenus haineux sur internet, déposé le 11 décembre 2019.

* 54 Le délai prévu pour le retrait des contenus terroristes par le projet de règlement européen en cours d'adoption est par exemple d'une heure.

* 55 Le député britannique M. Damian Collins, entendu par les rapporteurs, a estimé, au vu des documents rendus publics par Frances Haugen, que les algorithmes d'intelligence artificielle ne permettaient d'identifier qu'environ 5 % des contenus haineux publiés sur le réseau social.

* 56 Selon Frances Haugen, en 2020, Facebook aurait consacré 87 % de son budget opérationnel total aux contenus en langue anglaise.

* 57 “YouTube reverts to humain moderators in fight against misinformation”, Financial Times , 20 septembre 2020.

* 58 Interview de Monika Bickert, responsable de la modération chez Facebook, 8 octobre 2014 (« Facebook précise pourquoi, et comment, il supprime des photos et messages litigieux », Le Monde , 10 octobre 2014.

* 59 Décision n° 2020-801 DC du Conseil Constitutionnel du 18 juin 2020, §4.

* 60 S. Zuboff , The Age of Surveillance Capitalism , éd. Profile, 2019 (trad. L'Âge du capitalisme de surveillance , éd. Zulma essais, 2020).

* 61 Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l'intelligence artificielle (législation sur l'intelligence artificielle) et modifiant certains actes législatifs de l'Union, COM(2021) 206 final.

* 62 La Commission a présenté fin novembre une proposition de règlement concernant la publicité politique en ligne ( Proposal for a regulation of the European Parliament and of the Council on the transparency and targeting of political advertising) , COM(2021) 731 final (non encore traduit)).

* 63 Par exemple la « Privacy Sandbox » de Google, qui vise à mettre en oeuvre de la publicité ciblée par cohortes, et non plus individuellement.

* 64 En l'état actuel, cette possibilité n'a cependant pas été retenue dans les compromis.

* 65 Proposition de loi n° 4646 visant à encourager l'usage du contrôle parental sur certains équipements et services vendus en France et permettant d'accéder à Internet.

* 66 Enquête menée par Renaissance numérique, Génération numérique, le Comité interministériel à la prévention de la délinquance et la Délégation interministérielle à la lutte contre le racisme, l'antisémitisme et la haine anti-LGBT (DILCRAH), datée du 20 mars 2018.

* 67 “Facebook Knows Instagram Is Toxic for Teen Girls, Company Documents Show”, Wall Street Journal , 14 septembre 2021.

* 68 Communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au comité des régions du 24 mars 2021, intitulée « Stratégie de l'UE sur les droits de l'enfant », COM(2021) 142 final.

* 69 Résolution européenne du Sénat n° 31 (2018-2019) du 30 novembre 2018, sur la responsabilisation partielle des hébergeurs de services numériques.

* 70 Ou le Comité, lorsqu'il soupçonne une infraction au règlement impliquant au moins trois États membres (art. 45 (1)).

* 71 De grands acteurs, notamment des jeux vidéo en ligne, comme Roblox ou Fortnite, mais aussi Microsoft (avec Minecraft), travaillent également à la mise en place d'univers virtuels baptisés metavers.

* 72 Résolution européenne n° 68 (1999-2000) du 5 février 2000, sur la proposition de directive du Parlement européen et du Conseil relative à certains aspects juridiques du commerce électronique dans le marché intérieur, faisant suite à la proposition de résolution n° 475 (1998-1999) de M. René Trégouët.

* 73 Rapport d'information n° 443 (2012-2013) de Mme Catherine Morin-Desailly, fait au nom de la commission des affaires européennes, L'Union européenne, colonie du monde numérique ? , déposé le 20 mars 2013.

* 74 Rapport d'information n° 696 (2013-2014) de Mme Catherine Morin-Desailly, fait au nom de la mission commune d'information sur la gouvernance mondiale de l'Internet, L'Europe au secours de l'Internet : démocratiser la gouvernance de l'Internet en s'appuyant sur une ambition politique et industrielle européenne , déposé le 8 juillet 2014.

* 75 Résolution européenne n° 31 (2018-2019) du 30 novembre 2018, sur la responsabilisation partielle des hébergeurs, faisant suite à la proposition de résolution n° 739 (2017-2018) de Mme Catherine Morin-Desailly et plusieurs de ses collègues.

* 76 Proposition de loi n° 799 (quinzième législature) relative à la lutte contre les fausses informations, déposée le 21 mars 2018.

* 77 Rapport n° 75 (2018-2019) de Mme Catherine Morin-Desailly, fait au nom de la commission de la culture, de l'éducation et de la communication sur la proposition de loi relative à la lutte contre les fausses informations, déposé le 24 octobre 2018.

* 78 Proposition de loi visant à lutter contre la haine sur internet n° 1785 (quinzième législature), déposée le mercredi 20 mars 2019.

* 79 Rapport du Sénat n° 645 (2018-2019) de M. Christophe-André FRASSA, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale, sur la proposition de loi visant à lutter contre les contenus haineux sur internet, déposé le 11 décembre 2019.

* 80 Projet de loi confortant le respect des principes de la République, n° 3649 rectifié (quinzième législature), déposé le 9 décembre 2020.

* 81 Rapport du Sénat n° 454 (2010-2021) de Mmes Jacqueline Eustache-Brinio et Dominique Vérien, fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale, sur le projet de loi confortant le respect des principes de la République, déposé le 18 mars 2021.

* 82 Certaines auditions ont également concerné la proposition de règlement dite DMA , mentionnée plus haut.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page