Allez au contenu, Allez à la navigation

COMPTES RENDUS DE LA COMMISSION DE LA CULTURE, DE L'EDUCATION ET DE LA COMMUNICATION


Mercredi 12 janvier 2022

- Présidence de M. Laurent Lafon, président -

La réunion est ouverte à 9 heures 30.

Propositions de règlements du Parlement européen et du Conseil relatifs aux marchés contestables et équitables dans le secteur numérique (Digital Markets Act - DMA) et à un marché intérieur des services numériques (Digital Services Act - DSA)

M. Laurent Lafon, président. - Nous avons le plaisir d'accueillir Catherine Morin-Desailly, membre de la commission, et Florence Blatrix Contat, afin qu'elles nous présentent les recommandations qu'elles ont formulées devant la commission des affaires européennes concernant les directives DSA et DMA.

Cette audition sur les enjeux associés à l'adoption de deux directives par les instances européennes me paraît importante, car la question de la régulation des plateformes fait partie des préoccupations constantes de notre commission.

Alors que la France vient de prendre la présidence de l'Union européenne, il me paraît essentiel que nous puissions évoquer, au sein de notre commission, le contenu des deux textes, qui traduisent une prise de conscience des institutions européennes et des états-membres concernant notre dépendance vis-à-vis des GAFAM et les dangers associés à leur position dominante sur le marché européen.

Nombreux sont ceux qui attendent la position de l'Europe, à travers ces deux directives. Plus nous serons unis et nombreux pour faire passer une régulation, plus celle-ci sera efficace et opérationnelle.

Chères collègues, nous comptons sur vous pour nous éclairer sur la portée exacte de ces deux textes et nous préciser leur capacité à atteindre leurs objectifs de réguler enfin efficacement l'ensemble des acteurs du numérique.

Je vous laisse la parole.

Mme Catherine Morin-Desailly. - Au cours des dernières décennies, nous avons mesuré à quel point les plateformes avaient pratiqué des abus sur le plan fiscal et en matière de position dominante, et à quel point elles avaient permis la diffusion de contenus contestables et façonné les opinions publiques. C'est peut-être ce dernier élément qui a fait réagir l'Union européenne quant à la nécessité d'une réglementation.

L'usage généralisé est devenu une source de risques majeure (prolifération des propos haineux, contenus de désinformation, produits contrefaits ou dangereux, activités illicites en tous genres). Le marché numérique est dominé par de grandes plateformes souvent extra-européennes qui verrouillent le marché.

Face à cette situation, la commission européenne a publié le 15 décembre 2020 deux propositions de règlement, qui s'imposeront d'elles-mêmes et ne seront pas transposées dans le droit de chaque état-membre :

- une proposition de législation sur les services numériques : le Digital Services Act (DSA). Celle-ci est destinée à lutter contre les contenus illicites et préjudiciables en ligne et à réguler les services, en introduisant de nouvelles obligations de modération des contenus et de vigilance ;

- une proposition de législation sur les marchés numériques : le Digital Markets Act (DMA). Celui-ci pose les bases d'un rééquilibrage des relations entre les plateformes et leurs utilisateurs (entreprises et consommateurs finaux).

Nous nous sommes saisies de ces deux textes pour présenter des propositions, qui ont donné lieu à deux résolutions européennes adressées au Gouvernement et à deux avis politiques adressés à la commission européenne. Nous avons déjà reçu quitus de notre premier rapport sur le DMA.

S'agissant du DSA, le cadre européen de responsabilité des fournisseurs de services numériques, dit régime de responsabilité limitée, a été établi par la directive sur le commerce électronique (e-commerce) de 2000. Selon cette directive, un hébergeur ne peut être tenu responsable des contenus illicites qui se trouvent sur ses services qu'à deux conditions cumulatives :

- qu'il ait connaissance de ce contenu et de son caractère illicite ;

- qu'en ayant eu connaissance, il ne l'ait pas retiré promptement.

À défaut d'une politique en faveur de la construction d'un écosystème européen propre, les États-Unis ont profité de la situation. Cette directive a surtout profité aux acteurs américains, qui sont devenus des géants. En 20 ans, l'écosystème numérique a profondément évolué.

Dans le silence des textes, le juge a progressivement appliqué le régime de non redevabilité des hébergeurs à des services et des modèles d'affaires qui n'existaient pas au moment de son adoption, tels que les réseaux sociaux ou les places de marché en ligne. Par conséquent, il est désormais très difficile de faire retirer un contenu illicite.

La directive e-commerce de 2000 a été transposée en France en 2004. Pour faire retirer un contenu jugé illicite, il faut d'abord s'adresser à son auteur, et en cas de refus, à l'hébergeur. C'est seulement si l'hébergeur ne retire pas le contenu qu'il est possible de porter plainte contre lui.

Parallèlement, les injonctions de retrait adressées par les autorités administratives ou judiciaires nationales à des plateformes établies à l'étranger ne sont pas toujours suivies d'effets.

Qu'apporte le DSA face à cette situation ? Tout d'abord, tous les fournisseurs de services en ligne seront tenus d'avoir un représentant légal dans l'Union européenne et de répondre aux injonctions émanant d'autorités administratives ou judiciaires nationales.

La Commission souhaite clarifier le fait que la protection des données personnelles ou le respect du principe du pays d'origine, selon lequel un fournisseur de services numériques est placé sous la juridiction du pays où il est établi, ne sont pas des motifs valables pour refuser de répondre.

En outre, le DSA met en place un mécanisme de notification harmonisé à l'échelle européenne qui permettra d'engager plus facilement la responsabilité des plateformes.

De plus, les fournisseurs de services numériques seront soumis à des obligations de vigilance graduelle, notamment en matière de transparence. Les plateformes qui dépassent 45 millions d'utilisateurs en Europe seront soumises à des obligations renforcées, en vue de prévenir les risques systémiques posés par l'utilisation de leurs services (auto-évaluation des risques, mise en place de mesures d'atténuation, etc.).

Des sanctions importantes (jusqu'à 6 % du chiffre d'affaires mondial) pourront être infligées aux acteurs qui enfreindront le règlement. Si les progrès apportés par le texte sont réels, ils restent toutefois insuffisants.

Nous avons mené plus d'une vingtaine d'auditions relatives à ce texte, et nous avons également assisté avec vous à l'audition de Frances Haugen. Nous en avons conclu que certaines propositions devaient être précisées et renforcées.

Nous proposons trois axes de progression :

- La lutte contre les contenus illicites, qui doit s'accompagner de garanties fortes en faveur de la liberté d'expression.

Pour faciliter la notification, nous recommandons la mise en place d'un bouton d'accès à l'interface commun à tous les hébergeurs et facilement identifiable.

Par pragmatisme, le règlement confie aux plateformes la modération de l'énorme masse de contenus qui transitent dans leurs services. Il faut donc s'assurer que les plateformes mettent en oeuvre des moyens à la hauteur des enjeux qui leur permettent d'effectuer cette modération d'une manière efficace et qui correspondent aux objectifs du règlement.

De plus, il faut exiger que figurent dans les rapports de transparence des indications chiffrées sur les moyens humains et technologiques que les plateformes vont consacrer à la modération, avec une ventilation par pays et par langues.

Il faut aussi proportionner la modération aux risques réels causés par la diffusion de contenus illicites. C'est pourquoi nous préconisons d'inclure les moteurs de recherche dans le règlement, de privilégier une catégorisation des acteurs en fonction de leurs audiences et de soumettre les plateformes populaires chez les enfants à des obligations renforcées.

Par ailleurs, pour se prémunir de l'immixtion directe des plateformes dans le débat démocratique, nous avons estimé souhaitable que la fermeture de comptes d'intérêt général, tels que ceux de responsables politiques, ne puisse intervenir que sur décision judiciaire.

Plus fondamentalement, nous recommandons de prendre davantage en compte les spécificités du modèle économique des grandes plateformes en ligne, seule façon de lutter réellement contre la prolifération des contenus illicites.

Il nous semble également crucial que le risque d'atteinte au pluralisme des médias soit mieux pris en compte. Ce risque devrait être spécifiquement examiné par les très grandes plateformes lors de leur examen annuel des risques systémiques. Je note que ce point a été ajouté aux textes en commission du Parlement européen.

En outre, les plateformes devraient être tenues d'assurer une visibilité renforcée des informations émanant de sources fiables, notamment journalistiques. Nous pourrions par exemple tirer parti de la Journalism Trust Initiative, qui a été impulsée par Reporters sans frontières, visant à créer un cadre de référence de qualité pour les médias.

- La nécessité de mener à bien l'approche par le risque.

Dans cette optique, nous recommandons que les critères d'audience soient mieux pris en compte pour déterminer le régime d'obligation des différents opérateurs. Les autorités de régulation devraient ainsi pouvoir soumettre les plateformes très populaires parmi les enfants à des obligations renforcées.

De manière générale, la protection des enfants semble constituer un angle mort du texte, ce qui est particulièrement dommageable lorsque l'on voit les ravages provoqués par le harcèlement scolaire en ligne.

- une meilleure prise en compte du fonctionnement même des plateformes en ligne et du modèle économique sous-jacent.

Ce modèle repose sur l'accumulation de grandes masses de données personnelles, qui sont ensuite exploitées par des algorithmes de recommandation, des contenus et la publicité. Ce système aboutit inévitablement à favoriser les contenus les plus clivants, mais aussi à enfermer les utilisateurs dans des bulles de contenus.

Il est crucial de permettre aux utilisateurs de retrouver leur autonomie dans l'espace en ligne. Nous rappelons à cet égard qu'une application stricte du règlement général sur la protection des données permettrait déjà de limiter certaines pratiques abusives en matière de ciblage. Il faut toutefois aller plus loin, en désactivant par défaut le ciblage publicitaire et l'adressage des contenus.

Il faut aussi que les algorithmes utilisés par les plateformes cessent d'être des « boîtes noires. » Le DSA propose d'importantes avancées en matière d'accès aux données pour les autorités de régulation et les chercheurs. Les critères et les motifs d'accès devraient cependant être élargis pour permettre la participation de chercheurs indépendants et la détection de tous types de risques. Surtout, les grands acteurs du numérique ne devraient pas pouvoir opposer le secret des affaires aux autorités de régulation et aux chercheurs agréés par ces autorités.

En outre, ces algorithmes devraient respecter un socle minimal de normes éthiques, intégrées dès l'étape du développement, selon un principe de « legacy and safety by design. » Pour les plateformes à venir, une étude d'évaluation des risques devrait être menée avant la mise sur le marché.

Enfin, je reprends une préconisation du Sénat datant d'il y a trois ans, mais dont l'urgence ne s'est pas démentie. Nous souhaitons une réforme du régime de responsabilité des hébergeurs, qui prenne en compte le rôle des algorithmes dans la sélection des contenus.

C'est en sélectionnant les contenus et en augmentant la visibilité de certains au détriment d'autres que les plateformes jouent un rôle actif susceptible de s'apparenter à celui d'un éditeur. De ce point de vue, nous considérons que le DSA manque cruellement d'ambition.

Dans ce monde interconnecté, il est important que l'Europe légifère la première, selon ses valeurs et ses principes, pour fixer ce que Frances Haugen a qualifié d'« étalon or mondial », et ainsi inspirer d'autres pays.

Pour rappel, le Conseil a arrêté sa position sur le texte à la fin du mois de novembre. Un texte amendé a été voté en commission du Parlement européen le 14 décembre dernier. Il pourrait être voté en plénière la semaine prochaine.

Les positions du Conseil et du Parlement sur le DSA étant relativement éloignées, il est possible que d'importantes évolutions apparaissent durant les trilogues. Nous espérons que dans l'intervalle, la voix du Sénat pourra porter.

Mme Florence Blatrix Contat. - Le deuxième volet de la régulation des plateformes est le DMA, qui vise à un rééquilibrage des relations entre les grandes plateformes et leurs utilisateurs.

Ces grandes plateformes d'envergure mondiale sont parvenues à développer un pouvoir de marché inégalé à ce jour. À partir d'un service initial, elles ont pris appui sur des effets de réseau, en exploitant massivement les données recueillies grâce à des algorithmes.

L'autre sujet essentiel est celui des acquisitions incessantes de potentiels concurrents (« killer acquisitions »), qui brident toute concurrence possible.

Le comportement de ces plateformes entrave le développement des entreprises utilisatrices, bride l'innovation et la compétitivité, enferme les utilisateurs finaux dans des écosystèmes et verrouille le marché.

Le droit de la concurrence permet de sanctionner les comportements anti-concurrentiels, mais ses délais de mise en oeuvre ne sont pas adaptés. De nombreuses amendes, parfois très élevées, ont été dispensées pour abus de position dominante. Toutefois, lorsque ces amendes sont imposées, la concurrence a déjà disparu.

Ces sanctions, qui sont infligées après des enquêtes particulièrement longues, ne s'avèrent pas efficaces du point de vue de la contestabilité du marché. C'est pour cette raison que le DMA propose une approche ex ante, qui n'est pas exclusive du droit de la concurrence.

Cette démarche cible seulement les très grands acteurs, qui portent le plus préjudice à la concurrence, qui sont qualifiés de contrôleurs d'accès (« gate keepers ») et qui proposent un ou plusieurs services de plateformes essentiels et les soumettent à des obligations dont le respect sera contrôlé par la Commission européenne.

Le DMA intervient en amont, soit pour interdire les comportements anti-concurrentiels observés, soit pour rendre obligatoires des mesures qui en réduiraient les effets.

Il est nécessaire d'intervenir au niveau européen afin d'éviter la fragmentation des législations et d'assurer une protection harmonisée.

Il nous semble que le niveau d'ambition du texte doit être rehaussé. Sur notre proposition, la Commission des affaires européennes a adressé le 7 octobre un avis politique à la Commission et au Parlement, qui reprend nos observations.

J'évoquerai cinq points en particulier.

- Le périmètre

La Commission européenne propose d'appliquer une présomption au-delà d'un certain nombre d'utilisateurs actifs, d'un certain niveau de puissance financière, et pour les plateformes qui n'atteindraient pas ces seuils, de critères d'appréciation.

Cette approche nous paraît satisfaisante, car elle permettra de se concentrer sur les contrôleurs d'accès essentiels.

Plusieurs compléments nous semblent pour autant nécessaires. Tout d'abord, il faut cibler les très grandes plateformes, car les moyens que la Commission y consacrera seront assez limités (80 ETP à horizon de 2025).

Le Parlement européen propose de rehausser les seuils de ciblage de ces plateformes, à hauteur de 8,5 milliards d'euros de chiffres d'affaires et de 85 milliards d'euros de capitalisation boursière.

Il nous semble également important de définir les modalités de calcul de ces seuils en annexe du règlement plutôt que dans des actes délégués, afin de définir les utilisateurs finaux actifs. Les opérateurs auront plus de visibilité, et la mise en oeuvre du texte sera accélérée.

S'agissant des services de plateformes essentiels pris en compte, nous proposons d'y ajouter la publicité en ligne, les navigateurs et les assistants vocaux. Le Parlement vise également les services de télévision connectés et les systèmes intégrés de paiement en ligne.

- Les obligations des contrôleurs d'accès

Sept obligations ou interdictions horizontales sont applicables de plein droit, et onze mériteraient d'être précisées dans le dialogue entre la Commission et les acteurs concernés.

Nous mettons l'accent sur le nécessaire renforcement de l'interdiction d'utiliser les données de l'utilisateur sans son consentement exigé dans le règlement général sur la protection des données (RGPD, en prohibant les techniques de contournement (« dark patterns »). Le Parlement européen abonde dans le même sens.

Il nous semble également qu'il faut aller plus loin dans le rééquilibrage des relations entre les plateformes et les entreprises utilisatrices, notamment en matière d'interdiction de clauses de parité, car cela empêche les entreprises utilisatrices de proposer des prix inférieurs sur leur propre site.

Il en est de même pour l'interdiction d'obliger les entreprises utilisatrices à recourir aux services d'identification du contrôleur d'accès. Celle-ci doit être étendue à tous les services accessoires, en particulier aux services de paiement en ligne, dont les marges sont très élevées.

Dans le même esprit, nous demandons que les droits à l'inter-opérabilité et à la portabilité des données soient techniquement faciles à mettre en oeuvre, de même que la désinstallation des applications préinstallées.

Pour éviter les contournements de ces interdictions, nous souhaitons que soit explicitement interdit tout comportement qui aurait le même objet.

- La mise en oeuvre de cette régulation

L'objectif d'une application harmonisée du texte justifie le rôle central de la Commission européenne. Toutefois, il semblerait qu'une coordination forte avec les régulateurs sectoriels nationaux ne pourrait pas être mise en oeuvre, car les moyens de la Commission ne sont pas suffisants.

Des compétences humaines et techniques sont développées à l'échelle nationale ; pour nous, il s'agit de l'Autorité de la concurrence et du service du PEReN rattaché à la DGE, qui travaille notamment sur l'analyse des algorithmes.

Il serait par exemple utile de prévoir que la Commission délègue les enquêtes de marché à des autorités nationales. Le Parlement européen va dans le même sens.

Nous proposons que soit créée une structure de coordination entre les diverses autorités, sous la forme d'un réseau européen de régulation numérique. Le Parlement la désigne sous le nom de « groupe de haut niveau de régulateurs numériques » et détaille plus précisément ses tâches.

Par ailleurs, le Parlement a entendu notre souhait que les mesures provisoires prises par la Commission en cas d'urgence soient subordonnées non pas à un préjudice irréparable, mais à la démonstration d'un préjudice grave et immédiat.

- Le rôle donné aux entreprises utilisatrices et aux consommateurs dans la mise en oeuvre de la régulation

Les utilisateurs étant les bénéficiaires de cette régulation, ils semblent les mieux placés pour apprécier l'efficacité des remèdes proposés.

Il nous semble indispensable de prévoir des guichets nationaux de dépôt de signalement, qui transmettraient les éléments pertinents à la Commission. Le Parlement européen propose un mécanisme similaire.

- Le contrôle des acquisitions réalisées par les grandes plateformes pour empêcher la concurrence de prospérer

Ces acquisitions se trouvent le plus souvent en-deçà des seuils de contrôle. Elles échappent donc de facto à tout contrôle au niveau national ou au niveau européen.

La direction générale de la concurrence de la Commission a indiqué qu'elle ferait application de la nouvelle lecture de l'article 22 du règlement de 2003 sur le contrôle de concentrations, qui lui permet d'intervenir en-deçà de ces seuils. Le Parlement européen prévoit explicitement que les autorités nationales de la concurrence puissent demander à la Commission d'intervenir, même si les seuils ne sont pas atteints.

Le Conseil et le Parlement européen ont d'ores et déjà adopté leurs positions respectives sur le DMA. Une réponse a été adressée à la Commission par le vice-président Maros Sefcovic et par le commissaire Thierry Breton. Cette réponse indique partager nos préoccupations, même si elle ne souscrit pas entièrement à l'ensemble de nos points, précisant que certains sont déjà couverts.

Par exemple, concernant l'adjonction immédiate de services de plateformes essentiels non visés par leurs propositions, ils font valoir que le texte englobe les points d'accès les plus importants, et que la Commission pourra ouvrir des enquêtes de marché pour pouvoir en ajouter ultérieurement.

La réponse met par ailleurs en avant le fait que la Commission ne manquera pas de s'appuyer sur l'expérience acquise par les autorités répressives nationales pour définir les contrôleurs d'accès et certaines missions d'enquête.

En revanche, la Commission ne soutient pas l'approche envisagée par la Commission des affaires européennes de prise en compte des écosystèmes pour la désignation des contrôleurs d'accès.

S'agissant des obligations et des interdictions, la Commission relève que les aménagements ciblés de la Commission des affaires européennes s'inscrivent dans le souci de la Commission européenne. Elle considère que les dark patterns sont déjà couvertes par les techniques comportementales anti-contournement qui figurent déjà dans le texte.

Enfin, la Commission prend note de la demande d'accélérer la réaction en cas de manquement avéré, mais malheureusement elle estime qu'il n'est pas opportun de réduire le standard de preuve en matière de mesures provisoires.

Le Président de la République a l'ambition que ces textes aboutissent sous présidence française, en 2022. Nous suivrons avec attention les trilogues et l'évolution de nos recommandations.

M. Laurent Lafon, président. - Nous pouvons ouvrir la discussion sur ces deux textes.

Mme Laure Darcos. - Si je mesure bien l'importance de ces deux projets de règlement, je voudrais toutefois en souligner les insuffisances.

Certes, ceux-ci répondent aux objectifs de réguler l'incidence des grandes plateformes sur les marchés numériques et de lutter contre les contenus illicites.

Cependant, dans le secteur de la culture, les apports de ces projets de législation semblent relativement modestes. De nombreuses inquiétudes persistent, notamment sur le piratage des livres sur internet et sur l'inter-opérabilité sur le marché du livre numérique.

Pourriez-vous nous indiquer ce que prévoient précisément ces projets de législation pour garantir les droits des auteurs des oeuvres contrefaites ainsi que les moyens d'action dont ils pourront disposer pour faire cesser les préjudices subis ?

Pourriez-vous nous préciser ce que prévoit le DMA pour clarifier les obligations applicables aux plateformes en matière de concurrence dans le secteur de la vente du livre, y compris lorsque la plateforme intervient directement comme vendeur ?

Enfin, pourriez-vous nous indiquer s'il est prévu de rendre effectif le principe d'inter-opérabilité sur le marché du livre numérique afin de mettre fin aux pratiques d'enfermement des consommateurs dans des écosystèmes fermés ?

M. Pierre Ouzoulias. - Je trouve que l'interaction entre les parlements nationaux et les institutions européennes est tout à fait essentielle dans le cadre de la construction européenne. J'ai bien entendu les limites que vous identifiez dans ce texte ; je partage totalement votre analyse.

Si, comme l'affirment les opérateurs des grandes plateformes, les applications mises au service des utilisateurs sont totalement neutres, ils doivent le prouver. Il faut assurer aux utilisateurs une transparence totale des algorithmes.

S'agissant de l'inter-opérabilité, j'abonde complètement dans votre sens. Je n'ai pas été entièrement convaincu par le discours de Frances Haugen, selon lequel cette mesure ne fonctionnerait sans doute pas, au motif que la dépendance entre l'utilisateur et le réseau qu'il a constitué grâce à la plateforme serait trop forte.

Je souscris à votre souhait de conserver une part de données propres, même en cas d'abandon d'une application pour une autre. Cela me semble fondamental pour éviter le caractère trop monopolistique de ces plateformes.

Mme Sylvie Robert- Pourriez-vous nous dire de quelle manière ce travail pourrait être collectivement porté par le Sénat et par chacun et chacune d'entre nous ?

Mme Morin-Desailly, vous avez terminé votre intervention en affirmant que le DSA manquait d'ambition. Cette ambition inclut-elle la protection du droit d'auteur et le piratage, que nous pourrions prendre en compte collectivement ?

S'agissant du DMA, je m'interroge sur la caractérisation des plateformes. Vous avez fait mention de critères d'appréciation. Pourriez-vous préciser quelles plateformes sont visées ?

Par ailleurs, vous avez peu évoqué le ciblage publicitaire, qui implique les modèles économiques. Pourriez-vous préciser vos préconisations en la matière ?

M. Jean-Raymond Hugonet. - Nous traitons là d'un sujet extrêmement important, auquel nous sommes confrontés quotidiennement au Sénat : le libéralisme régulé.

Mme Morin-Desailly, vous avez évoqué le point sensible que constitue le secret des affaires. Vous semblez dire que des pistes permettraient de trouver cette limite. Pouvez-vous les expliciter ?

Mon deuxième point concerne les « killer acquisitions. » Vous avez montré de quelle manière le DMA pouvait apporter un ciblage des très grands acteurs. N'y a-t-il pas là une piste de réflexion pour la commission d'enquête ?

M. Julien BargetonNous nous plaçons là du côté de la régulation des plateformes privées. Une réflexion est-elle menée au niveau européen ou français sur un contre-modèle, notamment sur le rôle que pourraient jouer les États ou la société civile ?

L'administration n'est-elle pas capable d'inventer ses propres algorithmes ? Sur certains sujets, nous nous retrouvons en situation de dépendance vis-à-vis de ces plateformes ; c'est notamment le cas pour prendre des rendez-vous médicaux. Nous pourrions multiplier les exemples où les administrations nationales sont prises en défaut sur la capacité à mieux faire.

Ne devons-nous pas inventer un service public européen de plateformes, qui sache utiliser ces outils, face à ces plateformes privées ?

M. Laurent Lafon, président. - Vous avez évoqué la question des régulateurs, en précisant que les moyens mis en place au niveau de la Commission européenne étaient probablement insuffisants.

Les GAFAM ont joué sur la différence d'exigences en termes de contrôle de la part des régulateurs, notamment en s'appuyant sur le régulateur irlandais. La possibilité pour les GAFAM de s'appuyer sur les régulateurs nationaux est-elle réglée par les deux textes ?

Le DMA a plutôt bien avancé, et il est sans doute plus facile pour la Commission et le Parlement de trouver un point d'accord sur ce règlement que sur le DSA. Pourriez-vous nous dire un mot de la position du gouvernement français concernant le DSA et des discussions entre le Parlement et la Commission ?

Enfin, un débat a lieu actuellement entre la Commission et le Parlement sur la possibilité d'accorder une exception aux médias afin que les plateformes n'interfèrent pas sur leur contenu. Avez-vous identifié ce point ?

M. Michel Laugier. - Je souhaiterais que vous nous donniez votre avis sur le lancement de la plateforme De facto contre la désinformation, qui est à l'initiative de la Commission européenne, ainsi que sur les déclarations du Président de la République concernant le rapport de la commission Bronner.

Mme Sonia de La PrôvotéS'agissant de la question de la transparence des algorithmes, je pense qu'il faut vraiment insister sur les services accessoires, car ce sont eux qui participent pleinement au recueil des données.

Par ailleurs, existe-t-il des modèles de montage juridiques d'entreprises qui permettraient de passer en-dessous des seuils de détection qui viennent d'être rehaussés ? Ces entreprises pourraient-elles trouver des astuces pour passer en-dessous de ces seuils ?

Concernant les compétences et l'expertise, disposons-nous réellement des ressources nécessaires, au niveau européen, pour assurer un contrôle et un suivi juridique et technique ?

Ma question suivante porte sur la dimension qualitative. Un événement important a eu lieu : une entreprise a décidé de fermer le compte du Président des États-Unis, sans contrôle et sans contre-pouvoir. Comment agissons-nous face à ce sujet ?

Le modèle économique des algorithmes repose sur le nombre de clics. Ce modèle ne doit-il pas faire l'objet d'un contrôle spécifique dans les grands moments démocratiques ?

Enfin, ma dernière question porte sur le Health Data Hub, qui est très symbolique de la situation.

La directrice du Health Data Hub a indiqué que la plateforme était bel et bien en fonctionnement, et que les décrets de gouvernance suivaient leur cours. De plus, l'accès aux données de santé des plateformes est permis de manière dérogatoire dans cette situation sanitaire particulière. Le retrait du dossier CNIL se poursuit donc.

Nous devons nous interroger sur le traitement de ces questions sans ambiguïté, avec honnêteté et dans le respect de la démocratie.

M. Laurent Lafon, président. - Vous voyez que les questions sont nombreuses. Je vous laisse y répondre.

Mme Florence Blatrix Contat. - Nous avons souhaité donner un rôle central à la Commission pour éviter les effets relatifs aux pays d'origine, comme c'est le cas pour l'Irlande. Il nous semble important qu'une coordination soit mise en place avec les régulateurs nationaux. L'un et l'autre couplés peuvent s'avérer efficaces.

Vous avez également pointé la question des moyens. Ces très grands acteurs attirent les meilleures compétences. La Commission et nos autorités nationales devront donc relever le défi d'attirer de nouvelles compétences.

Les grandes plateformes sont essentiellement des GAFAM. Il faut agir rapidement pour réinstaurer de la concurrence et des marchés contestables. Vous avez évoqué des possibilités de contournement ; le risque n'est jamais nul. Ce texte sera suivi et adapté au fil du temps.

Je pense que ces entreprises ont besoin de la concentration d'écosystèmes pour que leur système économique fonctionne. À ce stade, ce risque me semble limité. Il faudra faire preuve d'une certaine agilité pour adapter ces textes européens aux évolutions incessantes de ces grands acteurs.

Concernant l'inter-opérabilité, nous ne sommes pas entrés dans le détail des secteurs. Le livre représente un axe fort. Nous souhaitons renforcer l'inter-opérabilité et la portabilité des données. Néanmoins, il ne s'agit pas d'un sujet facile, car il sous-tend un problème de sécurité des données qui sont partagées entre de multiples acteurs.

Mme Catherine Morin-Desailly. - Ce sujet s'inscrit dans un environnement institutionnel complexe. Nous avons reçu une bonne écoute de la part de Clément Beaune à chaque étape de nos travaux.

Depuis 2013, date de début de mon travail sur ces sujets, j'ai formulé de nombreuses propositions de résolutions qui ont été votées à l'unanimité par le Sénat. Or c'est la première fois que nous obtenons une réponse positive à l'une de nos propositions de la part d'un commissaire.

Ces deux textes constituent une étape très importante, mais celle-ci s'est fait trop longtemps attendre. Nous avons laissé ces entreprises, qui n'existaient quasiment pas dans les années 2000, prospérer et devenir des géants. Il est désormais extrêmement compliqué de légiférer en la matière.

Le lobbying intense exercé tout au long de l'élaboration de ces textes est très difficile à tenir. Il faudrait que, parallèlement à ces textes, il se développe une vraie politique industrielle française et européenne, qui permette de construire un écosystème souverain à terme. Or au cours des vingt dernières années, nous n'avons pas du tout agi en ce sens.

Julien Bargeton s'est interrogé sur notre capacité à inventer un nouveau modèle. Tel est l'enjeu : inventer un nouveau modèle, entre le modèle américain du « capitalisme de surveillance » et le modèle chinois de contrôle des individus. Entre les deux, il faut une troisième voie européenne, un modèle humano-centré qui permette de recouvrer notre souveraineté dans l'ensemble des domaines stratégiques.

Nous devons nous doter des moyens de mettre en place cette alternative, notamment en capitalisant sur nos écoles d'ingénieurs.

La plate-formisation de l'État pose un problème philosophique et éthique. Implique-t-elle le contrôle des individus et l'enregistrement de toutes leurs données ? Dans quelles conditions et avec quel respect des libertés ?

Par ailleurs, de quelle manière pouvons-nous assurer la souveraineté de ces données alors que la loi américaine permet d'avoir accès aux données des Européens ?

En 2020, la Cour de justice de l'Union européenne a invalidé le transfert des données des Européens vers les États-Unis ; ce régime perdure à l'heure actuelle. Le privacy shield (bouclier de protection des données) n'a toujours pas été reconfiguré pour protéger les données des Européens qui sont traitées par des sociétés américaines.

C'est la raison pour laquelle le nouveau modèle doit s'appuyer sur un encadrement des plateformes et sur une politique industrielle volontariste, en vue d'une émancipation progressive.

Mme Darcos, vous avez raison d'évoquer les imperfections de ce texte. C'est la raison pour laquelle nous en avons rehaussé l'ambition.

Nous avons beau voter des directives, telles que celles sur les droits d'auteur et les droits voisins, et les coupler à une législation nationale, les sociétés continuent à refuser de les appliquer. L'enjeu consiste donc bien à nous émanciper à terme et à faire preuve d'une exigence extrême sur le sujet.

Nous considérons que le modèle économique de ces plateformes n'est pas réformable. Les textes ne seront donc jamais parfaits, compte tenu de cette réalité économique.

Nous avons demandé la transparence des algorithmes, car nous considérons que ces plateformes sont devenues des facilités essentielles en termes juridiques ou des espaces publics ; en tant que telles, elles doivent avoir une redevabilité absolue par rapport à leurs utilisateurs.

Nos propositions de transparence des algorithmes et d'audit par des chercheurs indépendants sont totalement retoquées par les plateformes elles-mêmes, mais nous tenons bon.

Mme de La Provôté a évoqué le Health Data Hub, qui a été créé par des chercheurs et des médecins. Ces derniers ont pétitionné il y a deux ans sur le fait que le Health Data Hub allait être confié à une entreprise extra-européenne sans appel d'offres spécifique.

C'est alors que le Gouvernement s'est aperçu de l'existence de cette faille immense, très contestée à l'heure actuelle. Étant donné sa fragilité juridique et la contestabilité du système, le projet de Health Data Hub a été suspendu il y a quelques jours.

En ce qui concerne la publicité, qui fait partie du modèle économique, nous avons proposé une mesure de désactivation de la publicité ciblée.

Quant au secret des affaires, il faut bien entendu en exiger une transparence totale.

Enfin, les Américains réfléchissent au démantèlement de ces plateformes, ce qui constituerait l'étape ultime. Au niveau européen, Thierry Breton en a également parlé.

Tout le monde ne souscrit pas à cette proposition. Nous attendons les effets immédiats des textes de règlement. Le cas échéant, il faudra évoquer la question du démantèlement.

M. Laurent Lafon, président. - Je vous remercie. Nous serons amenés à poursuivre cet échange. Il était important de faire un point sur ce sujet avec vous, alors que débute la présidence française de l'Union européenne.

La réunion est close à 11 heures.