II. UN CADRE JURIDIQUE NATIONAL ET EUROPÉEN EN CONSTRUCTION, FACE À DES PLATEFORMES QUI SE MONTRENT RÉTICENTES À L'APPLIQUER
A. LE RÈGLEMENT EUROPÉEN SUR LES SERVICES NUMÉRIQUES, UNE AVANCÉE MAJEURE NOTAMMENT POUR LA PROTECTION DES MINEURS EN LIGNE
La protection des mineurs est une exigence fondamentale, protégée par de nombreux textes européens et internationaux 5(*) ; l'article 24 de la charte des droits fondamentaux de l'Union européenne affirmant que « l'intérêt supérieur de l'enfant doit être une considération primordiale ».
Plusieurs textes ou dispositions du droit de l'Union européenne sont intervenus pour protéger les mineurs en ligne, d'abord le règlement général pour la protection des données (RGPD), qui prévoit un mécanisme de « double consentement » dès lors que le mineur a moins de 15 ans en France6(*), puis le règlement sur les marchés numérique (DMA - Digital Markets Act) et surtout le règlement européen sur les services numériques (DSA - Digital Services Act), qui est une avancée majeure, en matière de régulation des acteurs du numérique, notamment s'agissant de la protection des mineurs.
Dispositions clés du DSA en faveur de la protection des mineurs
- l'article 14 oblige les plateformes à rédiger leurs conditions générales d'utilisation de façon compréhensible pour les mineurs ;
- l'article 22 leur impose un traitement prioritaire, et dans des délais rapides, des contenus signalés par des « signaleurs de confiance », dont font partie les associations de défense des enfants ;
- l'article 28 prévoit l'obligation pour les plateformes accessibles aux mineurs de prendre toutes mesures utiles pour garantir le plus haut niveau de protection de la vie privée, de la sécurité et de la sûreté des mineurs. Ce même article 28 prévoit l'interdiction de présenter aux mineurs de la publicité ciblée, utilisant leurs données personnelles ;
- l'article 27 renforce l'obligation de transparence sur le fonctionnement des systèmes de recommandation ;
- l'article 25 prévoit une interdiction pour les plateformes de recourir à des interfaces trompeuses et manipulatrices ;
- les articles 34 et 35 prévoient l'obligation pour les plateformes d'analyser chaque année les « risques systémiques » induits par la conception et le fonctionnement de leurs services et d'adopter en conséquence les mesures de remédiation des conséquences négatives graves engendrées sur le bien-être physique et mental des mineurs, parmi lesquelles des dispositifs de vérification d'âge ;
- l'article 28 prévoit l'obligation pour les très grandes plateformes d'offrir une option pour un « système de recommandation neutre », qui ne soit pas fondé sur le profilage.
Ces dispositions constituent des avancées majeures, dont l'application effective se fait néanmoins attendre, tant les plateformes semblent réticentes à appliquer ce nouveau cadre, qui heurte en réalité leur modèle économique, basé sur la recherche du profit absolu par le biais du « clic rémunérateur » et la captation de l'attention des utilisateurs.
La Commission européenne - compétente pour contrôler les « très grandes plateformes »7(*) au sens du DSA - a ainsi ouvert plusieurs enquêtes contre les plateformes de réseaux sociaux (TikTok, X et Méta) et de sites pornographiques (Pornhub, Stripchat, XNXX, et XVideos). Elle reproche à ces plateformes des manquements dans l'application du DSA, notamment concernant les dispositions liées à la vérification d'âge.
* 5 Article 24 de la charte des droits fondamentaux de l'Union européenne, article 8 de la convention européenne de sauvegarde des droits de l'homme et des libertés fondamentale et article 3 de la convention internationale des droits de l'enfant.
* 6 L'article 8 du RGPD prévoit que chaque État membre peut fixer l'âge de son choix entre 13 et 16 ans.
* 7Les « très grandes plateformes » sont celles ayant 45 millions d'utilisateurs par mois.