|
commission de la culture |
Proposition de loi Protéger les mineurs des risques des réseaux sociaux (1ère lecture) (n° 304 ) |
N° COM-5 23 mars 2026 |
AMENDEMENTprésenté par |
|
||
|
Mme MORIN-DESAILLY, rapporteure ARTICLE 1ER BIS (NOUVEAU) |
|||
Supprimer cet article.
Objet
Le Sénat a certes exprimé à plusieurs reprises la nécessité d’imposer à certains hébergeurs les responsabilités des éditeurs, ou du moins de créer une « troisième voie » ou de reconnaître une responsabilité éditoriale partielle liée aux algorithmes, notamment dans les rapports de la commission d'enquête sur la concentration des médias en 2022 ou celui sur TikTok en 2023, ainsi que lors des débats sur la loi SREN (Sécuriser et réguler l'espace numérique, 2024). Toutefois, la question est de savoir si la recommandation algorithmique, même profilée pour les mineurs, constitue un « rôle actif » au sens du Règlement européen sur les services numériques (RSN) et de la jurisprudence européenne. Or jusqu'à présent, la simple hiérarchisation algorithmique n'a pas été jugée par la CJUE comme suffisant à caractériser ce rôle actif. Dans l'arrêt YouTube/Cyando (2021), la Cour a ainsi précisé que le fait pour une plateforme de mettre en œuvre des index de recherche, proposer des classements de contenus ou même de suggérer des vidéos en fonction des préférences des utilisateurs ne suffit pas, en soi, à conclure à un tel « rôle actif ». La Cour considère que ces outils sont destinés à faciliter l’accès au service et sont gérés de manière automatisée sans que la plateforme n’ait une connaissance du contenu de chaque vidéo.
Dès lors, si l’intention des auteurs de l’amendement à l’origine de l’article est sans doute cohérente avec la volonté de protéger les jeunes des contenus addictifs, le texte proposé est, en l’état, très probablement inconventionnel.