Question de M. SAURY Hugues (Loiret - Les Républicains) publiée le 30/10/2025

M. Hugues Saury attire l'attention de Mme la ministre déléguée auprès du ministre de l'économie, des finances et de la souveraineté industrielle, énergétique et numérique, chargée de l'intelligence artificielle et du numérique sur l'insuffisance de l'encadrement juridique des « deepfakes » en période électorale.

La loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l'information permet d'agir en référé dans les trois mois précédant une élection pour faire cesser la diffusion d'informations manifestement fausses. Toutefois, cette procédure, bien que pertinente, reste trop lente face à la viralité des contenus falsifiés générés par intelligence artificielle, dits « deepfakes ». En 2024, leur utilisation en France aurait augmenté de 140 %, accentuant les risques de manipulation de l'opinion. En cas d'usurpation d'identité (article 226-4-1 du code pénal) ou d'atteinte à l'image ou à la réputation, les sanctions applicables aux deepfakes relèvent du droit commun : un an d'emprisonnement et 15 000 euros d'amende. Ces peines apparaissent peu dissuasives lorsque l'usurpation d'identité a un impact direct sur la sincérité d'un scrutin. La récente campagne de désinformation en Roumanie en 2025, mêlant deepfakes et interférences étrangères, illustre les nouvelles vulnérabilités des démocraties européennes.

La loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique, dite « loi SREN », a renforcé les obligations de transparence des plateformes, sans pour autant prévoir de régime spécifique applicable aux individus diffusant des contenus de type deepfake en période électorale.

À l'approche des élections municipales, il lui demande si le Gouvernement envisage de prendre des mesures ou d'engager des travaux pour garantir une réponse judiciaire plus rapide face à la viralité de ces contenus, et pour renforcer les moyens de lutte contre l'usurpation d'identité dans un cadre électoral.

- page 5399


Réponse du Ministère délégué auprès du ministre de l'économie, des finances et de la souveraineté industrielle, énergétique et numérique, chargé de l'intelligence artificielle et du numérique publiée le 05/02/2026

Le Gouvernement est pleinement engagé contre la dissémination des hypertrucages (deepfakes) portant atteinte aux personnes et contribuant à la diffusion de fausses informations. Les autorités françaises se sont pleinement investies dans la négociation du règlement DSA en 2022 et la France a adopté en 2024 la loi visant à sécuriser et réguler notre espace numérique (Loi n° 2024-449 du 21 mai 2024, dite loi SREN). Le cadre juridique actuel offre déjà des terrains d'action pertinents. Le règlement DSA prévoit des dispositions spécifiques visant à responsabiliser les plateformes dans la lutte contre les contenus illicites et portant atteinte à l'intégrité des processus électoraux. Le 17 décembre 2024, suite à l'annulation de l'élection présidentielle en Roumanie, la Commission européenne a ouvert une enquête contre une plateforme pour violation des obligations d'atténuation des risques, notamment sur les systèmes de recommandation. La Commission a ordonné à la plateforme de geler et conserver les données liées aux risques que son service pourrait présenter pour les processus électoraux organisés dans l'UE entre le 24 novembre 2024 et le 31 mars 2025. Le Gouvernement a fait adopter la loi du 21 mai 2024 visant à sécuriser et réguler l'espace numérique (loi « SREN »), qui a significativement renforcé les sanctions des délits d'atteintes à la représentation de la personne via le recours aux hypertrucages. L'article 15 modifie l'article 226-8 du code pénal, sanctionnant le partage de montages falsifiés de représentations sonores ou visuelles d'une personne, réalisées sans son consentement, afin d'inclure les contenus générés par un traitement algorithmique (deepfakes), dont le partage sur les réseaux sociaux constitue une circonstance aggravante puni de deux ans d'emprisonnement et 45 000 euros d'amende. La loi SREN (articles 7, 8) renforce également les mesures de sensibilisation aux risques des outils et contenus générés par intelligence artificielle, incluant les deepfakes, à destination des élèves et de leurs représentants légaux, des étudiants de l'enseignement supérieur et des membres du personnel enseignant et d'éducation. Ces dispositions visent à sensibiliser ce public aux risques d'atteinte à la personne, notamment, le harcèlement et les violences sexistes et sexuelles dans l'espace numérique, et aux risques de manipulation de l'information. Le règlement IA (AI Act) introduit des exigences fortes en termes de transparence, précisant que « les déployeurs d'un système d'IA qui génère ou manipule des images ou des contenus audio ou vidéo constituant un hypertrucage [un deepfake] indiquent que les contenus ont été générés ou manipulés par une IA ». La façon dont ces contenus seront marqués fait actuellement l'objet de travaux menés par des experts indépendants, dans un cadre assuré par la Commission européenne. La France y est très impliquée, afin de s'assurer que les solutions retenues permettent de lutter efficacement contre la manipulation de l'information et les usurpations d'identité notamment. Ces exigences seront applicables à partir du 2 août 2026. Ce faisant, le règlement IA vient opérer un retournement important : il revient au déployeur du système (l'entité qui le rend disponible) qui génère le deepfake de s'assurer qu'il soit bien marqué. Cette approche ex-ante crée donc une responsabilité pour ce déployeur avant même que le préjudice n'ait lieu, a contrario du droit existant qui sanctionne ex-post les utilisateurs individuels une fois le préjudice commis. Le schéma de gouvernance retenu par le Gouvernement prévoit que les autorités en charge du contrôle de cette obligation seront l'Autorité de régulation de la communication audiovisuelle et numérique (Arcep), et la Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes (DGCCRF). Les manquements à cette obligation seront passibles d'amendes dissuasives, pouvant s'élever jusqu'à 15 Meuros ou 3 % du chiffre d'affaires mondial annuel. Sur le plan opérationnel, le Gouvernement s'appuie notamment sur l'action du Service de vigilance et protection contre les ingérences numériques étrangères (Viginum). Au titre du décret portant création du service, VIGINUM est compétent pour exercer trois missions principales en contexte électoral : détecter et caractériser les opérations d'ingérence numériques étrangères susceptibles d'altérer l'information des citoyens pendant les périodes électorales ; fournir toute information utile à l'ARCOM et à la CNCCEP dans l'accomplissement des missions qui leur sont confiées en contexte électoral ; assister le Secrétaire général de la défense et de la sécurité nationale dans sa mission de coordination et d'animation des travaux interministériels en matière de protection contre les opérations d'ingérence numériques étrangères (COLMI) ; A l'approche des élections municipales de 2026, VIGINUM va renforcer sa posture de vigilance en articulant son action autour de plusieurs leviers : le signalement à l'autorité judiciaire des contenus illégaux ; le signalement des comptes aux caractéristiques inauthentiques aux fournisseurs de plateformes ; la sensibilisation de la société, afin de rehausser le niveau de vigilance de la Nation face aux ingérences numériques étrangères. À ce titre, VIGINUM a publié en décembre 2025, un guide de sensibilisation à la menace informationnelle en contexte électoral disponible sur le site du SGDSN (Protection du débat public numérique en contexte électoral - Publication d'un guide de sensibilisation | SGDSN). Le Gouvernement s'appuie également sur le Pôle d'Expertise de la Régulation Numérique (PEReN) qui fournit une expertise technique aux services de l'État ainsi qu'aux autorités indépendantes. Depuis 2024, le PEReN consacre une partie de ses travaux à l'analyse des images générées par IA et aux hypertrucages. Dans ce cadre, il a mené, en partenariat avec la Commission Nationale de l'Informatique et des libertés (CNIL), des analyses techniques visant à étudier la qualité des hypertrucages et leur capacité à tromper tant des publics non-experts qu'avertis. Les conclusions de cette étude sont consultables en ligne : https://www.peren.gouv.fr/perenlab/2024-12-03-hypertrucages/. Par ailleurs, il a co-développé, en partenariat avec VIGINUM, un outil logiciel publiquement accessible conçu pour comparer les performances de détecteurs d'images générées. Cet outil, qui a vocation à être enrichi par la communauté scientifique, permet d'ores et déjà d'identifier les solutions les plus efficaces pour détecter des images générées sur des réseaux sociaux et permet à l'État de se doter d'une expertise en la matière. Au-delà de cet arsenal déjà existant, le Gouvernement continue aujourd'hui de travailler sur le renforcement et l'efficacité des moyens de lutte contre les manipulations d'informations en période électorale. Si les réponses d'ordre judiciaire (sanctions pénales) peuvent représenter de l'intérêt, le Gouvernement entend privilégier aussi des leviers de prévention et d'action opérationnels, sans exclure le renforcement des cadres législatifs applicables.

- page 695

Page mise à jour le