Question de M. GUÉRINI Jean-Noël (Bouches-du-Rhône - RDSE) publiée le 04/08/2022

M. Jean-Noël Guérini appelle l'attention de M. le ministre délégué auprès du ministre de l'économie, des finances et de la souveraineté industrielle et numérique, chargé de la transition numérique et des télécommunications sur les dangers du « deepfake ».
Une étude menée par des chercheurs de l'université du Texas et publiée le 22 février 2022 (« AI-synthesized faces are indistinguishable from real faces and more trustworthy ») a montré que non seulement les visages créés par des intelligences artificielles n'étaient plus détectables à l'œil nu, mais que ces visages de synthèse suscitaient même un sentiment de confiance supérieur chez les spectateurs.
On peut donc légitimement s'inquiéter des usages du « deepfake » (hypertrucage, infox vidéo ou vidéotox), cette technique de synthèse multimédia reposant sur l'intelligence artificielle et permettant de générer des vidéos falsifiées, qui superposent des images et des prises de vues réelles. Voix clonée et visage modélisé s'avèrent désormais d'un réalisme tellement confondant que cela confère une dimension inédite aux fausses informations que peuvent propager ces vidéos. De telles manipulations fabriquent de l'incertitude et jettent la suspicion sur l'ensemble des contenus audiovisuels d'information. Se posent dès lors des questions liées non seulement à la désinformation, mais également au droit d'auteur, à la vie privée, au harcèlement…
Alors que l'Europe révise son code de bonnes pratiques contre la désinformation, il lui demande comment détecter les vidéos truquées et s'assurer qu'elles sont présentées comme telles.

- page 4161

Transmise au Ministère de la culture


Réponse du Ministère de la culture publiée le 13/10/2022

L'infox vidéo ou vidéotox (« deepfake » en anglais) est une technologie qui repose sur des techniques d'intelligence artificielle et en particulier celle de l'apprentissage profond, afin d'altérer la représentation des personnes. Si elle peut avoir des applications bénéfiques dans certains domaines (agent conversationnel, robotique, apprentissage automatique, filière industrielle de l'image de synthèse porteuse de nombreux emplois en France), elle présente également des risques tant individuels (usurpation d'identité, escroquerie) que collectifs (manipulation des élections ou du débat démocratique). C'est notamment le cas lorsque des contenus en apparence authentiques sont diffusés massivement sur les réseaux sociaux. L'usage de l'infox vidéo dans le but de tromper les internautes sur l'identité d'une personne peut être puni par l'article 313-1 du code pénal relatif à l'escroquerie, ou par l'article 226-4-1 du même code, qui sanctionne l'usurpation d'identité. De plus, la diffusion de tels contenus à des fins malveillantes peut entrer dans le champ de la diffamation, définie à l'article 32 de la loi du 29 juillet 1881 sur la liberté de la presse comme toute allégation ou imputation d'un fait qui porte atteinte à l'honneur ou à la considération de la personne ou du corps auquel le fait est imputé. S'agissant plus spécifiquement de la dissémination de vidéotoxs à des fins d'influence sur le débat démocratique et/ou les élections, l'arsenal législatif français a été renforcé ces dernières années et plusieurs initiatives européennes en la matière sont en cours. Ainsi, la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information permet notamment, en période électorale, de stopper la propagation massive de désinformation via une procédure judiciaire en référé dédiée visant à faire cesser la dissémination en ligne « délibérée, artificielle ou automatisée, et massive (…) d'allégations ou imputations inexactes ou trompeuses d'un fait de nature à affecter la sincérité du scrutin ». Elle impose en outre aux grandes plateformes en ligne de prendre des mesures en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou d'altérer la sincérité de scrutins, notamment en luttant contre les comptes propageant massivement de fausses informations. De plus, la France s'est dotée, par le décret n° 2021-922 du 13 juillet 2021 d'un nouveau « service de vigilance et de protection contre les ingérences numériques étrangères » (VIGINUM), placé auprès du secrétaire général de la défense et de la sécurité nationale. Ce service a pour mission de détecter et caractériser des ingérences numériques étrangères affectant le débat public en France. Pour ce faire, il étudie les phénomènes inauthentiques qui se manifestent sur les plateformes numériques, et notamment les vidéotoxs. Au niveau européen, le Parlement et le Conseil ont conclu le 22 avril dernier un accord politique sur le projet de règlement sur les services numériques (« Digital Services Act »), qui devrait être publié prochainement, et dont l'entrée en application est prévue au 1er janvier 2024. Ce texte prévoit notamment l'obligation, pour les plus grandes plateformes en ligne et les moteurs de recherche, de prendre des mesures contre les risques systémiques découlant de leurs services, en particulier contre tout effet négatif sur le discours civique et les processus électoraux. Les mesures d'atténuation en cause feront l'objet d'audits indépendants et d'un contrôle assidu par la Commission européenne. Le texte impose également à ces acteurs de traiter en priorité les signalements de contenus issus de tiers de confiance, notamment ceux qui s'efforcent de repérer les contenus et/ou campagnes de désinformation. En outre, le projet de règlement européen établissant des règles harmonisées sur l'intelligence artificielle, présenté le 21 avril 2021, prévoit une obligation spécifique de transparence lors de l'utilisation « d'un système d'Intelligence Artificielle qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d'autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques ». L'examen du texte est cependant toujours en cours au Parlement et au Conseil et cette disposition pourrait évoluer. L'Union européenne promeut également des démarches de co-régulation en la matière : la Commission européenne a ainsi publié, le 16 juin dernier, le code de conduite européen renforcé pour lutter contre la désinformation. Cette version révisée du code de conduite de 2018 prévoit entre autres un engagement des signataires à mettre en place ou renforcer les politiques visant à lutter contre la désinformation et la mésinformation dans leurs services, notamment en renforçant la lutte contre les faux comptes, l'amplification de la désinformation par des agents logiciels, les usurpations d'identité et les vidéotoxs malveillants. Ce code a été signé par 34 acteurs (contre 16 en 2018) : des plateformes en ligne (dont Meta, Google, Twitter, Microsoft, TikTok et DOT Europe, Twitch, Viméo, Clubhouse), ainsi que des acteurs de la publicité, des organismes de vérification des faits et des organisations non gouvernementales, comme Reporters sans frontières. Plusieurs solutions ont été développées par les grands acteurs du numérique pour détecter et plus généralement lutter contre les vidéotoxs. Facebook, AWS, Microsoft et l'ONG Partnership in AI ont ainsi lancé en 2020 le Deepfake Detection Challenge. Si cette initiative a permis le développement de solutions de détection de vidéotoxs reposant sur l'intelligence artificielle, et notamment de l'apprentissage profond, elle a révélé les risques que présentent ces solutions sur la protection de la vie privée. Ces outils doivent en effet être entraînés à partir de quantités massives d'images et/ou vidéos de personnes, et la pratique a montré que ces contenus ne sont pas toujours recueillis dans le respect des règles applicables en matière de protection des données. Par ailleurs, l'essor des chaînes de blocs offre des solutions préventives permettant d'authentifier les contenus dignes de confiance. Enfin, les pouvoirs publics soutiennent les initiatives de vérification des contenus d'information. Dans le cadre d'un projet de recherche soutenu par l'Union européenne, dix pays, dont la France à travers l'Agence France-Presse, ont mis au point, entre 2016 et 2018, la plateforme InVID (In Video Veritas – Vérification du contenu vidéo des réseaux sociaux pour l'industrie de l'information), afin d'aider les journalistes à détecter les vidéos truquées, à partir d'un simple module associé au navigateur internet. Un autre projet de recherche en cours, dénommé WeVerify, prévoit la création d'une base de données de faux connus.

- page 4945

Page mise à jour le