Question de Mme MÉLOT Colette (Seine-et-Marne - Les Indépendants) publiée le 04/07/2019

Mme Colette Mélot attire l'attention de M. le secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique sur les conséquences produites par un nouveau phénomène : les « deepfakes ».
On les appellent deepfakes, et ce sont, non plus des détournements, mais des fausses vidéos forgées de toutes pièces à l'aide de l'intelligence artificielle, à partir de simples images et d'échantillons de voix, qui ont toutes les apparences du vrai. Avec un effet potentiellement dévastateur, à tel point que les agences de renseignement américaines redoutent que ces fausses vidéos plus vraies que nature, ne perturbent l'élection présidentielle de 2020.
En France, contrairement aux États-Unis où le problème est déjà sur le bureau des membres de la commission de renseignement de la Chambre des représentants, le Gouvernement ne semble pas se positionner sur ce nouveau type de désinformation et la loi sur la manipulation de l'information dite « anti-fake news » votée en décembre 2018 ne l'évoque pas directement.
Le sujet est particulièrement inquiétant si l'on imagine les conséquences que ce nouveau phénomène peut produire dans l'esprit de nos concitoyens. Cette arme de manipulation peut nuire à la réputation de quelqu'un, berner l'opinion publique, leurrer des assurances et même des banques et l'on peut craindre des opérations de chantage ou des campagnes de « désinformation » pouvant menacer la sécurité nationale.
Elle lui demande donc quelles mesures le Gouvernement compte prendre pour empêcher la propagation de ce type de contenus, et si des échanges sont déjà intervenus auprès des instances de Facebook afin d'influer sur la politique de la plateforme en matière de modération des deepfakes.

- page 3473

Transmise au Ministère de la culture


Réponse du Ministère de la culture publiée le 11/06/2020

L'hypertrucage (« deepfake » en anglais) est une nouvelle forme d'information fallacieuse (ou « infox ») altérant la représentation d'une personne par les techniques de l'intelligence artificielle, et en particulier celles de l'apprentissage profond (« deep learning » en anglais). Cette technologie connaît des progrès très rapides et peut avoir des applications bénéfiques dans de nombreux domaines (agent conversationnel, robotique, apprentissage automatique, filière industrielle de l'image de synthèse porteuse de nombreux emplois en France). Toutefois, elle est également porteuse de risques tant sur le plan individuel (atteinte à la réputation, escroquerie) que collectif (manipulation des élections ou du débat démocratique). C'est notamment le cas lorsque ces contenus susceptibles de passer pour véridiques sont largement diffusés sur des réseaux sociaux. La recherche sur les moyens de détecter les contenus manipulés par recours à l'hypertrucage est active, et fait l'objet d'initiatives, tant publiques que privées. Il convient toutefois de veiller à ce que la lutte contre les contenus manipulés dans le but de tromper les utilisateurs ne conduise pas à remettre en cause, par un filtrage systématique des contenus manipulés techniquement, les utilisations légitimes de ce type de technologie, notamment aux fins de création artistique ou de satire. Les principales préoccupations, en matière d'hypertrucage, concernent les tentatives de déstabilisation du processus démocratique émanant d'acteurs malveillants, notamment des États étrangers, par la dissémination de fausses vidéos de personnalités politiques leur prêtant des propos qu'ils n'ont pas tenus, ou une attitude inappropriée. Au regard des risques pesant sur le débat démocratique en période électorale, la France a renforcé son arsenal législatif. Les hypertrucages ou « vidéotox » étant une des modalités des « infox », la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information fournit de premières armes pour lutter contre ce phénomène. Elle prévoit trois dispositions principales. D'abord, elle crée un référé spécifique pour faire stopper en urgence la diffusion des fausses informations en période électorale, en permettant de saisir le juge judiciaire en cas de diffusion « délibérée, artificielle ou automatisée, et massive » d'« allégations ou imputations inexactes ou trompeuses d'un fait de nature à altérer la sincérité du scrutin à venir ». Ensuite, y compris en dehors des périodes électorales, la loi consacre un devoir de coopération à la charge de ces plateformes sous la supervision du Conseil supérieur de l'audiovisuel (CSA) : elles doivent notamment mettre en place un dispositif de signalement des « fausses informations » et prendre des mesures de lutte contre les comptes qui les propagent massivement. Enfin, le CSA a été doté du pouvoir de faire cesser la diffusion sur le territoire français d'une chaîne de télévision étrangère diffusant des fausses informations dans l'objectif de porter atteinte à la sincérité du scrutin ou aux intérêts fondamentaux de la Nation, dont le fonctionnement régulier de ses institutions. L'ensemble de ces dispositions sont naturellement applicables à la manipulation de l'information par recours à l'hypertrucage. Plus généralement, des contenus créés par hypertrucage dans le but de tromper le spectateur ou l'auditeur sur l'identité de la personne représentée ou les propos qu'elle tient peuvent entrer dans le champ de l'article 313-1 du code pénal qui sanctionne l'escroquerie et l'usurpation d'identité. Enfin, la diffusion de contenus hypertruqués à des fins malveillantes peut entrer dans le champ de la diffamation, qui est définie par la loi du 29 juillet 1881 comme l'allégation ou l'imputation d'un fait, vrai ou faux, qui porte atteinte à l'honneur ou à la considération d'une personne, et faire l'objet des sanctions pénales correspondantes. En complément de ces dispositions législatives, les pouvoirs publics soutiennent les initiatives de vérification des contenus d'information. Dans le cadre d'un projet de recherche soutenu par l'Union européenne, dix pays dont la France, à travers l'Agence France-Presse, ont mis au point, entre 2016 et 2018, la plateforme « InVID » (In Video Veritas – Vérification du contenu vidéo des réseaux sociaux pour l'industrie de l'information), afin d'aider les journalistes à détecter les images et vidéos falsifiées, y compris par hypertrucage. Un module installé sur n'importe quel navigateur Internet leur permet de savoir si la vidéo a déjà été diffusée sur le web dans un autre contexte et si elle a fait l'objet d'une manipulation technique. Un autre projet de recherche en cours, baptisé « WeVerify », comporte la création d'une base de données de faux connus.

- page 2703

Page mise à jour le