Question de M. GUÉRINI Jean-Noël (Bouches-du-Rhône - RDSE) publiée le 28/04/2022

M. Jean-Noël Guérini appelle l'attention de M. le secrétaire d'État auprès des ministres de l'économie, des finances et de la relance, et de la cohésion des territoires et des relations avec les collectivités territoriales, chargé de la transition numérique et des communications électroniques sur les dangers du « deepfake ».
Une étude menée par des chercheurs de l'université du Texas et publiée le 22 février 2022 (« AI-synthesized faces are indistinguishable from real faces and more trustworthy ») vient de montrer que non seulement les visages créés par des intelligences artificielles ne sont plus détectables à l'œil nu, mais que ces visages de synthèse suscitent même un sentiment de confiance supérieur chez les spectateurs.
On peut donc légitimement s'inquiéter des usages du « deepfake » (hypertrucage, infox vidéo ou vidéotox), cette technique de synthèse multimédia reposant sur l'intelligence artificielle et permettant de générer des vidéos falsifiées, qui superposent des images et des prises de vues réelles. Voix clonée et visage modélisé s'avèrent désormais d'un réalisme tellement confondant que cela confère une dimension inédite aux fausses informations que peuvent propager de telles vidéos. Se posent dès lors des questions liées non seulement à la désinformation, mais également au droit d'auteur, à la vie privée, au harcèlement…
Dans la mesure où de telles manipulations fabriquent de l'incertitude et jettent la suspicion sur l'ensemble des contenus audiovisuels d'information, il lui demande comment détecter les vidéos truquées et s'assurer qu'elles sont présentées comme telles.

- page 2203

Transmise au Ministère de l'économie, des finances et de la souveraineté industrielle et numérique


La question est caduque

Page mise à jour le