EXPOSÉ DES MOTIFS
Mesdames, Messieurs,
Entre peur et fascination, menaces et opportunités, l'essor fulgurant de l'intelligence artificielle (IA) générative - branche de l'IA capable de créer des contenus - constitue un bouleversement d'une rare ampleur pour le secteur culturel.
Les modèles d'IA générative ont en effet recours, pour être suffisamment performants, à des quantités gigantesques de données, qui constituent en quelque sorte leur matière première. Ces données dites « d'entraînement » proviennent essentiellement de contenus numériques accessibles publiquement, notamment via de grandes bases de données telles que Common crawl. Pour les collecter massivement et automatiquement, les fournisseurs d'IA ont recours à des techniques de moissonnage (« web scraping »).
Parmi ces données numériques se trouvent des contenus culturels protégés par le droit d'auteur ou les droits voisins. Or leur moissonnage s'effectue sans autorisation préalable, ni rémunération de leurs titulaires.
Ces pratiques, qui s'apparentent à un pillage à très large échelle, posent un double problème.
Tout d'abord, les titulaires de droits ne savent pas si, quand et comment leurs oeuvres sont exploitées ; ces informations sont détenues par les seuls fournisseurs d'IA. Cette opacité contrevient au principe de transparence, principe matriciel en démocratie et qui, faut-il le rappeler, n'est pas antinomique avec l'innovation technologique. Sans transparence, les droits ne peuvent pas s'exercer, le juge ne peut pas trancher, le régulateur ne peut pas contrôler, la démocratie ne peut pas fonctionner.
Ensuite, les « données-oeuvres » qui servent à nourrir les modèles d'IA sont le seul élément de leur chaîne de valeur dont la gratuité est tenue pour acquise par les fournisseurs d'IA. Or il est légitime que leurs auteurs revendiquent une part de la richesse générée, car, sans leurs créations, les modèles d'IA ne pourraient exister.
Non autorisés ni rémunérés comme données entrantes, les contenus culturels protégés sont en outre directement concurrencés par les données sortantes des modèles d'IA. Ces « sosies d'oeuvres », produits en très grande quantité et à moindre coût que les créations humaines, font peser un risque de substitution des oeuvres de l'esprit par des contenus synthétiques. Cette déstabilisation du secteur de la culture est inédite par sa nature et sa portée.
L'asymétrie dans le rapport de force entre fournisseurs d'IA et titulaires de droits a fait naître des contentieux partout dans le monde. Des accords de licence ont parfois permis de mettre fin à certains d'entre eux. Mais ce type de transaction reste encore l'exception.
Aux États-Unis, les fournisseurs d'IA s'abritent derrière la notion anglo-saxonne de « fair use » (usage loyal) pour justifier l'utilisation de données disponibles en ligne à des fins d'entraînement de leurs modèles. Il revient désormais aux juges américains, saisis dans le cadre de plusieurs contentieux, de se prononcer sur l'étendue de cette doctrine appliquée à l'IA. Sachant qu'aux États-Unis les dommages-intérêts peuvent être punitifs, il est probable que certaines procédures s'éteignent moyennant une transaction financière. Par ailleurs, une pression politique très forte s'exerce actuellement dans le pays en faveur du secteur de la tech, au détriment de toute régulation de l'IA.
Au sein de l'Union européenne, l'IA s'est développée dans le cadre juridique posé par la directive 2019/790 du 17 avril 2019 sur les droits d'auteur et les droits voisins dans le marché unique numérique (DAMUN), législation à l'époque précurseure et protectrice, mais qui s'est vite retrouvée dépassée par l'essor de l'IA générative. Le texte prévoit deux exceptions au droit d'auteur pour la fouille de textes et l'extraction de données, dites exceptions « TDM » (« text and data mining »), qui ont été transposées en droit français.
L'une de ces exceptions, ouverte à tous les usages, quelle que soit leur finalité (y compris commerciale), permet la reproduction et l'extraction de contenus protégés par le droit d'auteur, accessibles de manière licite. Elle est toutefois assortie de la faculté pour les titulaires de droits de s'opposer expressément à cette fouille de textes et de données ; il s'agit de la clause de retrait, aussi appelée opt out, dont les modalités ne sont cependant pas précisées par la directive.
Depuis son entrée en vigueur, cette exception est alléguée par les fournisseurs d'IA comme fondement juridique à leurs pratiques de moissonnage de contenus protégés. Quant à l'opt out, son effectivité est, en pratique, très limitée, faute de transparence sur les contenus exploités.
Le règlement européen 2024/1689 du 13 juin 2024 sur l'IA (RIA) a tenté de remédier à cette situation, d'une part, en incitant les fournisseurs d'IA à se conformer à un code de bonnes pratiques (« code of practice »), d'autre part, en les obligeant à mettre à disposition du public un « résumé suffisamment détaillé » des contenus utilisés pour l'entraînement de leurs IA, sur la base d'un modèle de transparence (« template ») fourni par le Bureau de l'IA, organe créé par le règlement européen.
L'élaboration de ces textes d'application a donné lieu à d'âpres négociations et à d'intenses actions d'influence, sur fond de guerre commerciale entre les États-Unis et l'Union européenne. Leur publication a d'ailleurs été reportée à plusieurs reprises. Leur version finale, entrée en vigueur le 2 août 2025, traduit le choix d'une voie moins-disante en matière de protection du droit d'auteur et des droits voisins, qui s'éloigne de l'esprit et de la lettre du RIA. Le degré de transparence exigée des fournisseurs d'IA ne permettra en effet pas aux titulaires de droits de recouvrer l'effectivité de ces derniers.
C'est dans ce contexte technologique, économique, juridique et géopolitique que la commission de la culture, de l'éducation, de la communication et du sport du Sénat a conduit au printemps 2025 une mission d'information sur les enjeux entre l'IA et la création.
Confiée à Laure Darcos, Agnès Evren et Pierre Ouzoulias, cette mission d'information a mené une cinquantaine d'auditions avec toutes les parties prenantes et s'est rendue à Bruxelles, épicentre du dossier. À l'issue de leur travail, les rapporteurs se sont forgé la conviction que l'opposition entre IA et création était non seulement stérile, mais également préjudiciable à tous :
- pour les titulaires de droits, l'absence de rémunération en amont, couplée au risque de remplacement en aval, s'apparente à une double dépossession mortifère ;
- pour les fournisseurs d'IA, la fragilisation du secteur de la création risque de conduire à une contractation du volume de données de qualité disponibles, préjudiciable à la performance de leurs modèles qui pourraient, à terme, dégénérer ;
- pour l'Union européenne, un alignement par le bas en termes de protection du droit d'auteur et des droits voisins risque de conforter la position dominante des géants américains de la tech, au détriment du développement d'entreprises européennes de l'IA.
En conséquence, les rapporteurs estiment que la France et l'Union européenne ont tout à gagner à miser sur leur avantage comparatif, à savoir la qualité et la diversité de leurs contenus culturels, pour ouvrir une troisième voie de l'IA, respectueuse du droit d'auteur et des droits voisins, tout en étant attractive pour l'innovation.
Dans leur rapport1(*), adopté à l'unanimité par la commission le 9 juillet 2025, ils appellent au respect de huit grands principes pour la mise en place de relations équilibrées entre les titulaires de droits et les fournisseurs d'IA. Les deux premiers, dont découlent les six autres, sont la transparence totale des données exploitées par les fournisseurs d'IA et le droit à rémunération des titulaires de droits.
Pour garantir cette effectivité des droits et ce partage de la valeur, les rapporteurs ont proposé une méthode en trois temps :
- l'attente des conclusions de la concertation lancée début juin 2025 par le ministère de la culture et le ministère de l'économie entre les titulaires de droits et les fournisseurs d'IA ;
- en cas d'échec de cette concertation, le dépôt d'une proposition de loi d'initiative sénatoriale visant à mettre en oeuvre une présomption d'utilisation des contenus culturels par les fournisseurs d'IA ;
- en cas de nouvel échec, la mise en place d'une taxation du chiffre d'affaires réalisé en France par les fournisseurs d'IA, afin de compenser les pertes du secteur culturel.
À la suite de cinq réunions plénières et quarante bilatérales, la concertation entre titulaires de droits et fournisseurs d'IA, qui a eu le mérite de mettre autour de la table des acteurs peu habitués à se parler, s'est achevée fin novembre 2025 sur ce diagnostic : le partage de la valeur ne se fait pas spontanément. Il apparaît notamment que l'interprétation extensive de l'exception « TDM » bloque les démarches de contractualisation.
En l'absence de solution partagée entre les parties prenantes pour assurer la juste rémunération des contenus exploités pour l'entraînement des modèles d'IA, le législateur, suivant la méthode qu'il a définie, est légitime à intervenir pour défendre le droit d'auteur, socle de l'exception culturelle française.
Le droit de l'Union européenne ne fait pas obstacle à une intervention du législateur français. Celui-ci reconnaît en effet aux États membres une autonomie procédurale, en vertu de laquelle ces derniers conservent toute liberté dans le choix des moyens procéduraux permettant d'assurer la sauvegarde des droits que les justiciables tirent de l'effet direct du droit de l'Union européenne.
Les récents textes d'application du RIA, en n'imposant pas aux fournisseurs d'IA suffisamment de transparence sur les données exploitées par leurs modèles, ne permettent pas de garantir aux titulaires de droits l'effectivité de ces derniers. En conséquence, sans remettre en cause le droit substantiel émanant du RIA, le législateur français a la possibilité d'intervenir sur le droit procédural, en créant une règle nationale permettant de garantir l'effectivité du droit d'auteur et des droits voisins, reconnus par le droit de l'Union européenne.
Dans ces conditions, la règle procédurale proposée ci-après se réclame tant du droit national que du droit européen, auquel elle est conforme.
Suivant l'une des propositions formulées dans le cadre de la mission conduite par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) relative à la rémunération des contenus culturels utilisés par les systèmes d'intelligence artificielle2(*), la présente proposition de loi crée, dans le code de la propriété intellectuelle, une présomption légale d'utilisation des contenus protégés par les fournisseurs d'IA.
Pour rappel, le droit d'auteur connaît déjà des présomptions légales, par exemple la présomption d'autorat à l'article L. 113-1 du code de la propriété intellectuelle, ou la présomption de cession des droits au profit du producteur de l'oeuvre audiovisuelle à l'article L. 131-24 du même code.
La présomption proposée ici est dite simple ou réfragable. Elle peut donc être renversée par la preuve contraire, c'est-à-dire la démonstration au juge que le ou les contenus n'ont pas été utilisés. Il serait difficilement audible de soutenir que la charge de la preuve, qui incombe aujourd'hui aux titulaires de droits, alors qu'ils n'ont pas la maîtrise technique de l'outil IA, est trop lourde pour des professionnels de l'exploitation de la donnée.
L'instauration de cette présomption légale poursuit un double objectif.
Le premier est de restaurer l'effectivité des droits en allégeant la charge de la preuve. Au lieu de la preuve de l'exploitation d'un contenu culturel pour entraîner un modèle d'IA, quasi impossible à rapporter sans une transparence totale de la part des fournisseurs d'IA, le mécanisme de présomption requiert la preuve d'un fait connu, plus simple à rapporter.
La présomption est fondée sur la vraisemblance de ce qui advient le plus souvent. Lorsqu'une IA générative produit un contenu à la manière d'un contenu protégé ou dans le style d'un créateur ou d'un auteur, il est vraisemblable qu'elle a utilisé les contenus de ce dernier. Il en est de même lorsque l'IA « régurgite » des extraits ou des éléments d'une oeuvre ou d'un objet protégé, lorsqu'elle en développe une analyse, ou lorsqu'il existe des ressemblances entre l'objet protégé et le contenu généré. La vraisemblance de l'utilisation peut encore être soutenue par des expertises techniques ou des articles scientifiques portant sur le fonctionnement précis de certaines IA génératives ou sur leur chaîne d'approvisionnement. Ainsi, de nombreux faits ou indices en lien avec le développement ou le déploiement du système d'IA ou dans le résultat généré par celui-ci peuvent rendre vraisemblable l'exploitation du contenu protégé.
Le second objectif de cette présomption est de dissuader les acteurs de l'IA d'adopter certains comportements ou, à l'inverse, de les inciter à en suivre d'autres. La règle de droit a un effet prophylactique. Aussi, la présomption n'est pas qu'un outil contentieux. Elle a également pour objectif de favoriser l'émergence d'un marché éthique et compétitif, conciliant soutien à l'innovation et préservation de la culture, hors de tout procès, par le simple effet incitatif de la règle.
Depuis plusieurs mois, l'idée d'une présomption d'utilisation des contenus culturels par les fournisseurs d'IA fait son chemin au sein de l'Union européenne. Celle-ci est mentionnée dans le rapport sur l'IA et le droit d'auteur du député européen Axel Voss, qui sera examiné en commission des affaires juridiques du Parlement européen au début de l'année 2026. Elle est également citée dans la synthèse de la consultation des États membres lancée par la présidence danoise du Conseil de l'Union européenne sur l'application des dispositions de la directive de 2019 relatives au droit d'auteur et à l'IA.
Par cette proposition de loi, le législateur français entend être précurseur et susciter un élan auprès de ses partenaires européens pour rééquilibrer le rapport de force entre titulaires de droits et fournisseurs d'IA.
* 1 « Création et IA : de la prédation au partage de la valeur », rapport d'information n° 842 (2024-2025), Agnès Evren, Laure Darcos, Pierre Ouzoulias, au nom de la commission de la culture, de l'éducation et de la communication et du sport, déposé le 9 juillet 2025.
* 2 Rapport sur la rémunération des contenus culturels utilisés par les systèmes d'IA, mission conduite par Alexandra Bensamoun et Joëlle Farchy, professeures d'université, Conseil supérieur de la propriété littéraire et artistique (CSPLA), 23 juin 2025.