M. Laurent Lafon, président de la commission de la culture, de l'éducation, de la communication et du sport. Très bien !
Mme Nadège Havet. Le Conseil d'État a d'ailleurs confirmé la conformité du texte à nos normes constitutionnelles et européennes, sous réserve de quelques ajustements. La commission de la culture en a tenu compte en adoptant cinq amendements : il s'agissait de clarifier le champ d'application de la proposition de loi.
En votant ce texte, nous affirmons que l'IA doit être au service de la création, et non l'inverse. Nous posons aussi les bases d'une troisième voie, de nature européenne, entre le laxisme de certains pays et l'interdiction pure et simple, une voie qui concilie innovation et respect des droits, compétitivité et éthique.
C'est aussi une question de souveraineté, puisque la diversité culturelle est un pilier de notre identité nationale. Laisser les géants de la tech piller nos œuvres en l'absence de tout contrôle, c'est accepter de voir notre patrimoine culturel dilué, standardisé et, finalement, aliéné. Il est grand temps de siffler la fin de la récréation ! (Applaudissements sur des travées des groupes RDPI, SER, RDSE et CRCE-K. – Mme la rapporteure applaudit également.)
Mme la présidente. Dans la suite de la discussion générale, la parole est à Mme Karine Daniel. (Applaudissements sur les travées du groupe SER.)
Mme Karine Daniel. Madame la présidente, mesdames les ministres, mes chers collègues, nous examinons cet après-midi une proposition de loi très attendue à la fois par les autrices et auteurs, les éditrices et éditeurs, les journalistes et toutes celles et tous ceux qui font vivre chaque jour notre démocratie culturelle et informationnelle.
Car, derrière l'intelligence artificielle générative, il y a une réalité que nous ne pouvons plus ignorer et que nous ne devons pas négliger, celle d'un déséquilibre croissant entre les créateurs et les grands opérateurs technologiques.
D'un côté, on trouve quelques acteurs mondiaux, américains pour l'essentiel, mais aussi, désormais, de nouveaux opérateurs européens, comme Mistral AI, qui structurent un marché en pleine expansion et, surtout, répondent à une demande très concentrée.
De l'autre, il y a un tissu économique essentiel : les industries culturelles et créatives, les médias, le journalisme, qui représentent près de 3 % de notre PIB et emploient plus de 700 000 personnes dans notre pays. Ces acteurs constituent une offre très dispersée : c'est à la fois leur force et leur faiblesse.
La prise en compte de cette force et de cette faiblesse mérite d'être considérée : elle nécessite de la coordination, ainsi que la mise en œuvre de mesures de protection. Nous sommes actuellement devant un cas typique d'asymétrie de marché.
Aujourd'hui, les modèles d'IA sont entraînés à partir de millions de contenus, souvent protégés, et cela sans autorisation, sans transparence, sans rémunération. Ce moissonnage massif fragilise toute une économie de la création et de l'information.
Comme le rappelle très justement Raphaëlle Bacqué dans son livre Nos nouveaux maîtres, qu'elle a récemment publié avec ses collègues Damien Leloup et Alexandre Piquard et dont je vous recommande vivement la lecture, « la bête noire des patrons de la tech, c'est la régulation ». Eh bien oui, et c'est précisément notre rôle de législateur que de penser cette régulation. C'est une mission qui nous oblige !
Avec ma collègue Catherine Morin-Desailly, nous avons porté cette exigence au niveau européen : le 14 mai dernier, notre commission des affaires européennes adoptait à l'unanimité l'avis politique que nous rendions et qui demandait à la Commission européenne de revoir sa copie. Pour nous, l'allègement des exigences en matière de protection du droit d'auteur n'est pas acceptable et ne peut pas constituer une option.
La création, le journalisme, la presse et les médias audiovisuels, libres et indépendants, des piliers de la démocratie, sont menacés. L'Europe ne peut pas être le continent qui renonce à protéger ses créateurs au moment même où leur travail devient la matière première des technologies de demain.
C'est dans ce contexte que s'inscrit la proposition de loi que nous examinons aujourd'hui. Je saisis d'ailleurs cette occasion pour saluer le travail transpartisan de la chambre haute qu'ont conduit les commissions des affaires européennes et de la culture, lequel a permis d'aboutir à un texte solide, sécurisé juridiquement et validé par le Conseil d'État.
Notre objectif est de rétablir l'équilibre, car un tel équilibre n'existe pas aujourd'hui, madame la ministre.
Pour ce faire, il nous faut d'abord rétablir l'effectivité du droit. Aujourd'hui, les autrices et auteurs doivent prouver que leurs œuvres ont été utilisées, ce qui est quasiment impossible eu égard à l'opacité des modèles d'IA mobilisés. Nous proposons donc une présomption d'utilisation, qui rééquilibre la charge de la preuve et restaure l'égalité des armes.
Ensuite, nous devons créer les conditions de la mise en place d'un marché de l'IA éthique, fondé sur la transparence, la négociation et le partage de la valeur, car, sans création, il n'y a pas d'IA performante.
Enfin, il importe d'affirmer une ambition européenne. Oui, nous voulons une IA forte aux échelons national et européen, mais nous la voulons surtout fidèle à nos principes, c'est-à-dire respectant les droits, protégeant la création, assurant la souveraineté culturelle et informationnelle et garantissant les droits fondamentaux et la démocratie.
Mes chers collègues, ce texte n'oppose pas innovation et régulation. Il trace un chemin exigeant entre les deux. Car il n'y aura pas d'intelligence artificielle durable sans respect des créateurs.
C'est cette voie que nous vous proposons d'ouvrir aujourd'hui, et je peux vous assurer que le groupe Socialiste, Écologiste et Républicain y prendra toute sa part. (Applaudissements sur les travées du groupe SER, ainsi que sur des travées des groupes CRCE-K, GEST, UC et Les Républicains.)
Mme la présidente. La parole est à M. Jérémy Bacchi.
M. Jérémy Bacchi. Madame la présidente, mesdames les ministres, mes chers collègues, cette proposition de loi répond à une urgence, car si l'essor fulgurant de l'intelligence artificielle générative constitue une révolution technologique indéniable, il bouleverse aussi profondément nos équilibres économiques, culturels et sociaux.
Les modèles d'IA générative se nourrissent de quantités gigantesques de données, qui sont collectées à très grande échelle, notamment par un moissonnage automatisé de contenus accessibles en ligne. Or parmi ces données figurent des œuvres protégées par le droit d'auteur et les droits voisins : textes, images, musiques, interprétations, articles et créations de toutes sortes.
Il s'agit d'un pillage, qui pose deux problèmes majeurs.
Il pose tout d'abord un problème de transparence. Les créateurs ne savent pas si leurs œuvres ont été utilisées, ni comment, ni à quelle échelle. Sans transparence, les droits ne peuvent pas s'exercer. Sans transparence, il n'y a ni contrôle ni justice possible.
Il pose ensuite un problème de partage de la valeur. Les œuvres sont au cœur du fonctionnement des modèles d'IA, mais leurs auteurs sont exclus de la richesse créée. Pire encore, ces mêmes œuvres sont ensuite concurrencées par des contenus synthétiques produits à moindre coût par des modèles capables d'imiter des styles, des univers, des signatures.
Les conséquences de ce pillage sont déjà visibles. Dans les secteurs de la création, de l'information, de l'illustration, du jeu vidéo, de l'audiovisuel, les inquiétudes sont très concrètes. Elles portent sur les conditions de travail, les revenus, les perspectives d'emploi.
Cela concerne directement la jeunesse. Des étudiants, des lycéens, des familles s'interrogent : y aura-t-il encore une place pour les métiers créatifs à l'avenir ? Peut-on encore encourager son enfant à devenir illustrateur, designer, auteur ou encore journaliste ?
Quand une technologie commence à faire douter de la légitimité même de créer, nous faisons face à un enjeu de société. C'est dans ce contexte que cette proposition de loi a été déposée.
Soyons clairs, ce texte n'a pas vocation à tout régler. Il ne remplace ni une politique culturelle ambitieuse ni des négociations collectives indispensables. Surtout, il ne saurait remédier à l'insuffisance actuelle du cadre européen.
En effet, c'est aussi à l'échelle de l'Union européenne que doit se construire une régulation efficace de l'intelligence artificielle. En l'état, la directive de 2019 sur le droit d'auteur et le règlement sur l'intelligence artificielle ne garantissent ni la transparence ni l'effectivité des droits.
C'est pourquoi cette proposition de loi est également une manière d'interpeller la Commission européenne.
Elle appelle tout d'abord à une révision des règles européennes afin de réellement garantir la transparence des données utilisées, le respect du droit d'auteur et un partage équitable de la valeur.
Elle affirme ensuite que les États membres ne peuvent pas rester inactifs face aux insuffisances du cadre actuel.
Enfin, elle apporte une réponse immédiate, ciblée et opérationnelle à un problème précis : l'impossibilité pour les titulaires de droits de prouver l'exploitation de leurs œuvres.
La mesure proposée est simple : inscrire dans le code de la propriété intellectuelle une présomption d'exploitation des contenus culturels par les fournisseurs d'IA.
À l'heure actuelle, la charge de la preuve repose sur les créateurs. Ils doivent eux-mêmes démontrer que leurs œuvres ont été utilisées, mais comment le pourraient-ils en n'ayant pas accès aux données d'entraînement, pas de visibilité sur les modèles et pas de moyens techniques équivalents ? Cette situation est intenable.
La présomption d'utilisation qu'il nous est proposé de créer est simple et réfragable. Dans la mesure où elle peut être renversée par la preuve contraire, elle ne condamne pas ; elle exerce un rééquilibrage.
Autrement dit, lorsqu'il existe un faisceau d'indices sérieux – ressemblances stylistiques, reproduction d'éléments, régurgitation de contenus, analyses dérivées –, il est légitime de considérer que l'œuvre a pu être utilisée, sauf si le fournisseur d'IA apporte une preuve du contraire. Sans une telle mesure, les droits des auteurs resteront théoriques.
Pour autant, il faudra selon nous aller plus loin : renforcer les obligations de transparence ; garantir une rémunération juste ; construire des mécanismes de licence efficaces, y compris collectifs ; protéger les conditions de travail et l'emploi dans les secteurs concernés.
Toutefois, il faut des points d'appui pour avancer, et le groupe CRCE-K estime que ce texte constitue un premier pas indispensable. Pour protéger la création, pour défendre le travail et pour affirmer que le progrès technologique ne peut pas se faire au détriment de celles et ceux qui produisent la richesse culturelle, nous voterons cette proposition de loi. (Applaudissements sur les travées du groupe CRCE-K, ainsi que sur des travées des groupes SER, RDPI et UC.)
Mme la présidente. La parole est à Mme Monique de Marco. (Applaudissements sur les travées du groupe GEST.)
Mme Monique de Marco. Madame la présidente, mesdames les ministres, mes chers collègues, pour la première fois, nous avons à nous prononcer sur un texte encadrant l'usage de l'intelligence artificielle, qui offrira une première protection aux créatrices et aux créateurs, ainsi qu'à celles et ceux qui les accompagnent dans leur travail.
Aussi, je remercie mes collègues Laure Darcos, Pierre Ouzoulias et Agnès Evren d'avoir rédigé cette proposition de loi et de l'avoir fait inscrire à l'ordre du jour.
Il y a urgence : en l'absence d'un cadre clairement contraignant, l'ensemble des œuvres diffusées sur internet – ou leurs reproductions – ont été pillées et continuent d'être pillées pour alimenter, entraîner, nourrir des modèles et des systèmes d'intelligence artificielle afin de les rendre performants.
Dans le même temps, la mise en ligne de contenus textuels, sonores, visuels, vidéo, fabriqués à partir de systèmes d'intelligence artificielle inonde les plateformes, les publicités et les réseaux de l'économie du divertissement.
Il est sûrement encore trop tôt pour imaginer les répercussions qu'aura l'intelligence artificielle sur nos vies et sur les vies de celles et ceux qui vivront après nous, mais les hypothèses et les fantasmes qu'elle nourrit nous obligent à agir.
En effet, nous pouvons d'ores et déjà nous appuyer sur quelques certitudes et convictions pour légiférer.
Nous pouvons dès aujourd'hui décider qu'une œuvre de l'esprit est et doit rester le résultat d'un travail humain, solitaire ou collectif ; que l'artiste et l'auteur doivent être en mesure de subvenir à leurs besoins matériels grâce à leur statut ; que, dès lors que l'intelligence artificielle utilise une intelligence humaine préexistante, cela doit donner lieu à rémunération.
Il nous appartient, en tant que législateur, d'inventer des mécanismes nouveaux pour garantir ces principes.
Bien sûr, ce premier texte ne répond pas à l'ensemble des inquiétudes que l'émergence de l'intelligence artificielle a fait naître, mais il permet de mettre un pied dans la porte et d'ouvrir la voie à d'autres initiatives législatives.
Il conviendra tout d'abord de nous attacher à la mise en œuvre concrète de cette présomption d'utilisation. Nous savons que les actions en justice ont un coût que tous les artistes auteurs ne pourront pas assumer. Aussi, il me semble que la présomption d'utilisation pourrait encore être renforcée à l'avantage de celles et ceux qui se lanceront dans une telle procédure, afin de leur faciliter la tâche. Nous pourrions par exemple les dispenser de fournir, comme le texte le prévoit actuellement, un indice rendant vraisemblable l'utilisation de l'œuvre.
Ensuite, nous devons nous pencher sur la question de la jurisprudence de l'originalité des œuvres. Un rapport du Conseil supérieur de la propriété littéraire et artistique (CSPLA) sur la question a été remis à la ministre de la culture Roselyne Bachelot en 2020, et notre collègue Sylvie Robert a déposé une proposition de loi portant réforme de la preuve de l'originalité de l'œuvre en 2023.
Alors que l'originalité de leurs œuvres est déjà remise en cause par ailleurs, comment les artistes pourront-ils faire reconnaître l'utilisation de celles-ci par l'intelligence artificielle ?
En outre, il ne faut pas oublier le cas des artistes auteurs qui ne souhaitent pas que leurs œuvres alimentent les systèmes d'intelligence artificielle : quelles garanties pouvons-nous leur apporter ?
Quelles seront les conséquences économiques et financières de cette présomption d'utilisation ? Nous savons déjà que les organismes de gestion collective (OGC) et les syndicats de diffuseurs sont en négociation avec les entreprises d'intelligence artificielle pour obtenir compensation. Comment ces sommes seront-elles réparties entre les artistes auteurs, entre les artistes auteurs et les OGC et entre les artistes auteurs et leurs diffuseurs ?
Quels gages seront apportés pour que ne soient pas rémunérés de faux comptes d'artistes auteurs créés uniquement grâce à l'IA ? Selon Deezer, 85 % des écoutes de contenus créés à partir d'une IA sur sa plateforme sont frauduleux.
Madame la ministre, les débats qui ont eu lieu l'an dernier au sujet de la sécurité sociale des artistes auteurs et de la continuité des revenus ont montré l'existence de grandes tensions sociales entre artistes auteurs, OGC et diffuseurs.
Je reste pour ma part favorable à la mise en place d'une taxe ou d'une cotisation sociale permettant de rémunérer le travail déjà utilisé et l'utilisation à venir.
Bien que conscients de ses limites, les membres du groupe Écologiste – Solidarité et Territoires sont favorables à cette proposition de loi, qui constitue une première avancée.
Mesdames les ministres, après vous avoir entendues, je peux même dire que j'y suis très favorable, et j'espère qu'il cheminera jusqu'à l'Assemblée nationale avec le soutien plein et entier du Gouvernement.
Permettez-moi toutefois de rebondir sur vos propos : je ne vois pas en quoi ce texte pourrait être un frein à l'innovation. Peut-être Chat GPT vous a-t-il suggéré cette idée… (Applaudissements sur des travées des groupes GEST et SER.)
Mme la présidente. La parole est à M. Bernard Fialaire. (M. Bernard Buis applaudit.)
M. Bernard Fialaire. Madame la présidente, mesdames les ministres, mes chers collègues, l'immixtion de l'intelligence artificielle générative dans la production et la diffusion culturelles nous oblige à une réflexion profonde sur nos modèles de protection.
Nous devons nous réjouir que notre culture européenne et en particulier française soit incluse dans les modèles d'IA, dans un monde menacé par une culture anglo-saxonne hégémonique. L'intérêt qui est porté à notre culture est une reconnaissance de sa portée universelle.
Ce qui n'est pas supportable, c'est l'exploitation de contenus culturels sans respect ni des droits d'auteur ni des droits voisins. La protection qu'offrent ces droits est issue d'une tradition bien codifiée depuis la Révolution française.
Dans une démocratie, il n'est pas acceptable que les titulaires de ces droits n'aient aucunement connaissance de la manière dont leurs œuvres sont exploitées par les fournisseurs et diffuseurs d'IA. Cette opacité entrave considérablement le respect de leurs droits.
Les fournisseurs d'IA, en étant les seuls à détenir les données relatives aux contenus utilisés, qui sont protégées par le secret des affaires et par la complexité technique des systèmes, dénaturent l'usage du droit de la propriété intellectuelle.
Dans le contexte de financiarisation de nos sociétés, la disproportion entre les revenus des créateurs et ceux des fournisseurs et diffuseurs d'IA est désormais choquante. Aussi convient-il de protéger les créateurs d'un usage indu de leurs œuvres par les exploitants de contenus culturels.
Il faut faire la distinction, parfois subtile, entre le fait de s'inspirer d'une œuvre, dans ses idées, ses mots, ses expressions – celles que j'utilise en m'adressant à vous m'ont été transmises par l'enseignement, les lectures et les œuvres auxquelles j'ai été confronté – et le fait de la copier et de l'exploiter à des fins mercantiles.
Les droits d'auteur et le respect de l'autorisation d'utilisation doivent être protégés. Les contenus culturels constituent l'une des mannes principales du développement des modèles d'IA, sans laquelle ils n'auraient pu atteindre leur niveau de performance actuel.
Les contenus générés par l'IA et résultant d'une exploitation sans autorisation ni rémunération peuvent entrer en concurrence directe avec les œuvres originales. Cela crée un risque de substitution et de déstabilisation du secteur culturel.
La suspicion d'utilisation de contenus culturels sans autorisation ni juste rémunération doit obtenir une réponse crédible.
Aussi, je salue cette proposition de loi de Laure Darcos, qui prolonge le travail qu'elle a mené avec Agnès Evren et Pierre Ouzoulias dans le cadre de la mission de contrôle sur l'intelligence artificielle et la création.
Par ailleurs, je comprends les raisons juridiques ayant conduit à substituer au terme d'« exploitation » celui d'« utilisation » dans le titre de la proposition de loi, même s'il est bien question d'exploiter des œuvres, dans l'acception commune de ce terme.
J'espère que cette simple présomption sera suffisamment efficace pour que les auteurs obtiennent des explications et, lorsque cela se justifie, des réparations.
Le groupe du RDSE votera ce texte sensible, qui affirme notre détermination à résister à l'emprise sans limite de l'IA sur notre espace culturel et à ceux à qui cela profite. (Applaudissements sur des travées des groupes SER, CRCE-K, GEST, RDPI et Les Républicains.)
Mme la présidente. La parole est à Mme Catherine Morin-Desailly. (Applaudissements sur les travées du groupe UC.)
Mme Catherine Morin-Desailly. Madame la présidente, mesdames les ministres, mes chers collègues, l'examen de cette proposition de loi, à laquelle j'ai pu apposer ma signature, ce dont je remercie vivement ses auteurs, nous permet aujourd'hui d'aborder un défi qui s'impose à nous d'une manière de plus en plus inexorable : la conciliation entre, d'un côté, la création humaine et l'édifice juridique patiemment construit pour la favoriser et la protéger, et, de l'autre, la puissance technologique de l'intelligence artificielle générative.
Ce texte, qui crée une présomption d'utilisation des contenus protégés pour l'entraînement des modèles d'IA, n'est pas seulement une nécessité juridique. Il représente une étape clef dans la construction d'un équilibre entre deux domaines que tout semble pour le moment opposer, mais qui pourraient – c'est ma conviction profonde – progresser de concert.
En tant qu'auteure de plusieurs rapports au nom de la commission des affaires européennes, je ne peux que saluer cette initiative issue du rapport d'information de mes collègues Laure Darcos, Pierre Ouzoulias et Agnès Evren intitulé Création et IA : de la prédation au partage de la valeur.
Cette proposition de loi parachève un effort de réflexion et de proposition que nous menons au Sénat depuis plusieurs années pour que l'innovation ne soit pas synonyme de spoliation.
Dès mars 2023, dans le rapport d'information pour un déploiement de l'intelligence artificielle conforme aux valeurs européennes, que j'ai corédigé, mes collègues et moi-même affirmions que le modèle européen de l'intelligence artificielle devait être un modèle de confiance. Nous soulignions alors que le règlement européen sur l'IA, l'AI Act, pionnier en la matière, devait impérativement garantir que les droits fondamentaux, et singulièrement le droit de propriété intellectuelle, ne soient pas sacrifiés sur l'autel de la compétition mondiale.
À l'époque, nous réclamions déjà que l'Union européenne ne subisse pas la loi des géants du numérique, mais qu'elle impose ses propres standards de civilisation.
Malgré l'adoption de ce règlement et l'important et remarquable travail du commissaire européen Thierry Breton et du Parlement européen, le compte n'y est pas tout à fait. En effet, nous constatons une persistance de l'opacité : les fournisseurs de modèles d'IA, la plupart du temps extra-européens, se sont engagés, de leur propre aveu, dans une course au moissonnage massif de données.
Or, comme Florence Blatrix Contat et moi-même l'avons souligné dans un rapport de mars 2025 sur une proposition de résolution européenne sur la souveraineté numérique européenne, celle-ci ne se limite pas aux infrastructures, au cloud ou aux semi-conducteurs. Elle est intrinsèquement liée à notre capacité de protéger nos contenus, notre langue et notre création.
Si nous laissons nos œuvres alimenter gratuitement des machines qui finiront par concurrencer nos propres artistes, nous organisons méthodiquement notre propre effacement culturel.
Plus récemment, comme vient de le rappeler Karine Daniel, la commission des affaires européennes du Sénat a adopté le 14 mai 2025, sur notre proposition à toutes les deux, un avis politique crucial adressé à Bruxelles concernant le code de bonnes pratiques en matière d'IA à usage général. Les conclusions de ce texte peuvent irriguer notre débat du jour.
Nous y dénoncions une asymétrie d'information insupportable : à ce jour, les créateurs, qu'ils soient écrivains, musiciens, journalistes ou photographes, se heurtent à une boîte noire. Comment prouver qu'une œuvre ou un article de journal a servi à entraîner un modèle si le développeur refuse de fournir la liste de ses sources ?
Sur ce point, la présente proposition de loi intervient de manière salutaire. En créant une présomption d'utilisation, nous rééquilibrons la charge de la preuve. C'est une mesure de bon sens et de justice, puisqu'il est matériellement impossible pour un auteur de s'introduire dans les serveurs des géants de la tech pour vérifier si ses droits ont été respectés. Il appartient à ces entreprises de démontrer la licéité de leurs bases de données.
Dans notre avis politique de mai 2025, nous avons été extrêmement précises sur les exigences de transparence. Nous avons demandé avec force que le résumé des données d'entraînement comprenne, a minima, la liste des URL consultées et la date de la collecte des données. C'est le seul moyen d'assurer une transparence effective.
Par ailleurs, nous devons nous montrer vigilants face aux arguments qu'on nous oppose. On nous parle souvent du secret des affaires, mais les entreprises d'IA usent et abusent de ce bouclier.
Comme nous l'avons écrit dans nos travaux, si l'architecture d'un algorithme peut relever du secret industriel, les données utilisées pour le nourrir sont quant à elles le fruit du travail d'autrui. La transparence sur les sources n'est donc pas une menace pour l'innovation, c'est la condition sine qua non de l'acceptabilité sociale de I'IA.
J'ajoute un point important, que nous avons soulevé en commission : nous nous opposons fermement à toute forme de traitement différencié, qui accorderait des dérogations de transparence à certaines entreprises sous prétexte de souplesse. Le règlement européen ne prévoit aucune exception de ce type.
La protection du droit d'auteur doit être universelle ; elle ne saurait varier en fonction de la taille de l'entreprise qui utilise le contenu. Le pillage reste le pillage, qu'il soit commis par une start-up ou par une multinationale !
Mesdames les ministres, mes chers collègues, cette proposition de loi est la digne héritière de la tradition juridique française.
M. Pierre Ouzoulias. Très bien !
Mme Catherine Morin-Desailly. De Beaumarchais à nos jours, la France a toujours été à l'avant-garde de la protection des créateurs. En adoptant ce texte, nous ne faisons pas que protéger des revenus. Nous protégeons la liberté de création, mais aussi, il convient de le souligner, le pluralisme de l'information, sans lequel il ne peut y avoir de démocratie.
Finalement, le texte que nous examinons aujourd'hui est simplement un outil d'exécution nationale du cadre réglementaire numérique de l'Union. Sans le modifier en rien, il confère enfin au principe d'opt-out prévu par la directive Droit d'auteur une réelle effectivité.
Il faut en effet être réalistes : le droit de s'opposer à l'utilisation de ses œuvres est purement théorique si l'on ne sait même pas qu'elles ont été aspirées.
Il est temps de sortir d'une forme de naïveté technologique. L'intelligence artificielle est un outil formidable, à condition de ne pas être prédatrice. Elle doit se construire avec les créateurs, et non contre eux.
En imposant la transparence et en facilitant la preuve par cette présomption, nous favorisons en réalité une innovation plus saine, plus durable et plus éthique. Aussi appelons-nous de nos vœux depuis 2023 une IA que nous qualifions « de confiance ».
En conclusion, je tiens à réaffirmer que la souveraineté numérique de la France et de l'Europe passe par la défense de son intelligence humaine. Ce texte est une pierre essentielle à l'édifice d'une régulation vertueuse qui doit s'accompagner d'une politique industrielle volontariste à l'échelle nationale et européenne.
Sans cela, les entreprises américaines et chinoises nous imposeront leur vision du monde, car, il faut le dire, une guerre cognitive est en train de se jouer, dans laquelle la culture occupe une place particulière.
Aussi, le groupe Union Centriste votera avec enthousiasme cette proposition de loi, qui envoie le signal que la France n'entend pas laisser sa culture être diluée dans des statistiques algorithmiques ni uniformisée dans des contenus artificiellement créés. Nous devons cette sécurité juridique à tous les acteurs et actrices de nos industries culturelles et créatives, mais également de nos médias écrits et audiovisuels.
Je vous invite donc, mes chers collègues, à soutenir ce texte très utile, qui fait honneur à notre Haute Assemblée. (Applaudissements sur des travées des groupes UC, Les Républicains, SER et CRCE-K, ainsi qu'au banc des commissions.)
M. Pierre Ouzoulias. Bravo !
Mme la présidente. La parole est à Mme Vanina Paoli-Gagin.
Mme Vanina Paoli-Gagin. « À nulle époque, l'artiste ne fut moins protégé ; jamais l'artiste n'a été individuellement si peu de chose. […] Réunissons-nous donc, non pas pour l'intérêt de la chose écrite, mais pour la majesté de la pensée. »
Madame la présidente, mesdames les ministres, mes chers collègues, Honoré de Balzac lançait cette alerte pour la protection des droits des auteurs en 1834. Il reprenait le flambeau de Beaumarchais, qui avait mené ce combat quelques décennies auparavant.
Ce combat a retrouvé toute sa vigueur face aux défis sans précédent auxquels sont actuellement confrontés les créateurs à l'ère de l'intelligence artificielle générative. La question qui se pose à nous, mes chers collègues, est la suivante : la culture doit-elle rester un marqueur civilisationnel et participer activement à notre souveraineté cognitive ?
La proposition de loi que nous examinons s'inscrit dans l'actualité historique de ce siècle. Elle ouvre un débat essentiel et apporte une réponse intéressante à l'évolution rapide de nos technologies et, surtout, de nos usages.
Je tiens donc à saluer l'important travail transpartisan conduit par Laure Darcos, qui prolonge les apports de la mission de contrôle qu'elle a menée avec Agnès Evren et Pierre Ouzoulias, dont les conclusions ont été rendues en juillet 2025.
Dans leur rapport d'information, nos collègues constataient un déséquilibre croissant entre les fournisseurs de modèles d'intelligence artificielle et les titulaires de droits d'auteur, au détriment de ces derniers. En effet, l'IA générative repose par nature sur l'exploitation de volumes considérables de contenus et elle est guidée par la doctrine juridique américaine du fair use, c'est-à-dire de l'usage loyal.
Dans de nombreux cas, ces contenus sont protégés par un droit de propriété incorporelle – je rappelle que celui-ci est exclusif et opposable erga omnes – et sont utilisés sans que leurs auteurs aient été consultés, informés ni même rémunérés en contrepartie de cet usage.
De la directive du 17 avril 2019 sur le droit d'auteur et les droits voisins dans le marché unique numérique découle un mécanisme de protection. Par défaut, les fouilles de données non expressément interdites par les ayants droit sont autorisées. Or le text and data mining – excuse my french… (Sourires.) – ne doit pas faire rimer moissonnage avec pillage.
Les mesures d'exécution et de sanction ayant été confiées aux États membres, la proposition de loi a vocation à rendre effective la propriété incorporelle pour remédier à cette asymétrie. À cet effet, elle inverse la charge de la preuve en établissant une présomption légale d'utilisation des contenus protégés.
Le Conseil d'État nous a bien confirmé que ces dispositions ne posaient pas de difficultés juridiques. Toutefois, cette présomption réfragable rend difficile l'apport de la preuve d'un fait négatif. Les notions d'« indice afférent au développement ou au déploiement du système » et de « vraisemblance » peuvent ouvrir la voie à des contentieux fondés sur des éléments de preuve indirecte.
En outre, le régime probatoire proposé ne doit pas avoir pour effet de freiner l'innovation française et le développement de systèmes d'IA compétitifs.
En cela, la présomption d'usage ne saurait être pensée comme un outil contentieux, car nous savons très bien qui seraient les gagnants de ce petit jeu très long et très coûteux. Elle doit plutôt être considérée comme un élément structurant d'un futur marché de la donnée culturelle, qui pourrait être étendu à l'échelle de l'Europe par son effet incitatif et prophylactique.
La France, forte de son héritage protecteur en matière de propriété intellectuelle et de son écosystème numérique ultradynamique, pourrait être à l'avant-garde d'un tel mouvement.
À titre personnel, afin de sortir de l'impasse qui oppose auteurs et développeurs-concepteurs, ma conviction est que les systèmes d'IA doivent être alignés techniquement et éthiquement par construction. Leur « explicabilité » est un impératif démocratique.
C'est en partie l'objet de la mission qui m'a été confiée par le Premier ministre auprès de vous, madame la ministre Le Hénanff. Notre objectif est de faire émerger une filière industrielle de l'alignement des systèmes d'IA, notamment via l'adoption de standards, pour que leur comportement effectif soit conforme aux intentions des donneurs d'ordre et à nos valeurs.
La protection de la propriété incorporelle pourrait tout à fait être un cas d'usage pertinent pour rendre les données traçables et leur utilisation mesurable, car construire un marché opérant et équitable implique d'abord de l'objectiver.
À notre sens, cette proposition de loi va dans le sens du droit européen, qui appelle à davantage de transparence afin d'éclairer le fonctionnement de ce qui s'apparente souvent à une boîte noire, sans ajouter de complexité juridique.
Mes chers collègues, vous avez cité le rapport Voss, ainsi que l'AI Act qui obligera à partir d'août prochain les fournisseurs de modèles d'IA à risque limité à mettre à disposition du public un résumé suffisamment détaillé des contenus utilisés pour l'entraînement de leur modèle. L'AI Act est un règlement de conformité : il dit quoi respecter, mais pas comment nous assurer que les intelligences artificielles adoptent un comportement respectueux.
Cette proposition de loi ouvre la voie au dialogue. La réponse doit être nuancée et pragmatique. Opposer régulation et innovation ne rime à rien. C'est non seulement clivant, mais aussi anachronique.
Un cadre protecteur pour les titulaires de droits laissant aux acteurs de l'IA la capacité de poursuivre leur développement est possible. C'est à nous de le dessiner.