AVANT-PROPOS
La fascination de l'homme pour la création d'entités autonomes, dotées de caractéristiques humaines, irrigue toute l'histoire occidentale, des mythes de l'Antiquité à la cybernétique des années 1950, en passant par l'art de la Renaissance, le rationalisme philosophique du XVIIe siècle et la littérature de science-fiction du XIXe siècle.
Si l'espoir de modéliser l'intelligence humaine se concrétise dans les années 1950 grâce aux progrès de l'informatique, l'optimisme des débuts de l'intelligence artificielle (IA) - définie à la fois comme un domaine de recherche scientifique et une technologie - s'est rapidement heurté aux capacités restreintes des premiers ordinateurs. S'en suit, au cours des décennies suivantes, un parcours accidenté, fait de périodes de pics et de creux.
Le développement, dans les années 2010, des techniques d'apprentissage profond, puis l'apparition, au début des années 2020, des premières IA dites « génératives » marquent un changement de paradigme : pour la première fois, l'IA sort des sphères scientifique et technologique pour investir l'ensemble des pans de l'économie et de la société.
Moins de trois ans après le lancement, le 30 novembre 2022, par la société OpenAI de son agent conversationnel ChatGPT, l'IA est passée de fantasme scientifique à réalité technologique pour des centaines de millions d'utilisateurs chaque jour sur toute la planète. En 1993, l'écrivain et mathématicien américain Vernor Vinge prédisait, à l'horizon de trente ans, la « Singularité technologique », soit le moment où l'intelligence de l'homme serait dépassée par celle de la machine. À quelques mois près, cette prophétie correspond à la mise sur le marché de ChatGPT.
En quelques années, l'IA a réussi à pénétrer l'ensemble des strates de notre société : l'organisation sociale, l'économie, la politique, mais aussi notre rapport aux autres. Elle occupe désormais une place centrale dans le monde professionnel, ouvrant la voie à des processus de réorganisation des entreprises et des administrations porteurs de promesses d'efficience et de croissance. Certains secteurs, comme la médecine ou la logistique, font d'ores et déjà un usage intensif de modèles d'IA spécialisés. L'IA s'impose également dans l'espace privé, avec l'utilisation en pleine expansion des grands modèles de langage (LLM1(*)) tant pour structurer des informations que pour répondre à des demandes de leurs utilisateurs.
Cet essor fulgurant a pris de court nos modes de pensée et de régulation traditionnels. Le monde que l'IA promeut ne s'insère en effet que difficilement dans nos systèmes économiques, juridiques et démocratiques.
Les concepteurs d'IA ont jusqu'à présent suivi un chemin déjà balisé par la précédente révolution numérique et largement inspiré de la doctrine libertarienne : agir vite de manière agressive, créer une situation de fait pour s'imposer, et renvoyer les conséquences à plus tard. La conception et le fonctionnement des modèles d'IA reposent ainsi sur l'utilisation de quantités massives de contenus culturels, collectés sans que leurs détenteurs légitimes n'aient à aucun moment pu autoriser ou non leur exploitation, encore moins percevoir une rémunération appropriée. Ce comportement peut être résumé par une formule de Grace Hopper, informaticienne américaine conceptrice des premiers compilateurs dans les années 1950 : « Il est plus facile de demander pardon que de demander la permission2(*) ».
Si le secteur culturel est loin d'être le seul à être inquiété par la vague de l'IA, il est peut-être le plus emblématique. En effet, alors que les précédentes révolutions technologiques avaient largement pour conséquence de décharger l'homme de tâches pénibles ou d'exécution, l'IA est désormais en capacité d'investir des domaines que l'on croyait jusqu'à présent réservés aux êtres humains. Si une telle substitution est, dans certains domaines, un facteur précieux de connaissance et de progrès, elle peut, s'agissant du secteur culturel, constituer une menace quasi existentielle dans la mesure où les productions générées par la machine entrent en concurrence directe avec les oeuvres de l'esprit. Cette évolution de nature anthropologique interroge profondément notre conception de l'humanité et réactive les peurs ancestrales sur le remplacement de l'Homme par la machine.
Les questions posées par l'IA sont d'autant plus complexes que ses conséquences ne se cantonnent pas aux seules sphères économique et sociale. L'IA est devenue un enjeu géopolitique de souveraineté, à tel point que les négociations douanières actuellement en cours entre les États-Unis et la Chine traitent pour partie autour de ce sujet : accès aux terres rares, aux puces, aux meilleurs talents...
Dans cette bataille pour la souveraineté numérique en matière d'IA, l'Europe est une nouvelle fois ramenée à ses faiblesses structurelles, déjà lourdement creusées par la révolution numérique des années 2000 au cours de laquelle notre continent a été plus spectateur qu'acteur. La maîtrise de notre destin en tant que continent souverain est directement liée à notre capacité à rattraper notre retard technologique en matière d'IA. Or cette prise de conscience s'est accompagnée d'un mouvement presque de panique en faveur d'une absence de régulation, ou d'une régulation très limitée, présumée favorable au développement des acteurs de l'IA. Sur cette question, la France a souvent tenu un rôle plus ambigu que sa défense traditionnelle et inconditionnelle du droit d'auteur n'aurait pu le laisser présager.
C'est dans ce contexte disruptif que la commission de la culture du Sénat a souhaité sortir du débat manichéen qui oppose souvent, dans l'espace public, les défenseurs de la création aux thuriféraires de la technologie. Elle a donc décidé, au début de l'année 2025, de mettre en place une mission d'information pour analyser les liens entre l'IA et la création artistique.
Confiée aux sénatrices Laure Darcos et Agnès Evren et au sénateur Pierre Ouzoulias, cette mission d'information a organisé une quarantaine d'auditions et débattu avec une centaine d'interlocuteurs, parmi lesquels de nombreux représentants des ayants droit culturels, toutes filières confondues, des acteurs du secteur de la tech, ainsi que des experts juridiques et économiques. Compte tenu de la dimension fortement européenne du dossier, elle a aussi tenu à se déplacer à Bruxelles pour échanger avec les principales parties prenantes.
À l'issue de son travail, la mission s'est forgé la conviction que l'opposition entre IA et création artistique était non seulement stérile, mais également mortifère pour les deux secteurs. La France et l'Europe ont tout à gagner, non pas à s'inscrire dans les pas d'autres puissances devenues peu amicales, mais à profiter de leurs atouts, au premier rang desquels la qualité et la diversité de leurs contenus culturels, pour ouvrir une réelle troisième voie de l'IA, respectueuse des droits et inspiratrice pour la création.
I. PETIT PRÉCIS HISTORIQUE ET TECHNIQUE DE L'INTELLIGENCE ARTIFICIELLE
A. DES AUTOMATES ANTHROPOMORPHES DE L'ANTIQUITÉ À L'AGENT CONVERSATIONNEL CHATGPT : L'AVENTURE DE L'INTELLIGENCE ARTIFICIELLE
1. Aux origines imaginaires et rationnelles de l'intelligence artificielle
Si l'IA en tant que discipline scientifique et technologie est née au milieu du XXe siècle, elle puise ses racines à la fois dans la mythologie antique, l'histoire des sciences et la littérature. L'idée de construire une intelligence, qui n'est pas d'origine humaine, fascine depuis des milliers d'années.
Les mythes antiques, grecs particulièrement, sont riches de créatures imaginaires douées d'attributs humains, voire de raison. Le personnage de Talos, dont l'un des mythes raconte qu'il a été créé à la demande de Zeus par Héphaïstos, dieu de la forge, était un immense automate de bronze ayant pour mission de protéger Europe - la mère du roi de Crète Minos - des envahisseurs, pirates et autres ennemis. Considéré comme l'une des premières manifestations de l'idée de robot de l'Histoire, Talos pouvait faire chauffer son corps de bronze dans le feu pour ensuite étreindre ses adversaires jusqu'à ce qu'ils périssent brûlés. Dans l'Iliade d'Homère, de nombreux objets ou créatures agissent par eux-mêmes : les navires des Phéaciens se pilotent de manière autonome, des trépieds se mettent en mouvement pour servir le vin aux dieux de l'Olympe, des servantes taillées en or par Héphaïstos sont dotées d'une conscience et anticipent les besoins de leur maître. Ainsi que le montrent les travaux d'Adrienne Mayor3(*), chercheuse américaine en lettres classiques et en histoire des sciences, les mythes antiques ont ainsi posé, de manière visionnaire, les interrogations éthiques qui émergent, des siècles plus tard, avec l'accélération du progrès technique et qui trouvent une nouvelle actualité avec l'essor de l'IA : la puissance de la machine, la quête d'immortalité, le risque d'hubris...
Au-delà de ce vivier mythologique, la future IA se nourrit du développement, au fil des siècles, des sciences, en tout premier lieu des mathématiques et, au sein de celles-ci, de l'algorithmique. Le mot algorithme vient de la latinisation du nom d'un mathématicien perse du IXe siècle, Al-Khwârizmî, considéré comme le père de l'algèbre. L'origine des algorithmes est toutefois bien plus ancienne puisque des procédés algorithmiques ont été retrouvés sur des tablettes écrites en cunéiforme par les Babyloniens au IIIe millénaire avant J.C. et que des formules algorithmiques ont été développées entre 300 et 200 avant notre ère par les mathématiciens grecs Euclide, Archimède et Ératosthène.
Qu'est-ce qu'un algorithme ? Il s'agit d'une suite finie et non ambiguë d'opérations ou d'instructions qui, à partir de données fournies en entrée (entrants ou inputs), permet d'obtenir un résultat sortant (ou output).
De manière imagée, un algorithme s'apparente à une recette de cuisine où les ingrédients, en suivant des étapes successives, permettent d'obtenir un plat.
Au XVIIe siècle, le philosophe et mathématicien allemand Gottfried Leibniz apporte une contribution notable au développement de la pensée algorithmique, qui préfigure les fondements de l'informatique moderne. Convaincu que mathématiques et pensée métaphysique ne font qu'un, il théorise le calculus ratiocinator, algorithme ou machine calculatoire permettant de démêler le vrai du faux dans toute discussion dont les termes seraient exprimés dans une langue philosophique universelle. Leibniz est aussi le concepteur d'un prototype de machine à calculer, capable d'effectuer les quatre opérations de l'arithmétique.
Au cours du XIXe siècle, de nouvelles machines à calculer, ancêtres mécaniques des ordinateurs, sont mises au point par des scientifiques britanniques, notamment celle du mathématicien Charles Babbage sur laquelle sa compatriote Ada Lovelace développe le premier programme informatique de l'Histoire.
Parallèlement à ces progrès scientifiques, la littérature du XIXe siècle, sous l'effet des bouleversements technologiques provoqués par la révolution industrielle, se passionne pour les formes d'hybridation entre l'homme et la machine et interroge la capacité de cette dernière à développer une conscience, contribuant ainsi à dessiner l'avenir de l'IA. Des ouvrages de science-fiction comme Frankenstein de Mary Shelley ou les romans de Jules Verne forgent l'imaginaire collectif et ouvrent la voie aux oeuvres d'anticipation du siècle suivant, particulièrement dans le Septième Art.
2. Naissance et développement de l'intelligence artificielle : une histoire non linéaire
a) Les années 1950 : l'époque des pionniers de l'intelligence artificielle
Ce n'est que dans la première moitié du XXe siècle que les avancées réalisées dans les domaines de la logique formelle et de l'informatique permettent de poser les premiers jalons de l'IA telle que la notion émergera dans les années 1950.
Considéré comme l'un des pères fondateurs de l'informatique, le mathématicien britannique Alan Turing publie en 1936 un article, On Computable Numbers (« De la calculabilité des nombres »), dans lequel il imagine une machine dotée d'une bande de papier équipée d'une tête d'écriture et de lecture, pouvant théoriquement réaliser n'importe quel type de calcul, ce qui la rendait, d'après son concepteur, universelle. Cette « machine de Turing », comme elle sera nommée plus tard, préfigure le fonctionnement théorique des ordinateurs modernes.
Après la Seconde Guerre mondiale, Turing envisage progressivement la possibilité de construire une machine pouvant développer une forme d'intelligence grâce à une méthode d'entraînement. En 1950, il fait publier dans la revue de philosophie Mind son article le plus célèbre, souvent considéré comme l'acte fondateur de l'idée d'IA, Computing Machinery and Intelligence (« Les ordinateurs et l'intelligence »). Il y propose un test, qu'il nomme imitation game (jeu de l'imitation), désormais connu sous le nom de « test de Turing », dont le principe consiste à mettre en confrontation verbale un humain avec une machine imitant la conversation humaine et un autre humain. Dans le cas où l'homme qui engage la conversation n'est pas capable de dire lequel de ses interlocuteurs est une machine, on peut considérer que cette dernière a passé le test avec succès et qu'elle peut donc être qualifiée d'intelligente. Turing fait alors le pari que les machines vont réussir son test à moyen terme (« d'ici à cinquante ans, il n'y aura plus moyen de distinguer les réponses données par un homme ou un ordinateur, et ce sur n'importe quel sujet »).
Aujourd'hui encore, le test de Turing est régulièrement utilisé pour évaluer les IA contemporaines. En février 2024, trois chercheurs américains de l'université Stanford ont ainsi conclu que ChatGPT, l'agent conversationnel d'OpenAI, « présente des traits de comportement et de personnalité qu'il est statistiquement impossible de distinguer d'un humain ».
C'est à l'été 1956, lors d'une conférence organisée au Collège de Dartmouth dans le New Hampshire, que l'expression « intelligence artificielle » est officiellement utilisée pour définir un nouveau domaine de recherche. Les instigateurs de cette conférence, parmi lesquels figurent des personnalités scientifiques éminentes telles que John McCarthy et Marvin Minsky, sont animés par une conviction forte : celle de la faisabilité de construire des machines capables de simuler les capacités cognitives humaines. En créant les conditions d'un dialogue interdisciplinaire, où les connaissances issues de l'informatique, de la psychologie, de la philosophie, des neurosciences et des mathématiques pourraient s'enrichir mutuellement, ils aspirent à jeter les bases d'un domaine de recherche qui, jusqu'alors, n'a pas de contours clairement définis.
Véritable acte de naissance de l'IA, la Conférence de Dartmouth pose ainsi le présupposé selon lequel « chaque aspect de l'apprentissage ou toute autre caractéristique de l'intelligence artificielle peut en principe être décrit avec une telle précision qu'une machine peut être fabriquée pour le simuler ». L'IA devient donc la science et l'ingénierie de fabrication de machines pouvant simuler tel ou tel aspect de l'intelligence humaine. Il est intéressant de noter que, dans cette acception, l'IA est à la fois une discipline scientifique et un savoir-faire pratique.
En 1959, le terme machine learning (apprentissage automatique) apparaît pour la première fois, utilisé par Arthur Samuel pour son programme capable d'apprendre à jouer aux dames au fil des parties. Cette technique, qui permet aux algorithmes d'apprendre ou d'améliorer leurs performances en fonction des données qu'ils reçoivent, devient une sous-branche à part entière de l'IA.
Définitions de l'intelligence artificielle
Il n'existe pas de définition unique de l'IA, mais le terme désigne généralement la capacité de machines à effectuer des tâches associées à l' intelligence humaine, comme l' apprentissage, le raisonnement, la résolution de problème, la perception ou la prise de décision. L'IA désigne également le domaine de recherche qui s'intéresse au développement de telles machines et la technologie qui permet de les fabriquer.
Définition de John MacCarthy : l'IA est « la science et l'ingénierie de la fabrication de machines intelligentes ».
Définition du Parlement européen : l'IA représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».
Définition du Larousse : l'IA est « un ensemble de théories et de techniques mises en oeuvre en vue de réaliser des machines capables de simuler l'intelligence humaine ».
b) Les « printemps » et les « hivers » de l'intelligence artificielle
L'engouement suscité par la Conférence de Dartmouth ouvre une période d'âge d'or pour l'IA, qui court jusqu'au début des années 1970. Ce « premier printemps » se caractérise par un fort optimisme et des objectifs ambitieux, l'IA étant perçue comme un domaine de recherche très prometteur.
Portés par un soutien financier important tant de la part des pouvoirs publics (par exemple, l'agence américaine pour les projets de recherche avancée de défense) que des entreprises privées (par exemple, IBM), les chercheurs explorent l'IA dite « symbolique ». Celle-ci repose sur l'idée que la logique mathématique peut représenter, au moyen de symboles, des connaissances et modéliser des raisonnements. C'est au cours de cette première période qu'une première concrétisation des réseaux de neurones artificiels voit le jour sous la forme du Perceptron de Frank Rosenblatt et que le premier agent conversationnel (chatbot), baptisé Eliza, est mis au point par Joseph Weizenbaum.
À l'enthousiasme des deux premières décennies succède une phase de stagnation, qui s'étend de 1970 à 1980, marquée par une prise de conscience croissante des défis inhérents à la réalisation des ambitions initiales de l'IA et une baisse des financements publics et privés. Les recherches se concentrent alors sur la programmation logique et la représentation des connaissances. Cette décennie moins dynamique, connue sous le nom de « premier hiver de l'IA » en référence au contexte de la guerre froide, témoigne de la cyclicité de son histoire, qui est faite de pics et de creux d'investissements et de confiance.
Au cours des années 1980, l'IA bénéficie d'un regain d'intérêt sous l'effet de nouveaux investissements publics de la part des États-Unis, de l'Europe et du Japon. Cette période voit le développement des systèmes experts, c'est-à-dire des programmes conçus pour imiter l'expertise humaine dans des domaines spécifiques et capables de résoudre des problèmes complexes. Même si cette nouvelle approche montre le potentiel pratique de l'IA, ses succès restent très relatifs car cantonnés à des domaines trop restreints et spécialisés.
Ce bilan en demi-teinte annonce un « second hiver de l'IA » dans les années 1990, celle-ci n'étant de nouveau plus une priorité des pouvoirs publics. Un événement majeur marque tout de même la décennie : en 1997, le système d'expert Deep Blue d'IBM bat le champion du monde d'échecs Garry Kasparov. Pour la première fois, une intelligence artificielle est capable de l'emporter sur une intelligence humaine.
Il faut attendre les années 2010 pour que l'IA connaisse un nouvel âge d'or ou « second printemps », cette fois-ci spectaculaire. Le saut qualitatif qu'elle accomplit durant cette décennie est rendu possible par un contexte très porteur, qui se dessine à partir des années 2000. Avec l'apparition d'Internet puis le développement exponentiel de ses usages, le volume de données disponibles en ligne explose ; cette massification des données numériques (big data) constitue un formidable tremplin pour l'IA qui a besoin de « carburant » pour progresser. Parallèlement, les avancées technologiques en informatique permettent d'augmenter considérablement les capacités de calcul des ordinateurs. La combinaison entre la masse de données accessibles et la puissance des machines permet de faire décoller l'apprentissage profond (deep learning), grâce notamment aux travaux des scientifiques américains Yoshua Bengio, Geoffrey Hinton et du chercheur français Yann LeCun. Cette technique d'apprentissage basée sur des réseaux de neurones artificiels (voir infra), sous-discipline du machine learning, permet de réaliser des avancées très significatives en matière de reconnaissance vocale, de traitement du langage naturel (NLP), de reconnaissance visuelle et d'apprentissage par renforcement. En 2015, le programme AlphaGo, mis au point par la société Google DeepMind et qui a appris à jouer au jeu de go par le biais du deep learning, bat le champion européen Fan Hui par cinq parties à zéro.
En 2017, l'IA franchit une nouvelle étape charnière avec la montée en puissance de l'IA dite « générative », elle-même issue du deep learning et rendue possible par l'invention cette année-là de la technologie Transformer (cf. infra). C'est de cette technologie que naissent les grands modèles de langage ou LLM (Large Language Model), dont l'exemple le plus célèbre est ChatGPT, lancé en 2022 par l'entreprise américaine OpenAI.
* 1 Large Language Model
* 2 « It's easier to ask forgiveness than it is to get permission. »
* 3 Adrienne Mayor, “Gods and Robots”, Princeton University Press, november 2018.