EXAMEN EN COMMISSION

La commission des affaires européennes s'est réunie le jeudi 30 mars 2023, sous la présidence de M. Jean-François Rapin, président, pour l'examen du présent rapport.

M. Jean-François Rapin, président. - Nous examinons ce matin une proposition de résolution européenne sur un projet de législation européenne destiné à encadrer l'intelligence artificielle (IA). Il s'agit d'un pan d'innovation numérique gigantesque, que l'Union européenne ne régule pas encore. Les récentes avancées en la matière font couler beaucoup d'encre, je pense bien sûr à l'outil de conversation automatisé ChatGPT dont les performances sont impressionnantes et représentent un défi, d'abord en matière d'emploi - puisque Goldman Sachs estime que l'IA menacerait 300 millions d'emplois dans le monde, tout en pouvant aussi contribuer à terme à augmenter le PIB mondial annuel de 7 % - mais aussi en matière d'enseignement... On peut aussi évoquer les technologies permettant de générer des images par l'intelligence artificielle, qui constituent une menace pour l'information. Bref, l'IA nous conduit-elle à notre perte ?

Hier était publiée une lettre ouverte qui a eu un retentissement médiatique mondial : le patron de Tesla et Twitter, le cofondateur d'Apple et plus d'un millier d'universitaires et de spécialistes de l'IA alertent sur les graves risques pour la société et l'humanité que représentent les systèmes d'IA dotés d'une intelligence capables de concurrencer celle de l'homme. Ils appellent à suspendre pour au moins six mois le développement de systèmes d'IA plus puissants que la dernière version du robot conversationnel d'OpenAI. Faut-il donc faire une pause sur les expériences géantes d'intelligence artificielle ?

Faut-il en accélérer la régulation, comme le propose l'Union européenne au travers du texte que nous examinons aujourd'hui, encadrer ces technologies émergentes pour accompagner le développement de celles dont les effets seront positifs et dont les risques seront gérables, dans un sens conforme à nos valeurs ?

M. Cyril Pellevat, rapporteur. - La proposition de législation européenne sur l'intelligence artificielle que nous examinons aujourd'hui constitue la troisième grande réglementation numérique horizontale que l'Union européenne entend mettre en place, après le Digital Markets Act (DMA) et le Digital Services Act (DSA).

Ce règlement est le fruit de travaux initiés dès 2018 par la Commission européenne ; il s'inscrit dans la continuité de la stratégie européenne d'IA et s'appuie sur les conclusions du Livre blanc sur l'intelligence artificielle de 2020, qui fixait le double objectif pour l'Union de promouvoir le développement de l'IA en Europe, tout en tenant compte des risques qui peuvent y être associés.

Alors même que l'intelligence artificielle représente des gisements de croissance importants, l'Europe souffre d'un déficit d'investissement considérable dans ce domaine. Pour ne prendre qu'un exemple, les petites et moyennes entreprises d'IA sont deux fois et demie plus nombreuses aux États-Unis que dans l'Union européenne.

En parallèle, force est de constater que, mal utilisée, l'IA est susceptible de causer de graves atteintes aux droits fondamentaux, qu'il s'agisse du respect de la vie privée, de l'accès à la justice ou encore du respect du principe de non-discrimination. Entendons-nous bien : l'IA n'est en elle-même ni une opportunité ni un danger. En réalité, comme toutes les technologies, sa valeur dépend de l'usage qui en est fait. Jusqu'à présent, l'absence de toute réglementation générale sur l'IA à l'échelon européen constituait donc, sans aucun doute, un risque pour les droits fondamentaux.

La Commission européenne entend remédier à cette situation en faisant de l'Europe « le pôle mondial d'une intelligence artificielle digne de confiance ». En pratique, le nouveau règlement sur l'IA vise à mieux protéger les citoyens, en appelant au développement d'une IA au service de l'humain, fiable, éthique et conforme aux valeurs européennes, mais aussi à stimuler les investissements et l'innovation dans l'IA, en accroissant la confiance dans l'IA des utilisateurs et la sécurité du cadre juridique applicable.

Mme Elsa Schalck, rapporteure. - La proposition de règlement sur l'IA repose sur une approche fondée sur le risque, en distinguant trois catégories de systèmes d'IA : ceux qui génèrent un risque inacceptable et sont à ce titre interdits ; ceux qui génèrent un haut risque pour la santé, la sécurité ou les droits fondamentaux des personnes physiques et dont l'utilisation est fortement encadrée ; ceux qui présentent un risque faible et sont donc uniquement soumis à des obligations de transparence renforcée.

Je ne m'attarderai pas sur les pratiques d'IA interdites par le règlement ; il va de soi que les systèmes qui influencent de manière subliminale les comportements, qui exploitent les vulnérabilités dues à l'âge ou au handicap ou encore les systèmes de notation sociale sont parfaitement contraires aux valeurs de l'Union européenne et posent des risques majeurs du point de vue de la protection des droits fondamentaux.

L'enjeu de la proposition législative européenne en matière d'IA se situe davantage au niveau des systèmes d'IA à haut risque, qui font l'objet de l'essentiel du règlement.

Le texte de la Commission répond à deux questions cruciales : sur quels critères faut-il considérer qu'un système d'IA est à « haut risque » ? Et quelles garanties spécifiques poser à la mise sur le marché et l'utilisation de ces systèmes, afin de protéger les droits fondamentaux ?

S'agissant du premier point, la classification retenue dans le règlement repose sur la finalité et les modalités d'utilisation des systèmes d'IA, et non sur leur mode de fonctionnement et leurs fonctionnalités in abstracto. En pratique, pourront être classés parmi les systèmes à haut risque les systèmes appartenant à un nombre limitatif de domaines : l'identification biométrique, les infrastructures critiques, l'éducation et la formation professionnelle, l'emploi, l'accès aux services publics et aux services privés essentiels, la migration, l'asile et le contrôle aux frontières, enfin la justice et les processus démocratiques.

S'agissant du second point, à savoir le cadre juridique applicable, le projet de règlement prévoit que les fournisseurs soient soumis à d'importantes obligations ex ante, avec notamment la mise en place d'un système d'identification, d'évaluation et de gestion des risques, mais aussi des exigences en matière de qualité des jeux de données utilisées pour l'entraînement des systèmes.

Par ailleurs, les fournisseurs seront tenus de faire évaluer la conformité de leurs systèmes au règlement IA avant leur mise sur le marché, mais également de mettre en oeuvre des systèmes de surveillance après commercialisation, et tout au long de la vie du système, afin notamment de pouvoir alerter les autorités compétentes en cas d'incidents ou de dysfonctionnements graves.

La mise en oeuvre de ces différentes obligations doit se faire sous le contrôle d'une autorité nationale désignée par chaque État membre, habilitée, si elle considère qu'un système d'IA présente un risque, à procéder à toutes les vérifications utiles, à enjoindre au fournisseur de prendre des mesures correctives appropriées et, dans certains cas, à retirer le système du marché.

Enfin, la proposition de règlement prévoit la création d'un Comité européen de l'intelligence artificielle, composé de représentants des autorités de contrôle nationales et du Contrôleur européen de la protection des données, et présidé par la Commission. Ce Comité a vocation à assister les autorités de contrôle et la Commission dans la mise en oeuvre du règlement, afin d'en assurer une application cohérente.

Mme Catherine Morin-Desailly, rapporteure. - Je vais vous présenter la proposition de résolution européenne que nous vous soumettons, fruit de nombreuses auditions.

Nous ne pouvons tout d'abord que saluer l'initiative de la Commission de réguler le secteur de l'IA, puisque les technologies d'intelligence artificielle sont actuellement déployées en dehors de tout cadre juridique clair.

Cela étant dit, le texte de la Commission demeure perfectible ; nos travaux ont permis d'identifier un certain nombre de points de vigilance et de pistes d'amélioration.

Il nous semble, en premier lieu, que les applications directement visées par le règlement devraient être mieux définies, afin de garantir une plus grande sécurité juridique.

Nous demandons ainsi que les fournisseurs de systèmes d'IA à usage générique, jusqu'à présent exclus du champ d'application du règlement, soient également soumis à des obligations spécifiques. Alors que la presse se fait très régulièrement l'écho des prouesses de systèmes d'IA tels que ChatGPT, il est indispensable de réglementer les systèmes d'IA capables d'accomplir une très grande variété de tâches, comme créer des contenus généraux, images et textes, à partir de grandes quantités de données existantes.

Nous appelons également à la prise en compte, dans la définition des systèmes d'IA à haut risque, des risques systémiques, c'est-à-dire concernant les individus dans leur ensemble. La liste des systèmes d'IA à haut risque pourrait de la sorte être étendue aux applications susceptibles de causer des préjudices environnementaux ou aux algorithmes de recommandation de contenus qui promeuvent des contenus clivants ou de désinformation - en somme, tous les réseaux sociaux.

Nous avons également relevé un certain nombre de lacunes préjudiciables dans la liste des systèmes d'IA à haut risque et demandons que cette dernière soit étendue aux systèmes susceptibles d'influencer ou d'avoir des incidences négatives sur les droits des personnes vulnérables - notamment les enfants -, mais également sur leur santé, de même que les systèmes destinés à établir des priorités dans l'envoi des services de police, eu égard au caractère potentiellement très discriminant de telles applications.

De toute évidence, cette liste sera amenée à être complétée, au gré des évolutions de technologies et d'usages, afin de ne pas laisser d'angle mort susceptible d'affecter les droits fondamentaux. Il importe cependant que ces modifications soient soumises à un examen attentif de scientifiques et de praticiens de l'IA, afin d'être fondées sur des éléments objectifs et documentés.

Dans un souci de transparence, il nous semble également opportun de prévoir la création d'un registre public des organismes ou autorités publics utilisant les systèmes d'IA à haut risque, sauf évidemment dans les cas où une telle transparence se révélerait préjudiciable à l'action des autorités répressives.

J'en viens à présent aux systèmes d'IA interdits par le règlement. Nous sommes convaincus qu'il faut résister à la tentation d'une utilisation excessive de l'IA, en dépit de ses performances, dans les cas où cette dernière contrevient à des principes fondamentaux de l'Union européenne.

Nous estimons, par conséquent, que les pratiques interdites au secteur public devraient l'être aussi pour le secteur privé, puisque le potentiel d'atteinte aux droits fondamentaux ne dépend pas du fournisseur ou de l'utilisateur du système, mais de la finalité de ce dernier. Nous appelons également à l'interdiction générale des systèmes de notation sociale et de reconnaissance des émotions, mais aussi des systèmes ayant pour objet la catégorisation des personnes dans l'espace public et de tous les systèmes visant à classer les individus à partir de données biométriques dans des groupes relevant de catégories correspondant à des données sensibles. Nous sommes également favorables à une interdiction des systèmes d'identification biométrique à distance dans l'espace public, sauf dans certains cas bien précis.

En parallèle, nos travaux ont montré que le cadre juridique posé par le règlement soulevait un certain nombre de difficultés opérationnelles s'agissant de l'usage de l'IA par les autorités régaliennes et les forces de sécurité.

Nous souhaitons donc, d'une part, que les champs de la défense et de la sécurité nationale soient explicitement exclus de la législation sur l'IA et d'autre part, que des aménagements soient trouvés en ce qui concerne l'utilisation de l'IA par les autorités répressives. Il ne s'agit pas de lever les obligations posées par le règlement, mais de les adapter, sous réserve des garanties appropriées. Je pense notamment aux règles applicables en matière de transparence, ou à l'exigence d'un double contrôle humain pour pouvoir exploiter les données issues de systèmes d'identification biométrique des personnes physiques dans l'espace public.

S'agissant de l'usage de l'IA dans l'espace public, nous estimons que, dans un contexte marqué par le développement du métavers, la notion d'espace public virtuel doit absolument être intégrée, afin qu'y soient appliquées les mêmes restrictions que dans l'espace public physique.

Enfin, il nous paraît primordial que les personnes affectées par l'IA sans en être utilisatrices soient davantage prises en compte. Nous souhaitons que ces personnes disposent a minima d'une information intelligible sur leur exposition potentielle à des systèmes d'IA et qu'elles soient en mesure de signaler les éventuels usages abusifs ou performances défaillantes des systèmes d'IA aux régulateurs, aux fournisseurs ou aux utilisateurs.

M. André Gattolin, rapporteur. - Nos travaux ont également mis en exergue la nécessité de préciser les obligations pesant sur les fournisseurs.

Il nous semble tout d'abord essentiel de renforcer les exigences en matière de documentation sur les données exploitées par les systèmes d'IA, notamment les conditions de collecte et les éventuelles lacunes identifiées. Nous demandons également que les fournisseurs soient tenus de vérifier que ces données ont été acquises de manière licite et conforme à la réglementation européenne en matière de protection des données. J'insiste sur ce point. Lorsqu'on parle de qualité des jeux de données, on pense à une qualité intrinsèque ; or rien ne ressemble plus à une donnée acquise de manière licite et avec consentement qu'une donnée volée. Nos services de renseignement nous font régulièrement part de vols de données publiques ou parapubliques par une grande puissance internationale qui développe du machine learning, ce qui nécessite une importante masse de données. Le règlement ne précise pas ce point.

Plus généralement, l'articulation du règlement IA avec le règlement général sur la protection des données (RGPD) doit être explicitée. Nous invitons donc le Comité européen de la protection des données à élaborer des lignes directrices, afin de préciser le degré de souplesse avec laquelle le RGPD peut être interprété, dans le but de ne pas entraver le développement de l'IA en Europe. En parallèle, pour ne pas amoindrir le haut degré de protection dont jouissent les citoyens européens en ce qui concerne la protection de leurs données à caractère personnel, nous souhaitons qu'il soit clairement énoncé dans le règlement IA que celui-ci s'applique sans préjudice du RGPD, et que la conformité d'un système au règlement IA n'implique pas de facto sa conformité au RGPD.

Nous avons, mes chers collègues, assez longuement détaillé les garde-fous posés par le texte afin de protéger les droits fondamentaux des citoyens. Je souhaite aborder à présent les mesures de soutien à l'innovation puisque, comme nous l'avons indiqué en introduction, le règlement IA poursuit un double objectif : non seulement mieux protéger les citoyens, mais également renforcer la compétitivité européenne en matière d'IA.

Dans cette perspective, la proposition de règlement encourage les autorités nationales à mettre en place des bacs à sable réglementaires, qui offriraient « un environnement contrôlé pour mettre à l'essai des technologies novatrices sur une durée limitée », soit un cadre pour expérimenter. Nous estimons non seulement que le développement de ces bacs à sable réglementaires doit être encouragé, mais en plus que le caractère dérogatoire de ces facilités mériterait d'être renforcé.

Nous demandons par ailleurs que les modalités et conditions de fonctionnement des bacs à sable réglementaires, qui seront déterminées par la Commission par la voie d'actes d'exécution, soient soumises pour avis au Comité européen de l'intelligence artificielle. Nous souhaitons, en tout état de cause, que le fonctionnement de ces bacs à sable réglementaires soit aussi homogène que possible à travers les États membres, afin de garantir une concurrence équitable. Enfin, nous soutenons l'accès préférentiel aux bacs à sable réglementaires pour les petits acteurs et les start-up, souvent à la pointe de l'innovation.

Il importe que les États soient en mesure de veiller à la mise en oeuvre effective des différentes obligations énoncées, sans quoi le règlement restera lettre morte. À cet égard, nous regrettons que les moyens techniques et humains alloués aux autorités de contrôle nationales au sein de l'Union demeurent très hétérogènes, dans la mesure où cette situation pourrait faire obstacle à une application uniforme, donc efficace, du règlement sur l'IA.

À l'échelle nationale, nous recommandons la désignation de la Commission nationale de l'informatique et des libertés (Cnil) comme autorité compétente pour la surveillance de l'application du règlement, compte tenu de l'expertise acquise par cette autorité dans la régulation des systèmes d'IA impliquant des données à caractère personnel. Une telle désignation offrirait un cadre cohérent aux professionnels du numérique, en identifiant un interlocuteur unique et en permettant une régulation sectorielle fluide avec les différents acteurs impliqués.

À l'échelle européenne, le Comité européen de l'intelligence artificielle sera la cheville ouvrière de l'application du règlement IA ; or cette instance ne pourra remplir ses fonctions d'assistance aux États membres et de conseil à la Commission que si elle parvient à asseoir sa légitimité dans le secteur de l'IA.

Dans cette optique, nous demandons que la composition du Comité soit revue, afin d'intégrer des scientifiques et des praticiens de l'IA qui seraient en mesure, par leur assistance, de pallier les capacités et compétences insuffisantes de certains États membres en matière d'IA, de façon à garantir une mise en oeuvre effective et uniforme du règlement.

Nous appelons également à un accroissement des compétences consultatives du Comité et à un renforcement de son rôle prospectif. Nous souhaitons notamment que le Comité se voie explicitement accorder la possibilité de s'autosaisir de toute question pertinente en lien avec l'application du règlement sur l'IA, afin de formuler des recommandations ou des avis sans saisine préalable de la Commission. La reconnaissance d'un tel droit d'initiative constituerait un gage fort d'autonomie pour le Comité sur l'IA.

Nous partageons les objectifs de cette proposition de législation. Cependant, cette approche réglementaire de l'IA est nécessaire, mais pas suffisante, et doit être complétée par un soutien affirmé à l'investissement, à la formation et à l'élaboration des normes internationales dans le domaine de l'IA.

M. Jean-François Rapin, président. - Les géants du numérique et les centaines d'universitaires ayant demandé un moratoire ont-ils raison ?

M. André Gattolin, rapporteur. - Je ne suis jamais opposé aux moratoires, mais il faut s'interroger : alors que nous vivons une période de transformation rapide, quels sont ces acteurs qui demandent un moratoire ? Google n'est pas l'acteur d'internet le plus respectueux des régulations européennes. Il réalise plus de 50 % de son chiffre d'affaires avec son moteur de recherche. Or, il est menacé par l'émergence de ChatGPT et son utilisation sur Bing, le moteur de recherche de Microsoft : Google veut donc six mois supplémentaires pour riposter contre son concurrent.

M. Jean-François Rapin, président. - Que penser alors de la mobilisation des nombreux universitaires ?

M. André Gattolin, rapporteur. - L'IA est un concurrent redoutable pour les universitaires et les politiques. Le secteur universitaire se trouve déjà confronté à une abondance de publications, nécessaires pour avoir un bon ranking, notamment dans le classement de Shanghai. Or les comités de lecture et de validation sont de plus en plus tenus de publier rapidement les articles, pour une bonne rentabilité économique des revues. Mais cela ne va pas pouvoir se réguler au niveau européen, d'autant que la Chine a pris le dessus sur l'IA.

M. Jean-François Rapin, président. - En bref, certains veulent un moratoire pour gagner plus ou perdre moins...

Mme Catherine Morin-Desailly, rapporteure. - L'Union européenne s'est enfin saisie du sujet avec ces trois textes. La régulation est devenue nécessaire et sa mise au point peut impliquer une pause pour examiner davantage le sujet... Cette lettre ouverte témoigne de l'inquiétude généralisée sur la puissance transformatrice des nouvelles technologies. Prenons-la comme une alerte, un appel à la vigilance. Travaillons pour avoir des réglementations qui seront capables de s'adapter. En effet, lorsqu'une directive est votée, combien d'années faut-il attendre pour la rouvrir et la modifier ?

Nous avons essayé d'être sur une ligne de crête entre le développement de potentialités et la prévention des risques de l'IA. Les autorités doivent faire preuve d'une vigilance permanente.

M. André Reichardt. - Je me félicite du projet de règlement et de la proposition de résolution européenne dont je rejoins les différentes recommandations.

Je ferai deux observations.

Première observation, la protection des citoyens. J'ai été rapporteur pour la commission des lois sur le projet de loi de mise en oeuvre du règlement « lutte contre le terrorisme en ligne » l'été dernier, et corapporteur dans notre commission sur la proposition de réglementation pour lutter contre la pédopornographie en ligne. Désormais, nous débattons d'une proposition de résolution européenne sur l'intelligence artificielle. Il s'agit du même combat, auquel il faut les mêmes solutions : une meilleure régulation et une meilleure harmonisation des pratiques des autorités des différents États. Il faudra, à un moment, mettre de l'ordre dans tout cela. Il faut davantage contrôler le numérique.

J'ai le sentiment que la Commission européenne n'anticipe pas assez et se contente de suivre le mouvement. Une certaine usine à gaz se crée. Mettons tout à plat pour dégager des lignes de conduite.

Seconde observation, il faut favoriser l'innovation et l'Union européenne ne peut rester en retard. Comment protéger les citoyens face à une technologie éminemment évolutive ? Jusqu'où blinder pour éviter que l'obus ne nous traverse ? Les domaines d'activités cernés par le règlement et envisagés par la proposition de résolution européenne seront très vite dépassés par d'autres domaines auxquels nous n'avons pas pensé. Je crains que nous soyons toujours en retard, faute d'anticiper suffisamment.

Je suis totalement opposé à un moratoire, que les acteurs privés ne respecteront pas. Et la Chine ne nous attendra pas...

M. Pierre Ouzoulias. - Je remercie les rapporteurs pour leur travail de très grande qualité. Je partage totalement leurs observations.

L'IA est une intelligence de compilation : la machine n'invente rien, elle va rechercher les informations, les classe et fait remonter celles qui sont les plus présentes. La véritable intelligence, c'est celle qui crée et donc qui n'est pas reconnue par l'IA - je doute que le premier article d'Einstein sur la relativité restreinte puisse être remonté par l'algorithme de l'IA.

Les conséquences pour les méthodes d'apprentissage sont gigantesques. Ancien professeur à l'université, je proposais à mes étudiants de licence deux examens : pour le premier, ils arrivaient en classe avec tout leur cours et je notais uniquement leur argumentation. Pour le second, ils laissaient leur cours à la maison et je notais aussi le contenu. Tous les étudiants préféraient la deuxième solution, plus simple. Avec ChatGPT, la seconde solution n'existera plus, puisque, lors d'un partiel, l'étudiant pourra récupérer ce qu'il a demandé à ChatGPT.

Il faut transformer complètement les méthodes d'apprentissage et les formes d'examen en notant de façon beaucoup plus importante la structuration de l'esprit, l'innovation. C'est un changement radical dans les façons d'enseigner. Il faut aussi développer l'esprit critique.

L'IA, c'est la dictature de la tautologie. La machine répète tout ce que tout le monde dit déjà ; je ne suis pas sûr que cela puisse être un puissant ferment d'innovation. Nous avons besoin d'intelligence naturelle pour sortir des paradigmes de la répétition de l'IA.

Je suis par ailleurs très sensible aux passages de cette PPRE relatifs aux droits des individus. J'estime qu'en la matière, il nous faut revenir à l'article 15 de la Déclaration des droits de l'homme et du citoyen : « La société a le droit de demander compte à tout agent public de son administration. »

Nous devons garantir aux citoyens le droit de savoir comment une décision qui s'impose à eux a été traitée par l'intelligence artificielle. Contre qui les citoyens pourront-ils se retourner pour contester une décision ? Est-ce l'algorithme, la personne qui l'a conçu ou celle qui l'a utilisé qui est responsable ?

M. Louis-Jean de Nicolaÿ. - Je comprends que l'Europe se saisisse du sujet, mais il sera sans doute difficile de faire appliquer une réglementation européenne dans un contexte mondialisé.

S'agissant de la lutte contre la cybercriminalité, l'Union parlementaire avait fait le constat que l'organisation des Nations unies devait être partie prenante des décisions qui pourraient être prises. De même, en matière d'intelligence artificielle, si nous voulons viser une efficacité mondiale, il importe que les travaux des différents comités européens soient communiqués aux Nations unies.

M. Jacques Fernique. - La volonté européenne de réguler l'intelligence artificielle est une évolution positive, et les points de vigilance pointés par la PPRE sont utiles. Si mon groupe approuve en grande partie la rédaction proposée, je suis toutefois en désaccord avec les points 62 et 64, qui concernent les migrations et la répression, dont je propose la suppression.

En juin, la Défenseure des droits avait alerté sur la nécessité de respecter le principe de non-discrimination et appelé à ce que des études d'impact sur les droits humains soient menées à intervalles réguliers tout au long du cycle de vie de ces systèmes d'intelligence artificielle. Il convient en particulier de s'assurer que des mécanismes de recours en cas de violation des droits des personnes résultant de l'utilisation de ces systèmes soient établis dans tous les pays.

Les systèmes d'intelligence artificielle utilisés dans le domaine des migrations sont classés « à haut risque », alors que certains, notamment l'identification biométrique à distance, l'usage des drones ou les systèmes d'analyse prédictive des flux de migration, qui pourraient se heurter au droit d'asile, relèvent selon moi du « risque inacceptable ».

Je crains par ailleurs que la rédaction proposée crée un double standard en matière de droits humains. C'est pourquoi je propose de modifier la rédaction du point 28 de manière à préciser qu'il convient de ne pas amoindrir les droits fondamentaux, non seulement des Européens, mais de l'ensemble des personnes.

Concernant le secteur répressif, enfin, le point 62 pourrait ouvrir la porte à des abus.

Mme Valérie Boyer. - Comment rendre des copies innovantes si l'on ne dispose pas d'un minimum de connaissances ? À défaut d'un socle d'apprentissages fondamentaux, n'assisterons-nous pas à un abaissement du niveau des connaissances ?

Dans un contexte mondialisé, les bons sentiments ne suffiront pas à garantir l'application des mesures proposées. Comment s'assurer de leur efficacité ?

M. André Gattolin, rapporteur. - Afin d'assurer une meilleure régulation et de pallier la fixité de toute taxonomie, nous proposons d'élargir le Comité sur l'intelligence artificielle à des scientifiques et à des praticiens dotés d'un droit d'autosaisine. Plus agile et réactif, ce comité pourra prendre en compte les innovations et requalifier les risques sans attendre d'être saisi. Nous observons par exemple que la frontière entre les technologies civiles et militaires évolue rapidement.

En l'absence de règles internationales, nous estimons que l'édiction de règles européennes est une première étape pour commencer à dialoguer avec les pays de l'OCDE, avant d'envisager, dans un second temps, des négociations qui seront nécessairement plus âpres avec des pays comme la Chine et la Russie.

J'en viens aux impacts de l'intelligence artificielle sur les savoirs. De fait, nous n'enseignons pas de la même manière qu'il y a vingt ans, quand les élèves n'étaient pas équipés de micro-ordinateurs. Il est clair que les changements qui vont intervenir ne seront pas sans effet sur le développement cognitif et qu'il faudra sans doute insister sur la propédeutique. Pour autant, j'estime que l'interdiction n'est pas une solution et qu'il faut nous adapter au développement de l'intelligence artificielle.

Mme Elsa Schalck, rapporteure. - J'estime qu'en dépit des nombreuses interrogations que cela suscite - ce qui, compte tenu du champ très vaste que recouvre l'intelligence artificielle, est tout à fait normal -, il est nécessaire d'adopter une réglementation. Celle-ci doit permettre de trouver un équilibre entre le respect des droits fondamentaux et la protection des citoyens, mais elle doit également encourager l'innovation et la formation.

Nous préconisons par ailleurs la désignation de la Commission nationale de l'informatique et des libertés (Cnil) comme autorité compétente pour la surveillance de l'application du règlement sur l'intelligence artificielle à l'échelon national. Nous estimons en effet que les compétences et l'expertise que la Cnil a acquises au fil des années lui permettront de s'acquitter de cette mission de contrôle, mais aussi de répondre au besoin de cohérence entre les différents acteurs.

Mme Catherine Morin-Desailly, rapporteure. - J'estime qu'il faut réaffirmer l'exigence d'un socle de savoirs et d'apprentissages fondamentaux, en dehors de toute technologie. Les recherches menées sur l'impact des nouvelles technologies sur les processus cognitifs sont trop peu nombreuses.

Je regrette, comme André Reichardt, le manque d'harmonisation et parfois de cohérence entre des textes dont les champs sont connexes.

La PPRE précise bien que la régulation doit s'accompagner d'une politique industrielle et d'innovation extrêmement ambitieuse à l'échelon européen. L'ère de la naïveté est terminée. Par l'Inflation Reduction Act, les États-Unis ont investi 348 milliards d'euros dans l'innovation. Il nous faut nous aussi investir massivement, notamment dans l'IA, et construire nos systèmes souverains.

En complément à ce qu'a indiqué André Gattolin sur la composition du comité, j'ajoute que l'Annexe III, qui porte sur les applications à haut risque, précise que ce règlement pourra être modifié par acte délégué afin de l'adapter aux évolutions et innovations.

J'en viens aux propositions de modification de Jacques Fernique.

En ce qui concerne l'alinéa 28, je vous propose, mon cher collègue, de supprimer les mots « des Européens » après les mots « droits fondamentaux », de remplacer le mot « ils » avant le mot « jouissent » par les mots « les Européens ». Une telle rédaction me paraît de nature à affirmer l'ambition d'une protection des droits fondamentaux pour toute personne.

Il en est ainsi décidé.

Pour ce qui concerne l'alinéa 62, je précise que la Cour de justice de l'Union européenne veillera aux « garanties appropriées pour la protection des droits fondamentaux » en cas d'utilisation des systèmes d'IA par les autorités répressives. En tout état de cause, je ne suis pas favorable à la suppression de ce point.

L'alinéa 62 est maintenu.

Enfin, l'alinéa 64 introduit une disposition pragmatique. Il ne s'agit pas de supprimer le contrôle humain, mais le double contrôle qui imposerait un doublement des effectifs et qui, de l'avis des services du ministère de l'intérieur, n'est pas très opérant.

M. Jacques Fernique. - Dans ce cas, il serait préférable d'affirmer que l'on impose un contrôle humain.

Mme Catherine Morin-Desailly, rapporteure. - Je vous propose de remplacer les mots « ne soit pas soumise à l'exigence d'un double contrôle humain, onéreuse et peu opérante du point de vue de la protection des droits fondamentaux » par les mots « soit soumise à un contrôle humain mais non pas double, ce qui serait onéreux et peu opérant du point de vue de la protection des droits fondamentaux  ».

Il en est ainsi décidé.

J'ajoute que l'Agence des droits fondamentaux de l'Union européenne, que nous avons interrogée, nous a indiqué que l'IA avait également des effets positifs sur la gestion des flux migratoires et des demandes d'asile. Je vous renvoie sur ce point à notre rapport.

M. André Gattolin, rapporteur. - Le recours à l'IA permet notamment de réduire les délais de traitement.

La commission autorise la publication du présent rapport d'information et adopte la proposition de résolution européenne dans la rédaction issue de ses travaux, disponible en ligne sur le site internet du Sénat, ainsi que l'avis politique qui en reprend les termes et qui sera adressé à la Commission européenne.