Jeudi 5 avril 2018

- Présidence de M. Gérard Longuet, sénateur, président -

La réunion est ouverte à 9 h 40.

Présentation par M. Cédric Villani de son rapport au Premier ministre « Donner un sens à l'intelligence artificielle, pour une stratégie nationale et européenne » (audition conjointe avec la commission des affaires économiques de l'Assemblée nationale)

M. Roland Lescure, député, président de la commission des affaires économiques. - Le rapport sur l'intelligence artificielle (IA) a été présenté il y a une semaine par Cédric Villani et son équipe au Collège de France. Cette manifestation, qui a réuni des chercheurs du monde entier, a présenté une image très positive de la France en termes de modernité, de responsabilité et d'avenir, pour mettre en lumière les différentes facettes de l'IA, technologiques et sociétales. Le Président de la République a conclu par une présentation de la stratégie de la France sur l'IA.

Comme nous l'avions fait dans le cadre des discussions sur le compteur Linky, cette présentation sera suivie des questions des parlementaires et la parole sera ouverte au public et aux citoyens qui peuvent poser leurs questions en ligne via l'application utilisée par l'Assemblée nationale à cet effet.

M. Gérard Longuet, sénateur, président de l'Office. - Je remercie les électeurs de l'Essonne qui ont eu la bonne idée d'élire Cédric Villani au Parlement. C'est la démonstration de l'utilité du Parlement, de sa sagesse et de sa compétence. Dans le cadre des missions parlementaires, le Premier ministre Édouard Philippe a confié à Cédric Villani une mission sur l'intelligence artificielle, pour laquelle sa compétence était naturelle, profonde, passionnée.

L'Office a déjà travaillé sur ce sujet avec ses deux rapporteurs, le député Claude de Ganay et la sénatrice Dominique Gillot, qui ont présenté le rapport intitulé « Pour une intelligence artificielle maîtrisée, utile et démystifiée », en mars 2017. Le nouveau rapport qui nous est présenté aujourd'hui, passionnant, ne se contente pas de dresser un bilan de l'état de l'art, mais préfigure l'ouverture de pistes pour une action publique efficace. Cette demande, faite par le Gouvernement, montre que, dans le cadre de relations équilibrées entre l'exécutif et le législatif, on peut valoriser les acquis, les savoirs, les expériences et les possibilités des uns et des autres.

Le Parlement a ce talent, il l'utilise et je lui donne la parole, cher Cédric.

M. Cédric Villani, député, premier vice-président de l'Office. - Malgré un petit accident de vélo, je n'aurais manqué pour rien au monde d'être ici pour cette séance. Au passage, on remarquera la dualité de l'affaire : le jour où le vélo autonome existera, le VTT perdra de son attrait puisqu'on sera devenu spectateur plutôt qu'acteur du déplacement. Si l'intelligence artificielle est là pour nous aider dans un certain nombre de tâches qui ne nous plaisent pas, il faut prendre garde à ce qu'elles ne nous privent pas de celles que nous aimons faire.

De façon générale, c'est une réelle difficulté avec la technologie. On l'a constaté avec l'apparition de beaucoup de choses qui ont facilité notre quotidien, parfois au détriment d'autres. Lors d'une conférence TED (Technology, Entertainment and Design) que j'ai couverte en 2017, il était très frappant de voir, dans un contexte traditionnellement techno-enthousiaste, le nombre d'interventions mettant en garde contre le risque d'envahissement de notre quotidien par la technologie. Celle-ci entre parfois en compétition avec notre sommeil, notre réalisation personnelle et d'autres choses de même nature. Le vélo en est un exemple.

Le rapport sur l'IA (intelligence artificielle) a été réalisé à la demande du Premier ministre. Cette mission a duré six mois. Le choix du titre « Donner un sens à l'intelligence artificielle », a été motivé par la polysémie de l'expression. Donner un sens, c'est donner une direction, une orientation à l'action publique dans un domaine qui s'est construit largement en-dehors de son champ. Donner un sens, c'est aussi faire sens, donner une signification à des développements qui peuvent être en partie obscurs ou se produire dans des directions qui ne font pas sens a priori. Donner un sens, c'est enfin expliquer. Plus que tout autre, ce sujet a besoin d'explications. Le rapport de nos collègues de Ganay et Gillot insistait déjà là-dessus, et nous insistons encore. L'IA doit s'expliquer et ne doit pas rester confinée à la sphère des experts.

Les questions des internautes qui nous regardent commencent, pour leur part, à arriver sur le dispositif de collecte en ligne en direct. Pour lancer la discussion, j'en commenterai certaines. Je tiens à remercier notre collègue Paula Forteza, membre de la commission des lois, comme moi, dont les compétences bien connues dans le domaine du numérique participatif la désignaient tout naturellement pour jouer le rôle de modérateur.

Cette présentation du rapport complet fait suite au point d'étape que j'avais fait devant nos collègues de l'Office en décembre 2017. Le rapport est accessible au format PDF sur le site aiforhumanity.fr, subtil mélange d'anglais dans le titre et de français dans l'extension du nom du site. Vous y retrouverez les discours de la journée de restitution, le colloque international, de très haute volée et destiné à tous, ma propre présentation, les discours de la ministre fédérale de l'éducation et de la recherche allemande, Mme Anja Karliczek, du commissaire européen de la recherche, M. Carlos Moedas, et de notre Président de la République pour évoquer la stratégie nationale.

Au fur et à mesure de l'instruction du dossier, la complexité du sujet nous a amenés à allonger la durée initiale de la mission de quatre à six mois. Cela nous a permis de travailler assez étroitement avec le Gouvernement pour instruire ces dossiers avant la présentation de la stratégie nationale.

Ce rapport a été produit par une équipe pluridisciplinaire composée de six personnes, des experts issus des domaines des sciences de l'ingénieur, de la recherche pure et dure appliquée dans un cadre industriel, des compétences en sciences humaines, droit et sciences sociales. Ce mélange a été fondamental dans la préparation de l'ensemble de la mission. Il préfigure un sujet qui se traitera au carrefour des sciences dites dures et des sciences dites humaines. Pour l'avenir de l'IA, il nous faudra cette alliance d'experts en sciences humaines et sociales, économie et entrepreneuriat, de scientifiques, chercheurs et ingénieurs.

Le rapport est divisé en six parties. Je vais les commenter successivement tout en rappelant au préalable les trois mots clés que l'on retrouve dans toutes les parties : expérimentation, partage, souveraineté.

Expérimentation, parce que ce sujet est né de l'expérimentation et il a été, au départ, motivé par la curiosité. Parce que nous devrons renforcer nos capacités d'expérimentation, aussi bien à titre institutionnel que dans les moyens budgétaires, les habitudes et la culture.

Partage des connaissances et des données, tant il est vrai que l'avenir de l'IA se joue de façon extrêmement importante sur l'interconnexion et le partage des données qui viennent alimenter, à travers de grandes bases d'exemples, les algorithmes d'IA.

Souveraineté, parce que l'IA est un sujet éminemment social et politique. Il nous appartient de garder la main en tant que nation, continent, dans un contexte où les forces qui se sont réveillées en premier sont étrangères, avant tout les États-Unis et la Chine, suivis de l'émergence d'autres puissances. Nous ne voulons pas devenir des acteurs de second plan à qui l'on impose la marche de la technologie. Il importe de garder la maîtrise du partage des tâches entre l'humain et la machine et de ne pas se réveiller dans un avenir où l'humain se fait dicter ses actes par la technologie, non par une IA devenue consciente et qui envisagerait la destruction de l'humanité comme le préalable à son propre bien-être mais par le fait que les humains ont souvent tendance à s'imposer des chaînes, par manque de réflexion et aussi parce qu'ils sont toujours très forts pour se combattre les uns les autres avec les nouvelles armes technologiques, dans un contexte guerrier ou même d'apparence pacifique. Je tenais aussi à faire le point sur cette technologie dans le contexte international.

Qu'est-ce que l'IA ? Ce concept n'est pas, aujourd'hui, bien défini, et ma propre définition a évolué au cours de la mission. J'ai d'ailleurs compris que nous ne pouvions pas en donner une définition claire et qu'il ne fallait pas chercher à en donner une. Tout au plus peut-on dire qu'il s'agit d'un ensemble très disparate de techniques algorithmiques qui permet d'obtenir des résultats élaborés.

Certes, l'IA recouvre quelques grands principes. Le premier est d'arriver à trouver quelque chose d'efficace dans une situation qui dépend d'un très grand nombre de paramètres, si nombreux parfois que la solution est très difficile à trouver pour l'intelligence humaine et qu'on laisse l'algorithme la trouver de façon subtile. Le deuxième est celui de l'apprentissage : même si l'on ne sait pas a priori ce que l'algorithme va faire, on peut lui donner suffisamment d'informations pour qu'il apprenne et qu'il se retrouve plus expert que le programmeur lui-même. Le troisième grand principe est celui de l'exploration. Même si on ne lui apprend pas les choses, si on ne sait pas a priori comment faire, on peut laisser l'algorithme explorer un grand nombre de situations jusqu'à ce qu'il trouve des voies auxquelles les humains n'avaient pas pensé.

Ces grands principes se retrouvent de façon forte, par exemple, dans les algorithmes de jeu de go, qui ont fait la une de l'actualité. Ces algorithmes sont fondés à la fois sur une combinaison d'apprentissage avec les parties de go des meilleurs joueurs humains et sur une exploration de plus en plus large de coups que ces mêmes humains, dans toute l'histoire du go, n'ont pas imaginés.

L'IA est très consommatrice en matériels, en grandes bases de données, en structures de stockage, en nuages (clouds) pour héberger les données et le super calcul. À ce titre, l'IA est beaucoup moins efficace que l'humain, en ce sens qu'elle a besoin de beaucoup plus d'énergie, de données ou d'exemples. Mais du fait de ses capacités considérables liées aux grandes possibilités de calcul et de stockage atteintes aujourd'hui, elle parvient à des résultats extraordinaires, y compris des résultats créatifs au sens où elle trouve des solutions auxquelles nous n'aurions jamais pensé.

L'IA a besoin de capitaux importants, que ce soit pour investir dans les matériels ou dans des talents humains, lesquels sont de plus en plus valorisés. Elle a aussi besoin de cerveaux humains pour programmer les algorithmes et d'équipes pour porter ces défis, avec un mélange de compétences scientifiques et d'audace dans la réalisation de ses projets.

L'IA a besoin de données à travers de grandes bases d'exemples. Dans un problème tel que le jeu de go, où l'on arrive à recréer des parties entièrement simulées, on peut in fine se passer de ces grandes bases de données. Mais bien d'autres sujets tels que la santé ou la mobilité, par exemple, sont beaucoup plus difficiles à traiter en raison de la grande variété des situations de santé et des réactions biologiques, de la grande diversité des situations géographiques ou des buts des usagers dans leurs situations de transport ou leurs habitudes de conduite.

La compétition pour l'intelligence humaine et la compétition pour l'accès aux grandes bases de données constituent probablement les deux luttes les plus urgentes aux niveaux national, sectoriel et international.

Comment écrire les lois sans une définition précise ? Le législateur et, plus globalement, les professionnels du droit sont chagrins quand on ne leur donne pas de définitions précises. C'est un vrai débat. Nous en avons un exemple douloureux dans le domaine de la défense. Tout le monde est d'accord pour interdire les robots tueurs mais personne ne sait comment les définir précisément : nous aurons bien des débats pour rédiger une disposition législative visant à interdire les robots tueurs. Si l'on est d'accord sur l'esprit, les complications seront importantes dans la façon de le mettre en forme et dans les détails. Il y a beaucoup de subtilités auxquelles on ne s'attend pas forcément.

Au plan géopolitique, les États-Unis se sont lancés les premiers dans ce domaine, de façon forte et spectaculaire. Les grands géants, les multinationales américaines sont partis dans cette course avec des avantages énormes : les gigantesques bases de données qui sont fournies, la plupart du temps, par les utilisateurs au niveau mondial, leur familiarité avec la culture geek et « tech », leur puissance financière, qui leur a permis de recruter nombre de vedettes, enfin, leurs investissements dans les matériels. Amazon qui, au départ, se concevait comme une plateforme d'achat en ligne, est devenu acteur numéro un du cloud parce que, au fur et à mesure de son développement technologique, l'entreprise a investi dans des matériels et dans la location de matériels.

On estime à plusieurs dizaines de milliards de dollars le différentiel entre l'investissement matériel qui a été fait dans ce secteur aux États-Unis et l'investissement réalisé dans l'ensemble de l'Europe. Ce retard devra un jour être comblé, au moins en partie, si l'Europe entend rester dans la course technologique.

La Chine s'est lancée bien plus tard, mais avec une vigueur extraordinaire. Source d'inquiétude pour les États-Unis, son modèle est très différent, très étatique, quoique marqué par l'émergence de géants. Pour l'instant, la Chine est la seule à avoir fait ce que d'autres nations se demandent encore si c'est possible : faire émerger de réels concurrents aux Google, Amazon, Facebook, Apple, Microsoft (GAFAM). Ils ont construit des concurrents solides, travaillant sur un marché chinois national sans beaucoup aller sur le marché mondial sur lequel s'appuient les GAFAM. Très homogène, il est également très technophile, plus que le marché américain.

De plus, les acteurs chinois bénéficient d'un alignement d'intérêts entre l'État et les entreprises, ce qui donne vraiment le sentiment que la bataille mondiale pour l'IA se joue actuellement entre les États-Unis et la Chine, comme le titrait récemment une couverture de The Economist.

D'autres acteurs se sont lancés plus tardivement.

En Europe, le Royaume-Uni a été précurseur, fort de ses ressources humaines importantes et d'une longue tradition dans l'IA. Alan Turing Institute est le nom donné au réseau des laboratoires d'IA en hommage au père fondateur.

Le Canada s'est également lancé de façon très forte. Yoshua Bengio, figure tutélaire de l'IA dans le monde, est Québécois. Le modèle québecois combine les meilleurs aspects de l'ancien et du nouveau monde : l'accès aux capitaux mais aussi l'accent sur les valeurs éthiques et politiques qui sont traditionnellement au coeur de l'action européenne. La recette a bien fonctionné. Le Québec tient très bien son rang au Canada. Lors de la visite en France du Premier ministre québécois Philippe Couillard, nous avons eu de longs échanges, avec Mounir Mahjoubi, sur le thème de la collaboration en IA entre le Québec et la France.

Israël s'est également lancé dans l'IA de façon remarquable. Dans le cadre de ma mission, je me suis rendu à Haïfa et Tel Aviv pour visiter l'écosystème de l'IA dans le domaine de la santé, domaine dans lequel Israël est sans doute leader mondial. Leurs bases de données ne sont pas aussi grandes que celles qu'on peut espérer dans une grande nation de tradition centralisée comme la nôtre, mais il y a une tradition de constitution de bases de données en Israël, le rôle des caisses d'assurance maladie y est très important et la valorisation des talents est considérable. Tout cela s'accompagne d'une mise en valeur de la culture, de l'interdisciplinarité et de mariages audacieux entre entreprises et sciences.

J'ai visité l'Allemagne, l'Italie, le Portugal, la Chine et la Grande-Bretagne. Il faut vraiment aborder ce sujet au niveau international.

La France est le deuxième grand pays occidental européen à se lancer dans l'élaboration d'une stratégie après le Royaume-Uni. La situation étant confuse dans ce dernier pays avec le Brexit, ce sera à la France de porter le projet de façon très forte au niveau européen. C'est ma conviction et c'est la conviction réaffirmée dans ce rapport que la France ne pourra pas tenir son rang en la matière sans le soutien de l'Europe, que l'on parle de la taille du marché économique, du vivier de compétences ou des forces politiques. Compte tenu de son vivier de start-up du secteur, la France est l'un des pays européens qui « met le plus sur la table » pour amorcer la stratégie d'IA. L'Europe ne pourra pas aller de l'avant avec l'ambition qui convient sans une action résolue de la France.

Je vous propose de passer maintenant en revue les six parties du rapport. La première partie, la plus longue, insiste sur la politique économique et sur la politique des données, ces deux sujets étant tellement imbriqués qu'on ne peut les séparer. C'est l'un des axes les plus importants du rapport. L'IA, c'est d'abord ce qu'on en fait, la façon dont on l'applique aux différents secteurs de l'activité humaine. Autant certains sujets avancent seuls de façon autonome, autant l'IA, au contraire, a besoin de s'appuyer sur les secteurs d'application pour son développement.

S'agissant des données, il convient de privilégier deux axes : protéger et inciter. L'Europe s'annonce comme le continent le plus protégé en matière de données, en particulier pour ce qui concerne la protection des données personnelles. Le Règlement général sur la protection des données (RGPD) va entrer en vigueur en mai 2018. Cette protection est indispensable pour gagner la confiance. Une fois que la confiance est là, on peut inciter au partage.

Nous avons identifié quatre secteurs prioritaires pour l'action étatique : la santé, la mobilité, l'environnement et la défense. Si la puissance publique n'incite pas au partage des données dans ces secteurs d'application, le partage ne se fera pas spontanément. Les « logiques de silos » continueront à prévaloir et l'ensemble ne progressera pas. Pour inciter au partage des données et à l'action économique, une gamme d'actions est proposée : subventions, labels, consolidation de filières d'acheteurs, mise en place de plateformes sectorielles, avec l'idée que ce n'est pas forcément le même acteur qui s'occupe de collecter et apparier les données et de développer les applications permettant de les exploiter de manière fructueuse. Ce partage des tâches, avec la modularité de l'accès aux données, constitue l'une des clés de la politique industrielle à mener, en France et en Europe.

La commande publique est un secteur dans lequel l'Europe semble jouer le rôle du naïf à l'échelle mondiale, quand on voit à quel point le secteur de l'innovation en Amérique ou en Asie profite de la commande publique, à travers des appels d'offres souvent ciblés ou des marchés publics réservés aux acteurs nationaux. C'est beaucoup plus délicat à mettre en place en Europe.

La deuxième partie du rapport traite de la recherche. Les compétitions pour la donnée et pour le cerveau humain sont prioritaires. À l'étranger, on sait que nous avons des viviers de chercheurs et d'ingénieurs bien formés. C'est pourquoi beaucoup d'acteurs industriels investissent en France, avec des laboratoires en particulier en région parisienne. Plusieurs annonces spectaculaires ont été faites le jour même de la remise du rapport. La France a été choisie par DeepMind, un acteur financé en grande partie par Google à l'origine d'AlphaGo, par Fujitsu et Samsung, IBM annonce une amplification de l'effort de recherche, et d'autres encore.

On peut se réjouir de tous ces acteurs qui viennent investir chez nous mais, en même temps, certaines craintes très fortes ont été exprimées, en particulier par mes collègues chercheurs. Si nous n'améliorons pas notre système de recherche en France, nos chercheurs seront tout simplement aspirés par ces laboratoires, filiales de grands groupes étrangers. Ceux-ci sont menés par des personnes intelligentes qui ont très bien compris l'avantage qu'il y a à faire de belles propositions à nos chercheurs en termes de confort financier et de possibilités de déployer leur action.

Il y a donc une urgence vitale à améliorer notre système de recherche. Une bonne partie de nos recommandations vont dans ce sens : injecter plus de moyens dans cette discipline extrêmement concurrentielle, donner plus de facilités administratives, améliorer les dispositifs de formation en se donnant des objectifs volontaristes, que ce soit pour les docteurs, ou tous les autres échelons, de Bac + 2 à Bac + 8.

L'investissement dans les équipements de recherche est très important. L'une des recommandations majeures du rapport est la création, en France, de quatre à six centres de recherche en IA. Pour beaucoup, il s'agira de regrouper des forces déjà existantes, avec des moyens et des facilités accrus. Notre rapport suggère en filigrane que l'INRIA serait l'organisme approprié pour en assurer le pilotage national, et c'est l'option qui a été annoncée par le Gouvernement de façon explicite. Cela ne signifie pas que l'INRIA va piloter l'ensemble du système. Au contraire, ces nouveaux instituts de recherche auront vocation à associer tous les acteurs de la recherche, publics et privés, et à se répartir sur l'ensemble du territoire français. Ensuite, ces acteurs auront vocation à se fédérer en réseaux, à collaborer avec les acteurs européens.

La troisième partie du rapport traite du travail et de l'emploi. C'est la partie la plus floue car, si l'on peut faire des prédictions plus ou moins précises sur l'évolution des technologies, des centres d'intérêt ou de la recherche, en revanche, il est très difficile de prédire l'avenir du travail et de l'emploi. Les économistes, qui font des hypothèses variées, aboutissent à des conclusions différentes.

C'est un domaine où il est urgent de se préparer, par de l'expérimentation, de l'observation et beaucoup de formation. Cette dernière ne doit pas concerner seulement des emplois très qualifiés mais aussi des emplois modérément, voire peu qualifiés, en interaction avec l'algorithme et la machine. Il s'agit, en effet, de se préparer à une redistribution des tâches entre l'humain et l'algorithme. Cela implique de faire entrer ces thématiques dans le dialogue social, dans les négociations sur la pénibilité, sur l'efficacité, etc. Dans ce domaine aussi, l'expérimentation se révèle un thème clé.

La quatrième partie traite de l'environnement, avec l'ambivalence de l'IA en la matière. D'un côté, l'IA peut permettre de grands progrès dans la gestion de l'environnement. C'est un secteur multiparamètrique, notamment avec les questions d'émissions d'énergie, de gestion de l'environnement, de biodiversité, de bonnes pratiques agricoles... De l'autre, l'IA peut être gros consommateur d'énergie et se révéler un poste de gaspillage. Par ailleurs, derrière ce qui semble dématérialisé, il y a une réalité bien concrète, de la production d'infrastructures, malheureusement polluantes. Il faudra être attentif aux questions de recyclage, d'économies de matériel et d'énergie et ne pas faire tourner sans cesse les bases de données les plus importantes sans jamais se poser de questions sur la pertinence de ce choix.

La cinquième partie traite de l'éthique. Dans ce domaine, il importe avant tout de poser les bonnes questions et de bien identifier les dangers. Le danger pour maintenant et pour longtemps n'est pas celui de la singularité ou de la prise d'autonomie de l'IA. C'est ma conviction, c'est la conviction de toute l'équipe du rapport, c'est la conviction pour encore longtemps de tous les experts en Europe qui travaillent sur ces sujets, y compris les plus grands experts mondiaux comme Yann LeCun.

En revanche, nous avons à craindre des pratiques économiques qui peuvent être faites sans concertation ou qui viennent accroître les inégalités. Nous avons à craindre des manipulations délibérées avec, par exemple, l'usage de messages ciblés, comme on le voit dans l'actualité avec le travail très controversé de Cambridge Analytica qui influence, semble-t-il, les électeurs dans des votes très sensibles. L'IA ne doit pas être vue comme une panacée. Au contraire, l'IA a besoin de beaucoup d'attention pour éviter une utilisation maladroite, en particulier dans certains secteurs clés.

Nous avons besoin de règlements qui protègent. De ce point de vue, le Règlement général sur la protection des données donne toute satisfaction. Il est au bon niveau de protection. Il convient seulement de s'assurer qu'il n'est pas pénalisant.

Nous avons besoin d'institutions qui puissent réfléchir à l'éthique. Ce rapport propose la mise en place d'un comité d'éthique indépendant, sur le modèle de l'actuel Comité consultatif national d'éthique (CCNE) présidé par Jean-François Delfraissy.

Dans le discours du Président de la République, nous avons également entendu la volonté de mettre en place une réflexion éthique à un niveau international. Cette réflexion pourrait reprendre certains principes du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) et être portée par une communauté mondiale d'experts.

Une réflexion va débuter afin de décider si c'est un comité indépendant qui doit s'occuper, au niveau national, de l'éthique de l'IA ou si ce sera simplement une nouvelle chambre de l'actuel CCNE. Dans tous les cas, une institution est nécessaire pour rendre des avis au Gouvernement et aux citoyens en cas de besoin.

La sixième partie traite des questions d'inclusion et de diversité dans l'IA. Il s'agit de traquer les biais, non seulement dans une perspective citoyenne, car toute la société doit participer à l'émergence d'une technologie qui va révolutionner de nombreux services et une partie de notre quotidien, mais dans ce domaine, car si nous n'avons pas une bonne diversité, nos bases de données seront biaisées. Elles reproduiront à notre insu les biais que nous voulons éviter et, donc, elles seront moins performantes, moins efficaces.

La question des femmes ne constitue pas la seule iniquité mais concerne évidemment la moitié de l'humanité, avec des répercussions dans tous les secteurs de la société. Ces biais sont assez faciles à identifier, contrairement à d'autres, qui le sont moins, pour des raisons diverses. Nous recommandons une action volontariste, en particulier au niveau des formations dans les filières du numérique, pour inciter davantage les femmes à s'y engager.

Ce rapport est complété par plusieurs focus portant sur des domaines où l'IA est particulièrement « transformante ». Le focus 1 porte sur l'éducation, un domaine où l'impact peut être considérable du fait de la très grande difficulté à saisir les paramètres qui jouent le rôle le plus important dans l'éducation. Cependant nous mettons en garde contre le manque d'évaluation sur les apports de l'IA en éducation. Les expérimentations sont difficiles, en particulier pour des questions idéologiques, et il importe de les renforcer.

Le focus 2 porte sur la santé, un domaine reconnu dans le monde entier comme prioritaire. La propension naturelle de la France à construire de grandes bases de données peut enfin trouver une application importante et efficace, à condition qu'on arrive à les faire dialoguer entre elles. Pour l'instant, les différentes bases de données ne communiquent pas.

Le focus 3 porte sur l'« agriculture augmentée », avec des actions telles que l'économie d'énergie, la prédiction (par rapport à la météorologie), le diagnostic automatique, etc. L'IA peut venir au secours de l'agriculteur, y compris dans les pratiques du quotidien.

Le focus 4 porte sur le secteur du transport au niveau européen. L'Europe a une industrie du transport forte. La puissance publique peut aider en mettant à disposition ses bases de données ou en jouant un rôle de tiers de confiance. Il importe de mener une action volontariste pour ne pas se réveiller un matin avec des véhicules autonomes américains ou asiatiques.

Le focus 5 porte sur la défense et la sécurité, sujet clé sensible s'il en est.

Je vous propose, pour lancer le dialogue avec les internautes, de prendre très brièvement quelques-unes des questions qu'ils ont déjà posées.

Question 1 : « Ne voyez-vous pas une contradiction en disant vouloir que la France se positionne en tant que leader tout en offrant des facilités aux géants du secteur, américains et asiatiques principalement, pour qu'ils s'installent sur le territoire tant que les entreprises françaises n'en ont pas ? »

Effectivement, les entreprises françaises ne comptent pas actuellement de géants dans le secteur, même si nous avons quelques acteurs très bien placés dans la technologie mondiale, Sigfox par exemple sur les objets connectés et la transmission. Il n'y a pas de contradiction à vouloir que la France soit leader et à aider les géants du secteur à venir s'implanter chez nous. Nous acceptons la compétition et devons reconnaître et gérer cette bonne nouvelle. Des choses se passent ici. Si tout le monde se désintéressait de l'investissement en France, cela voudrait dire que nous ne comptons plus. Si certains s'intéressent à nous, cela signifie que nous avons des ressources importantes, en particulier des cerveaux, et que nous avons une vraie dynamique. Il résulte de cette dynamique scientifique, politique et économique, que la France est actuellement regardée depuis l'étranger. Une politique protectionniste en matière d'IA nous ferait perdre le profit de cette dynamique. La compétition est un grand défi à relever, qui doit nous conduire à faire monter en gamme notre propre offre de recherche publique et privée. Nous pensons qu'il est de notre devoir de relever ce défi.

Question 2 : « Que pensez-vous de la stratégie française comparée à celles du Royaume-Uni, du Canada ou de Singapour ? » J'ai prévu un déplacement à Singapour. Leur démarche est très concrète. Singapour est très bien placé en recherche opérationnelle. En revanche, ce pays est encore émergent, son économie est modeste par rapport aux autres géants du secteur. On doit le regarder avec grande attention et le considérer comme un partenaire.

Au Royaume-Uni, la stratégie a certains points communs avec celle de la France. Il est de l'intérêt des deux pays de maintenir une bonne connexion. Un chercheur français, Jérôme Pesenti, a d'ailleurs joué un rôle clé dans la stratégie anglaise. Certains principes diffèrent cependant. Par exemple, au Royaume-Uni, l'idée de faire financer des formations par les grands acteurs du privé est appuyée. Cette démarche susciterait, à notre avis, beaucoup plus de réticence en France où l'on a le sentiment que les formations doivent demeurer en partie du domaine de l'État. De plus, nous sommes dans un contexte où la puissance publique entend assurer un rôle important dans toute la chaîne.

Nous avons des points communs très importants avec la stratégie du Canada, s'agissant de l'éthique, par exemple. Le Canada va probablement s'inspirer du Règlement européen sur la protection des données pour son propre droit sur les données. Le Canada a placé l'éthique et le fait de travailler « pour le bien » très haut dans ses valeurs. Cela a joué un rôle attractif auprès des investisseurs. Au sein du Canada, les liens particuliers avec le Québec doivent être renforcés. Montréal s'est placée sur la carte comme un des acteurs importants de l'IA.

J'arrête là mon tour d'horizon en espérant vous avoir convaincu que c'est un sujet global qui aborde tous les secteurs et qui concerne le monde entier.

M. Roland Lescure, député, président de la commission des affaires économiques. - Le député des Français d'Amérique du Nord, qui a vécu huit ans à Montréal, est heureux d'entendre que les relations de la France avec le Québec et le Canada seront fortes dans ce domaine. Je confirme que l'univers est vibrionnant, avec de vrais experts et une volonté, comme ici, de développer à la fois les enjeux économiques et sociétaux de cette révolution.

Mme Barbara Bessot Ballot, députée. - Cédric, merci d'être parmi nous aujourd'hui et sur les bancs de l'Assemblée. C'est toujours une fierté. À travers tous les discours que l'on a pu entendre, et en parcourant le rapport, même les plus sceptiques de l'IA finissent par être séduits. Ce rapport donne confiance, envie de la vivre et qu'elle arrive assez rapidement.

Je fais partie de la Mission d'information commune sur les usages des blockchains. Pourrais-tu nous décrire le cercle vertueux des blockchains, ce qu'elles pourraient nous apporter dans notre quotidien et dans nos entreprises ?

M. Cédric Villani, député, premier vice-président de l'Office. - Les blockchains représentent effectivement l'une des avancées scientifico-technologiques les plus en vue actuellement. C'est un sujet différent de l'intelligence artificielle, mais avec lequel il s'articule, la technologie des blockchains offrant différentes manières de bénéficier d'archives et de registres sûrs, infalsifiables. N'importe quelle technologie d'IA qui a besoin de conserver des registres sûrs pourra s'interfacer avec les blockchains, les incorporer. Cela peut être en lien avec l'économie, le droit et tous les secteurs où l'on a besoin de registres garantis.

Il faut toutefois prendre garde à l'impact écologique des blockchains. Un travail considérable de calcul numérique est nécessaire pour la certification des blocs, avec une débauche énergétique. Si l'on combine la propension naturelle de l'IA statistique à la consommation d'énergie avec celle des blockchains, on peut arriver à une situation effrayante.

Il existe des façons plus parcimonieuses d'utiliser les blockchains si l'on s'entend bien sur l'usage qui en est fait. Je suis persuadé que cette technologie va apporter de grands changements.

Comme l'IA, les blockchains sont un sujet multiforme. Au départ, on pense tout de suite aux cryptomonnaies, mais il y a beaucoup d'autres applications.

Mme Florence Lassarade, sénatrice. - Merci, M. Villani, pour cet exposé qui nous rend plus intelligents et qui nous fait gagner beaucoup de temps. En tant que médecin, ma question porte sur l'utilisation de la téléconsultation médicale bientôt sans médecin. MédecinDirect a obtenu le prix de l'innovation et propose ses services de téléconsultation à différentes mutuelles. En souscrivant aux complémentaires-santé partenaires, vous pouvez demander gratuitement l'avis d'un médecin par téléconsultation, mais uniquement par téléphone.

Le manque de médecins fait réfléchir à l'utilisation des agents conversationnels (chatbot). Ceux-ci permettront, sans médecin, par algorithme, de faire des diagnostics et d'aller jusqu'à la prescription médicale même si, pour l'instant, on s'arrête à la prescription homéopathique. Je me demande cependant si, même pour des pathologies dites bénignes, on pourra remplacer le médecin. Bien sûr, les logiciels d'aide à la prescription rendent le médecin plus efficace, il y a moins de risques d'erreur. Mais pensez-vous que la suppression complète du médecin pour aboutir à une ordonnance à partir d'une simple utilisation d'algorithme a un avenir ? Ne met-on pas le patient en danger ?

Par ailleurs, ce type d'outil ne va-t-il pas aboutir, pour le médecin, à une certaine paresse intellectuelle ? L'utilisation d'outils standardisés, qui suppriment l'imagination du médecin, ne risque-t-elle pas de stériliser l'imagination nécessaire à la recherche ?

M. Cédric Villani, député, premier vice-président de l'Office. - On voit à quel point on est dans l'incertitude sur le sujet de l'emploi. On passe, quasiment du jour au lendemain, d'une vision extrême à l'autre, d'une situation où l'on manque de médecins avec le risque de déserts médicaux à une situation où l'on s'inquiète que trop de médecins puissent être remplacés par des machines. De fait, il y aura beaucoup de discussions sur l'évolution du nombre et du rôle des médecins.

La médecine est typiquement un domaine que l'IA peut aider. Elle fait appel à beaucoup de paramètres ; on a besoin de personnalisation, de prédiction, d'analyse fine et aussi d'une grande quantité de connaissances. L'IA peut aider à renforcer la fiabilité du diagnostic, à donner des orientations aux médecins, des idées de traitement, dans certains cas à déterminer dans quelle catégorie on va ranger telle ou telle pathologie.

Ce n'est pas un hasard si le colloque AI for Humanity a invité Ran Balicer, l'un des grands noms, en Israël, de l'alliance entre IA et médecine. Ce dernier a insisté sur le fait que beaucoup de décès dans le monde sont imputables à des erreurs médicales, erreurs de prescription, erreurs d'orientations, etc.

On peut travailler à les réduire de façon substantielle. Aux États-Unis, on signale déjà des cas dans lesquels des patients doivent la vie à un algorithme d'IA qui a su détecter quelque chose de suspect dans l'imagerie médicale, là où le médecin n'y avait vu que du feu, et c'est normal. En cancérologie, les analyses des algorithmes d'IA sont à peu près au même niveau de fiabilité que celles des humains sur des cas de tests bien étudiés. Si l'on combine les deux, on obtient des taux de fiabilité proches de 100 %. La coopération est une piste probante.

Enfin, si l'IA peut permettre aux médecins de diminuer la durée des études, ou du moins la partie la plus fastidieuse des études, ils pourront alors peut-être se concentrer aux soins sur le terrain plus tôt. Cela peut être une évolution importante.

Il reste la question de la médecine prédictive. On a cherché à identifier des prédispositions, en particulier à travers l'analyse génétique. Pour l'instant, les résultats sont très en deçà des attentes qui étaient formulées il y a quelques années. Il est possible que cela vienne un jour. Certains médecins pensent qu'un patient trop bien informé sur les risques qu'il encourt peut devenir obsédé par son possible avenir. Dans ce domaine, le rôle de l'humain sera important, avec le droit à l'information ou à la non-information. Cela renforcera certainement d'autant plus le travail humain du médecin, dans une démarche tant psychologique et empathique que scientifique. La question qui se pose alors est celle de savoir comment travailler sur l'interaction avec le patient.

Mme Paula Forteza, députée. - Je vous propose de traiter quelques questions des internautes. Par exemple :

- « Pour développer l'intelligence artificielle, on a besoin d'un accès massif aux données et donc de les partager, de les ouvrir. Cela n'entre-t-il pas en contradiction avec la nouvelle réglementation européenne sur la protection des données personnelles ? Où sont les points de friction entre innovation et protection des données personnelles ? Où placer le point équilibre ? »

Concernant l'éducation, « quel serait l'impact de l'IA sur les méthodes d'enseignement, primaire, secondaire et supérieur, ainsi que sur la formation des enseignants ? »

- Sur des aspects plus pratiques, « un livre tiré du rapport sera-t-il publié pour le grand public ? Où retrouver les informations en ligne ? »

M. Cédric Villani, député, premier vice-président de l'Office. - Je vais répondre à la première question clé du partage des données. Bien sûr, on peut argumenter une tension entre la protection et le partage. Si vous voulez être sûr de ne courir aucun risque de divulgation des données, vous ne partagez rien. Le partage de données constitue une nouvelle forme de solidarité. J'insiste sur le fait qu'une donnée d'un individu isolé - son dossier médical personnel par exemple - a très peu d'intérêt en soi. Seuls le partage, la recherche de corrélations, de points communs entre plusieurs données, leur confèrent de la valeur et permettent d'avoir des traitements plus efficaces, de réaliser des économies, etc.

Sur ce point, la participation des citoyens est essentielle. S'ils ne sont pas en confiance, ils ne partageront pas. Dans une vision démocratique, ce partage des données doit être consensuel, il exige un consentement éclairé de la part de celui qui partage ses propres données. Pour l'instant, les taux de partage des données de santé sont très bons. Mais ils chuteront si la confiance disparait. Le Règlement général sur la protection des données est un outil pour conserver la confiance. Il impose un certain nombre d'obligations. Une fois que ces obligations sont remplies, le partage peut se faire. Et surtout, il réaffirme les droits fondamentaux du citoyen par rapport à ses données : le droit de ne pas être « profilé » sans le savoir, le droit de faire transporter ses données d'un opérateur à un autre, le droit à l'oubli, etc. Il peut aussi réprimer, de façon dure, des comportements de la part d'entreprises qui ne respecteraient pas les règles. Ce volet répressif est nécessaire pour que la démarche soit prise au sérieux.

L'Union européenne a été très motrice en la matière. Le commissaire européen de la recherche, Carlos Moedas, nous a indiqué que, pendant longtemps, on se moquait de nous ailleurs, en nous disant qu'on allait se mettre des boulets aux pieds qui nous empêcheraient d'avancer. Maintenant que fleurissent de grands scandales sur l'utilisation des données personnelles, celui de Facebook par exemple, on commence à entendre, en Amérique, des voix qui disent que l'Europe est en avance sur ce sujet. L'affaire Snowden a produit une onde de choc considérable autour des notions de confidentialité et de vie privée. Il faut l'installer comme un préalable non négociable.

Une fois que la protection est là, le rôle de l'État est aussi d'inciter au partage des données entre les acteurs. Autrement dit, une fois que le filet de sécurité est en place, vous pouvez faire des acrobaties !

Concernant la question sur l'éducation, le rapport indique que des progrès sont possibles. Par nature, l'éducation est très rebelle au décorticage, à l'analyse de ce qui fonctionne ou pas. Qu'est-ce qui fait qu'un enseignant a de bons résultats, est apprécié ? Difficile de le savoir... Et d'ailleurs, c'est l'un des domaines où l'IA a fourni l'un des meilleurs exemples de désastre public, avec la mise en place, dans les écoles publiques de certains États américains, d'une politique nationale d'évaluation des enseignants fondée sur de l'IA. C'est analysé dans le livre de Cathy O'Neil (On Being a Data Skeptic), qui était présente lors du colloque. Partant du constat que l'évaluation de l'enseignant est très compliquée, l'ambition de ce projet était de voir de façon « objective », sans « biais humains », en fonction des élèves qu'il reçoit, le niveau vers lequel il arrive à les porter. Finalement, l'algorithme mis en place a donné des résultats calamiteux, instables, aboutissant au renvoi de certains enseignants de bonne qualité, et inversement.

Il faut donc faire très attention. D'une façon générale, les pays qui ont investi massivement dans l'informatique pour leur système d'éducation ont vu leur niveau d'éducation baisser. C'est un domaine dans lequel il faut expérimenter de façon importante.

Une fois qu'on aura maîtrisé l'IA dans ce domaine, que va-t-elle apporter ? D'abord, la possibilité pour les étudiants et les élèves de travailler davantage par eux-mêmes, ou en interaction avec l'IA, en complément avec le travail des enseignants. L'IA pourrait détecter d'elle-même les points de faiblesse et les exercices qu'on a besoin de poser à l'élève, et ainsi réaliser le rêve d'une éducation personnalisée. En quelque sorte, autant de petits précepteurs qui donneraient un enseignement adapté.

L'IA peut aussi aider l'enseignant à évaluer les étudiants ou à détecter des étudiants qui ont des troubles : dyslexie, autisme caché... L'absence de détection précoce peut être un obstacle à une prise en charge appropriée.

Il faut aussi rappeler qu'il convient toujours d'agir de façon bienveillante en la matière. Ces évaluations précoces ne cherchent pas à juger l'élève ni à décider de leur avenir. Elles visent à mettre en place une aide, une stratégie appropriée.

Il y a une autre difficulté fondamentale, qui va au-delà de l'éducation. L'IA est souvent conçue pour nous aider, aller au-devant de nos désirs, nous simplifier la tâche. Mais en matière d'éducation, vous avez besoin de faire des efforts et qu'on vous pose des défis. Des exercices dont on connaît déjà la solution, des programmes culturels qui vous plaisent et que vous connaissez déjà ne font ni progresser ni évoluer les individus. Comme l'IA est conçue au départ à partir d'exemples, le danger du conservatisme est presque inhérent à la technologie. Le jour où l'on viendra vous servir tout ce dont vous avez envie, vous ne ferez plus aucun effort. L'éducation, c'est aussi une affaire d'effort.

À titre personnel, je place beaucoup d'espoirs dans les techniques dites « adversariales », dont Yann LeCun a dit que c'était la meilleure idée en IA sur la dernière décennie. Vous avez non pas un mais deux outils d'intelligence artificielle qui sont en dialectique l'un et l'autre, comme un maître et un élève. L'élève cherche à prouver au maître qu'il est très fort en donnant la réponse à toutes les questions, le maître cherche à piéger l'élève en lui posant des questions difficiles, à la limite de ses connaissances. Ces techniques ont donné des résultats spectaculaires récemment. Ce sera peut-être un modèle d'IA capable de défier les élèves plutôt que de leur servir systématiquement ce dont ils ont envie.

Sur la question de la diffusion du rapport, il est très orienté vers l'action publique. Un lexique de vulgarisation a été rédigé à sa suite. À présent, nous avons en tête un ouvrage sur l'IA pour le grand public. Je signale aussi que, dans le cadre d'un groupe de travail entre l'Académie des sciences et l'Académie de médecine, nous allons éditer, notamment avec mon collègue médecin Bernard Nordlinger, un ouvrage qui comprendra de nombreuses contributions sur le thème plus spécifique de la santé.

Mme Marie-Noëlle Battistel, députée. - L'IA est un enjeu d'avenir et je voulais saluer votre travail. Avec l'IA, la révolution de l'impression 3D, l'ouverture des données publiques, la numérisation de l'économie, nous avons les ingrédients du monde de demain. En cela, votre rapport et les propositions qu'il met en avant méritent toute notre attention. Pour mémoire, sous la mandature précédente, le rapport remis par Axelle Lemaire, secrétaire d'État chargée du numérique, insistait notamment sur la nécessaire compréhension par les citoyens des mécanismes de cette intelligence nouvelle. C'est un impératif démocratique. Les leviers d'actions sont tout à la fois d'ordre administratif, économique et social. Il est essentiel que l'IA ne soit pas crainte mais comprise.

Votre rapport appelle plusieurs questions. Il traite d'une politique économique articulée autour des données, mais la réflexion sur la technologie et le logiciel me semble moins développée alors qu'elle est primordiale. Comment voyez-vous concrètement la mise en oeuvre de la stratégie suite à vos propositions ?

L'IA, aussi prometteuse soit-elle, ne saurait se développer, prospérer et même vivre sans une industrie puissante et dynamique. Quel est le calendrier ? À combien chiffrez-vous le coût de vos propositions ?

Par ailleurs, en tant que vice-présidente de la délégation aux droits des femmes de l'Assemblée nationale, j'ai relevé, dans votre rapport, que les femmes devraient constituer 40 % des effectifs des filières numériques d'ici deux ans. Quelles mesures incitatives préconisez-vous pour parvenir à ce résultat et sur quels postes envisagez-vous cette évolution ?

M. Cédric Villani, député, premier vice-président de l'Office. - La question du logiciel sera certes, importante. Les algorithmes se partagent dans la communauté mondiale, les logiciels se perfectionnent et, comme dans tout secteur, il y a une compétition aigue. Mais ce n'est pas là aujourd'hui que se trouve la concurrence la plus vive. Réellement, dans le domaine de l'IA, l'essentiel de la valeur ajoutée est apporté par la possibilité d'utiliser les données et de réaliser des expérimentations.

Il y a quelque temps, lors d'une audition, lorsqu'a été évoqué le sujet des traitements thérapeutiques, de l'IA appliquée à la maladie, l'intervenant nous avait montré une étude qui mettait en regard les résultats, en fonction de l'algorithme et de la base de données, Ces résultats dépendaient beaucoup plus de la qualité de la base de données que de la qualité de l'algorithme. Cela illustre bien que c'est là que se trouve la compétition et l'urgence pour l'État à intervenir.

Concernant l'industrie, l'IA s'appuie nécessairement sur le secteur considéré, qui doit lui-même se montrer à la hauteur de l'enjeu.

Prenons l'exemple emblématique de la robotique. On a souvent tendance à confondre les deux dans l'imagerie populaire, IA et robots. En fait, ces deux secteurs sont presque disjoints, l'interface entre les deux étant assez limitée. La robotique moderne est construite beaucoup plus sur une notion de contrôle, de comportements prévus a priori et programmés que sur la notion d'apprentissage. Mais il y a un vrai enjeu à marier les deux, et, pour ce faire, il va falloir s'appuyer sur le secteur robotique existant, le favoriser, pour développer une vraie IA robotique.

L'Europe a une belle industrie robotique, Allemagne en tête. Notre mission conduit à penser qu'il y a lieu de conclure une alliance France-Allemagne-Italie sur la robotique et de prendre appui sur les initiatives des réseaux européens dans ce domaine.

Concernant le chiffrage, nous n'avons délibérément pas mis de montants dans le rapport, même si nous avons fait beaucoup de calculs et demandé beaucoup de sources différentes pour ces calculs. Nous avons fait des évaluations par comparaison internationale, par actions, par secteurs, sur la base de la valeur ajoutée... mais en raison de la grande hétérogénéité des ordres de grandeur des différentes lignes budgétaires correspondantes, nous ne les avons pas indiquées.

Une politique d'IA, c'est aussi une politique de recherche, de développement industriel, d'infrastructures, dans le domaine de l'emploi, du travail et de la formation. Ensuite, c'est une politique d'environnement, de transport, de défense, etc. Les ordres de grandeur sont très différents. En ajoutant, si j'ose dire, « des choux à des carottes », la complexité de cette répartition financière aurait été masquée. Par ailleurs, certaines actions sont plus urgentes que d'autres et les montants peuvent s'étaler dans le temps.

La première urgence, qui a d'ailleurs fait l'objet d'une partie importante des annonces du Président de la République, est celle du secteur de la recherche, académique et industrielle. Un effort considérable a été annoncé.

Par rapport aux préconisations qui figurent dans le rapport initié par Axelle Lemaire, le Gouvernement a globalement « doublé la mise », si l'on peut ainsi dire. Là où le rapport avait annoncé 1,5 milliard d'euros d'investissement sur une dizaine d'années, l'actuel Gouvernement vient d'annoncer un investissement de 1,5 milliard d'euros sur le seul quinquennat. Encore cet investissement massif se limite-t-il aux secteurs annoncés de la recherche, de la défense, une partie de la R&D de certains secteurs. Cet investissement ne prend pas en compte d'éventuelles annonces supplémentaires, par exemple dans le domaine de la formation. D'autres lignes budgétaires pourraient aussi être abondées par la suite. En particulier, une réflexion a été engagée avec le ministre chargé du travail. À cet égard, je dois dire que nous avons fait le « tour » des ministères et rencontré un très bon écho dans la plupart des cas.

Concernant la place des femmes, notre objectif de 40 % est effectivement ambitieux compte tenu de la réalité du terrain. Mais il faut se donner des objectifs ambitieux, sinon tout va se diluer. Il s'agit surtout de prendre des mesures incitatives, notamment de faire de la publicité ciblée pour les carrières, les filières, la mise en place de bases de données, de portails d'information... Sur ce sujet, le travail personnalisé, de conviction, de mentorat fonctionne beaucoup mieux que les questions beaucoup plus globales de modèle, de culture et de valeurs dont une évolution sensible nécessite un temps considérable.

Je suis moi-même issu d'un domaine scientifique parmi les plus marqués en la matière : les mathématiques, et j'ai pu voir que les pourcentages de femmes reçues dans les promotions à l'École normale supérieure ne sont pas meilleurs aujourd'hui qu'il y a 25 ans, ils sont même plutôt plus faibles encore. De façon générale, on a vu la situation s'aggraver dans les dernières années, en France et un peu partout en Occident. Dans certains pays, ce n'est pas aussi net. En Israël, l'une de mes principales surprises a été de voir que la proportion de femmes dans les milieux « tech », start-up, recherche en informatique, en IA était bien plus élevée qu'en France.

Mme Huguette Tiegna, députée, vice-présidente de l'Office. - Merci, M. Villani, pour votre excellent rapport dont nous avons eu un avant-goût sous forme de point d'étape devant l'Office en décembre dernier. Nous vivons aujourd'hui deux révolutions intimement liées : une transition écologique, avec une place de plus en plus grande accordée aux énergies renouvelables, et une révolution technologique et numérique, avec le développement de l'IA. Votre rapport le montre : l'IA va permettre d'accélérer et d'accompagner cette transition écologique et énergétique. Mais il montre aussi que l'IA est cette grande araignée à mille-pattes, avec un coeur que l'on peut appeler serveur, ces serveurs qui consomment énormément d'énergie. Le gain réalisé sur la rationalisation de l'énergie, nous pouvons le perdre à travers le fonctionnement même des systèmes informatiques. Comment faire en sorte que ces machines consomment moins d'énergie ? Avez-vous une idée du niveau de la recherche qui serait nécessaire en la matière, notamment pour l'utilisation de technologies issues de l'innovation de rupture fonctionnant à basse consommation ?

M. Jean-Luc Fugit, député. - Merci à M. Villani pour ce rapport vraiment passionnant, dans lequel je me suis plongé. Je voudrais revenir sur la question de l'impact sur le travail et l'emploi du futur. À ce stade, cela reste assez flou, d'autant que nous sommes confrontés à de grands défis pour le XXIe siècle : défi technologique, défi de la transition écologique qui n'est plus une option. En tant qu'ancien chercheur et ancien vice-président d'une université, en charge des questions d'orientation, de réussite étudiante et d'insertion professionnelle, je m'interroge.

L'impact sur la formation et l'enseignement m'intéresse : impact sur la formation initiale et aussi sur la formation tout au long de la vie. Cet impact est renforcé par le fait que nous souhaitons revoir la formation professionnelle. Quel serait votre éclairage sur ce sujet ?

Le mot clé du progrès, c'est l'agilité. Il me semble qu'il faut travailler sur l'adaptabilité et l'agilité des jeunes qui sortiront des systèmes de formation, quels qu'ils soient : enseignement supérieur mais aussi lycées et collèges, comme il a été dit.

Cela pose aussi la question de la formation des enseignants. Avez-vous des pistes ? Quelles innovations peut-on envisager ? Comment entraîner la communauté éducative dans cette belle aventure pour que, finalement, des enseignants aux gens que l'on forme, y compris tout au long de la vie, on puisse épouser les grands défis de l'IA au service de l'amélioration de notre bien-être ?

M. Cédric Villani, député, premier vice-président de l'Office. - Ces deux questions sont cruciales pour notre avenir, y compris à long terme.

Concernant la consommation d'énergie et l'environnement, il faut jouer sur tous les tableaux pour limiter la consommation d'énergie. Une première réflexion doit être menée sur les calculs eux-mêmes. En concentrant les calculs, à distance, dans un centre dédié, on peut être beaucoup plus efficace. Ce centre dégagera beaucoup de chaleur qui pourra être recyclée et cet environnement pourra être contrôlé, optimisé. Cette solution est préférable à une répartition très diffuse des calculs.

Il y aura aussi un travail à faire sur l'algorithmie et sur l'architecture informatique, y compris sur les puces. On va voir apparaître, par intérêt et par nécessité, de nouvelles générations de puces et de microprocesseurs, beaucoup plus économes et sans doute plus résilientes. Des recherches sont menées sur les puces neuromorphiques. L'IA a déjà fait évoluer, au niveau mondial, le débat sur les processeurs, car elle est, en effet, très gourmande dans ses versions actuelles en processus graphiques, les fameux GPU (Graphics Processing Unit) qui travaillent selon une forme de micro-parallélisme dans la gestion des informations. Des révolutions se feront certainement jour dans le secteur des microprocesseurs, guidées par les contraintes environnementales.

Le Président de la République a annoncé un effort de l'État à hauteur de 700 millions d'euros pour soutenir le développement matériel. Ce n'est que le début.

Dans l'autre mission qui m'a été confiée par le Gouvernement, sur l'enseignement en mathématiques, la formation des enseignants apparaît comme le premier facteur de progression. C'est là un véritable défi, qui s'inscrit dans un ensemble de mutations du système scolaire en cours et qui n'étaient que trop urgentes.

La mise en place d'un vrai enseignement en informatique a été annoncée. L'informatique pourra être choisie au bac comme une option lourde. Nous allons d'ailleurs devoir former beaucoup d'enseignants car, pour l'instant, 'leurs effectifs sont très insuffisants dans cette matière dans les lycées.

La mise en place d'un tronc commun de culture générale scientifique et informatique au lycée a également été annoncée. L'intitulé de ce cours d'« humanités scientifiques et numériques » pourrait évoluer, mais il s'agira d'un cours de sciences destinées à tous. Pour sa part, l'IA recoupe des connaissances spécialisées et non spécialisées. Notre interaction collective, notre rapport aux grandes plateformes, ce que peut faire ou ne pas faire un algorithme... Ce sont des connaissances pour tous qui devront aussi s'inviter dans le programme.

M. Claude de Ganay, député. - Je félicite Cédric Villani pour cet excellent rapport qui a pu s'appuyer sur les travaux de l'Office, en toute cohérence. Avec ma collègue Dominique Gillot, nous avions d'ailleurs souhaité une continuité, une stratégie. L'IA va très vite et je me demande si, au travers de l'Office, une mission parlementaire de suivi des travaux des uns et des autres ne permettrait pas d'assurer cette continuité. Il faut suivre attentivement la mise en oeuvre de la stratégie annoncée, notamment par rapport aux financements pour lesquels les annonces sont importantes. La France a décidé de prendre une position forte dans l'intelligence artificielle, ce serait logique de suivre cet engagement au sein de l'Office.

M. Cédric Villani, député, premier vice-président de l'Office. - Tout à fait d'accord cher collègue. En premier lieu, il y a un enjeu de la déclinaison de l'IA avec les différents secteurs. Ce sont des sujets qui doivent être approfondis. Si l'on avait développé les thèmes IA et transport, IA et industrie, IA et blockchains, etc., le rapport aurait fait non pas 250 pages mais au moins 500 voire 1 000 pages ! Nous allons devoir avoir tous ces sujets en ligne de mire. D'ailleurs, concernant les blockchains, dès jeudi prochain sera présentée une note courte pédagogique sur le sujet devant l'Office, conformément aux engagements pris en la matière avec la mission d'information. Ce sera une occasion de travailler sur cette articulation.

Ensuite, l'évaluation de la politique de recherche fait partie des missions de l'Office. C'est un volet majeur de l'IA, avec la mise en place des instituts de recherche annoncés, qui pose de nombreuses questions dans leur interdisciplinarité, leur répartition sur le territoire et leurs interactions. Il est certain que c'est là un sujet que nous allons revoir à l'Office.

Mme Paula Forteza, députée. - Trois autres questions des internautes :

- « Quelle formation recommandez-vous à un bachelier qui souhaite s'orienter vers l'IA ? »

- « Comment la France peut-elle proposer de l'IA open source tout en conservant sa souveraineté numérique sans se faire absorber par des entreprises privées ou des États ? »

- « Comment réguler et contrôler les applications de l'IA dans le véhicule autonome, notamment par rapport aux enjeux de sécurité ? »

M. Cédric Villani, député, premier vice-président de l'Office. - Je précise que nous répondrons à toutes les autres questions par écrit.

Au niveau de la formation, pour l'instant, une bonne partie de l'IA se joue sur la « débrouille », si vous me permettez cette expression un peu familière. En l'espèce, les grands outils de l'IA sont plutôt élémentaires. Le fonctionnement d'un réseau de neurones dans l'IA est beaucoup plus simple à comprendre que le code de simulation des équations de Navier-Stokes utilisées en météorologie. Pour caricaturer, il y a une équation majeure, celle qui permet d'optimiser le réseau de neurones, et tout le reste est du bricolage.

Pour l'instant, il existe des formations de très haut niveau en IA en France. La formation la plus pointue est dispensée à l'ENS de Cachan à Paris-Saclay. Les polytechniciens, dans la circonscription voisine, se pressent pour participer à ce master. L'enjeu est plutôt de développer des formations d'un niveau moindre. Ces formations devront être développées dans les écoles d'ingénieurs orientées informatique, plus qu'elles ne le sont actuellement, ainsi que dans les autres grandes écoles scientifiques.

Il ne fait aucun doute que beaucoup d'autres formations vont se développer dans les années qui viennent. Actuellement, pour un lycéen, le plus sûr est de se renforcer dans les trois matières clés que sont les mathématiques, l'informatique et la physique pour la mécanique, la robotique et l'industrie du futur.

Il ne faut cependant pas se focaliser trop tôt. Les profils, les sujets, les formations multidisciplinaires sont très valorisés avec la montée en puissance de l'IA. Par exemple, on recherche comme les loups blancs des médecins qui ont aussi une expertise en programmation ou des ingénieurs informaticiens qui ont suffisamment de connaissances en médecine pour pouvoir discuter avec les professionnels de l'art. Par ailleurs, il n'y a pas unicité de profils et les filières seront variées.

La question du partage des données et de la souveraineté est très délicate. Il existe nombre de façons d'« ouvrir » l'accès aux données. C'est une question de modularité. On peut les rendre publiques pour tous les acteurs ou garder complètement le secret ; entre les deux, il y a toute une gamme de droits et d'accès.

Par exemple, il pourrait être décidé que les acteurs européens ou les acteurs publics aient accès à plus d'informations que les autres, l'accès à l'information dépendant de la gravité du sujet, de l'importance vitale... Des arbitrages devront être faits. Si l'intérêt est vital, ce serait criminel d'empêcher une entreprise étrangère de développer une application qui peut être révolutionnaire.

Nous avons travaillé sur des amendements dans le cadre de l'examen du projet de loi relatif à la protection des données personnelles, pour insister sur le fait que la définition de l'intérêt public ne devrait pas être restreinte aux seules entreprises du secteur public. Il peut également exister des entreprises privées qui travaillent dans un secteur d'intérêt public, en particulier dans la santé.

L'INSERM a travaillé sur un programme qui consistait ainsi en l'interconnexion de différentes bases de données de santé pour les ouvrir à tous les acteurs qui en auraient un besoin légitime : connexion des données hospitalières, des données de médecine de ville, des données administratives, des données de décès, des données génétiques, etc. Là encore, il y a une question de modularité. On peut connecter tel type de données avec tel autre quand c'est justifié, du moment qu'est choisi le niveau de sûreté imposé par le cas de figure.

En conclusion, je dirais qu'il existe différentes manières d'ouvrir l'accès aux données, en fonction d'une gamme de motifs et de circonstances.

Concernant les véhicules autonomes, l'objectif majeur est la sécurité. Le deuxième objectif est le confort. La rapidité vient seulement ensuite. Le confort c'est, par exemple, le fait de fluidifier le passage aux péages ou de décharger le conducteur de la charge émotionnelle quand il est pris dans un embouteillage. Mais c'est à double tranchant. Si l'on n'a plus peur de se retrouver dans un embouteillage, on risque de se retrouver avec des hordes de conducteurs qui font la sieste ou qui regardent un film dans la voiture. Les embouteillages risquent alors de devenir interminables. Dans une perspective de réduction des embouteillages, il faudrait une offre plus intelligente de navettes, de moyens de transport à la demande, qui optimisent le temps de partage des véhicules. Un véhicule personnel passe 95 % de son temps à l'arrêt. C'est un gigantesque gâchis en termes de place et de matériel. Au-delà de BlaBlaCar, qui organise déjà des formes de partage, la situation pourrait évoluer vers de nouvelles possibilités de partage efficaces d'offres privées et publiques.

Pour la sécurité, les grands constructeurs se sont fixés l'objectif à terme de véhicules qui aient dix fois moins d'accidents que les conducteurs humains. On ne sait pas quand cela va arriver. Il faudra beaucoup d'expérimentations, dans lesquelles on acceptera localement de relâcher les contraintes dans des environnements contrôlés, bien identifiés, bien cartographiés. Autour du plateau de Saclay, il y a toute une réflexion sur le rôle du véhicule innovant et de la mobilité du futur. Certains acteurs locaux, des centres de recherche, doivent avoir la possibilité de faire de telles expérimentations.

On le sait, il y a eu quelques accidents mortels impliquant des véhicules autonomes, pour l'instant en nombre très réduit. Chaque accident est bien sûr une tragédie. Cependant, à chaque fois, les accidents ont eu lieu dans des conditions difficiles, avec éblouissement, de nuit... Même si ces accidents doivent être déplorés, ils sont très minoritaires en nombre par rapport aux accidents liés aux comportements humains.

L'interaction entre le conducteur humain et le conducteur automatique sera le plus difficile. Comme souvent dans l'IA, on est amené, au fur et à mesure qu'on explore le sujet, à découvrir que les activités humaines sont bien plus complexes que ce que l'on croyait. C'est vrai pour les métiers. Ce qui s'automatise, ce sont les tâches et non pas les métiers. Un métier, c'est en réalité beaucoup de tâches différentes, certaines automatisables et d'autres non. Aussi, un répertoire exhaustif de toutes les tâches peut s'avérer très lourd à réaliser. De même, conduire un véhicule nécessite beaucoup de tâches, dont certaines sont très complexes. Le simple fait de s'insérer sur une bretelle d'autoroute atteint ainsi un sommet de complexité parce qu'il met en oeuvre des comportements, une sorte de transaction voire d'intimidation entre conducteurs, sans qu'on s'en rende vraiment compte. C'est un casse-tête à modéliser.

M. Gérard Longuet, sénateur, président de l'Office. - La fusion de deux files de véhicules est également un phénomène très complexe.

M. Cédric Villani, député, premier vice-président de l'Office. - En effet. L'analyse des interactions et leur modélisation nous oblige à travailler sur nous-mêmes. Dans l'interconnexion des grandes bases de données, le plus difficile n'est pas de mettre au point la solution technique, mais de se mettre d'accord sur qui la pilote, avec quels droits accordés à quels organismes, quel organisme fait confiance à quel autre, etc. C'est un problème humain.

Les deux sujets sont liés. L'évolution du travail et la mobilité aussi. Dans son rapport rendu récemment public sur un sujet connexe, France stratégie a développé l'exemple de la livraison. On peut imaginer, un jour, des livraisons par drones, par voitures autonomes, de façon routinière. Le métier de livreur en sera bouleversé. Mais il ne faut pas en déduire trop hâtivement que les livreurs vont disparaître. La fonction d'un livreur ne se limite pas à conduire la marchandise d'un point A à un point B, il doit également s'assurer que la marchandise est bien reçue et est conforme aux prescriptions, interagir avec le client pour vérifier que la qualité de service attendue est bien là. Une redistribution des tâches et du service est possible. La compétence en conduite peut devenir moins importante au fur et à mesure que la compétence relationnelle avec le client sera plus critique. En somme, c'est un rééquilibrage, dans lequel l'humain récupère plus de tâches humaines, plus de tâches empathiques et relationnelles.

M. Gérard Longuet, sénateur, président de l'Office. - Je remercie l'élu de l'Essonne pour l'image qu'il donne du Parlement. Je remercie également Roland Lescure d'avoir organisé cette audition conjointe de l'Office avec la commission des affaires économiques de l'Assemblée nationale. Cela démontre que la valeur ajoutée parlementaire existe dans un domaine éminemment politique.

L'intelligence artificielle est un sujet éminemment scientifique, mais ses conclusions et les perspectives de ce projet sont très politiques. D'une part, la société est partagée entre l'espérance et la crainte. L'ancien ministre de la défense dira que la peur n'évite pas le danger. Bien que je sois d'un naturel plutôt optimiste, la confiance n'exclut pas le contrôle, et, donc, justifie la loi. Au-delà de cette préoccupation quasi philosophique, c'est ce deuxième thème politique qui intéresse le parlementaire. Quel rôle la loi peut-elle jouer lorsqu'un système est animé par les géants économiques que sont les grandes entreprises et leurs clients ? Les citoyens pouvant d'ailleurs avoir une expression politique opposée à leur comportement de clients, la loi doit trouver le chemin critique entre les attentes des clients, qui sont soutenues par le fait même qu'ils sont clients, et les espérances des citoyens qui, en revanche, peuvent être contrebattues.

M. Villani a évoqué des focus qui sont également de nature profondément politique : l'éducation, la santé, l'agriculture augmentée, les transports, la défense et la sécurité. Je pense que nous aurions intérêt, pour faire suite à l'intervention d'Huguette Tiegna, à y intégrer l'énergie. Je partage assez spontanément l'idée qu'un système totalement centralisé n'est pas forcément le plus pertinent, surtout dans des régions comme les nôtres où la densité de la population est relativement forte par rapport à d'autres parties du monde.

Pour répondre à Claude de Ganay, nous avons intérêt à nous concentrer sur ces focus politiques. On peut imaginer que l'Office se fixe des rendez-vous portant sur la déclinaison du rapport dans ces différents domaines, qui concernent le plus grand nombre et pour lesquels les États seront en concurrence, voire en conflit, avec des offres de service qui seront, elles, internationales et totalement privées.

C'est particulièrement vrai en matière de santé. Un pays qui ne s'organiserait pas pour utiliser des bases de données en la matière risquerait d'être évincé par des prestataires de santé revendiquant une maîtrise totale de la gestion de leurs données.

Comme l'a rappelé pertinemment Cédric Villani, l'élément fort de l'IA, c'est sa capacité à traiter des données en nombre. L'intelligence artificielle nous évite l'échantillon statistique et permet, à partir d'une analyse exhaustive de la réalité, de penser la restituer totalement et, par conséquent, commander des comportements et des solutions.

Nous avons la certitude, aujourd'hui, d'avoir devant nous à faire un travail de moyen et de long terme, qui nous conduira à nous retrouver. C'est une perspective que j'accepte avec joie et sérénité.

La réunion est close à 11 h 25.