IV. TROISIÈME TABLE RONDE, PRÉSIDÉE PAR MME DOMINIQUE GILLOT, RAPPORTEURE : QUESTIONS POLITIQUES, SOCIÉTALES ET ÉCONOMIQUES LIÉES À L'IRRUPTION DES TECHNOLOGIES DE L'INTELLIGENCE ARTIFICIELLE

Mme Dominique Gillot, rapporteure . - Nos deux tables rondes de ce matin, qui ont donné lieu à des échanges intéressants, ont permis de cerner ce que sont les systèmes d'intelligence artificielle, dans leur diversité.

Cette troisième table ronde aborde les questions politiques, sociétales et économiques liées à l'irruption des technologies de l'intelligence artificielle. Axelle Lemaire, secrétaire d'État chargée du numérique et de l'innovation, nous rejoindra à seize heures.

Notre calendrier est contraint mais nous souhaitons tous aller au bout de nos réflexions avant les prochaines échéances électorales.

Monsieur Henri Verdier, vous êtes directeur interministériel du numérique et du système d'information de l'État, adjoint à la secrétaire générale pour la modernisation de l'action publique et administrateur général des données. Vous avez dirigé Etalab, le service chargé de l'ouverture des données publiques, grâce auquel vous avez modernisé le portail d' open data français. Votre regard sur les questions politiques, sociétales et économiques liées à l'irruption des technologies d'intelligence artificielle sera utile pour ouvrir cette table ronde.

1. M. Henri Verdier, directeur interministériel du numérique

L'intelligence artificielle est une vieille histoire qui se renouvelle actuellement à une allure incroyable. Se sont télescopées de manière imprévue une science, une masse de données et une informatique, venue en particulier des jeux vidéo, avec des investissements considérables de la part des acteurs qui s'en servent : Google, IBM, Facebook .. . Il s'agit d'investissements qui atteignent des niveaux inédits.

Ces acteurs s'inscrivent dans des stratégies post-numériques ouvertes et atteignent d'amples performances. Nous avons récemment appris, par exemple, que l'intelligence artificielle reconnaissait mieux les images que l'oeil et le cerveau humain !

Certains orateurs ont assimilé cet enjeu à celui qu'a représenté la course à l'arme nucléaire. La métaphore a ses limites : il ne s'agit pas forcément de fabriquer des intelligences artificielles mais il s'agit d'en avoir la maîtrise. Certains pays maîtriseront cette technologie, d'autres non, ce qui suscitera un clivage géopolitique.

Pour l'État, le premier enjeu est que notre pays ne devienne pas, comme le craint Mme Catherine Morin-Desailly, une colonie numérique des États-Unis. En ce qui concerne le big data , la France n'a que deux ou trois ans de retard : il est donc encore temps de démarrer. La bataille n'est pas perdue. Notre pays peut compter sur une très grande école de mathématiques, de très grandes écoles d'ingénieur, une culture de l'entrepreneuriat, des industriels de renom, un État centralisé qui pourrait devenir un client. Il faut s'y mettre, avec une politique industrielle moderne. Je relève des initiatives très positives : le travail de l'OPECST sur l'intelligence artificielle, le plan gouvernemental pour l'intelligence artificielle, etc.

Des questions de sécurité se poseront. Je ne suis pas informaticien de formation mais biologiste. J'ai une vague intuition des propriétés émergentes des systèmes. Dès qu'un système est complexe, son évolution est imprévisible. J'ai beaucoup milité en faveur de la publication des algorithmes. Cependant, l'intelligence artificielle fonctionne comme une boîte noire. Il ne suffit pas de divulguer le code source pour que chacun se fasse une opinion. La Silicon Valley met en place des Kill Switch , c'est-à-dire des dispositifs qui se désactivent très facilement.

En matière économique, on se prépare à de grandes mutations, de nouveaux cycles de destruction incroyables, de reconversion et de recombinaison de filières industrielles entières. Le marché du travail sera profondément transformé. Peut-être nous sera-t-il possible d'accompagner ces changements dès lors que cette révolution est prise à la racine.

L'État sera-t-il capable de s'approprier ces nouvelles technologies pour assurer l'efficacité, la simplicité et la justice du service public ? Pourquoi attendre un mois pour savoir si l'on a obtenu une bourse alors que l'on sait, lorsque l'on commande la moindre bricole sur Amazon, à quel moment elle se trouve mise dans la camionnette du facteur ?

Nous n'avons pas une très grande science du design des politiques publiques. Souvent, elles ont été construites de manière empirique.

J'ai, par ailleurs, été frappé de constater qu'il était très facile de faire des erreurs très idiotes avec des algorithmes. Par exemple, il est très simple de mettre au point un algorithme permettant de mener des contrôles fiscaux avec une efficacité de 90 %. Règle-t-on le problème ou fait-on courir des risques encore plus grands ? En effet, cet algorithme peut omettre une catégorie entière de fraudes, ce qui n'est pas souhaitable. Il faut donc bien être sûr, lorsque l'on construit un algorithme, qu'il est totalement adapté à la politique que l'on souhaite mettre en place. Or, il est souvent très difficile d'expliciter le but profond d'une politique publique.

On l'a vu avec le big data , il est assez aisé, faute d'une profonde réflexion, de faire faire des bêtises à des machines qui ne commettent pourtant aucune erreur. Les États-Unis travaillent par exemple à la mise au point d'algorithmes pour aider les juges à prononcer des remises en liberté conditionnelle, mais on y a introduit des statistiques pleines de préjugés ethniques, ce qui conduit à une mauvaise prédictibilité. Les algorithmes donneront donc des résultats à la hauteur de l'éducation qui leur est fournie !

Nous avons le devoir de nous approprier ces nouvelles technologies, mais nous devons aussi nous demander où nous voulons aller. Cela nous amènera assez vite à la question de la « gouvernementalité algorithmique ». Il est utile de pouvoir prédire grâce aux algorithmes, mais cela comporte des risques. Notamment, celui de la confiscation du pouvoir par des experts. Il est important de faire entrer les vrais débats sur l'intelligence artificielle au Parlement et chez les citoyens. Les algorithmes apprennent et donnent des résultats mais ce sont des boîtes noires. Le besoin de transparence est très grand.

L'invention d'une redevabilité et d'une gouvernance de l'intelligence artificielle est un immense chantier. Si nous voulons rester une démocratie et utiliser à plein ce que proposent ces technologies, il nous faudra faire le lien entre projet politique et progrès technique.

Concernant le plan du Gouvernement pour l'intelligence artificielle, nous avons quelques éléments mais je préfère laisser la ministre en parler.

Mme Dominique Gillot, rapporteure . - Merci M. Verdier ! Vous présidez, Madame Marie-Claire Carrère-Gée, le Conseil d'orientation pour l'emploi (COE), qui vient tout juste de rendre public un rapport important sur les conséquences de l'automatisation et de la robotisation sur l'emploi. Je vous laisse la parole.

2. Mme Marie-Claire Carrère-Gée, présidente du Conseil d'orientation pour l'emploi (COE)

Le conseil d'orientation pour l'emploi est une instance indépendante, placée auprès du Premier ministre. Nous essayons d'élaborer des diagnostics partagés sur les questions d'emploi et de travail. C'est un domaine caractérisé par la pluralité des acteurs et dans lequel le consensus n'est pas toujours spontané.

L'ensemble des acteurs du marché du travail, comme l'ensemble de nos concitoyens, sont confrontés à l'évolution des nouvelles technologies, qui connaissent un extraordinaire développement et dont la vitesse de diffusion est très incertaine. Je précise que je n'ai pas de compétences en intelligence artificielle.

Notre rôle est d'anticiper, autant que faire se peut, les conséquences du progrès technologique en cours sur l'emploi, dans un contexte où le débat public est marqué par des études donnant au pourcentage près le nombre d'emplois menacés et conduisant à un climat très anxiogène. Certes, la crainte du chômage est un grand classique à chaque vague d'innovation technologique. Keynes lui-même avait prédit un chômage massif lié au progrès technique. Pourtant, l'histoire montre que, depuis toujours, le progrès technologique s'est accompagné de créations d'emplois.

Malgré cela, des études prédisent une catastrophe à un horizon proche. Je peux citer entre autres l'étude de l'Université d'Oxford conduite par Carl Benedikt Frey et Michael A. Osborne qui parle de 47 % des emplois, celle du centre de réflexion Bruegel avec une part des emplois concernés de 52 % et, enfin, celle du cabinet de conseil Roland Berger, spécifique à la France, avec une part de 42 %. D'autres études sont moins pessimistes, avec un chiffre de 9 %, comme le rapport de l'OCDE réalisé par des chercheurs de l'Université de Mannheim ou, encore, la note que Nicolas Le Ru a réalisée pour France Stratégie en 2016.

Les analyses existantes sont partielles. Elles s'intéressent uniquement aux destructions brutes d'emplois, et ne font pas la balance entre les destructions et les créations. Elles ne s'attachent ni à la structure de l'emploi ni à sa localisation. Parfois même, elles sont biaisées en ce qu'elles considèrent que la technologie bouscule des métiers dans leur ensemble alors que, de notre point de vue, elle bouleverse d'abord des tâches. Au sein d'un métier, certaines tâches peuvent rester très difficiles, voire impossibles, à remplacer par des technologies. Toutes les personnes qui exercent un métier ne font par ailleurs pas la même chose tous les jours. Le rapport de l'OCDE s'intéresse aux tâches, ce qui est plus pertinent. Les emplois évoluent, y compris dans leur contenu.

Dans notre rapport, nous avons voulu aborder l'ensemble des dimensions - créations, destructions, transformations d'emploi, structures et localisation de l'emploi - et élargir l'approche, non seulement aux emplois susceptibles d'être détruits, mais aussi à ceux qui peuvent évoluer dans leur contenu. Ce constat doit conduire à définir des politiques de formation adaptées. Les études rétrospectives sur la composition de l'emploi montrent d'ailleurs que de nombreux emplois, en France, ont profondément évolué depuis quinze ans dans leur contenu en lien avec la diffusion des nouvelles technologies, quel que soit le niveau de qualification. L'utilisation de technologies numériques est associée à une complexification et une hybridation des compétences requises. Avec l'évolution numérique, un certain nombre de métiers se sont même scindés en plusieurs.

Dans ce cadre, nous avons réalisé une étude quantitative pour préciser le diagnostic, pour savoir quels seraient les métiers concernés. Nous avons émis l'hypothèse que la vulnérabilité des emplois dépend de trois facteurs principaux : l'avantage comparatif de l'homme par rapport aux machines ; les goulets d'étranglement de la frontière technologique ; enfin, la rentabilité économique. Difficile à introduire de façon robuste, ce dernier facteur n'est pas pris en compte dans notre étude, pas plus d'ailleurs que dans les autres études existantes.

Nous avons utilisé l'enquête sur les Conditions de travail de la DARES. Nous avons isolé, selon les types de métier, jusqu'à une vingtaine de questions. Nous avons essayé d'apprécier le niveau de vulnérabilité des emplois au regard de leurs conditions concrètes de réalisation. Nous nous sommes refusé à donner un chiffre précis car il n'existe aucun seuil à partir duquel un emploi serait automatiquement automatisé. Nous avons préféré retenir des ordres de grandeur.

Nous sommes parvenus à trois enseignements principaux. Tout d'abord, moins de 10 % des emplois cumulent des vulnérabilités telles que, dans un contexte d'automatisation, leur maintien serait menacé. Nous avons retenu un seuil d'automatisation de 0,7 : à noter que les résultats auraient potentiellement été un peu différents, avec un seuil de 0,65 par exemple. Les métiers les plus vulnérables sont essentiellement peu ou pas qualifiés, nous en avons listé une vingtaine : agents d'entretien, ouvriers qualifiés ou non, manutentionnaires, jardiniers, maraîchers, caissiers, employés de service...

Ensuite, la moitié des emplois seront profondément, à plus ou moins brève échéance, transformés dans leur contenu, quel que soit le niveau d'automatisation. Cela touche les moins qualifiés mais aussi des emplois plus qualifiés, dans l'industrie mais aussi dans les services.

Enfin, l'étude quantitative n'était pas le seul sujet de notre rapport. Nous avons pris acte du fait que l'histoire économique montre que l'emploi a continué à augmenter, y compris au cours des vingt dernières années. L'enjeu est la gestion de la période de transition. Nous avons étudié les questions de création d'emplois : ceux induits directement par l'innovation technologique mais aussi ceux indirectement créés. Même une simple innovation de procédé, si elle fait gagner des parts de marchés à l'international, peut créer de l'emploi. Il y a aussi des mécanismes de compensation : l'évolution de la demande crée des emplois induits.

Une politique publique d'accompagnement doit viser à diminuer le nombre d'emplois détruits et faire en sorte que les mécanismes de compensation se produisent le plus tôt possible et jouent à plein pour éviter les décalages entre destructions et créations d'emplois. Le progrès technologique n'est pas une option que l'on pourrait ou non choisir ; on ne peut l'éviter et la vitesse d'adaptation est essentielle. Les acteurs économiques et les pouvoirs publics ont leur mot à dire en termes de choix éthiques, sociaux, économiques, fiscaux. Je vous renvoie aux conclusions de notre rapport. Si la première vague du numérique a contribué à délocaliser des emplois existants, voire des fonctions entières dans les entreprises, la vague en cours pourrait, via l'automatisation, favoriser des relocalisations d'emplois. C'est un aspect qui doit être pris en compte.

Mme Dominique Gillot, rapporteure. - Chirurgien neurologue, ancien élève de Science Po, de HEC, de l'ENA, écrivain, auteur d'ouvrages à succès, chroniqueur pour plusieurs journaux, vous êtes aussi, monsieur Alexandre, le fondateur du site Doctissimo, très consulté, et vous dirigez aujourd'hui l'entreprise DNA vision. L'intelligence artificielle est un sujet qui vous passionne. Nous vous écoutons.

3. M. Laurent Alexandre, entrepreneur (DNA vision)

On parle souvent des dangers de l'intelligence artificielle forte, mais les vrais sujets sont la gestion, la gouvernance et la régulation d'une intelligence artificielle faible, sans conscience d'elle-même et pas directement dangereuse pour l'humanité.

Je souhaite insister sur la souverainement numérique et sur le risque de devenir une colonie numérique des GAFA (Google, Apple, Facebook et Amazon). Il existe un trou noir de valeur en faveur des géants du numérique qui maîtrisent l'intelligence artificielle. En la matière, nous sommes un pays du tiers-monde. Nous exportons des spécialistes, des cerveaux, et nous importons toute la journée de l'intelligence artificielle : soixante-cinq millions de Français importent de l'intelligence artificielle cent quatre-vingts fois par jour sur leur téléphone ! Autant dire que nous avons perdu notre souveraineté numérique.

Nous sommes à un tournant de l'humanité : tel est le slogan du patron d'Intel. Le patron de Google, Sergei Brin, affirme, quant à lui, qu'il va construire des machines qui raisonnent, pensent et feront les choses mieux que l'homme. Ça c'est de l'intelligence artificielle forte. Elon Musk, le patron de Tesla, expliquait le 2 juin dernier, dans un grand élan lyrique, qu'il était urgent de mettre des microprocesseurs dans nos cerveaux avant que l'intelligence artificielle ne nous transforme en animaux domestiques !

Cependant, nous ne sommes pas à la veille d'un HAL 9000 qui signerait la fin de l'humanité, comme dans « 2001, l'odyssée de l'espace » ! Les enjeux actuels sont des enjeux sociétaux, des enjeux de souveraineté, des enjeux économiques, liés au fait que nous sommes nuls en matière d'intelligence artificielle.

Mais l'intelligence artificielle n'est pas seule. Les GAFA et les BATX (Baidu, Alibaba, Tencent et Xiaomi) ont éclos. L'idéologie transhumaniste a fait pousser des pulsions démiurgiques, notamment dans les différentes Silicon Valleys ; ce que l'on appelle les NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives) arrivent à maturité ; la zone Asie-Pacifique est plus transgressive que nous.

Les NBIC sont des technologies exponentielles, donc très imprévisibles. L'intelligence artificielle va être gratuite en valeur relative par rapport à l'intelligence biologique. Cela a des conséquences majeures : quand un bien est gratuit, les substituts sont balayés et les complémentaires sont renchéris. Or, le travail peu qualifié est substituable, et le travail qualifié, complémentaire. La micro-économie rend ce verdict incontournable.

Si je parle de pulsions démiurgiques, c'est que la zone Asie-Pacifique se croit tout permis sur le plan biotechnologique, mais aussi sur le plan de l'intelligence artificielle. Une bonne gouvernance et une régulation internationale seront nécessaires.

Autre phénomène, la « plateformisation » : l'intelligence artificielle sort au robinet des grandes plateformes pour des raisons techniques, car il faut beaucoup de données pour la développer. Une étude récente a montré qu'un mauvais algorithme avec beaucoup de données est supérieur à un bon algorithme avec peu de données. Or les plateformes ont des milliards d'utilisateurs, il n'y a aucun équivalent en Europe, nous n'avons pas de base industrielle comparable. Bref, nous sommes tous les idiots utiles de l'intelligence artificielle, pour paraphraser Lénine qui disait que les bourgeois de gauche sont les idiots utiles de la Révolution. En effet, nous mettons chaque jour dix milliards de photos gratuitement sur la nébuleuse Facebook, Instagram, Messenger et WhatsApp afin d'améliorer l'efficacité des intelligences artificielles des plateformes.

Les technologies NBIC se développent, mais pas toutes au même rythme exponentiel : la biologie et la robotique, c'est lent. La robotique ne fera pas beaucoup bouger le marché du travail. L'intelligence artificielle sans robot va croître exponentiellement et modifiera radicalement des aspects importants du travail. En revanche, l'électronique et l'intelligence artificielle sans support mécanique et biologique vont croître beaucoup plus vite. Le COE sous-estime ce poids croissant de l'intelligence artificielle.

Allons-nous devenir une colonie numérique des GAFA ? Au-delà de l'État, la société civile et l'ensemble du tissu économique doivent comprendre que si nous n'avons pas de plateformes à l'échelle des Chinois et des Américains, nous serons le Zimbabwe de 2080 ! Nous sommes en train de perdre nos ressorts économiques. Il n'y a pas en Europe une miette d'intelligence artificielle et de technologies NBIC, qui constituent pourtant la base fondamentale de création de valeur ! Nous avons une responsabilité historique.

Il s'est créé un trou noir de valeur en faveur des algorithmes et de l'intelligence artificielle, avec un changement radical dans la structure de valeur. Traditionnellement, on avait des business verticalisés. Nissan produit des voitures, Danone des yaourts, Gaumont du cinéma et Badoit de l'eau. Aujourd'hui, nous assistons à une horizontalisation des métiers. On voit arriver des conglomérats de l'intelligence artificielle, qui font plusieurs métiers. Baidu, le Google chinois, se lance dans la voiture autonome. L'intelligence artificielle produit cette transversalité. Les cinquante-cinq petits génies de WhatsApp ont créé en quatre ans 23 milliards de dollars de valeur, soit deux fois plus que les cent trente mille ouvriers de PSA depuis un siècle. La paupérisation relative de notre population serait une certitude si nous ne prenions pas le tournant de l'intelligence artificielle !

L'intelligence artificielle induit un changement radical dans l'organisation de la fonction de production. On voit apparaître une part nouvelle de capital, l'intelligence artificielle, un déclin fort du travail et une montée en flèche de la valeur du travail très qualifié, qui est en réalité du capital, payé en actions et en stock-options. L'intelligence artificielle déstabilise le rapport relatif entre le travail et le capital, avec une nouvelle forme de capital à coût nul face au cerveau biologique. Cela ne veut pas dire que le travail va disparaître. En tant que schumpétérien de centre-gauche, je suis même persuadé que nous allons inventer de nouveaux métiers.

Quelles tâches pour quels hommes ? C'est un vrai sujet de réflexion. L'école de la République en France est extrêmement en retard, ce qui n'est pas le cas à Singapour, au Vietnam ou en Corée. La complémentarité neurone-transistor nous semble naturelle mais c'est en réalité un combat. En 2050, 100 % de ceux qui ne seront pas complémentaires de l'intelligence artificielle seront soit au chômage soit dans un emploi aidé ! Il est donc important de rénover progressivement l'école et la formation professionnelle. Ayant visité récemment des centres pour apprentis, je puis vous garantir que nous n'en prenons pas le chemin. Notre responsabilité politique est très importante, je ne suis pas sûr que nous nous en rendions bien compte. Nous vivons déjà des crises populistes, ça ne peut que s'aggraver.

Le défi posé par la complémentarité est le suivant : un robot coûte très cher, ce qui n'est pas le cas de l'intelligence artificielle, qui, de surcroît, progresse plus vite ! En outre, les robots remplacent plutôt des métiers peu qualifiés, alors que l'intelligence artificielle non fondée sur des robots peut remplacer des métiers très qualifiés. Je partage l'opinion de Yann LeCun, le patron d'une des deux branches de l'intelligence artificielle chez Facebook : l'intelligence artificielle aura dépassé les meilleurs radiologues - je me permets de le dire en tant que chirurgien, et ce n'est pas une vendetta corporatiste - avant 2030. Se pose donc un problème de reconversion qui dépasse celui des chauffeurs routiers et des emplois non qualifiés : l'intelligence artificielle rendra également nécessaire une réorientation de métiers traditionnels à haut contenu cognitif. D'ailleurs, le lien entre qualification des emplois et risque d'automatisation est beaucoup plus complexe qu'on ne l'imaginait il y a dix ans encore - mais on raisonnait en termes de robots au lieu de raisonner en termes d'intelligence artificielle !

Prenez la médecine personnalisée, qui traite chaque patient en fonction de ses caractéristiques génétiques : elle va tuer le médecin traditionnel - bien entendu, il ne s'agit que d'un raisonnement ex ante : les radiologues et les médecins rempliront de nouvelles fonctions. Le malade devient un ensemble de data et le médecin un software , ce qui n'empêche pas ce dernier d'être empathique ; le séquençage ADN représente trois milliards de bases ADN, vingt téraoctets de données brutes par malade ; chaque individu représente deux millions de mutations par rapport au génome de référence - toutes ne sont pas promesses de maladie, bien sûr -, dont l'analyse exige des ACP, des analyses en composantes principales, à huit cents millions de facteurs. Dans un tel monde, il est clair que même le Dr House, en quinze minutes de consultation, déshabillage et rhabillage compris, sera impuissant. Nous allons donc assister à un transfert de pouvoir médical vers les algorithmes, la médecine étant désormais fondée sur un big data dont l'analyse par le cerveau biologique est exclue. Cela ne veut pas dire que le cerveau biologique n'a plus sa place dans cette équation ; mais cette place est profondément transformée. Cela n'est pas sans poser problème : aucun médecin n'étant capable d'analyser vingt téraoctets de données en quinze minutes, les décisions éthiques seront implicites dans l'algorithme d'intelligence artificielle.

Quelle réponse politique peut-on apporter à cette situation ? Je regrette qu'il n'y ait pas davantage de parlementaires présents cet après-midi. Le problème est réel : vous connaissez tous cette courbe qui fait froid dans le dos, celle de l'augmentation des revenus par décile en trois décennies de mondialisation. Tout le monde en a profité, sauf le petit blanc moyennement ou peu qualifié, c'est-à-dire les classes moyennes occidentales traditionnelles, qui ont vu leurs revenus stagner, voire, dans certains pays comme les États-Unis ou l'Allemagne, baisser de 1 à 2 % sur 30 ans. Ce qui est en jeu, en l'occurrence, ce n'est pas tant l'intelligence artificielle, mais, tout simplement, la confrontation entre l'Asie et l'Europe : un docteur en génomique à Bangalore coûte, à l'heure, trois fois moins cher qu'un ouvrier spécialisé qui fait les 35 heures en région parisienne. Cette situation ne durera pas ! Nous avons là l'une des explications à l'émergence du populisme et à la « trump-brexitisation » , à laquelle personne ne s'attendait. Ce sont des réponses populistes aux angoisses. La réponse politique à ces angoisses n'a rien d'évident ; j'espère profondément que nous saurons garantir à la plupart des gens une formation professionnelle continue qui les rendra complémentaires de l'intelligence artificielle.

On nous propose aujourd'hui une utopie techno-marxiste : le revenu universel de base - je précise que le terme de « marxiste » n'est absolument pas péjoratif à mes yeux. C'est une idée absolument suicidaire. Ceux qui le promeuvent, comme M. Benoît Hamon, sont les idiots utiles d'une intelligence artificielle semi-forte. Si nous décidons de mettre de côté tous ceux qui ne sont pas complémentaires de l'intelligence artificielle en nous contentant de leur donner des jeux et du cirque, nous vivrons, dans 50 ans, Metropolis , et, dans un siècle, Matrix ! Nous devons nous battre jour et nuit, en réformant l'éducation et la formation professionnelle, pour assurer la complémentarité entre les travailleurs, quel que soit leur niveau de qualification, et l'intelligence artificielle faible. À défaut, nous ferions le choix d'un suicide collectif et ce serait de l'irresponsabilité politique et, au-delà, de l'irresponsabilité de toute la société civile. Il y a là un chantier de plusieurs décennies ; il est regrettable que les politiques, handicapés du mulot qu'ils soient, n'en prennent pas la pleine mesure.

Des contre-pouvoirs pourront-ils émerger ? Comment organiserons-nous la régulation, la gouvernance, la police de l'intelligence artificielle, faible d'abord puis semi-forte ? C'est un débat politique immense. Henri Verdier a beaucoup réfléchi sur ces questions ; je partage en grande partie sa vision. Il faut y travailler dès aujourd'hui. Ce n'est pas gagné ! De tels dispositifs fourniront, demain, des services irremplaçables à nos concitoyens - chacun a pu constater le succès immense et totalement inattendu d'« Écho » et d'« Alexa », lancés par Amazon.

On ne peut qu'être inquiet, à l'image des résultats d'un sondage récent qui montrait que 50 % des Français, et 68 % des jeunes, confieraient volontiers leurs données de santé et leur santé aux GAFA. Il faudra de la pédagogie pour organiser notre sursaut face aux GAFA et aux BATX ! Et pour réaffirmer notre souveraineté ! Il est aujourd'hui plus urgent de réfléchir à ces enjeux de souveraineté, à ces enjeux économiques, scolaires et de formation, que de fantasmer sur une intelligence artificielle forte qui, comme le dit très bien Yann LeCun, ne permet pas d'envisager un scénario à la Terminator avant 2035.

Mme Dominique Gillot, rapporteure. - Nous sommes sans voix !

M. Laurent Alexandre . - Je me suis pourtant retenu, aujourd'hui !

Mme Dominique Gillot, rapporteure. - J'étais déjà vaccinée !

Mme Marie-Claire Carrère-Gée . - Juste une précision : Laurent Alexandre estime que nous avons sous-estimé le risque pour l'emploi du développement des nouvelles technologies. Je suis évidemment moins compétente que lui dans le domaine des technologies ; je suis néanmoins frappée par tant de certitudes, dans un monde qui me paraît, à moi, très incertain, s'agissant à la fois du progrès technologique lui-même et de sa vitesse de diffusion. Le progrès technologique n'est pas un système autonome ; sa vitesse de diffusion dépend de maints facteurs : la rentabilité économique, mais aussi les choix sociaux ou éthiques. On sait depuis des années automatiser les caisses dans les supermarchés ; mais l'automatisation ne se fait pas à la minute, et n'est toujours pas accomplie. Je pense nécessaire que nous restions collectivement très humble sur les prédictions. Les citoyens et les pouvoirs publics ont leur mot à dire sur la vitesse de diffusion des progrès technologiques, lesquels sont, par ailleurs et par définition, difficilement prévisibles. J'ai exposé clairement les limites de notre étude : nous avons travaillé sur la base des frontières technologiques actuelles.

Mme Dominique Gillot, rapporteure. - Votre étude n'est nullement mise en cause.

Mme Marie-Claire Carrère-Gée . - J'ai présenté les conclusions d'une étude et non mes certitudes ; à côté de moi se trouve quelqu'un qui professe des certitudes.

M. Laurent Alexandre . - J'ai dit que le futur était imprévisible ! Je n'ai pas de certitudes.

Mme Marie-Claire Carrère-Gée . - Je sais aussi que certains ont intérêt à entretenir des idées fausses sur la vitesse de diffusion des technologies : il est plus facile de lever des fonds en promettant un progrès technologique majeur sous deux ans qu'en exprimant des incertitudes.

Mme Dominique Gillot, rapporteure . - Je me félicite d'entendre s'exprimer des avis contrastés ; c'est par le débat que nous avancerons ! J'aurais aimé que Mme la Secrétaire d'État vous entende, Monsieur Alexandre.

Je vais à présent donner la parole à M. Jean-Christophe Baillie. À la suite de vos études, vous êtes devenu, Monsieur Baillie, chercheur en intelligence artificielle au Sony Computer Science Lab , puis vous avez participé à différents projets d'entreprise liés à l'intelligence artificielle et à la robotique comme GoStyle ou Aldebaran . Vous êtes aujourd'hui à la tête de votre propre entreprise, Novaquark .

4. M. Jean-Christophe Baillie, entrepreneur (Novaquark)

Laurent Alexandre vient de présenter un grand nombre des points dont je souhaitais traiter. Je vais tenter d'ouvrir des perspectives.

Loin de moi toute certitude sur ces sujets ; ce qui me semble intéressant, c'est de lancer des idées, des questions, des points de vue. Je voudrais notamment débattre de l'« utopie techno-marxiste » dont parlait Laurent Alexandre.

Il faut distinguer entre intelligence artificielle forte et intelligence artificielle faible. J'ai récemment écrit un article au titre provocateur, intitulé « Pourquoi AlphaGo n'est pas de l'intelligence artificielle », dans lequel j'appuie cette distinction. L'intelligence artificielle faible, ou ce que certains appelleraient l'informatique avancée, correspond à ce que nous savons faire aujourd'hui : opportunité économique incroyable au potentiel énorme, elle affectera assurément le marché du travail, mais selon une dynamique assez classique de destruction et de création d'emplois, donc sans bouleverser en profondeur le marché du travail comme pourrait le faire l'intelligence artificielle forte. L'un des défis que nous ne savons pour le moment pas du tout relever, c'est celui de l'interaction sociale pertinente, douée de sens, avec d'autres individus, dans un environnement complexe. Les agents d'entretien que je croise le matin accomplissent un travail d'une complexité ahurissante ; les gestes qu'ils effectuent paraissent évidents, mais les problèmes qu'ils résolvent résistent absolument à la robotique, ce domaine qui se frotte à la complexité du réel et, en effet, ne progresse pas de manière exponentielle.

Appelons cela l'intelligence artificielle forte. L'intelligence artificielle connaîtra sans doute un stade intermédiaire avant que nous soyons capables de créer une conscience artificielle. Je pense néanmoins que nous pouvons arriver jusque-là, mais je suis incapable de donner une date - ceux qui se prêtent à ce jeu pratiquent un exercice périlleux ! Des avancées scientifiques profondes sont nécessaires : il y va de l'élaboration d'une véritable théorie de l'intelligence, rien de moins. Et nous ne savons pas s'il y en a pour dix ou pour cent ans ! Dire le contraire, c'est prétendre qu'il eût été possible de prévoir dès le XIX e siècle que la théorie de la relativité serait un jour formulée. On ne peut prédire l'émergence d'une idée nouvelle.

Quoi qu'il en soit, le jour où l'on en viendra à une intelligence artificielle forte, on assistera à une modification profonde du marché du travail : les machines que nous fabriquerions seraient capables d'exercer y compris des métiers manuels, grand défi de l'intelligence artificielle.

On peut y voir une catastrophe, la promesse d'une explosion du taux de chômage. Mais ne serait-ce pas là, plutôt, une opportunité pour repenser l'organisation de la société ? Aujourd'hui, notre société est crispée sur la notion de travail, dès l'école. Nous sommes invités, dès l'enfance, à apporter notre pierre à l'édifice commun en trouvant notre place sur le marché du travail. En l'absence de robots, nous n'avons pas le choix ! Quelqu'un doit bien faire le travail, extrêmement important, de l'agent d'entretien. Nous avons besoin d'une société qui valorise le travail et qui, par exemple, à supposer qu'elle mette en place un revenu universel, doit l'établir à un niveau intenable, indécent : si ce niveau est fixé à 2 000 euros, qui acceptera de faire le travail d'entretien dont je parlais chaque matin ?

Pour les besoins de la discussion, on pourrait introduire une distinction entre travail et activité : le travail, c'est ce que vous faites pour subvenir à vos besoins, et que vous arrêtez de faire si vous gagnez au loto - c'est ce que feraient la plupart des agents d'entretien. Par contraste, on peut introduire la notion d'activité : ce que vous aimez faire par passion - si vous gagnez au loto, vous continuez à le faire. Songez, de ce point de vue, à une société dans laquelle la robotique et l'intelligence artificielle forte mettraient fin au travail et autoriseraient la mise en place d'un revenu universel décent, non contradictoire avec la nécessité que les travaux que j'évoquais soient effectués. Dans cette société sans travail, les robots accomplissent ces tâches dont personne, en réalité, ne veut.

Cette société de l'activité ne serait pas une société de l'oisiveté ; simplement, les gens y seraient pleinement libres de décider de l'organisation de leur temps, et y compris, d'ailleurs, de ne rien faire, ou de passer leur vie à la plage en lisant La Pléiade. Une telle activité ne ferait l'objet d'aucune stigmatisation, au contraire de ce qui se passe aujourd'hui, dans une société du travail - une société d'avant l'intelligence artificielle forte -, qui doit inscrire dans sa logique la nécessité de travailler - le chômage, c'est mal ! Une autre logique sociale est imaginable.

Le point clé de cette vision utopique, c'est évidemment l'éducation : il s'agirait de créer des citoyens capables de jouir réellement de ce temps et de cette liberté. Nous n'en sommes pas là ! Si, du jour au lendemain, une grande partie de nos concitoyens étaient mis au « chômage », je ne suis pas certain que les choses se passeraient bien. Il faudra donc créer, via l'éducation, un terreau où seront cultivées d'autres valeurs et d'autres visions de la société, ouvrant, à très long terme, une nouvelle ère pour l'humanité.

Pour l'heure, on en reste toujours à l'équation « intelligence artificielle forte égale chômage et fin du travail ». C'est mal, dit-on ! Certes, dans la société d'aujourd'hui ; mais il est possible d'imaginer une société différente.

Mme Dominique Gillot, rapporteure . - Que faites-vous de la dignité sociale, de l'utilité sociale ?

M. Jean-Christophe Baillie . - Il existe certes un besoin communément partagé de se sentir utile ; mais un tel besoin peut très bien se réaliser dans une activité librement choisie, par contraste avec un travail pénible que vous ne pouvez librement abandonner, et qui s'apparente à une privation de liberté. Je ne prône absolument pas l'idée d'une oisiveté généralisée ! J'introduis l'idée d'une activité librement choisie, en accord avec des passions et des intérêts, en un sens très large, nourris par l'éducation : sport, art, culture, accompagnement des personnes âgées par exemple.

M. Laurent Alexandre . - Les robots le feront mieux que nous !

M. Jean-Christophe Baillie . - Je n'en suis pas sûr ! L'idée que le travail serait nécessairement bénéfique au motif qu'il donnerait aux gens une utilité est une erreur de logique.

M. Gilles Dowek . - Ce désir d'utilité sociale est une invention du XIX e siècle ! C'est une construction sociale. Casanova n'est utile à rien ; il n'en est pas du tout malheureux.

Mme Dominique Gillot, rapporteure . - Je vais à présent donner la parole à M. Jean-Claude Heudin. Enseignant-chercheur, vous avez, dans les années 1990, co-fondé une société spécialisée en intelligence artificielle. Vous avez été expert auprès de l'Union européenne et conseiller scientifique pour la Cité des sciences. Surtout, vous êtes, depuis de nombreuses années, directeur de l'Institut de l'Internet et du multimédia, placé au sein du pôle universitaire Léonard-de-Vinci. Vous avez publié de nombreux ouvrages et vous vous intéressez aux questions politiques et sociétales que pose l'irruption des machines intelligentes.

5. M. Jean-Claude Heudin, directeur de l'Institut de l'Internet et du multimédia

Je vais répéter des choses qui ont déjà été dites ce matin et cet après-midi ; mais il existe un algorithme, en intelligence artificielle, qui s'appelle l'« apprentissage par renforcement ». Je vais donc modestement tenter de renforcer quelques points.

Ma présentation s'articulera autour d'une idée simple : dans un contexte historiquement très anxiogène, où il se dit beaucoup de choses sur l'intelligence artificielle, notre priorité devrait principalement aller à l'éducation et à la formation. Le grand public est pour l'essentiel informé par les blockbusters américains, qui véhiculent une vision de l'intelligence artificielle complètement déformée, très alarmiste. En tant que praticien de l'intelligence artificielle, je peux vous dire que la réalité, dans les laboratoires, est beaucoup plus laborieuse ! Je vais donc m'efforcer de remettre de la mesure dans ces débats.

L'intelligence artificielle est une petite partie de l'informatique. Ce dont nous avons parlé aujourd'hui à ce titre renvoie en réalité au deep-learning , qui correspond à de spectaculaires progrès récents, mais ne représente que la partie émergée de l'iceberg. Que s'est-il réellement passé depuis 2013 ? Nous connaissons un nouvel « été torride » autour de l'intelligence artificielle et, plus spécifiquement, du deep-learning . Avant 2013, nous savions construire des applications à partir des réseaux de neurones, mais les résultats n'étaient pas bons - le taux de réussite, s'agissant de la reconnaissance d'une image de chat, par exemple, n'était que de 50 %.

En 2013 se sont conjugués trois facteurs. D'abord, un peu par hasard, une équipe de chercheurs canadiens a réussi à initialiser des réseaux multicouches, ou « réseaux profonds ». Le deuxième facteur est l'accès aux données, qui explique l'avantage des GAFA, lesquels possèdent de très nombreuses données - des algorithmes, même médiocres, alimentés de beaucoup de données se révèlent bien meilleurs que de très bons algorithmes dont les données seraient plus pauvres. Troisième facteur : la capacité de calcul des cartes graphiques GPU. Résultat : on sait aujourd'hui construire des systèmes dont les taux de réussite sont voisins de 100 %.

Qu'est-ce que cela change ? Auparavant, pour aborder des problèmes complexes et automatiser la réponse à de tels problèmes, il fallait construire des modèles. Désormais, si l'on dispose des données, on peut les faire apprendre à la machine. De nombreux domaines en sont affectés - je pense à la voiture autonome, aux assistants personnels dans le secteur du commerce et des relations clients, à la santé, à la robotique.

Je reviens sur la distinction entre intelligence artificielle faible et forte, qui me semble un peu légère. Je préfère définir six niveaux : l'intelligence sous-humaine pour des tâches spécifiques - la grande majorité des systèmes conçus actuellement, même dans le cadre du deep-learning , reste sous-humaine, y compris la reconnaissance vocale ; une intelligence équivalente à celle de l'humain, pour des tâches spécifiques toujours ; un troisième niveau, supérieur à la plupart des intelligence humaines, à nouveau pour des tâches spécifiques - c'est le stade où nous en sommes avec un logiciel comme AlphaGo ; l'intelligence supérieure à toute intelligence humaine pour des tâches spécifiques, qui nous fait entrer dans l'utopie ; un cinquième niveau supérieur à l'intelligence humaine pour une majorité de tâches - ce n'est pas demain la veille, loin s'en faut ; enfin, l'intelligence artificielle ultime, dystopie ou utopie - pour moi, c'est jamais !

Est-ce un danger pour l'emploi ? Au contraire, rien n'est moins sûr. Nous sommes seulement capables, aujourd'hui, d'établir des corrélations ; en tout état de cause, les pays les plus robotisés ont les taux de chômage les plus bas. Les études se contredisent parfois. Seule certitude : le raisonnement en termes d'emplois détruits et d'emplois créés est binaire, mais l'intelligence artificielle modifie en profondeur un nombre croissant de métiers.

Je précise que la solution n'est de toute façon pas une nouvelle taxe. Ce n'est certainement pas en mettant un boulet aux pieds de nos entreprises et de nos start-up que nous améliorerons notre compétitivité. J'espère ne pas être d'accord avec Laurent Alexandre lorsqu'il dit que nous avons déjà perdu la bataille ! Je suis un indécrottable optimiste : j'ai encore un espoir.

M. Laurent Alexandre . - Je n'ai pas dit que c'était perdu ! J'ai dit que c'était « ric-rac », et qu'il y avait le feu au lac !

M. Jean-Claude Heudin . - Il y a au moins un point de désaccord entre nous : l'intelligence artificielle est un atout français. Certes, Yann LeCun est parti chez Facebook mais la recherche française est de tout premier plan, des entreprises dynamiques existent ; il faut de toutes nos forces les encourager, car les enjeux sont réels.

Il existe néanmoins un déficit d'information du grand public ; les informations qui circulent sont très anxiogènes. Je fais presque une conférence par semaine pour tenter d'évangéliser, de rassurer le public et de démystifier le sujet. Un effort est nécessaire au niveau des formations. Les formations de l'enseignement supérieur ménagent très peu de place à l'intelligence artificielle, ne serait-ce qu'une initiation à ses enjeux. Quelques écoles le font, mais elles sont très peu nombreuses - et je ne parle pas des universités. Et les applications de l'intelligence artificielle dans l'enseignement sont malheureusement quasi inexistantes.

Pour paraphraser Michel Serres, notre société connaît une complexification extrême ; nous allons avoir besoin de toutes les intelligences pour relever les grands défis qui vont se présenter à nous. L'intelligence artificielle doit augmenter notre intelligence, et non la remplacer. Je refuse le vieux démon, qui remonte aux Grecs, de l'annihilation du travail au profit d'une société du loisir. Le travail est très structurant ! J'aime la métaphore de l'intelligence artificielle comme « troisième hémisphère » de notre cerveau biologique. Elle est indispensable pour la résolution de problèmes complexes qui, aujourd'hui, dépassent notre intelligence biologique. La réflexion éthique, en la matière, est absolument indispensable.

Mme Dominique Gillot, rapporteure . - Vous venez de recentrer notre débat sur la question, déjà abordée ce matin, de l'éducation et de l'information du public, de la construction d'une opinion éclairée.

Je vous pose une question avant de lancer le débat. Quels sont vos liens avec les médias ? Des journalistes spécialisés travaillent-ils sur ce sujet ?

M. Jean-Christophe Heudin . - Je suis un habitué de « La Tête au carré », sur France Inter. Certains médias, heureusement, font leur travail ! Mais ces sujets restent anxiogènes pour le grand public. Dans l'enseignement supérieur, et même dans les grandes écoles de commerce, très peu de choses sont organisées sur cette question. Il est pourtant indispensable que les jeunes comprennent l'impact de ces technologies sur leurs futurs emplois. Je le dis souvent : à l'ère des données, du temps réel, de l'analyse prédictive, le marketing à la papa est mort.

Mme Dominique Gillot, rapporteure . - Ces derniers mois, nous constatons néanmoins une prise de conscience sur la nécessité d'échanger autour de ces questions : des conférences et des rencontres, comme celle d'aujourd'hui, sont organisées.

6. Débat

M. Jean Ponce . - Je suis enseignant-chercheur. Je ne suis ni économiste, ni politique, ni futuriste - Dieu m'en préserve ! Je voudrais réagir à certaines déclarations péremptoires de M. Alexandre. On ne peut les laisser passer. À entendre qu'il vaut mieux de mauvais algorithmes et de bonnes données, Yann LeCun, que je connais bien, et qui est le pape de ces questions, frémirait ! Ce n'est tout simplement pas vrai.

Je frémis également en entendant dire que la France est un pays du tiers-monde dans ce domaine, ou que la robotique ne décolle pas à cause de son coût. Ce n'est pas vrai - pensez à la voiture autonome ! Je donne quelques exemples concrets d'investissements qui sont réalisés actuellement dans le domaine de la robotique : Dyson, le fabricant d'aspirateurs, vient d'investir cinq millions de livres dans un laboratoire de l' Imperial College de Londres ; Foxconn s'apprête à installer 50 000 robots en Chine ; Toyota a investi 50 milliards de dollars au titre de la recherche en robotique dans la Silicon Valley ; le gouvernement américain vient de déployer 250 millions de dollars dans un partenariat public-privé sur ce sujet, à Pittsburgh. Le plus grand succès public en matière de robotique est le robot Roomba , ce petit aspirateur qui coûte 100 euros. L'histoire des robots chers qui ne décollent pas, c'est un mythe ! Même chose pour l'intelligence artificielle forte. Il faut faire un petit peu attention à ce qu'on dit.

J'ai apprécié l'intervention de Jean-Claude Heudin ; je reviens simplement sur un détail technique : il est faux de dire qu'en 2013 a été découvert un moyen d'initialiser des réseaux de neurones. On a simplement déployé davantage de données via d'importantes capacités de calcul.

M. Jean-Claude Heudin . - Nous pourrons en discuter !

M. Jean Ponce . - Aujourd'hui, nous ne disposons d'aucune explication théorique des raisons pour lesquelles les réseaux de neurones fonctionnent, c'est-à-dire donnent, dans un certain nombre de domaines, d'excellents résultats.

M. Laurent Alexandre . - J'ai été mal compris. Je n'ai pas dit qu'il n'existait pas de potentiel économique et technologique, en France, dans ces domaines ! J'ai dit que nous étions importateurs nets et massifs. C'est incontestable ! La balance de ce que nous importons et de ce que nous exportons, en matière d'intelligence artificielle, est totalement déséquilibrée. Android est propriété de Google ; iOS , d'Apple. Ce sont deux sociétés californiennes, et 99 % de l'intelligence artificielle consommée en France arrive à travers ces deux plateformes.

M. Jean Ponce . - Android est un système d'exploitation ; pour autant que je sache, ça n'a rien à voir avec de l'intelligence artificielle.

M. Laurent Alexandre . - Les applications qu'on utilise tous les jours passent par ces deux plateformes. C'est de l'intelligence artificielle, même si les gens ne l'y rattachent pas spontanément ! Nous sommes importateurs nets d'intelligence artificielle.

Sur la robotique, je n'ai pas été compris. Je n'ai pas dit qu'on ne faisait pas de progrès en robotique. Mais un investissement de 250 millions de dollars, c'est très peu, par comparaison avec les GAFA et l'intelligence artificielle, où les sommes se comptent en dizaines de milliards de dollars. J'ai simplement dit que les progrès, s'agissant de la partie mécanique des robots, étaient moins exponentiels que ceux qui concernent la partie relevant de l'intelligence artificielle. Car, en termes de coûts, dans un robot, il y a plus de mécanique que d'intelligence artificielle et leur taux de croissance en est donc diminué d'autant. Le prix des pièces mécaniques en titane ne diminue pas de 50 % tous les douze mois.

M. Jean Ponce . - Vous plaisantez ! Le fait de parler de pièces mécaniques en titane n'est pas un argument. Je ne mets en doute ni votre enthousiasme, ni votre rhétorique, ni vos connaissances, mais c'est un mauvais argument !

M. Laurent Alexandre . - Il y a des métaux rares dans les robots. Prenons le cas d'Atlas. La robotique, parce qu'elle est en partie mécanique, croît moins vite que ce qui est purement immatériel. En termes de coûts relatifs, c'est évident. La partie mécanique ne suit pas la loi de Moore.

Mme Laurence Devillers . - Votre vision est très restrictive ! Le champ de la robotique est très large. Certains domaines de la robotique se développent plus vite que d'autres.

M. Jean Ponce . - La loi de Moore s'applique uniquement à des aspects mécaniques puisqu'il s'agit des circuits. Elle ne s'applique absolument pas au développement de l'intelligence artificielle, ni, d'ailleurs, à la fabrication électromécanique du robot.

M. Jean-Christophe Heudin . - Gordon Moore est le premier à dire que sa loi ne s'applique pas à l'intelligence artificielle.

D'une manière générale, je suis très réservé dès qu'on parle d'exponentielle. Pour reprendre les termes de Stephen J. Gould, je pense que l'histoire des découvertes scientifiques et technologiques relève plutôt de la théorie des « équilibres ponctués », avec de longues phases de tâtonnement et de soudaines avancées.

M. Jean-Daniel Kant . - Je voudrais revenir sur le thème de l'impact de l'intelligence artificielle sur l'emploi. Il faut être très prudent sur les projections. La question est complexe, et ceux qui assènent des tendances définitives à vingt ou trente ans prennent le risque de se tromper.

Les observations ne donnent aucun résultat clair. Ce sont, disent certains, les emplois peu qualifiés qui seront touchés ; d'autres leur rétorquent que ce sont plutôt les emplois intermédiaires qui sont menacés par l'automatisation, ce que semble confirmer l'exemple californien. En l'absence d'une intelligence artificielle forte, comme l'a dit Jean-Christophe Baillie, il faut des gens pour entretenir les jardins, garder les enfants ou faire le ménage.

Je compte étudier cette question scientifiquement en utilisant les techniques de simulation avec des systèmes multi-agents, dont j'ai parlé ce matin. Seule certitude : ça va transformer l'emploi - de quelle façon ? On ne sait pas - et il faudra reposer la question de la place du travail dans la société. Ce n'est pas rien.

M. Benoît Le Blanc . - Je voudrais apporter trois remarques sur le débat en cours. L'intelligence artificielle donne lieu à de considérables investissements financiers, c'est indéniable. Mais comment savoir s'il ne s'agit pas d'une bulle ? Cette dynamique n'est-elle pas simplement due au fait que certaines personnes ont beaucoup d'argent disponible ? On ne sait pas ce que ça va donner !

Par ailleurs, s'agissant du rapport qu'ils entretiennent avec le travail, des notions de carrière ou d'investissement personnel, les jeunes ont des réactions très inattendues. Ce sont eux qu'il faudrait interroger sur l'évolution du marché du travail.

Enfin, on parle beaucoup, ici, d'exponentielle. La cognition humaine a beaucoup de mal à appréhender certains concepts mathématiques, comme l'exponentielle, mais aussi, par exemple, les notions liées aux faux positifs et aux faux négatifs. Ces choses-là n'existent pas dans la nature !

M. Olivier Guillaume . - S'agissant des supermarchés sans caisses, les technologies sont en train d'être mises au point. Elles seront utilisables rapidement. Monsieur Alexandre, vous avez dit que l'intelligence artificielle serait meilleure que les radiologues d'ici à 2030, soit dans treize ans ; mais ce sera le cas, d'ores et déjà, dans trois mois, pour le dépistage des cellules cancéreuses, notamment. Nous travaillons sur ce sujet actuellement.

Mme Dominique Gillot, rapporteure . - Ça ne veut pas dire que nous n'aurons plus besoin de radiologues ou de médecins !

M. Laurent Alexandre . - Ce n'est pas ce que j'ai dit.

M. Henri Verdier . - Nous avons beaucoup parlé du travail, je ne pensais pas que nous en parlerions autant. Je le pense depuis longtemps : la révolution numérique sera une révolution organisationnelle et managériale ou ne sera pas. Pendant un siècle, une pulsion de robotisation du travail s'est imposée : obéissance érigée en principe cardinal, instructions très claires et non ambiguës, respect des plans et de la gouvernance, etc. Si le travail consiste à exécuter la pensée d'un comité exécutif, il est robotisable, ou « intelligence-artificialisable ».

Mais si le travail, comme dans la recherche, comme dans les start-up, comme en politique, signifie plutôt l'engagement, la détermination, la créativité, alors il est loin d'être menacé par l'intelligence artificielle. Certaines philosophies du management et de l'organisation du travail seront davantage menacées de substitution que celles qui tirent parti du meilleur des humains.

Mme Marie-Claire Carrère-Gée . - Je partage entièrement ce point de vue. Au Conseil d'orientation pour l'emploi, nous travaillons sur l'impact quantitatif et qualitatif du développement de l'intelligence artificielle sur l'emploi, mais aussi sur l'organisation du travail et les conditions de travail - ce sera l'objet du second tome. À quelles conditions la nouvelle vague de progrès technologique est-elle de nature à rendre l'activité ou le travail humains plus riche et moins pénible ?

M. Laurent Alexandre . - L'impact sera très hétérogène en fonction des secteurs. Mais l'avenir est très difficile à prédire en matière d'intelligence artificielle - n'oublions pas que nous avons connu deux ou trois « hivers » de l'intelligence artificielle, pendant lesquels nous avons fait très peu de progrès.

Certaines tâches nous semblent très complexes, comme l'analyse d'un scanner, mais se révèlent relativement faciles à automatiser. S'agissant du diagnostic du cancer du sein, le radiologue est déjà égalé, voire dépassé. L'échéance de 2030, dont je parlais tout à l'heure, c'est la date à laquelle il est imaginable que le radiologue soit dépassé par l'intelligence artificielle pour tout type d'examen radiologique. Cet horizon est relativement court pour une spécialité qui ne s'imaginait pas du tout menacée il y a dix ans.

Quant à l'intelligence artificielle forte, je n'y crois pas avant plusieurs siècles. Je vous incite à lire un magnifique papier du New York Times du 29 juillet 1997, après la victoire de l'ordinateur sur Kasparov aux échecs. Le journaliste interroge un spécialiste de l'intelligence artificielle : « Les échecs, c'est très facile ! Le vrai défi, c'est le jeu de Go ; en la matière, je vous le dis, l'ordinateur ne saura pas jouer avant 100 ou 200 ans ! ». Comme vous le savez, il y a 6 mois, Lee Sedol, le champion du monde de jeu de go, a été écrabouillé par le programme informatique.

Mme Marie-Claire Carrère-Gée . - Des erreurs de prédiction se sont produites dans l'autre sens !

M. Laurent Alexandre . - Certes !

Mme Laurence Devillers . - La comparaison est nulle et non avenue : on compare un humain avec une machine ; mais derrière la machine se trouvent cent ingénieurs au travail !

M. Henri Verdier . - Le couple humain-machine bat toutes les machines et tous les humains ; cela donne des parties bien plus intéressantes !

Mme Dominique Gillot, rapporteure. - Nous sommes d'accord !

M. Stéphane Pelletier . - Ce sujet est extrêmement complexe, voire insaisissable. Je suis le fondateur de Dreamstarter , une plateforme web qui a pour objectif de faire sortir la santé et l'alimentation des sphères spéculatives.

Je rebondis sur le thème de la santé. Nous discutons d'intelligence artificielle ; l'objectif de ces débats est de dégager une orientation réaliste, dans un monde extrêmement incertain. Des talents existent, qui essaient de convaincre les citoyens, à défaut des pouvoirs publics, du bien-fondé de leurs études ; je pense notamment à celles du professeur Benveniste, qui ont été reprises par le professeur Montagnier, sur la mémoire de l'eau. Au lieu de faire des supputations sur ce qu'il adviendra dans deux cents ans, peut-être pourrions-nous mieux considérer ceux qui proposent des approches pionnières et avant-gardistes.

Mme Dominique Gillot, rapporteure. - L'un n'empêche pas l'autre.

M. Stéphane Pelletier . - Sur l'intelligence artificielle, nous devons réussir à déterminer une orientation réaliste et consensuelle. Je souhaiterais que le citoyen soit au coeur des démarches proposées.

Mme Dominique Gillot, rapporteure . - C'est l'un des enjeux de cette journée !

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page