IV. AUDITIONS DU 24 NOVEMBRE 2016

1. Mme Flora Fischer, chargée de programme de recherche au CIGREF, Club informatique des grandes entreprises françaises, pilote du groupe de travail sur l'intelligence artificielle en entreprise

Le CIGREF est une association de grandes entreprises françaises créée en 1970, qui regroupe cent quarante grandes entreprises et organismes français de tous secteurs d'activité. Le CIGREF s'est donné comme mission d e développer la capacité des grandes entreprises à intégrer et à maîtriser le numérique . La gouvernance du CIGREF est assurée par quinze administrateurs et une petite équipe de permanents qui animent des groupes de travail, avec pour sujet l'innovation, la transformation des ressources humaines, la blockchain , etc. Le Cercle Intelligence Artificielle s'inscrit dans cette perspective. Initiative datant de 2015, la création du Cercle Intelligence Artificielle au CIGREF est le fruit de la concertation du président du CIGREF, M. Pascal Buffard, également président d' Axa Technology Services , et M e Alain Bensoussan. Cette initiative Cercle Intelligence Artificielle n'incluait que des entreprises « utilisatrices », ce qui exclut les fournisseurs et éditeurs de solutions logicielles du Cercle. Cependant, il fut ouvert à des acteurs extérieurs - jeunes pousses, des experts, des consultants, etc. - afin d'apporter une expertise que les entreprises utilisatrices n'ont pas forcément toutes sur ce sujet . En septembre 2016, dans le prolongement d'un colloque, le CIGREF a publié un livre blanc intitulé « Gouvernance de l'intelligence artificielle dans les grandes entreprises : enjeux managériaux, juridiques et éthiques » en partenariat avec le cabinet Alain Bensoussan Avocats.

Le sujet de l'intelligence artificielle demeure très prospectif : les entreprises viennent au Cercle Intelligence Artificielle principalement pour se nourrir d'informations. Le Cercle Intelligence Artificielle fournit des recommandations, qui se rattachent à trois métiers du CIGREF : l'intelligence, qui consiste à rassembler tous les savoirs des entreprises ; l'influence, qui permet au CIGREF de partager les convictions de ses entreprises membres à son écosystème ; et l'appartenance, qui repose sur les directeurs des systèmes informatiques qui doivent s'approprier ces sujets et les porter au sein de leurs entreprises.

Ce Cercle a, grâce à l'appui juridique de M e Bensoussan, une orientation très sociétale. Le CIGREF doit également prendre en compte un enjeu managérial. Certaines entreprises étaient plus matures que les autres sur le sujet de l'intelligence artificielle, et avaient déjà des propositions fortes . Par ailleurs, l'équipe de prospective d'une entreprise a soulevé au niveau du management le problème du risque de la fracture d'intelligence dans les entreprises.

Dans la perspective du CIGREF, la préoccupation majeure est celle de la transformation du management , en premier lieu, et ensuite celle des usages . En ce sens, Bernard Georges 84 ( * ) a affirmé que, pour éviter la fracture intelligente qui suivrait la fracture numérique , et pour que les entreprises ne se retrouvent pas en incapacité d'intégrer ces outils, il faudrait que l'entreprise s'ouvre de manière plus fluide à tout ce qui est en mouvement autour d'elle et qui génère de la disruption . Dans le schéma pyramidal et rigide des entreprises, le bas de la pyramide, en contact avec le terrain, peut s'ouvrir sur l'écosystème, tout comme le haut de la pyramide qui est en contact constant avec son environnement ; cependant, le milieu de la pyramide, qui gère beaucoup d'équipes centrales, a en quelque sort pour habitude que les règles ne changent pas et ne peut donc pas s'ouvrir. Il y a un véritable enjeu de « fractalisation » 85 ( * ) des organisations.

L'utilisation de l'intelligence artificielle ne peut être développée et appropriée au sein des entreprises de manière isolée ; il faut fonctionner entre communautés . Les entreprises doivent entrer soit en collaboration, soit en « co-pétition », car toutes les entreprises ont besoin et tirent un avantage des données des autres. L'intelligence artificielle repose sur l' open source et l' open data ; il y a donc un enjeu d'ouverture qui est très compliqué à aborder dans les grandes entreprises , pour des questions culturelles, de rigidité, et de pouvoir. Dans cette perspective, sur initiative de leur directeur des données ( CDO - Chief Data Director ), la MAIF tente de convoquer un maximum d'expertise et de disciplines différentes afin d'aborder le sujet de l'intelligence artificielle, dans l'optique de mettre en place un comité consultatif d'éthique sur la politique liée à l'intelligence artificielle.

Une entreprise a également intégré la dimension sociétale de l'intelligence artificielle dans les scénarios prospectifs élaborés sur ce sujet, notamment sur le type d'emplois qui seront impactés par l'intelligence artificielle, sur son acceptation sociétale, etc. Dans un premier scénario, les entreprises resteraient très méfiantes du fait de l'impact conséquent de l'intelligence artificielle sur l'emploi. Un autre scénario prévoit qu'une relation d'empathie se serait développée à l'égard des machines, en considérant que ce ne sont plus des contraintes comme cela pouvait être le cas avec l'informatique qui a contraint les relations lors de son introduction dans les entreprises. Contrairement à l'informatique, l'intelligence artificielle nous amène de plus en plus vers des interfaces naturelles, qui visent à fluidifier son usage en limitant notamment le nombre d'opérations à faire (par exemple, grâce à l'échange vocal avec un bot ) ; l'intelligence artificielle se fonde sur l'interaction.

Le CIGREF met en avant également l'éthique by design , en s'inspirant du concept de privacy by design . L'éthique by design consiste à prendre en considération le plus en amont possible de la conception, et dans le suivi d'une innovation technologique, les questions éthiques et les questions d'acceptabilité sociales. Cela suppose d'intégrer des valeurs éthiques dans la conception même des outils numériques (applications, code informatique...).

Il existe un sous-champ de recherche de l'éthique de la technologie, la moral ethics , qui s'intéresse à la théorie des agents artificiels. Cette théorie consiste à chercher la manière dont peuvent être implémentés des principes éthiques chez des agents intelligents qui agiront de manière autonome. De nombreuses expériences sont menées afin de voir si une machine pouvait se comporter de manière éthique d'un point de vue humain.

L'éthique by design comprend deux aspects. Le premier aspect est la mission éthique a priori , à effectuer en amont, car les technologies ne sont pas neutres, et il faut donc expliciter les choix faits lors de la programmation d'un algorithme . Le second aspect est la mission éthique a posteriori , dans le suivi, avec l'apprentissage d'une intelligence artificielle . Si la recherche parvient à inventer des systèmes d'apprentissage automatique ( machine learning ), ce vers quoi les chercheurs se dirigent petit à petit, il sera important de contrôler régulièrement comment une intelligence apprend et comment elle modélise à partir des données qu'elle a elle-même récoltées et analysées. Cependant, il n'est pas possible d'accéder à tous les niveaux de détails du processus d'apprentissage profond et automatique d'une intelligence artificielle.

L'éthique by design considère l'intelligence artificielle comme une substance active, à l'image d'un médicament, et implique donc de procéder de la même manière que pour la mise en vente d'un médicament, c'est-à-dire en appliquant de nombreuses séries de tests sur l'usage et l'interaction avec l'environnement de l'intelligence artificielle avant toute mise sur le marché.

Les entreprises demeurent très prudentes sur l' open data , davantage encore que pour l'open source . Les entreprises publiques ont plus de facilité à engager des initiatives d' open data , car la menée de ce type d'initiatives au sein d'entreprises privées sera confrontée à des questions de protection des affaires et de confidentialité de l'information patrimoniale. Tant que les entreprises ne seront pas matures en ce qui concerne le traitement et la valorisation des données, il sera compliqué pour elles de l'être pour l'intelligence artificielle.

Pour conclure, dans son rapport « Gouvernance de l'intelligence artificielle dans les entreprises » , le CIGREF effectue plusieurs recommandations visant le développement de l'utilisation de l'intelligence artificielle dans les entreprises. Le CIGREF recommande tout d'abord d'allouer des budgets et des ressources pour l'intelligence artificielle dans les entreprises. Il est également recommandé de développer le travail de prospective, en développant des scénarios qui permettent d'orienter les stratégies.

Viennent ensuite deux enjeux essentiels. Tout d'abord, l'enjeu opérationnel d'anticipation de la transformation des infrastructures de technologies de l'information ( IT ), en passant d'architectures séquentielles à des architectures parallèles. Ensuite se pose un enjeu commercial : grâce au rôle du directeur des données, l'entreprise doit réussir à faire travailler les infrastructures technologiques de base avec les métiers afin de pouvoir répondre à des enjeux commerciaux. Enfin, les entreprises doivent attirer et valoriser les talents.

2. M. Max Dauchet, professeur émérite à l'Université de Lille, président de la Commission de Réflexion sur l'Éthique de la Recherche en sciences et technologies du numérique (CERNA) d'Allistene, alliance des sciences et technologies du numérique

La CERNA ambitionnerait que les débats autour du numérique aient le même statut social que les débats sur la santé, car le numérique concerne l'avenir de l'humain de la même façon. La CERNA a été créée il y a quatre ans maintenant par Allistene (alliance des sciences et technologies du numérique) : comme le CNRS et Inria pensaient qu'il était nécessaire de mener une réflexion éthique spécifique au numérique, ils ont préféré former une commission unique au sein d'Allistene.

La CERNA est saisie ou s'autosaisit de sujets d'éthiques de la recherche en sciences et technologies du numérique. Comme la recherche est grandement liée aux usages, sachant à quelle vitesse les usages se propagent dans la société qui s'en empare, la CERNA a décidé de s'orienter vers la contribution du chercheur à tous les débats.

Actuellement, l'intelligence artificielle fait peur. C'est une peur qui est peut-être en partie orchestrée ; mais si vous voyez les déclarations faites dans la presse , elles sont soit alarmistes, soit d'une opacité rassurante dans le style « ne vous inquiétez pas, on s'en occupe » . Je souhaiterais vous faire partager quelques réflexions personnelles à partir de l'actualité.

Le 24 octobre 2016, MM. Martin Abadi et David G. Andersen, deux chercheurs de Google Brain ( le programme de recherche en intelligence artificielle de Google), ont publié un article dans lequel ils expliquent comment deux réseaux de neurones apprennent à communiquer entre eux en secret d'un troisième réseau de neurones. L'expérience menée par ces deux chercheurs est une piste scientifique intéressante, et ne soulève rien d'inquiétant en termes d'intelligence artificielle. Cependant, le fait que l'on ne parle de l'intelligence artificielle seulement lors d'accélérations médiatisées de la recherche peut contribuer à susciter l'inquiétude . La première chose à faire est de former les enseignants au numérique.

Il y a, en outre, des plateformes et des outils sur Internet qui permettent à une intelligence artificielle d'apprendre à optimiser, par exemple, le débit d'arrosage de votre jardin. Il existe des détenteurs de capitaux aux États-Unis qui se présentent ouvertement comme activistes et philanthropes tout en encourageant le développement des outils d'intelligence artificielle permettant aux gens de les prendre en main. Ces plateformes restent cependant en langue anglaise.

Il est possible d'observer, dans le cadre du développement de l'intelligence artificielle, une double fracture : une fracture numérique, et une fracture de la langue . Il apparaît donc essentiel de développer une plateforme ayant recours à l'intelligence artificielle en français afin de lutter contre cette double fracture.

Il existe certes un problème culturel, mais aussi un problème statutaire dans le système français de la recherche publique . Le système français de la recherche publique est en silo : l'interdisciplinarité est prêchée, cependant, dans une carrière, pour obtenir des promotions, il faut être très pointu dans un domaine particulier. En outre, la transmission de la connaissance et le travail d'élargissement de la connaissance en interdisciplinarité ne sont pas valorisés. Cela figure dans les fiches d'évaluations des chercheurs ; cependant, les éléments d'interdisciplinarité ne sont jamais pris en compte dans la considération d'un avancement de carrière. L'interdisciplinarité doit être promue avant tout dans les universités .

Le débat entourant le développement des nanotechnologies peut être pris en exemple : ce débat fut confié à la commission nationale du débat public, et fut très mal instruit, car ce débat s'est résumé en une succession d'affirmations et d'oppositions non scientifiques. Ce genre de débat doit avoir lieu dans les universités. En ce sens, si vous souhaitez engager un débat public sur l'intelligence artificielle, il faudrait le faire dans les universités, même si ces dernières n'auront peut-être pas l'enthousiasme qu'il faudrait.

Cependant, comme pour le débat sur les nanotechnologies, la gestion d'un important risque industriel est à anticiper . Il est crucial d'apprendre à gérer le risque numérique tout comme l'est le risque industriel , sans besoin de fantasmer. Certes, le débat est apaisé sur la question des nanotechnologies, mais cela a eu pour résultat que la France qui, en 2007, représentait 6 % de la publication scientifique sur les nanotechnologies, ne représente, en 2016, plus que 4 % de publications scientifiques sur les nanotechnologies. La Chine, pour sa part, représente 47 %, alors même qu'elle n'en représentait que 11 % il y a huit ans. De fait, il ne faut pas être paralysé par des peurs, sur le sujet des nanotechnologies comme sur le sujet de l'intelligence artificielle, car cela tournera à notre désavantage.

Les chiffres des parts de publication scientifique dans le monde sont absolus, mais il est possible de ramener ces chiffres à l'importance de la population. Dans cette perspective, le rapport entre la France et les États-Unis demeure correct ; et le rapport entre la France et la Chine demeure favorable à la France. La France représente le huitième de la production scientifique de la Chine en nanotechnologies alors que sa population est vingt fois moins nombreuse. La France n'a pas à rougir, car il y a un poids démographique à prendre en compte. La production scientifique française est excellente, mais la France ne représente que 1 % de la population planétaire, ce qui peut poser un problème en termes de relais industriels.

Il est possible d'envisager une initiative européenne concernant l'intelligence artificielle . Cependant, les premiers à pâtir de la montée en puissance en Europe de l'intelligence artificielle seraient les pays qui sont d'importants exportateurs en matière de mécanique de très haute précision, cette exportation se dirigeant majoritairement vers les États-Unis d'Amérique. Il y aura une rencontre entre l'intelligence artificielle et la mécanique de très haute précision (pour les robots et micro-robots) ; or, les États-Unis d'Amérique importent toutes leurs machines depuis les plus gros exportateurs européens de machines mécaniques de très haute précision, soit la Suisse, l'Allemagne, le Danemark, l'Italie, la Suède et l'Autriche. Il est également important de prendre des initiatives d'information et de formation sur l'intelligence artificielle, mais plus largement sur les sujets du numérique, en langue française . Pour les personnes à fort capital intellectuel dans le numérique, la confrontation à l'anglais dans leur découverte du savoir n'est pas problématique ; cependant, développer des initiatives d'information sur ces sujets en langue française permettrait d'impliquer plus largement les gens dans la compréhension du développement de ces technologies et ainsi de réduire leurs inquiétudes.

L'apprentissage d'un réseau de neurones sur de grandes bases de données d'images implique des millions de paramètres qui limitent la compréhension de ce processus. Cette complexité peut avoir pour effet de faire peur aux gens ; c'est pour cela qu'il est essentiel de les former.

La question de la gestion du risque a imprégné le monde industriel . Il y a, dans le numérique, des risques d'un autre type, parfois plus abstraits mais qui n'en nécessitent pas moins le développement d'une culture du risque numérique semblable à la culture du risque industriel : pas une culture qui vise à effrayer, mais qui vise à mettre en place des garde-fous et des outils de précaution raisonnables , pour que ces outils s'insèrent bien dans la société.

Il existe cependant un risque de se heurter à des difficultés institutionnelles, notamment pour l'introduction de ce type d'enseignements dans les programmes, encore, par rapport aux statuts des enseignants en fonction de leurs disciplines.

Concernant les missions et les objectifs de la CERNA , en couvrant tout le secteur public de la recherche dans le numérique, le principal levier est la sensibilisation et l'équipement des chercheurs pour aborder ces questions. Le but est d'intégrer davantage les chercheurs aux délibérations du pays. La CERNA pourrait disparaître au profit d'une autre structure.

La CERNA vise à se positionner comme une compétence-ressource au titre de la recherche dans le débat public, en particulier vis-à-vis de la CNIL, qui est l'ensemblier de ces questions. Actuellement, la CERNA n'est pas visible en dehors de la sphère académique. Il est souhaitable qu'une plus grande visibilité de la CERNA permette aux chercheurs de contribuer pleinement aux débats nationaux. Un certain mur de verre persiste entre les chercheurs et le reste de la société au sein du débat public. Les chercheurs sont cependant de plus en plus préparés à participer au débat public : des actions sont mises en place à destination des doctorants dans ce sens.

3. M. Cédric Sauviat, ingénieur, président de l'association française contre l'intelligence artificielle (AFCIA) et Mme Marie David, ingénieur, éditrice, membre du bureau de l'association

L'AFCIA estime que l'intelligence est la manifestation d'une puissance de calcul d'un processeur, que ce soit le cerveau, un microprocesseur ou un ordinateur. À partir du moment où est affirmé que la puissance de calcul permet d'aboutir à l'intelligence, rien n'empêche l'émergence d'une conscience artificielle : si l'on considère que la conscience est un stade d'évolution de l'intelligence, elle peut très bien émerger sur des principes artificiels.

L'accélération du progrès technique actuel rend la perspective de la création d'une intelligence artificielle douée d'une puissance de calcul comparable à celle du cerveau humain probable à l'horizon 2025-2030 . Le niveau humain n'est lui-même qu'une étape dans le développement de l'intelligence artificielle : si, actuellement, l'intelligence artificielle a le niveau d'intelligence des souris, en 2025 elle aura atteint le niveau humain, et en 2030, loi d'évolution oblige, elle sera mille fois plus puissante qu'un cerveau humain. C'est ce que certains chercheurs appellent la super-intelligence .

L'AFCIA part également du principe que toute la recherche en intelligence artificielle actuelle est orientée vers l'émergence de cette super-intelligence, soit délibérément, soit inconsciemment.

L'AFCIA constate enfin que l'émergence d'une intelligence artificielle super-intelligente, suprahumaine, ouvre nécessairement un nouveau paradigme de civilisation . La civilisation telle que nous la connaissons actuellement est fondée sur la limite de l'intelligence humaine ; dès lors que cette limite sera franchie, un nouveau paradigme de civilisation émergera.

L'émergence de l'intelligence artificielle pose trois problèmes . Le premier problème est le risque technologique , qui consiste à répondre à la question : « l'intelligence artificielle peut-elle rester sous contrôle humain ? ». Le deuxième problème se situe au niveau des enjeux sociaux , des répercussions de l'intelligence artificielle sur le système socio-économique qui est le fondement de notre société. Enfin, le troisième problème relève de la dimension anthropologique et éthique de l'intelligence artificielle , visant à se demander quel est, dans cette évolution, le projet pour l'humanité.

Le risque technologique est largement ignoré en France, comme en attestent les déclarations régulières dans les médias de M. Jean-Gabriel Ganascia, président du Comité éthique du CNRS, qui affirme que l'émergence de l'intelligence artificielle ne pose aucun problème technologique particulier. Ce problème est néanmoins pris au sérieux par les Anglo-Saxons, en particulier par Nick Bostrom 86 ( * ) qui est le philosophe le plus en pointe sur la question du risque technologique de la super-intelligence, ainsi que Bill Gates et Stuart Russell, l'un des auteurs du best-seller mondial de manuel d'intelligence artificielle, ce dernier considérant que « l'intelligence artificielle est plus dangereuse que le nucléaire ».

L'enjeu pour les Anglo-Saxons est de résoudre le problème du contrôle avant de mettre au point l'intelligence artificielle et que celle-ci n'atteigne un niveau de conscience humain . Le parallèle avec le nucléaire est très éclairant, montrant que la découverte des effets du nucléaire, dont la première application remonte à 1945, s'est faite dans les années 1960, notamment sur les tissus humains. En 1970, le phénomène d'impulsion électromagnétique fut découvert, qui fait que lorsqu'une bombe atomique est déclenchée, une impulsion électromagnétique vient paralyser les systèmes électroniques environnants. Enfin, en 1980, le phénomène d'hiver nucléaire fut découvert, impliquant le fait que, en cas de conflit nucléaire mondial, l'humanité subirait une glaciation du fait de la formation de poussières dans l'atmosphère qui absorberaient les rayonnements du Soleil.

Il a donc fallu cinquante ans pour maîtriser toutes les conséquences et composantes de la technologie nucléaire . Ainsi, selon Bostrom et Russell notamment, si le même processus est appliqué pour l'intelligence artificielle, l'humanité est perdue ; il faut donc réfléchir bien en amont aux conséquences de cette invention.

L'AFCIA considère, pour sa part, que ce problème est insoluble par définition : vouloir donner de plus en plus d'autonomie à des systèmes intelligents et, dans le même temps, chercher à les garder sous contrôle est un paradoxe. En outre, pour l'AFCIA, résoudre le problème technique - à supposer que cela soit possible - n'empêchera jamais un détournement malveillant ni une aliénation pratique, l'aliénation pratique étant la subordination consentie de l'humain à l'artificiel.

Pour les transhumanistes, pour éviter que l'Homme ne soit dominé par la machine, il faut fusionner l'Homme et la machine. La réaction de l'AFCIA est d'affirmer que le transhumanisme consistant en une fusion homme-machine est absurde, puisqu'il représente un suicide, une dissolution volontaire de la personnalité dans l'inconnu : à partir du moment où vous modifiez l'intelligence de quelque chose ou de quelqu'un, vous modifiez sa personnalité. Cette solution des transhumanistes est surtout naïve : si vous attelez ensemble un cerveau humain et une super-intelligence, il est possible de deviner que la super-intelligence, si elle réagit comme un organisme hybride dans un premier temps, prendra rapidement son autonomie, ce qui ramène à une situation de domination de la machine sur l'humain.

Concernant le niveau des enjeux sociaux, l'humanité entre dans une ère de compétition entre les cerveaux humains et les cerveaux artificiels . Pour une tâche déterminée, le robot coûte à peu près le même prix pour une entreprise que le travailleur. L'AFCIA considère que la théorie libérale, qui affirme que de nouveaux emplois vont émerger et remplacer ceux qui disparaissent, est caduque car cette théorie n'a jamais fait l'hypothèse que le cerveau humain était lui-même en compétition. Cette théorie libérale se fonde sur l'observation de deux mille ans d'Histoire, mais ne fait en aucun cas l'hypothèse d'une situation dans laquelle une intelligence artificielle est créée. De fait, agiter comme un dogme que de nouveaux emplois seront constitués paraît pour le moins téméraire. L'AFCIA estime que les nouveaux emplois ne se constitueront pas assez vite pour remplacer ceux qui disparaissent. Certains économistes, tels que Michael Osborne, Daniel Cohen ou Nicolas Colin, constatent que, dans vingt ans, 30 % à 40 % des emplois seront robotisés. Daniel Cohen prédit, pour sa part, que la classe moyenne sera déclassée, puisque tous les emplois de classe moyenne de supervision dans les entreprises seront confiés à des algorithmes. Pour Nicolas Colin, les emplois nouvellement créés ne remplaceront pas en nombre suffisant les anciens , et c'est la raison pour laquelle la France doit accélérer son développement dans l'économie numérique pour éviter que ses emplois se fassent détruire par d'autres pays ; mais il n'y aura pas d'emplois suffisants pour tout le monde.

Ce ne sont pas seulement les emplois de la classe moyenne et des ouvriers qui sont menacés, mais également des emplois d'expertise , comme les emplois de médecins ou d'avocats. L'intelligence artificielle touche des domaines de plus en plus vastes ; de fait, toutes les couches du marché du travail seront concernées par l'intelligence artificielle.

L'économie numérique, fondée sur le monopole, prépare le règne de l'intelligence artificielle. Avec la multiplication des objets connectés, l'intelligence artificielle prépare une humanité sous surveillance ( monitoring ) permanente.

Si les emplois ne se reconstituent plus assez vite, il va falloir organiser une société sans travail. Cette société consisterait en l'émergence d'une ploutocratie rassemblant les détenteurs des entreprises numériques et ceux qui ont suffisamment de capital pour échapper au déclassement par le travail. Cette société se caractérise également par l'aliénation des classes moyennes par le revenu minimum universel , ainsi que par des occupations de substitution pour les masses. Enfin, puisque l'humain n'aura plus vocation à travailler, son éducation sera négligée car il y aura beaucoup moins d'intérêt à investir dans son avenir .

Il est possible de voir dans les prémices de cette société sans travail un lien entre le processus économique en train de se créer au niveau mondial, qui se fonde sur la disruption 87 ( * ) et l'exclusion de toute une partie de la population, et la montée d'une violence sociale qui se manifeste, par exemple, dans les pays arabes qui sont le parangon de ce qui arrive aux classes modestes dans les pays occidentaux. L'intelligence artificielle a un impact extrêmement perturbateur au niveau social .

Enfin, l'aspect anthropologique et éthique de l'intelligence artificielle, très feutré et peu souvent évoqué, est fondamental et a motivé la fondation de l'AFCIA. L'AFCIA constate que le développement de l'intelligence artificielle suit la logique ultime et absurde d'un système technicien , notamment décrit dans les travaux de Jacques Ellul, fondé sur la recherche perpétuelle de la performance et du « faire mieux », aboutissant au fait que l'Homme sera exclu dans cette recherche du mieux . Cela est absurde, dans la mesure où la technique devrait être au service de l'Homme ; mais dans cette perspective de système technicien, la technique supprimera ultimement l'humain.

L'AFCIA considère que les mobiles philanthropiques de l'intelligence artificielle et les bienfaits qu'elle apporterait sont sujets à caution. Par exemple, lorsqu'un représentant d'une grande entreprise du numérique affirme que l'intelligence artificielle apportera beaucoup de bienfaits à la planète, il refusera cependant de prendre le risque de rejoindre la masse qui subit ce phénomène ; cela ne vaut que s'ils peuvent rester eux-mêmes en haut de la pyramide.

L'AFCIA pense que la volonté de développement d'une intelligence artificielle de niveau humain est la négation d'un besoin psychologique fondamental de l'Homme qui est la reconnaissance par ses pairs et la réalisation de soi . Ces besoins fondamentaux se retrouvent dans la célèbre pyramide de Maslow, qui a à sa base la satisfaction des besoins élémentaires de l'Homme, puis le désir de protection, et, une fois ces besoins assouvis, le besoin de reconnaissance par ses pairs, le besoin d'amour, le besoin d'estime, et enfin l'épanouissement individuel. À partir du moment où l'Homme est remplacé par une machine et devient inutile, lui laissant plus de temps libre pour s'adonner à ses loisirs, on croit répondre à ses besoins fondamentaux alors qu'ils sont en réalité démolis.

L'intelligence artificielle a également pour corollaire que l'on souhaite apporter à l'Homme une solution à tous ses problèmes. C'est l'avènement de l'autonomie absolue de l'Homme, qui n'a pas besoin des autres puisque tout lui est apporté par son assistant personnel, son robot et tous les systèmes robotisés à sa disposition. De fait, on fait perdre le sens de l'autre et le sens de la réciprocité à l'individu ; la société humaine est atomisée.

Au-delà de ce stade d'intervention de l'intelligence artificielle, il faut également prendre en compte le transhumanisme , qui consiste à modifier et augmenter l'humain afin de lui rendre service. Le transhumanisme risque, par l'augmentation de certains individus mais pas de tous, et du fait de la diversité des conditions qui seront créées par l'hybridation de l'Homme, de mettre fin à l'universalité de la condition humaine et à l'unicité de la race humaine. Cette perspective ouvre la voie à un fondement objectif du racisme, et la disparition de tous les repères éthiques qui peuvent exister dans la civilisation et l'humanité. L'intelligence artificielle peut potentiellement signer la fin de l'éthique .

Certains roboticiens et chercheurs affirment que l'intelligence artificielle, au même titre que l'homme, est une étape de l'évolution naturelle, qui continue son oeuvre vers toujours plus d'intelligence. L'AFCIA considère cette pensée comme une idéologie , un système philosophique qui n'a pas de démonstration ni de scientificité, qui est parente des idéologies totalitaires du XX e siècle : là où les idéologies totalitaires expliquaient la suprématie de la race supérieure ou de la classe ouvrière, cette idéologie de l'intelligence artificielle explique que le développement de l'intelligence artificielle est une évolution de la nature, et que, par conséquent, il faut l'accélérer. On retrouve dans ces idéologies une explication du passé et, en conclusion, l'accélération de l'évolution.

En reprenant l'analyse d'Hannah Arendt, dans le nazisme, il faut aider la nature à se rapprocher le plus possible de l'Homme parfait et de la race supérieure, et, par conséquent, éliminer les races inférieures ; et, dans le stalinisme, la domination de la classe ouvrière est le sens de l'Histoire, il faut de fait tout faire pour cheminer avec lui et éliminer tout ce qui s'oppose à son avènement. Il est possible de transposer cette analyse au cas de l'intelligence artificielle : l'évolution se faisant dans le sens d'une plus grande intelligence, il faut accélérer le sens de l'Histoire. Hannah Arendt a déclaré : « l'objectif des régimes totalitaires n'est pas d'assurer la domination des Hommes, mais d'assurer la superfluité des Hommes. Le régime totalitaire est parvenu à ses fins lorsque l'Homme est devenu une entité négligeable superflue ». C'est exactement le programme, dans un tout autre domaine d'idées, de l'intelligence artificielle : rendre l'Homme superflu . Il y a une proximité des explications idéologiques à l'oeuvre dans ces trois phénomènes.

Or, cette idéologie est fausse car, dans l'évolution, la conscience humaine a donné naissance à la préoccupation morale ; à partir du moment où la préoccupation morale est arrivée dans le domaine de la civilisation, toutes les idéologies d'évolution sont caduques. C'est pour cela que l'idéologie de certains chercheurs en intelligence artificielle est, aux yeux de l'AFCIA, nulle et non avenue.

Un courant de pensée post-humaniste peut être évoqué. Celui-ci est représenté notamment par Jean-Michel Besnier qui a tenté de décrire ce que pourrait être une éthique post-humaine : en constatant que les robots seraient considérés comme des consciences à respecter à part entière, il est possible d'imaginer un monde dans lequel hommes et robots vivent en harmonie. Selon l'AFCIA, cette vision est anthropocentrique, asimovienne, dépassée, et surtout pré-kantienne en cela que M. Besnier considère que, avec son cerveau humain, il est capable d'imaginer le fonctionnement d'un cerveau d'une intelligence artificielle et ce que pourrait être l'éthique d'une telle intelligence artificielle.

Le cerveau humain trouverait sa limitation dans sa non-perception de quelque chose dans lequel il n'y a pas d'espace et de temps ; de la même manière, un cerveau humain ne peut pas imaginer ce qu'il se passe dans un cerveau qui est mille fois plus intelligent que le nôtre . Si l'intelligence artificielle ne naît pas d'une génération spontanée, même si le cerveau humain est capable d'inventer l'intelligence artificielle, cette dernière finira par s'autoalimenter, apprendre par elle-même et deviendra de plus en plus puissante par une réaction en chaîne, échappant au contrôle et à la compréhension des humains. D'autant que l'intelligence artificielle ne s'incarne pas par des robots comme ceux décrits par Isaac Asimov ; ce sont des systèmes dynamiques qui sont plongés dans un continuum d'informations. Il y a une dématérialisation consubstantielle à l'intelligence artificielle qui fait que ce sont des organismes qui n'ont ni commencement ni fin.

Contrairement aux individus, auxquels on peut attribuer une limite du fait de l'individualité identifiée différenciant chacun, il n'y a pas de discontinuité entre une intelligence artificielle et une autre, puisqu'elles sont en mesure d'échanger leurs informations d'une manière qui fait que l'on peut considérer qu'il s'agit d'un seul et même système . Sur ces prémices, avec un processeur mille fois plus rapide que le cerveau humain et avec des capacités différentes de celles des êtres humains, il est difficile de pouvoir prévoir l'éthique de ce type d'intelligence artificielle . La seule chose qui puisse être dite est que l'on ne peut pas savoir ce que peut être l'éthique d'une super-intelligence , et peut-être qu'il est préférable de ne pas le savoir.

Le projet de l'AFCIA se fonde sur un progrès moral et non sur un progrès technique. L'AFCIA se réfère ici à l'humanisme des Lumières. L'AFCIA considère que le fait de se réaliser par son travail au service des autres est une dignité et un droit fondamental de la personne humaine, ce qui est d'ailleurs écrit dans la Déclaration Universelle des Droits de l'Homme de 1948. Il est impératif de préserver l'unité de l'espèce humaine et l'universalité de la condition humaine, car sans universalité de la condition humaine, il n'y a pas d'intercompréhension naturelle mutuelle et pas de possibilité de vivre ensemble ; c'est la possibilité de se comprendre qui est à la base de la civilisation. S'il y a d'un côté des hommes, de l'autre des hommes augmentés, et enfin des robots, il n'y a pas d'intercompréhension mutuelle.

Selon l'AFCIA, le progrès technique, qui est en passe de révolutionner la civilisation, doit voir son rythme exponentiel subordonné à la stabilité et à l'harmonie sociale. La stabilité et l'harmonie des sociétés sont des enjeux bien plus importants que le progrès technique, qui ne devrait être au service que de cette stabilité. La société devrait être organisée de manière à permettre à chacun de trouver une place authentique par le service qu'il rend aux autres. Lorsque l'entreprise Uber met en place des systèmes capables de détruire toute une profession, d'un point de vue technicien, l'entreprise a raison ; mais elle ne rend pas service à la société. Il vaut mieux que l'objectif de la société soit que chacun ait une place, un rôle à jouer et quelque chose à offrir aux autres, plutôt que de chercher l'optimum et l'efficacité suprême.

Pour l'AFCIA, la course à l'intelligence artificielle, au même titre que la course à l'armement nucléaire, doit être stoppée. La course à l'intelligence artificielle est fondée, au niveau des États, sur une volonté de puissance , chacun devant se doter de l'intelligence la plus capable de rivaliser et de surpasser les rivaux. La course à l'intelligence artificielle est comparable à la course à l'armement nucléaire qui a eu lieu durant la guerre froide. Il est essentiel de désarmer cette course, afin d'éviter les conflits pouvant éclater entre des nations rivales.

Enfin, l'AFCIA considère que l'intelligence artificielle est, malgré tout, formidable, car il suffit de l'interdire pour redonner un sens au progrès technique, pour qu'il soit au service des humains. Il suffit d'interdire l'intelligence artificielle pour que le progrès technique redevienne maîtrisable par l'Homme .

L'AFCIA souhaite lancer une campagne nationale pour offrir une base de réflexion aux citoyens , afin de briser le discours dominant sur la disruption heureuse et les bienfaits de l'intelligence artificielle. L'AFCIA souhaite également constituer un pôle d'opposition raisonné et non violent à l'intelligence artificielle , car, tôt ou tard, l'opposition à l'intelligence artificielle prendra des caractéristiques violentes. L'AFCIA entend anticiper ces mouvements sociaux de révolte afin d'offrir une alternative qui permette de canaliser le discours d'opposition à l'intelligence artificielle. L'AFCIA veut également inverser la perception de l'intelligence artificielle auprès des jeunes , qui peuvent être séduits par cette perspective, car ils n'en voient que l'intérêt à court terme sans prendre en considération le long terme. L'intelligence artificielle n'est pas une voie d'avenir ; c'est une voie qu'il faut combattre, et l'AFCIA veut instiller chez les jeunes le doute concernant les mécanismes qui sont à l'oeuvre afin de les détourner de cette perspective. L'AFCIA cherche également à créer un réseau mondial, en traduisant leurs arguments dans toutes les langues, en particulier en anglais, en chinois et en allemand, de manière à toucher un maximum de foyers de réflexion autour de ces problématiques. Il existe un très grand tissu d'associations et mouvements de pensée techno-critiques et critiques à l'encontre de la mainmise numérique ; mais l'AFCIA est la seule association à identifier l'intelligence artificielle comme le coeur du problème, d'où le besoin d'internationalisation de son action.

Cette volonté d'internationalisation de l'action de l'AFCIA est essentielle à la réussite de son projet de constitution d'un pôle d'opposition raisonné et non violent à l'intelligence artificielle. Il n'y a aucun intérêt à garder cette réflexion nationale, qui n'aboutirait qu'à affaiblir un peu plus l'économie française, et n'aiderait pas à amplifier ce discours auprès des autres pays. Il faut adopter une réglementation progressive qui puisse avoir une portée mondiale. Il faut, pour cela, enclencher un mouvement à destination de l'opinion publique.

Il serait dans un premier temps possible d'imposer aux entreprises et laboratoires de déclarer quels sont leurs programmes de recherche en intelligence artificielle, afin que ces programmes puissent être contrôlés. Compte tenu des risques encourus, il est normal qu'il y ait un contrôle politique sur ces activités, au même titre qu'il y a un contrôle sur les activités atomiques. Ensuite, si un mouvement politique pouvait être rapidement constitué, il serait possible de se diriger vers l'interdiction mondiale des armes intelligentes, comme les drones, et accorder l'immunité aux objecteurs de conscience. Cependant, le premier moteur de la recherche en intelligence artificielle est son application militaire : aux États-Unis d'Amérique, la DARPA ( Defense Advanced Research Projects Agency ), qui est l'équivalent du ministère de la Défense, investit des sommes considérables dans des programmes de recherche en intelligence artificielle qui visent officiellement à appuyer l'action des militaires ; néanmoins, la perspective de nombreuses autres applications militaires possibles, comme le contrôle et l'utilisation de la pensée dans l'interface homme-machine, motive également ces investissements. Ainsi, interdire l'intelligence artificielle pourrait permettre de ralentir les investissements dans ce domaine.

En outre, de manière plus radicale, il faudrait abolir la propriété intellectuelle sur les algorithmes d'intelligence artificielle , ce qui couperait le désir de bien faire chez beaucoup d'acteurs économiques. La technique dans l'intelligence artificielle est tripartite entre les algorithmes, les données et la calibration, car c'est une science très empirique. Beaucoup de programmes et algorithmes sont en open source , et simplement avoir accès à un programme ne permet pas d'en faire un système discriminant. En revanche, la connaissance dans la manière de calibrer et de faire converger les systèmes, en somme l'expertise telle que celle que l'on trouve notamment chez Google DeepMind , demeure cachée pour le moment. Faire tomber dans le domaine public l'ensemble du travail fourni par les entreprises privées dans la recherche en intelligence artificielle aura pour effet de tarir la volonté de ces acteurs économiques.

Il est également possible d'imaginer de limiter la puissance de calcul des systèmes à intelligence artificielle, en interdisant par exemple de faire fonctionner des intelligences artificielles qui dépasseraient le niveau d'intelligence d'une souris.

Enfin, pour l'ensemble des arguments développés ci-dessus, l'AFCIA considère que la recherche en intelligence artificielle est illégitime, inacceptable, et par conséquent appelle l'interdiction pure et simple de la recherche en intelligence artificielle, ainsi que la mise à disposition à titre commercial ou à titre gracieux de systèmes à intelligence artificielle.

Toutes ces réflexions auraient pu être menées en 1948, lorsque M. Norbert Wiener théorisa la cybernétique, ou dans les années 1960 lors de l'apparition des premiers calculateurs, car ces réflexions découlent de l'écriture d'algorithmes. Cependant, depuis quelques années, un point charnière a été atteint avec l'accélération des puissances de calcul et du développement des algorithmes. L'hiver de l'intelligence artificielle des années 1980, quand la discipline était décrédibilisée, est terminé ; la discipline est revenue en grâce du fait des avancées immenses qui ont été faites. L'AFCIA estime donc que maintenant est venu le moment d'engager ces réflexions et de lancer le débat, car la courbe d'évolution de l'intelligence artificielle est exponentielle, et dans cinq ou dix ans, il sera probablement déjà trop tard.

La plupart des grands scientifiques qui ont contribué à lancer l'intelligence artificielle comme discipline scientifique dans les années 1950, tels qu'Alan Turing ou Norbert Wiener, avaient compris que, à terme, l'intelligence artificielle ferait naître les risques et conséquences évoquées au cours de cet entretien ; mais cela demeurait théorique tant que la révolution numérique - que ces chercheurs n'ont d'ailleurs pas vécue - n'avait pas eu lieu.

Concernant la médecine et plus spécifiquement le transhumanisme, l'AFCIA distingue d'une part les interventions sur la physiologie de l'homme, et d'autre part les projets de modifications de ses capacités cognitives. Les premières sont justiciables, quant à leur évaluation éthique, des comités de bioéthiques. En revanche, l'AFCIA s'oppose par principe aux seconds dès lors qu'ils font appel à l'intelligence artificielle, car ils sont susceptibles de modifier la nature même de la conscience avec des conséquences imprévisibles.

Il y aura toujours des exemples positifs d'applications de l'intelligence artificielle dans la société, particulièrement dans le domaine de la médecine. Cependant, en prenant l'exemple de la médecine, la machine fonctionne à partir d'un apprentissage statistique, qui comporte toujours une marge d'erreur. Si la décision humaine comporte, elle aussi, une marge d'erreur, il demeure qu'appliquer l'intelligence artificielle dans le domaine médical dessaisira l'Homme de son pouvoir de contrôle et d'expertise. En outre, les ingénieurs codant des machines en apprentissage automatique ( deep learning ou machine learning ) sont incapables de remonter aux causes de la décision d'un algorithme, alors qu'un médecin pourra toujours expliquer les raisons qui ont orienté son choix.

À partir du moment où l'homme considère que la machine est plus experte que lui, il va se dessaisir de son autonomie de jugement car il considérera que la machine a toujours raison, alors même qu'on ne comprend pas aujourd'hui pourquoi une machine prend telle ou telle décision. Les modèles de deep learning prenant en entrée ( input ) des milliards de données, il est impossible de savoir ce qu'il se déroule en sortie ( output ) avec un tel volume de données qui paramètre la décision de l'algorithme provoquant inévitablement un effet de boîte noire. En cela, la tragédie de l'humain dans une société à intelligence artificielle sera son inutilité sociale.

On ne sait pas quelle est la limite entre le vivant et l'artificiel. Il existe deux grandes écoles dans les neurosciences : les mécanistes, qui voient le cerveau comme un processeur se fondant sur des interactions électromagnétiques entre des molécules, et les « spiritualistes », qui pensent qu'il y aurait une composante qui ne se réduirait pas à un ensemble de calculs. Cependant, même en se positionnant du côté spiritualiste, les dangers présentés par le développement d'une intelligence dont le fonctionnement nous échapperait, qui ferait des choix semblables à ceux faits par une intelligence humaine tout en en étant ontologiquement différente, sont concrets.

Avec les objets connectés, il y aura des analogues de systèmes autonomes dans toute la société et qui seront invisibles à nos yeux, et qui modifieront les rapports sociaux : un assureur qui refuse un contrat après que son algorithme eut mesuré le battement de coeur du client quelques jours plus tôt, un algorithme qui calcule la probabilité d'être un criminel à partir d'un visage, etc. L'intelligence artificielle a une vocation totalitaire, elle cherche à englober tous les champs du réel. Si l'individu a le choix ou non de mettre son sort entre les mains d'un algorithme en acceptant ou refusant de monter à bord d'une voiture autonome, il ne l'aura pas nécessairement dans de nombreux autres domaines où la présence de l'intelligence artificielle sera invisible. C'est pour cela que l'AFCIA est favorable à l'interdiction de l'intelligence artificielle, car les individus ne pourront pas choisir tout le temps de recourir ou non à des systèmes d'intelligence artificielle.


* 84 Responsable maîtrise d'ouvrages stratégiques (innovation, systémique, prospective) à la Société Générale

* 85 Au lieu d'une structure pyramidale, l'entreprise fractale est formée à partir d'une même structure simple et maîtrisée qui se répète à différentes échelles. Une représentation simplifiée du concept pourrait en être les poupées russes.

* 86 Directeur de l'Institut pour le futur de l'humanité à l'Université d'Oxford et Directeur du Centre stratégique de la recherche sur l'intelligence artificielle (initiative de l'Université d'Oxford et de l'Université de Cambridge)

* 87 Le dynamisme de l'économie numérique a des effets de destruction créatrice : une innovation et sa diffusion permet de réaliser des gains de productivité, de créer de nouvelles activités et donc des nouveaux emplois, synonymes de croissance. De fait, seuls survivront sur le marché les entrepreneurs innovants capables de restructurer leur activité, d'adapter leurs procédés, d'améliorer leur processus, de manière à bénéficier des avantages compétitifs et de devenir des leaders sur un marché.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page