VI. QUATRIÈME TABLE RONDE, PRÉSIDÉE PAR M. CLAUDE DE GANAY, RAPPORTEUR : ENJEUX ÉTHIQUES DE L'INTELLIGENCE ARTIFICIELLE

Claude de Ganay, rapporteur. - Je vous propose d'aborder notre quatrième table ronde consacrée aux enjeux éthiques de l'intelligence artificielle. « Science sans conscience n'est que ruine de l'âme » , comme l'affirmait Rabelais. L'intelligence artificielle représente à cet égard un ensemble technologique par rapport auquel la réflexion éthique est non seulement nécessaire mais urgente.

Je demanderai aux intervenants de tenter de tenir leur temps de parole. Je donne la parole à Gilles Dowek, qui a une double casquette d'informaticien et de philosophe. Vous êtes directeur de recherche à Inria et professeur attaché à l'ENS Paris-Saclay. Surtout, vous êtes un spécialiste des enjeux éthiques de l'intelligence artificielle. C'est pourquoi nous vous écoutons avec beaucoup d'attention.

1. M. Gilles Dowek, directeur de recherche Inria, professeur attaché à l'ENS Paris-Saclay

L'éthique des sciences et des techniques, objet des travaux de la Commission de réflexion sur l'Éthique de la Recherche en sciences et technologies du Numérique d'Allistene (CERNA), n'a cessé de se transformer au cours du temps. En premier lieu, nos valeurs elles-mêmes se sont transformées. Nous essayons de résoudre nos conflits de façon plus pacifique que par le passé, tandis que des questions éthiques différentes sont apparues à chaque époque. Notre époque, que nous pouvons faire débuter aux années 1930-40 est celle de la révolution informatique parfois appelée la troisième révolution industrielle. Les deux premières révolutions industrielles étaient celles de la transformation de l'énergie, alors que la révolution informatique est une révolution des techniques de l'information et de la connaissance, une révolution cognitive. En cela, elle est comparable à l'invention de l'imprimerie. Selon Michel Serres, cette troisième révolution est une révolution cognitive et de notre rapport à la connaissance.

Les deux premières révolutions industrielles ont consisté à remplacer nos muscles par des machines. Les révolutions des techniques de l'information remplacent nos cerveaux par des machines. Il n'est pas surprenant dans ces conditions que les questions éthiques soient différentes. À ce titre, nous pouvons recenser des questions générales et des questions particulières.

La première de ces révolutions globales tient au fait que naguère, le travail d'un certain nombre de personnes consistait exclusivement à traiter de l'information. C'est le cas, par exemple, des caissiers dans les supermarchés ou des conducteurs de camions. Ces personnes se contentent de traiter de l'information en tournant le volant ou en appuyant sur un bouton de caisse. Tel est également le cas d'autres professions, comme les juristes, les médecins ou les enseignants. Dans mon travail d'enseignant, je ne fais qu'acquérir de l'information pour la transmettre. Les tâches effectuées naguère par des êtres humains peuvent aujourd'hui être épaulées par des machines. La libération du genre humain du travail constitue sans doute une bonne nouvelle, car il est satisfaisant de constater que nous travaillerons moins mais avec une productivité plus grande. De ce fait, tous les systèmes fondés sur la valeur du travail (socialisme, capitalisme...) ne nous seront plus d'aucune utilité pour comprendre comment répartir les richesses au XXI e siècle. Des oppositions naîtront sans doute, mais elles ne seront pas similaires à celles que nous connaissions au XX e siècle.

La première question éthique qui nous est posée est donc très globale : comment répartir les richesses après la fin relative du travail ?

En deuxième lieu, la petite quantité d'informations que nous sommes capables d'échanger nous avait conduits naguère à inventer des mécanismes d'expression de manière très économe. Par exemple au XIX e et au XX e siècle, nous ne pouvions donner la parole quotidiennement à des populations isolées au coeur de la France, de sorte que nous avions inventé un système pour leur permettre de s'exprimer une fois tous les trois ou cinq ans par la voie d'un bulletin déposé au fond d'une urne. Aujourd'hui qu'il est possible à chacun de se faire entendre sans l'intermédiation d'un élu, cette notion même de représentation des citoyens n'a plus de signification. Par conséquent, il nous faut inventer de nouvelles institutions permettant à un individu de s'exprimer seul. Nous avons évoqué la consultation qui a été organisée à l'occasion de la loi sur le numérique, mais il s'agit d'un petit pas. Il sera en effet nécessaire d'aller beaucoup plus loin dans la réforme des institutions. Peut-être qu'un jour, le Sénat n'existera plus et qu'il sera remplacé par une meilleure ou une plus mauvaise solution. Il nous appartient d'y veiller en vertu de notre responsabilité éthique.

La troisième transformation très globale concerne l'école. L'école obligatoire a toujours eu pour mission de répondre aux révolutions industrielles de l'énergie. Désormais, la révolution industrielle de l'information nécessite de revoir l'école de fond en comble pour aider les élèves à vivre à l'ère de l'information. Il faut donc compléter les enseignements de physique et de biologie par des enseignements de l'informatique, des humanités ou de l'éthique.

S'agissant des enjeux plus spécifiques de la révolution actuelle, le traitement des données scolaires ou médicales qui concernent les personnes permet de récolter un grand nombre d'informations sur ces dernières. Or les machines ont la capacité de regrouper ces informations sur une longue durée. Les ordinateurs et les systèmes d'intelligence artificielle ont une hypermnésie. C'est pourquoi il faut définir de nouvelles normes pour maîtriser l'ensemble de ces données. Par ailleurs, si l'automatisation des traitements médicaux permet aux personnes âgées de gagner en autonomie, cette évolution risque également de les couper de tout lien humain. De ce fait, la mise en circulation d'une machine remplaçant une infirmière nécessite d'inventer de nouvelles formes de liens et de réfléchir au type de tâches que nous souhaitons déléguer aux robots et aux algorithmes.

Une autre nouveauté tient au fait que de longs calculs permettent d'aboutir à des résultats si longs, que nous ne savons pas les expliquer. Par exemple, les ordinateurs calculent tous les jours la température du lendemain sans que nous puissions comprendre comment ils sont parvenus à leur conclusion. En réalité, nous n'avons plus aucun espoir de retrouver notre capacité d'explication, qui était due à notre infirmité pour effectuer de très grands calculs.

Enfin la dernière question éthique et juridique a trait à la création de textes juridiques encadrant les algorithmes et les robots, qui pourraient devenir des personnes morales et des sujets de droit.

Pour conclure, j'observerai que le terme « intelligence artificielle » a été successivement revendiqué par une série de communautés d'informaticiens sans grand-chose en commun, sinon qu'ils demandent à des machines d'effectuer des tâches qui, si elles étaient effectuées par des êtres humains, feraient appel à leur intelligence. Ces différentes communautés et actions de recherche nous ont appris qu'il n'existait pas une, mais des formes d'intelligence artificielle. C'est un mot utilisé pour désigner des choses différentes. De surcroît, la diversité des recherches en la matière ne fait que refléter la diversité des formes d'intelligence que nous attribuons à l'être humain. Nous pouvons bien entendu, continuer d'utiliser le terme « intelligence artificielle » pour définir ces recherches, mais il me semble que nous éviterions nombre de peurs et de fantasmes si nous lui préférions les termes précis qui correspondent à tel ou tel outil : « apprentissage automatique », « reconnaissance des formes », « traitement de la langue » etc. Il apparaît en effet particulièrement important que les différents domaines de l'intelligence artificielle posent les questions éthiques qui leur sont propres, tout à fait différentes les unes des autres le plus souvent.

Claude de Ganay, rapporteur. - Sans attendre, je passe la parole à Laurence Devillers, professeur à l'Université Paris-Sorbonne. Vous êtes spécialisée dans les émotions dans les interactions entre les hommes et les machines. Vous animez actuellement un groupe de réflexion sur l'éthique de l'apprentissage automatique au sein de la Commission de réflexion sur l'Éthique de la Recherche en sciences et technologies du Numérique d'Allistene (CERNA).

2. Mme Laurence Devillers, professeur à l'Université Paris-Sorbonne/LMSI-CNRS

Il y a une très bonne transition à faire après les propos de Gilles Dowek sur la pluralité d'intelligences artificielles. Je vais évoquer les enjeux éthiques de l'apprentissage machine, présent dans de nombreux systèmes d'intelligence artificielle.

Dans le domaine de la robotique, les machines intègrent un grand nombre de systèmes à base d'intelligence artificielle ainsi que d'autres technologies. Au LMSI, laboratoire du CNRS où j'effectue mes recherches, je travaille avec un grand nombre de partenaires sur le projet Romeo 2, consacré à l'interaction avec les robots pour assister les personnes âgées. Pour ce faire, nous menons un grand nombre d'expérimentations sur le terrain et enregistrons des personnes âgées en interaction avec les robots. Nous constatons ainsi l'émergence de multiples sujets éthiques. Pour gérer le dialogue, différentes techniques d'apprentissage machine sont disponibles. Certaines d'entre elles réalisent de très bonnes performances mais sont opaques. Pour une personne en train d'interagir avec ce type de machine, il est absolument impossible de comprendre ce qui se passe. D'ailleurs, je ne pense pas que nous parviendrons un jour à retracer l'ensemble des opérations. Pour autant, il y a une exigence importante d'éduquer davantage la société sur ces sujets. Pour notre part nous, chercheurs dans l'industrie, devons travailler sur la traçabilité et l'explicabilité des systèmes ainsi que sur les évaluations.

L'autre point important, et qui constitue une vraie rupture technologique, tient au fait que ces machines apprennent en fonction de l'interaction avec l'être humain. Il faut donc mettre des garde-fous car ces machines arriveront demain. Le robot Paro, utilisé auprès des personnes âgées dans le cadre de la maladie d'Alzheimer, présente déjà une utilité certaine et crée une forme de lien social. Il est possible de parler à travers une machine, qui peut représenter un médiateur. De plus les personnes qui utilisent les machines, interagiront elles-mêmes avec les patients, ce qui constituera une forme de lien triangulaire.

Je voudrais maintenant assurer une présentation du travail mené au sein de la CERNA en ce moment, qui débouchera sur un rapport en mars 2017 et qui fait suite à un premier rapport sur l'éthique de la recherche robotique en 2016.

Les défis scientifiques de demain supposent de poser les règles morales et éthiques qui assortiront nos implémentations sur les robots. L'un des buts du chercheur en robotique sociale est d'empêcher un déficit de confiance de la part des utilisateurs mais également, de freiner une confiance probable. Les travaux de recherche permettent en effet de constater que les gens projettent sur la machine des intentions anthropomorphiques sur lesquelles il est nécessaire de les détromper. Il est important d'éduquer les utilisateurs sur leurs projections vis-à-vis de la machine, lorsqu'ils ont tendance à lui attribuer davantage de capacités qu'elle n'en a. Toutefois, le fait que la machine apprenne de nous va susciter un attachement et créer du lien. Je travaille beaucoup sur cet aspect de coévolution entre la machine et l'homme, étant rappelé toutefois que des liens d'attachement peuvent également se créer avec sa voiture ou sa montre. Néanmoins, les laboratoires travaillent aujourd'hui sur les interfaces du dialogue, encore très compliquées, et sur les habitudes des personnes pour pouvoir les mémoriser.

Un grand nombre d'initiatives actuelles portent sur l'éthique, ce dont je me réjouis. Je citerai à titre d'exemple celle de l'IEEE ou institut des ingénieurs électriciens et électroniciens, dont le projet de charte de décembre 2016 met en exergue des leviers importants. Il est nécessaire d'éduquer les chercheurs, les journalistes, les industriels et les politiques sur l'éthique. Celle-ci consiste en réalité à définir des règles, à les appliquer à un robot, mettre en oeuvre des outils pour vérifier leur respect par ce robot et prévoir un cadre juridique.

L'apprentissage machine qui se trouve au coeur des systèmes est en réalité très opaque car l'utilisateur ne perçoit aucunement les capacités de la machine. De ce fait, il est extrêmement important de comprendre, à différents niveaux, qu'il faut pouvoir évaluer les performances, et de vérifier les données utilisées. On parle beaucoup d'intelligence artificielle, mais en ce qui me concerne je préfère employer le terme de « bêtise artificielle ». En fonction de leur nature, les données fournies à la machine pourront finalement aboutir à un système très désagréable, discriminant ou raciste. Par conséquent, nous devons tous être conscients des risques liés à la manipulation des outils. Lorsque des industriels recourent au deep learning pour opérer une classification de leurs clients, j'attire l'attention sur le fait qu'il s'agisse d'une sémantique de surface. Par conséquent, il faut se méfier des performances de ces systèmes, qui vont certes apprendre mais pas toujours avec du sens. L'intelligence artificielle possède des capacités qui lui appartiennent en propre, mais à l'inverse l'homme est doté de sens et d'une intelligence cognitive que n'aura jamais la machine. C'est pourquoi il ne faut pas opérer de confusion ni comparer constamment l'homme et la machine. Les chercheurs travaillent à élaborer un système utile pour les humains, mais nullement à copier l'humain.

Au sein de la CERNA, qui réunit des juristes, des philosophes et des scientifiques en informatique, nous avons mis en évidence les concepts renouvelés d'apprentissage, de responsabilité, d'explicabilité des systèmes et d'évaluation : nous rendrons donc public un rapport sur ces aspects en mars 2017. Par ailleurs, nous avons élaboré des préconisations et des questionnements classés en six thèmes :

• les données des systèmes d'apprentissage ;

• l'autonomie des systèmes apprenants ;

• l'explicabilité des systèmes d'apprentissage ;

• les décisions des systèmes d'apprentissage ;

• le consentement dans le domaine du numérique ;

• la responsabilité dans les relations humain-machine.

Les mécanismes de contrôle commencent à émerger. Pour élaborer des outils intelligents et autonomes, nous devons nous munir d'outils de vérification et d'évaluation.

La CERNA s'intéresse également à des préconisations générales telles que la formation des enseignants et des étudiants, les plateformes collaboratives de recherche ou la création d'un institut de recherche sur le risque numérique. Sur ce dernier, il importe que la participation soit la plus large possible, et que les grandes institutions de recherche et les industriels en fassent partie.

En outre, j'indique que mon livre à paraître chez Plon le 23 février 2017 sera intitulé « Des robots et des hommes, mythes, fantasmes et réalités » .

M. Claude de Ganay, rapporteur. - Je passe la parole à Serge Abiteboul, ancien titulaire de la chaire d'informatique du Collège de France, directeur de recherche Inria, romancier, militant en faveur de l'enseignement de l'informatique et fondateur d'un blog intitulé Binaire.

3. M. Serge Abiteboul, directeur de recherche Inria

J'ai choisi de vous parler d'aspects éthiques dans le cadre des données massives. L'intelligence artificielle est la possibilité pour un logiciel de réaliser une activité qui, chez un humain, demanderait de l'intelligence. Je n'évoque par conséquent pas uniquement le machine learning mais l'intelligence artificielle au sens le plus général du terme. Ces logiciels peuvent avoir des actions dont l'importance sur notre vie et nos sociétés est considérable. En corollaire, ils doivent se comporter de manière responsable. À titre d'exemple, un moteur de recherches qui biaiserait ses réponses limiterait notre liberté de choix et pourrait entraîner un déséquilibre du commerce mondial. De même, le lancement d'une fausse nouvelle économique pourrait avoir un impact sur le cours de l'action de la société concernée. Dans ces deux cas, le problème vient de ce que l'information est répercutée sur tous les réseaux et les données sont échangées sans être vérifiées.

Partant de ces constats, nous remarquons que de telles activités intelligentes s'appuient souvent sur la masse de données considérables générées par les réseaux sociaux ou nos téléphones. Grâce à l'intelligence artificielle, nous tentons de créer de la valeur. Les recommandations sur les réseaux sociaux dépendent de la masse de données dont ces systèmes disposent. En définitive, l'accumulation de données et leur analyse ont pris une importance sociétale considérable. Dès lors, il importe que ces données se conduisent de façon responsable.

Pour prendre un autre exemple, la décision sur une demande de prêt représente une tâche relativement répétitive sur laquelle un humain pourrait avoir des biais considérables alors qu'un algorithme se comporterait en théorie de façon plus juste. De telles questions d'équité commencent juste à apparaître. Il est indispensable au préalable que le décideur fixe lui-même ce qui est considéré comme juste avant de faire travailler l'algorithme. Une telle décision ne relève pas du rôle de l'informaticien mais revêt un caractère politique.

Cet aspect de vérification est donc essentiel. De même, la transparence est une notion cruciale. Il convient par exemple qu'un opérateur précise à l'intention du public, qu'il s'interdit de vendre des données confidentielles auxquelles il aurait accès. Or ces exigences de loyauté et de transparence ne vont pas d'elles-mêmes dans les systèmes d'intelligence artificielle. Sur une plateforme marchande ou un réseau social si les recommandations proposées à l'internaute sont trop réduites, son point de vue risque d'être modifié. En définitive, les choix à opérer sont éthiques, et non techniques.

Pour ma part, je suis optimiste car je pense que les algorithmes peuvent nous permettre d'obtenir de bien meilleurs résultats que par le passé. Il faut cesser de regretter constamment le passé. Par exemple, l'affectation des élèves après le bac fonctionnait très mal avant la mise en place de la plateforme APB. L'utilisation d'un algorithme a abouti à une nette amélioration. Mais il manquant encore la transparence. Aujourd'hui, l'algorithme est publié et les critères de choix sont publics. Il devient possible d'améliorer davantage le système dans la transparence.

En définitive, les algorithmes peuvent apporter plus d'équité et de transparence que les humains, à la condition toutefois de consentir des efforts de vigilance. De tels efforts émaneront de l'État et de la réglementation, des associations d'internautes et de la technique. Sur ce dernier point, la technique permettra de gérer les systèmes en les analysant de façon plus efficace, par exemple sur la politique de privacy . La technique peut également aider à vérifier si un système se comporte de façon convenable sur le web .

Pendant cinquante ans nous avons oeuvré avec acharnement pour réussir à travailler sur de gros volumes de données et à les analyser : nous y sommes parvenus aujourd'hui. À mon sens, les années à venir seront déterminantes sur les aspects éthiques. Il faudra tenir compte de ces dimensions dès la conception, pour aboutir à des produits qui seront par exemple Ethic by design ou Fair by design .

M. Claude de Ganay, rapporteur. - Jean Ponce, je vous passe la parole. C'est votre collègue Francis Bach, indisponible, qui nous a proposé de vous inviter. Professeur à l'ENS, passionné de science-fiction, vous vous êtes spécialisé sur les applications permettant de rapprocher les récits de science-fiction des capacités réelles des robots. Vous êtes ainsi devenu l'un des plus grands spécialistes de la vision artificielle, c'est-à-dire des technologies permettant aux machines de se rapprocher des capacités visuelles de l'être humain.

4. M. Jean Ponce, professeur et directeur du département d'informatique de l'École normale supérieure (ENS)

Contrairement à mes collègues ici présents, je ne suis pas un spécialiste de l'éthique. Personnellement, il me semble que les machines véritablement intelligentes qui en viendraient à se poser des questions éthiques, restent du domaine de la science-fiction. En revanche, j'évoquerai une problématique connexe dans le domaine de l'intelligence artificielle, ayant trait aux attentes et aux risques suscités.

En premier lieu en termes d'attentes, les voitures autonomes ou les robots assistant les personnes fragiles sont des thèmes récurrents de ces dernières années et vont finir par arriver. Les attentes, nées en particulier d'effets d'annonce des grands groupes industriels, suscitent également des craintes et des fantasmes. Cela correspond à un discours marketing qui se comprend, dans la mesure où ces entreprises visent à accroître leurs profits et donc à exagérer les progrès constatés. C'est le scénario de l'intelligence artificielle Skynet dans le film Terminator . Je ne pense pas que des machines intelligentes prendront de sitôt le pouvoir politique. De même les annonces fréquentes de systèmes obtenant des résultats qualifiés de surhumains, me font en général sourire. Je ne crois pas que les radiologues seront au chômage d'ici à deux ans, surtout que les systèmes d'intelligence artificielle produisent encore des erreurs, telles que des faux positifs et des faux négatifs. Je comprends qu'un robot humanoïde comme Atlas fasse peur, il est costaud. C'est une merveilleuse innovation technologique mais cela reste quasiment un gros jouet télécommandé.

À ces attentes peuvent correspondre des déceptions, des craintes et des risques. Un propriétaire de Tesla est récemment décédé au volant de sa voiture. Pourtant dans ces circonstances il faut davantage blâmer les attentes que le résultat. La voiture autonome n'est pas encore là, et des personnes seront toujours présentes pour pallier les éventuels dysfonctionnements. Tesla ou Volkswagen parlent d'aides à la conduite, pas de voiture autonome. Dans les taxis automatiques Uber à Pittsburgh on a maintenu une personne humaine au cas où.

Les programmes d'intelligence artificielle ne sont pas parfaits. Ils donneront des réponses mais avec un taux d'erreur non négligeable. Pour les voitures autonomes, il y aura des accidents mortels, moins qu'avec la conduite humaine mais le niveau d'acceptabilité est différent.

En outre, il est souvent difficile de prédire la fiabilité des résultats de ces programmes et de quantifier les incertitudes. L'accident de Tesla est-il dû au système de navigation ou de décision ? La réponse n'est pas évidente et pose des problèmes de responsabilité et de régulation.

Pour autant, en dépit de ces réserves, ma foi dans l'intelligence artificielle est intacte, il ne faut pas en douter.

En matière d'éthique et de données, la protection de la vie privée est d'autant plus difficile que les méthodes modernes sont très gloutonnes en matière de données. De ce fait, les grandes entreprises du web disposent d'un avantage stratégique par rapport au reste de l'humanité, même si elles ne sont pas autorisées à partager avec les chercheurs ou à publier les données ainsi récoltées. Cela pose par conséquent la question de l'anonymisation des données. Il conviendra de trouver des solutions d'anonymisation de ces données afin de pouvoir les utiliser.

La question des robots tueurs est un sujet important, qui pose la question de la responsabilité des programmeurs et des décideurs militaires et politiques au-dessus.

Par ailleurs, la question des dilemmes éthiques est difficile à résoudre. Les trois lois d'Asimov sont par exemple très compliquées à mettre en oeuvre dans les machines.

En conclusion, je ferai le constat qu'il existe une frontière de plus en plus ténue entre la recherche académique et la recherche privée. Il est impératif que les deux communiquent pour répondre aux besoins de la société.

Claude de Ganay, rapporteur. - Serge Tisseron a été l'auteur en 1975 de la première thèse en bande dessinée. Psychiatre et psychanalyste, vous êtes chercheur à l'Université Paris Diderot et spécialiste de Tintin et des robots.

5. M. Serge Tisseron, psychiatre, chercheur associé à l'Université Paris Diderot-Paris VII

Comment l'intelligence artificielle est-elle perçue ? Quels sont les aspects problématiques dans cette perception et comment faire évoluer les choses ? Ces considérations, loin d'être anecdotiques, n'ont été que peu évoquées aujourd'hui.

Nous avons beaucoup entendu que l'intelligence artificielle forte n'était pas pour demain. Or il apparaît effectivement que la fantasmagorie actuelle est celle d'une intelligence artificielle beaucoup plus grande que celle qui existe en réalité. Je m'aperçois qu'il ne suffit pas de détromper le public pour le faire changer d'avis. En réalité, l'intelligence artificielle faible angoisse, précisément, parce qu'elle est faible, car de ce fait, elle est manipulée constamment par son constructeur, qui remet à jour quotidiennement le système, chasse les bugs , évite les problèmes et donc les procès. L'intelligence artificielle faible est par conséquent perçue comme un moyen par lequel l'utilisateur de la machine n'a pas le contrôle sur cette machine.

Un saut fantasmatique prête alors à penser qu'une intelligence artificielle forte et autonome permettra à l'utilisateur de négocier directement avec la machine, même si elle est méchante. Une mythologie autour du libre-arbitre de l'intelligence artificielle s'est donc créée aujourd'hui pour échapper à l'angoisse d'une intelligence artificielle sous contrôle de son fabricant. De ce fait, il m'apparaît important de travailler concrètement sur l'ensemble des repères permettant à l'être humain de garder une différence nette entre la machine et l'humain.

J'évoquerai rapidement deux situations actuelles. Une grande banque (le Crédit mutuel) fait répondre à ses clients par un ordinateur très sophistiqué tel que Watson sans que les appelants soient informés qu'ils ont affaire à une intelligence artificielle. Si ce chemin est poursuivi, les supermarchés seront bientôt équipés de robots-caissiers sans que les consommateurs fassent la différence avec un être humain. Bien entendu cette éventualité est exclue dans l'immédiat, mais il faut anticiper les situations en travaillant d'ores et déjà sur les problèmes concrets. Dans les démocraties, il est nécessaire que le citoyen connaisse toujours l'origine des messages auxquels il est confronté. Dans cet esprit, il est important que toutes les personnes en contact téléphonique avec une machine en soient conscientes. Un message pourrait aviser le client de la façon suivante : « Vous êtes en contact avec une machine. Si vous préférez parler à un humain, appuyez sur la touche dièse. »

Le second problème que j'aborderai, vise la situation dans laquelle un individu est en contact avec une machine en le sachant, mais en pensant qu'elle a des capacités équivalentes à celles de l'être humain. Une telle croyance relève de l'anthropomorphisme. Alors qu'il a été si utile au développement de l'être humain, l'anthropomorphisme des machines risque de se retourner aujourd'hui contre l'humain.

L'intelligence artificielle est le concept qui a été retenu, était-ce un bon choix ? Il faudrait se demander pourquoi c'est ce mot qui a été retenu en 1956. Les fondateurs de la discipline n'ont pas vu qu'il allait poser problème ensuite. Il aurait mieux valu parler d'apprentissage automatique ou d'apprentissage logiciel. De même on parle de « machines autonomes » alors qu'il serait préférable d'employer le terme de « machines automatiques », on parle d'« empathie artificielle », alors que mieux vaudrait parler de « simulation d'empathie », on parle, enfin, de « réseaux de neurones » alors qu'on devrait plutôt parler de « réseaux de composants électroniques ». Il faut réviser notre langage, car il risque d'entraîner quiproquos et confusion. Nous assistons de ce fait à une véritable exploitation par les industriels de ce langage anthropomorphe. Les publicités pour les robots au Japon sont très significatives de ce point de vue. Derrière l'idée d'un robot autonome, se joue la volonté d'un certain nombre de commerciaux de nous faire oublier que les machines sont toujours reliées à leurs fabricants pour nous rendre service mais aussi, le cas échéant, nous manipuler.

L'État a un devoir d'informer sur l'ensemble de ces points. Le citoyen doit toujours savoir s'il est en présence d'une machine ou d'un humain, et être protégé des publicités mensongères. Par ailleurs, il me semblerait intéressant que les groupes de travail évoqués par Mme Lemaire comptent également des représentants des diverses religions car ils sont des personnes ressources.

En conclusion, je me réjouis de la somme des travaux menés sur l'intelligence artificielle. Il est très important de protéger l'homme des dangers physiques et matériels que les machines automatiques pourraient lui faire courir. Il est tout aussi essentiel de prévoir des directives sémantiques protégeant l'homme des dangers qu'il pourrait se faire courir à lui-même en raison d'une mauvaise appréciation de la réalité des machines automatiques. Pour coller à l'actualité, je dirai que la décision du Parlement européen de parler de « personnes électroniques » ou de « personnes robots » pour évoquer certains robots sophistiqués vient encore ajouter à la confusion. Tout cela rend difficile un regard réaliste sur ce qu'est l'intelligence artificielle.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page