Allez au contenu, Allez à la navigation

Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport

15 mars 2017 : Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport ( rapport d'information )

INTRODUCTION

L'intelligence artificielle n'est pas un simple terrain de jeu, même si les victoires des systèmes AlphaGo au jeu de Go face au champion Lee Sedol en mars 2016 et Libratus au Poker face à quatre joueurs professionnels en janvier 2017, ou, auparavant celles de Watson au jeu télévisé Jeopardy en 2011 et de Deep Blue aux échecs face à Garry Kasparov en 1997, pourraient le laisser penser.

Après la révolution qu'ont représentée Internet et les technologies de l'information et de la communication au cours des vingt dernières années, un nouveau bouleversement pourrait transformer profondément nos sociétés et nos économies : l'essor, l'accélération exponentielle et la diffusion massive des technologies d'intelligence artificielle.

Ces opportunités, qui pourront apporter dans notre futur des progrès dans de nombreux domaines, ne font pas suffisamment l'objet d'une analyse sereine et objective, sans doute sous l'effet d'une opinion publique souvent mal informée, voire désinformée en raison de représentations catastrophistes issues de la science-fiction et d'analyses médiatiques alarmistes.

L'irruption de l'intelligence artificielle au coeur du débat public remonte à un peu plus de deux ans, après la diffusion d'une lettre d'avertissement sur les dangers potentiels de l'intelligence artificielle, publiée en janvier 2015 et signée par 700 personnalités, le plus souvent des scientifiques et des chefs d'entreprises, rejoints par plus de 5 000 signataires en un an. Elle a été lancée pour alerter l'opinion publique et insister sur l'urgence de définir des règles éthiques et une charte déontologique pour cadrer la recherche scientifique dans ce domaine, qu'elle soit publique ou privée.

Il est frappant de constater qu'aucun argument sérieux ne venait étayer cette première mise en garde quant au risque présumé de dérive malveillante. Pourtant, même sans justification, ni preuve, cette alerte a contribué à renforcer les peurs et les angoisses irrationnelles induites par le déploiement des technologies d'intelligence artificielle.

De plus, cette naissance du débat public sur le sujet de l'intelligence artificielle selon un mode alarmiste a été suivie d'une certaine confusion en raison de la publication, en juillet 2015, d'une autre lettre signée par plus de mille personnalités demandant l'interdiction des robots tueurs, à savoir les armes autonomes aptes à sélectionner et combattre des cibles sans intervention humaine, en arguant du fait que l'intelligence artificielle pourrait à terme être plus dangereuse que des ogives nucléaires. Cette lettre a été publiée lors de l'ouverture de la Conférence internationale sur l'intelligence artificielle qui s'est tenue à Buenos Aires en 2015 et à la suite de deux réunions d'experts qui s'étaient tenues à Genève sur les armes autonomes.

Après ces deux événements marquants, 2016 a ensuite fait figure d'année de l'intelligence artificielle, marquée par l'attribution de la chaire d'informatique du Collège de France à Yann LeCun en février 20161(*) ou par l'événement largement commenté du 15 mars 2016, lorsque le système d'intelligence artificielle AlphaGo, créé par l'entreprise britannique DeepMind, rachetée en 2014 par Google, a battu le champion de Go, Lee Sedol, avec un score final de 4 à 1. Cette victoire marque l'histoire des progrès en intelligence artificielle et contredit la thèse de ceux qui estimaient une telle victoire impossible, tant le jeu de Go exige une subtilité et une complexité propres à l'intelligence humaine.

Tout au long de l'année 2016, parallèlement aux investigations conduites par vos rapporteurs, les initiatives en matière d'intelligence artificielle se sont multipliées à un rythme effréné. Après l'irruption de l'intelligence artificielle dans le débat public en 2015, l'année 2016 et le premier trimestre 2017 ont en effet été jalonnés de nombreux événements et rapports, dont il serait difficile de faire ici une liste exhaustive.

Pour mémoire, peuvent être mentionnés plusieurs travaux sur lesquels le présent rapport va revenir plus loin : les rapports sur l'intelligence artificielle du Parlement européen, de la Maison Blanche (trois rapports), de la Chambre des Communes, de l'association mondiale des ingénieurs électriciens et électroniciens (Institute of Electrical and Electronics Engineers ou IEEE), de la commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique (CERNA) de l'Alliance des sciences et technologies du numérique (Allistene) (deux rapports2(*)), de l'Institut national de recherche en informatique et en automatique (Inria), de l'Institut Mines-Télécom, du Club informatique des grandes entreprises françaises (Cigref), du Syndicat des machines et technologies de production (SYMOP), de l'association française pour l'intelligence artificielle (AFIA), de l'association française contre l'intelligence artificielle (AFCIA) etc. Des conférences d'envergure nationale ou internationale ont aussi été organisées sur le sujet par les Nations unies, l'OCDE, la Fondation pour le futur de la vie, le MEDEF, l'AFIA, la Commission Supérieure du Numérique et des Postes (CSNP) entre autres. Enfin, l'initiative « France IA », lancée par le Gouvernement en janvier 2017, s'est accompagnée de l'annonce d'un plan national pour l'intelligence artificielle en mars 2017.

Devant cet emballement, alors que les progrès se font à une vitesse exponentielle et reposent de plus en plus sur un financement privé aux moyens considérables, il est indispensable que la réflexion soit conduite de manière sereine et rationnelle, afin de mettre en avant les opportunités tout autant que les risques de l'intelligence artificielle, de partager la connaissance en vue de rassurer le public et de démystifier les représentations biaisées. Comme le disait Marie Curie, « dans la vie, rien n'est à craindre, tout est à comprendre ».

L'intelligence artificielle suscite en effet enthousiasme, espoir et intérêt, aussi bien que méfiance, incrédulité ou oppositions. À l'heure où les impacts de ces technologies, souvent par leur capacité prédictive, deviennent de plus en plus significatifs, y compris dans la vie quotidienne de chacun de nous, et où les frontières entre l'homme et la machine semblent pouvoir s'effacer peu à peu, les choix scientifiques et technologiques à opérer doivent, plus que jamais, pouvoir l'être en connaissance de cause.

Ces représentations excessives de l'intelligence artificielle, qui peuvent être totalement opposées, sont accentuées par la phase générale d'enthousiasme dans laquelle nous nous situons : en effet, selon les observations cycliques observées depuis un demi-siècle, la période récente s'apparente à un véritable « Printemps de l'intelligence artificielle ». Cette période polarise ainsi les opinions, qui peuvent être des angoisses excessives mais aussi des espoirs démesurés : les cycles d'espoirs et de déceptions qui jalonnent l'histoire de l'intelligence artificielle invitent à ne pas trop s'enthousiasmer en faisant preuve d'attentes irréalistes à l'égard des technologies existantes ou de celles mises à disposition dans un avenir proche.

Il convient donc d'aller au-delà des apparences et de regarder la réalité scientifique derrière les espoirs et les angoisses s'exprimant en raison du développement de l'intelligence artificielle. Le débat public ne peut pas s'engager sereinement dans l'ignorance des technologies mises en oeuvre, des méthodes scientifiques et des principes de l'intelligence artificielle. C'est pourquoi vos rapporteurs ont entendu mettre en lumière et partager la connaissance de l'état - à cet instant donné - de ces technologies en constante évolution.

Ils se posent la question de savoir comment développer une culture de la responsabilité et une prise en compte des questions éthiques au sein de la communauté des chercheurs en intelligence artificielle et en robotique3(*) et au-delà, parce qu'ils n'oublient pas que « science sans conscience n'est que ruine de l'âme », ainsi que l'affirmait Rabelais. Ils jugent qu'il relève du devoir citoyen de diffuser et partager la connaissance scientifique et technologique.

Les progrès en intelligence artificielle posent des questions auxquelles toute la société doit être sensibilisée : quels sont les opportunités et les risques qui se dessinent ? La France et l'Europe sont-elles dans une position satisfaisante dans la course mondiale qui s'est engagée ? Quelles places respectives pour la recherche publique et la recherche privée ? Quelle coopération entre celles-ci ? Quelles priorités pour les investissements dans la recherche en intelligence artificielle ? Quels principes éthiques, juridiques et politiques doivent encadrer ces technologies ? La régulation doit-elle se placer au niveau national, européen ou international ? Devant ces interrogations, vos rapporteurs estiment qu'il est de la responsabilité des pouvoirs publics de proposer un point d'équilibre qui devra toujours être remis en débat à proportion des découvertes scientifiques, de leurs transferts et de leurs usages. Tel est l'objet même du présent rapport.

Afin de prévenir les discours catastrophistes mais aussi un risque de futures désillusions, il est nécessaire d'opérer un bilan objectif de l'état de l'art en matière scientifique et technologique s'agissant de « l'intelligence artificielle ». C'est le rôle de l'OPECST et c'est la mission que se sont donnée vos rapporteurs : ils ont souhaité faire le point sur la recherche et les usages des technologies d'intelligence artificielle, en souligner les enjeux multiples et les riches perspectives, car ils sont animés d'une préoccupation pédagogique en vue de faciliter le partage des connaissances scientifiques et technologiques.


* 1 Yann LeCun, directeur de la recherche en intelligence artificielle de Facebook, professeur d'informatique et de neurosciences à l'Université de New York, a ainsi prononcé en tant que titulaire de la chaire annuelle « Technologies informatiques et sciences numériques » du Collège de France, le 4 février 2016 à 18h, au Collège de France, sa leçon inaugurale intitulée « Le deep learning, une révolution en intelligence artificielle ». Il y faisait valoir que « comme toute technologie puissante, l'intelligence artificielle peut être utilisée pour le bénéfice de l'humanité entière ou pour le bénéfice d'un petit nombre aux dépens du plus grand nombre ».

* 2 Le premier porte sur l'éthique du chercheur en robotique et l'autre sur l'éthique en apprentissage automatique.

* 3 Cette question, analysée plus loin, a fait l'objet du premier rapport de la commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique (CERNA) de l'alliance des sciences et technologies du numérique (Allistene). Allistene regroupe en effet les organismes de recherche publics concernés par le numérique, notamment par l'intelligence artificielle, comme le CNRS, le CEA, Inria, la CPU, la CDEFI et l'Institut Mines-Télécom. L'INRA, l'INRETS et l'ONERA en sont membres associés. Ce rapport est abordé au IV de la présente étude. Il peut être trouvé ici : https://hal.inria.fr/ALLISTENE-CERNA/hal-01086579v1