Allez au contenu, Allez à la navigation

Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport

15 mars 2017 : Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport ( rapport d'information )

TROISIÈME PARTIE :
LES PROPOSITIONS DE VOS RAPPORTEURS

Les propositions présentées ici n'ont pas vocation à couvrir l'ampleur des questions posées par la recherche en intelligence artificielle, ainsi que l'affirmait Jean de la Fontaine, « Loin d'épuiser une matière, On n'en doit prendre que la fleur ». Il s'agit plus de recommandations sous forme de contributions à la réflexion collective et vos rapporteurs n'ont pas entendu répondre en totalité aux défis posés pour la France et l'Europe par les enjeux industriels de l'intelligence artificielle, par l'automatisation de certaines tâches et par l'économie globalisée de plateformes qui se dessine avec l'émergence d'entreprises privées puissantes basées aux États-Unis ou en Chine. Ces dimensions, évoquées dans le rapport, ne sont pas le coeur de métier de l'OPECST et ne se traduisent donc que partiellement dans les propositions formulées ci-après.

I. POUR UNE INTELLIGENCE ARTIFICIELLE MAÎTRISÉE

Proposition n° 1 : Se garder d'une contrainte juridique trop forte sur la recherche en intelligence artificielle, qui - en tout état de cause - gagnerait à être, autant que possible, européenne, voire internationale, plutôt que nationale

Vos rapporteurs appellent à ne pas céder à la tentation de proposer et de mettre en place des mesures dans un cadre trop étroitement national, qui décourageraient la recherche en intelligence artificielle, mais plutôt à soutenir une forme de régulation internationale. Il convient de se garder d'une contrainte juridique trop forte sur la recherche dans ce domaine, qui gagnerait à être, en tout état de cause, instaurée à l'échelle européenne, voire internationale, mais pas uniquement nationale.

Le professeur de droit Albert De Lapradelle affirmait, de manière provocatrice, que « ce ne sont pas les philosophes avec leurs théories, ni les juristes avec leurs formules, mais les ingénieurs avec leurs inventions qui font le droit et surtout le progrès du droit ». Vos rapporteurs estiment que c'est surtout au législateur de réfléchir au droit souhaitable en matière d'intelligence artificielle et de robotique, au terme d'un débat public éclairé avec toutes les parties prenantes, du citoyen ordinaire à l'expert scientifique, en passant par l'entrepreneur et le technicien.

Il faudra savoir adapter la législation aux nouveaux risques posés par l'intelligence artificielle et la robotique, mais il faudra aussi veiller à ne pas freiner le développement de ces technologies. Des mesures trop contraignantes auraient pour effet d'augmenter les coûts de commercialisation et de mise en conformité, ou de poser de nouveaux freins légaux à l'innovation et à la rentabilité de ces secteurs d'activité. Un équilibre subtil est à trouver et le présent rapport entend contribuer à la réflexion collective en la matière.

La peur ne doit pas paralyser : vos rapporteurs ne veulent pas tomber dans la solution de facilité qui consisterait à faire un usage extensif du principe de précaution et donc à limiter, a priori, la recherche en intelligence artificielle. Une telle démarche serait contraire à l'esprit scientifique, que vos rapporteurs revendiquent et promeuvent. Elle serait également préjudiciable à l'intérêt national : sans rivaliser directement avec les États-Unis, la Chine ou le Japon en la matière, la France dispose d'atouts considérables en matière de recherche en intelligence artificielle et ne doit pas perdre cet avantage comparatif, au risque de se placer hors jeu dans la compétition internationale qui s'est engagée.

Proposition n° 2 : Favoriser des algorithmes et des robots sûrs, transparents et justes, et prévoir une charte de l'intelligence artificielle et de la robotique

Il faut favoriser des algorithmes et des robots qui soient à la fois sûrs, transparents et justes. Il faut aussi prévoir une charte de l'intelligence artificielle et de la robotique, qui nécessitera du temps et une concertation internationale.

L'approche européenne, voire internationale est importante à ce niveau. L'initiative IEEE présentée précédemment va dans ce sens, en particulier en ce qui concerne les problèmes liés aux standards, normes et certifications.

Les considérations de sécurité et de robustesse évoquées dans le présent rapport amènent à conclure qu'il est pertinent de poursuivre, en général, la réflexion sur la sécurité numérique et, en particulier, de prévoir des mécanismes d'arrêt d'urgence. L'interruption d'un système d'intelligence artificielle ou d'un robot doit être possible. Des « boutons rouges », réels ou virtuels, doivent permettre la désactivation des systèmes. Une telle sécurité est souhaitable mais elle peut être difficile à mettre en oeuvre, surtout que l'arrêt brutal d'un système peut avoir des conséquences graves et imprévisibles248(*).

Il faut rechercher la transparence des algorithmes contre les boîtes noires, les biais et les discriminations.

Il convient de prévoir aussi des mécanismes de traçabilité, du type journaux de bord ou loggings249(*), ces « mémoires internes » de type enregistreurs numériques des avions (appelées aussi « boîtes noires », mais qui n'ont rien à voir avec le qualificatif de « boîtes noires » appliqué aux algorithmes de deep learning). Pour pouvoir expliquer un éventuel dysfonctionnement, il faut être en mesure de remonter aux derniers circuits de décision et à leurs motifs. Comme il a été dit précédemment, la transparence des algorithmes de deep learning n'existe pas, à ce stade, et reste à construire. Il s'agit d'un axe prioritaire pour la recherche. L'initiative TransAlgo d'Inria, avec le concours du Conseil national du numérique (CNNum), va dans ce sens et mérite d'être applaudie. Mais elle doit se prolonger et prendre davantage d'ampleur, pour dépasser le strict cadre d'Inria. La question de la transparence des algorithmes ne se confond pas avec la question de leur loyauté, mais elle doit aussi être posée. Il faut noter qu'à la différence des méthodes d'apprentissage automatique profond tels que les algorithmes de deep learning, le traitement et l'analyse de données effectués par les réseaux bayésiens sont des systèmes transparents. Il ne revient pas aux pouvoirs publics de choisir entre telle ou telle technologie mais, à performance égale, les technologies transparentes doivent être privilégiées.

Pour Raja Chatila, directeur de l'Institut de Systèmes Intelligents et de Robotique, « le bouton rouge, c'est bien mais c'est déjà trop tard, il faut tout prévoir pour ne pas en arriver là. L'état du système doit être constamment observé et il faut pouvoir détecter toute déviance avant l'arrivée des problèmes ». Il faut porter, selon lui, une grande attention aux signes précurseurs, d'autant plus que les systèmes régis par des technologies d'intelligence artificielle peuvent avoir de vastes implications, qui seront de plus en plus stratégiques, à l'image de l'alimentation d'une grande ville en électricité. Il rappelle que tout robot peut virtuellement être dangereux, puisque qu'il s'agit d'un objet puissant en mouvement : ses mouvements peuvent devenir violents et son alimentation électrique peut impliquer des risques d'électrocution. Les dispositifs de vigilance mis en oeuvre doivent permettre de relever ce défi. En face de systèmes complexes, des « systèmes de systèmes » représentent des perspectives fondamentales en vue de la maîtrise des machines.

La question de la faisabilité de ces préconisations exigeantes, visant à disposer d'algorithmes et de robots qui soient à la fois sûrs, transparents et justes, se pose. Il n'est pas sûr qu'elles puissent être satisfaites, mais ce sont des objectifs que nous devons nous fixer, quoi qu'il en soit.

La charte de l'intelligence artificielle et de la robotique proclamerait ces objectifs et viserait à codifier les bonnes pratiques. Elle devrait être internationale, dans toute la mesure du possible, ou à défaut européenne. Elle ne se prononcerait pas en faveur de la création d'une personnalité morale des robots, mais proposerait des règles relatives aux interactions homme-machine et poserait des limites en matière d'imitation du vivant, pour les robots androïdes comme pour les agents conversationnels. Le citoyen devrait toujours savoir s'il est en présence d'une machine ou d'un humain.

Cette charte pourrait, en outre, proposer d'interdire les robots tueurs. Toutefois, ce débat aurait davantage sa place dans le cadre international des conventions sur les armes et du traité sur la non-prolifération des armes nucléaires (TNP).

Proposition n° 3 : Former à l'éthique de l'intelligence artificielle et de la robotique dans certains cursus spécialisés de l'enseignement supérieur

Nous devons offrir de façon systématique des formations à l'éthique de l'intelligence artificielle et de la robotique dans les cursus de l'enseignement supérieur qui traitent des algorithmes, de l'intelligence artificielle et de la robotique. Google Deep Mind le propose, d'ailleurs, pour tous les masters britanniques spécialisés. La CERNA pourrait être associée à ce projet.

Les formes de cette offre de formation devront être innovantes, mobiliser les étudiants, à travers des ateliers, des débats et des mises en situation. Il conviendra d'éviter la forme du module de cours théorique, validé après le suivi d'un simple cours magistral.

La diffusion de ces connaissances sur l'éthique de l'intelligence artificielle et de la robotique vers les autres étudiants, voire le grand public, pourrait être recherchée.

Proposition n° 4 : Confier à un institut national de l'éthique de l'intelligence artificielle et de la robotique un rôle d'animation du débat public sur les principes éthiques qui doivent encadrer ces technologies

Au-delà de la nouvelle mission de la CNIL, il faut confier à un institut national de l'éthique de l'intelligence artificielle et de la robotique un rôle d'animation du débat public sur les principes éthiques qui doivent encadrer ces technologies. Il peut s'agir d'un institut ou d'une commission nationale. La création d'un comité national d'éthique de la robotique est proposée par le SYMOP, et celle d'un comité national d'éthique de l'intelligence artificielle a été évoquée devant vos rapporteurs par Max Dauchet et Laurence Devillers.

Les expériences de la CNIL, de la CERNA et du COMETS seront à considérer. Il n'est pas certain qu'il faille séparer la recherche en intelligence artificielle de la réflexion éthique sur l'intelligence artificielle, mais il est certain que les chercheurs spécialisés en intelligence artificielle et en robotique ne doivent pas être les seuls à participer à cette réflexion. L'Institut pourra se préoccuper de l'acceptabilité individuelle et sociale de ces technologies et étudier les effets secondaires imprévus et/ou indésirables des différents outils de l'intelligence artificielle.

L'institut devra s'ouvrir aux SHS, aux associations et aux ONG. Les pouvoirs publics ne devront pas être les seuls à en assurer le financement. Les entreprises privées, qui se donnent pour objectif d'informer et d'éduquer dans le domaine des ces technologies et d'accroître leurs effets bénéfiques pour la société (à l'image du « partnership on AI »), pourraient participer à son financement.

Cet institut national de l'éthique de l'intelligence artificielle et de la robotique pourra s'intéresser aux problématiques « d'explicabilité » évoquées plus haut, d'autant plus que le projet Trans-algo gagnerait à être élargi au-delà de l'Inria, comme il a été vu dans le rapport. La démarche ne doit pas être réservée à une seule structure de recherche, mais plusieurs équipes doivent y travailler parallèlement et un institut national pourrait impulser les projets, coordonner les recherches, animer le débat public et faire des propositions aux autorités publiques.

Proposition n° 5 : Accompagner les transformations du marché du travail sous l'effet de l'intelligence artificielle et de la robotique en menant une politique de formation continue ambitieuse visant à s'adapter aux exigences de requalification et d'amélioration des compétences

Les transformations du marché du travail sous l'effet de l'intelligence artificielle et de la robotique imposent de mener une politique de formation continue ambitieuse visant à s'adapter aux exigences de requalification et d'amélioration des compétences. Il s'agit à la fois d'accompagner les transformations du marché du travail, d'adapter le système éducatif et de développer les formations professionnelles idoines pour garantir une souplesse suffisante dans la reconversion des travailleurs.

Les entreprises devront envoyer plus systématiquement leurs salariés en formation sur leur temps de travail, de manière à actualiser leurs connaissances et leurs compétences, par exemple tous les cinq ans. Le Compte personnel d'activité (CPA) peut être un outil mobilisable à cette fin et le service « Formation Tout au Long de la Vie » (FTLV), guichet unique pour l'usager comme pour l'entreprise, permet de concrétiser le droit à la formation continue, tant pour les démarches d'orientation, de bilan, d'accompagnement vers l'emploi, que pour les actions de formation et de validation des acquis de l'expérience.

Les métiers du futur devront relever les défis technologiques posés par l'intelligence artificielle et la robotique, sachant que les hommes bénéficieront de nouvelles activités liées à la diffusion de ces technologies : concevoir, entraîner, éduquer, surveiller, réparer les systèmes et les machines. De nouveaux métiers deviendront envisageables, et ils apporteront autant de nouvelles opportunités d'emplois. Parmi ces métiers qui vont émerger, certains sont encore inconnus, mais d'autres peuvent d'ores et déjà être identifiés : concepteur, entraîneur, éducateur, vérificateur ou, encore, évaluateur des systèmes d'intelligence artificielle et des robots.


* 248 Dans ce cas, l'opérateur est conduit à faire un choix rapide entre deux types de conséquences négatives, celles liées aux dysfonctionnements du système d'IA ou celles liées aux conséquences de l'arrêt du système.

* 249 En informatique, ces journaux, historiques des événements ou loggings désignent « l'enregistrement séquentiel dans un fichier ou une base de données de tous les événements affectant un processus particulier (application, activité d'un réseau informatique...). Le journal (en anglais log file ou plus simplement log), désigne alors le fichier contenant ces enregistrements. Généralement datés et classés par ordre chronologique, ces derniers permettent d'analyser pas à pas l'activité interne du processus et ses interactions avec son environnement » (source : Wikipédia).