Allez au contenu, Allez à la navigation

Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport

15 mars 2017 : Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport ( rapport d'information )

B. LE CHAMP DES INVESTIGATIONS DE L'ÉTUDE

1. L'étude de faisabilité du rapport conclut à la pertinence d'une étude spécifique de l'OPECST

L'étude de faisabilité a tout d'abord établi un bilan des précédents travaux de l'Office et des autres travaux sur l'intelligence artificielle conduits récemment en dehors de son cadre.

À travers cette revue des rapports de l'OPECST il s'agissait de voir si une étude analogue avait été conduite et de déterminer ce qu'il était pertinent d'analyser de manière plus spécifique concernant l'intelligence artificielle.

Ainsi, l'OPECST a, dernièrement, rendu en 2016 un rapport sur les robots et la loi, reprenant le compte rendu d'une audition publique organisée le 10 décembre 20158(*). Auparavant, et en allant du plus récent au plus ancien, l'Office a rendu plusieurs travaux sur le thème du numérique, démentant la thèse du livre de Laure Belot, « La déconnexion des élites. Comment Internet dérange l'ordre établi ? »9(*).

Il a ainsi travaillé sur le numérique au service de la santé10(*), sur la sécurité numérique11(*), sur le big data dans l'agriculture12(*), sur les drones et la sécurité des installations nucléaires13(*), sur les nouveaux moyens de transports14(*), sur les nouvelles technologies d'exploration et de thérapie du cerveau15(*), et, précédemment, sur la gouvernance mondiale de l'Internet16(*), sur les conséquences de l'évolution scientifique et technique dans le secteur des télécommunications17(*), sur les enjeux de société posés par le monde virtuel18(*), sur les techniques d'apprentissages en matière informatique19(*), sur l'entrée dans la société de l'information20(*) et sur les conséquences de la révolution numérique21(*).

L'Office n'a cependant jamais travaillé directement et globalement sur l'intelligence artificielle, même si certains enjeux, tels que l'impact sur la santé, la protection des données ou les moyens de transport, ont pu être entrevus à l'occasion de précédentes études menées. Il semblait donc tout à fait nécessaire d'approfondir ce thème à travers une étude intégrée approfondie.

Les rapporteurs se sont ensuite interrogés sur l'existence d'une étude analogue concernant l'intelligence artificielle effectuée en dehors de l'OPECST. Pour répondre à cette question, différentes publications nationales et européennes ont été passées en revue, sans identifier de rapport public faisant le point sur ces technologies, ni sur les opportunités et les risques qu'elles incarnent.

Alors que ces opportunités et ces risques, en lien avec l'évolution des techniques, l'accélération des capacités des machines, la disponibilité de masses de données énormes et les usages de l'intelligence artificielle devaient de toute évidence être identifiés et évalués, les pouvoirs publics paraissent ne pas avoir pris toute la mesure de l'enjeu, bien que cela fût souhaitable.

Deux exceptions ont été relevées : une initiative émanant d'une députée européenne et le travail d'une association missionnée par la Commission européenne. En effet, au sein des institutions de l'Union européenne, Mme Mady Delvaux, présidente d'un groupe de travail du Parlement européen sur la robotique et l'intelligence artificielle, a rendu public, le 31 mai 2016, un projet de rapport contenant des recommandations à la Commission européenne relatives à des règles de droit civil pour la robotique, assorti d'une motion portant résolution du Parlement européen. Antérieurement, l'association EuRobotics (« European Robotics Coordination Action »), en charge du programme de recherche de l'Union européenne en robotique, qui a pour objectif de favoriser le développement de la robotique en Europe, a proposé le 31 décembre 2012 un projet de livre vert sur les aspects juridiques de la robotique22(*).

D'autres initiatives, moins en rapport avec l'intelligence artificielle, ont néanmoins été mentionnées dans l'étude de faisabilité. Au niveau national, le Parlement a débattu et adopté, en 2016, le projet de loi pour une République numérique23(*). Également en 2016, la commission « Technologies de l'information et de la communication » (TIC) de l'Académie des technologies a produit une note interne répondant à la question suivante : « l'accélération des nouvelles technologies numériques produit-elle des inquiétudes et une difficulté d'acceptation de la société ? ». En 2015, l'Académie des technologies a rendu une communication sur le « big data » et a poursuivi les activités de son groupe de travail « Vers une technologie de la conscience ? ». Initiés en 2014 et animés par Gérard Sabah et Philippe Coiffet, les travaux de ce groupe de travail n'ont pas débouché sur un rapport. En 2009, l'Académie des technologies avait, en revanche, sur décision de son conseil académique, publié une brochure de dix questions sur l'intelligence artificielle et la technologie posées à l'académicien Gérard Sabah. Il ne s'agissait pas pour autant formellement d'un rapport, d'un avis ou d'une communication de l'Académie des technologies sur le thème de l'intelligence artificielle. Les précisions apportées par cette brochure étaient cependant utiles pour éclairer la réflexion et les discussions sur le sujet. Enfin, il faut mentionner une lettre de veille du pôle de compétitivité Cap Digital sur l'intelligence artificielle en 201524(*) et le fait que l'Agence nationale de la recherche (ANR) ait consacré un de ses « cahiers »25(*) au thème de l'intelligence artificielle et de la robotique en 2012, intitulé « Intelligence Artificielle et Robotique : Confluences de l'Homme et des STIC »26(*).

De manière plus significative, en 2015, la commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique (CERNA) de l'alliance des sciences et technologies du numérique (Allistene), sous la présidence de Max Dauchet, a rendu son premier rapport public consacré à l'éthique de la recherche en robotique27(*).

La même année, pour mémoire, le colloque annuel de la conférence des présidents d'université (CPU) ouvert par Bernard Stiegler, directeur de l'Institut de recherche et d'innovation (IRI) du centre Georges Pompidou et professeur à l'Université de Londres, a eu pour thème « L'Université 3.0 », l'intelligence artificielle avait été évoquée et l'idée d'« Université 4.0 » avait conclu ce colloque, renvoyant ainsi au processus progressif dans lequel s'inscrit désormais la production de la connaissance et la diffusion des savoirs.

Aucun de ces travaux ne semblant de nature à dispenser l'OPECST d'engager une réflexion plus approfondie sur le thème de l'intelligence artificielle, vos rapporteurs ont proposé de poursuivre leur préparation d'un rapport de l'OPECST sur l'intelligence artificielle dans un cadre et selon des modalités déterminés et approuvés par leurs collègues.

2. Un ciblage délibéré sur un nombre limité de problématiques et de pistes d'investigation

Vos rapporteurs ont souhaité préciser le champ d'investigations retenu, permettant de répondre à la saisine transmise par la commission des affaires économiques du Sénat et de contribuer à faire connaître et partager ce qu'est aujourd'hui, et ce que peut devenir demain l'intelligence artificielle.

Les enjeux de ce thème d'étude sont tout autant scientifiques et technologiques que politiques, sociétaux, économiques, philosophiques, éthiques28(*), juridiques, éducatifs, médicaux, ou, encore, militaires.

Compte tenu des délais impartis, il leur a fallu ne retenir que certaines problématiques du champ de l'intelligence artificielle pour la conduite de leurs investigations, en ayant le souci d'optimiser la plus-value relative du rapport. Les différents thèmes pouvant être traités ont été circonscrits et parmi eux, neufs domaines d'investigation au moins peuvent être distingués :

1. La recherche publique en intelligence artificielle et les technologies informatiques ;

2. La recherche privée en intelligence artificielle (dont la question de la place des géants de l'Internet) ;

3. Les enjeux philosophiques et éthiques de l'intelligence artificielle ;

4. Les enjeux politiques et juridiques de l'intelligence artificielle ;

5. Les enjeux éducatifs de l'intelligence artificielle ;

6. Les enjeux économiques, industriels et financiers de l'intelligence artificielle (dont les systèmes et moyens de transports) ;

7. Les usages de l'intelligence artificielle en matière de technologies médicales (pour l'aide au diagnostic, la thérapeutique, l'épidémiologie, la chirurgie...) ;

8. Les usages de l'intelligence artificielle pour la défense et les technologies militaires ;

9. Le projet transhumaniste d'homme augmenté.

Les aspects scientifiques et technologiques constituant le coeur de métier de l'OPECST et sa plus-value spécifique par rapport aux autres commissions et délégations parlementaires, les points 1 et 2 ont été retenus. La place considérable prise par la recherche privée pose la question des enjeux de pouvoir et de sécurité par rapport à la recherche publique. Elle touche même aux problématiques de souveraineté et d'indépendance nationale, d'autant plus que la colonisation numérique américaine est une réalité incontestable.

Les points 3, 4 et 5 ont aussi été retenus car ils soulèvent des questions essentielles. Ils couvrent d'ailleurs déjà un champ très large d'investigation. Les enjeux philosophiques, éthiques, politiques, juridiques et éducatifs29(*) de l'intelligence artificielle sont en effet majeurs et les identifier devrait permettre de dépasser les peurs et les inquiétudes exprimées en vue d'engager un débat public plus serein à ce sujet.

Les enjeux financiers, économiques et industriels (point 6) n'ont pas été écartés mais mis au second plan dans la mesure où ce domaine correspond moins directement à la mission et à la plus-value apportée par l'OPECST.

Les usages de l'intelligence artificielle en matière médicale justifieraient un rapport à part entière et vos rapporteurs ont donc mis cette dimension de côté dans l'attente de prochains travaux. Ils évoquent toutefois ces usages dans le présent rapport mais de manière souvent illustrative.

Le point 8 sur les usages de l'intelligence artificielle pour la défense et les technologies militaires a été écarté pour deux raisons : d'une part, il s'agit d'un sujet qui relève assez largement d'une régulation internationale et, d'autre part, l'accès à l'information aurait été extrêmement difficile compte tenu de la sensibilité du sujet. La confidentialité et la discrétion étant de mise en matière de recherche militaire, vos rapporteurs n'ont pas souhaité s'engager dans cette voie.

Enfin, le point 9 sur le transhumanisme est partiellement abordé, davantage sous l'aspect des enjeux éthiques de l'intelligence artificielle. Il n'y avait pas lieu de traiter spécifiquement du transhumanisme, mouvement controversé, bien éloigné de l'intérêt général recherché par vos rapporteurs : il relève en effet davantage du projet idéologique que de la réalité scientifique et couvre de plus un champ différent de celui de l'intelligence artificielle. Il inclut par exemple une partie des biotechnologies, ainsi que d'autres technologies émergentes.

Vos rapporteurs ont estimé que l'angle d'entrée le plus fécond en matière d'intelligence artificielle était de mettre l'accent sur les enjeux éthiques car ils permettent d'aborder de manière transversale la plupart des aspects retenus de manière prioritaire, à savoir la recherche publique et privée ainsi que les enjeux philosophiques, politiques, juridiques et éducatifs de l'intelligence artificielle.

Sous couvert d'une focalisation sur « l'éthique de l'intelligence artificielle », il a été possible de poursuivre des investigations dans chacun de ces sous-domaines, en mettant en évidence les opportunités et les risques que représente l'intelligence artificielle.

Cette réflexion sur les questions éthiques a été conduite au sens large et s'est étendue de l'éthique de la recherche en intelligence artificielle jusqu'à l'éthique des robots intelligents, en passant par la revue de l'ensemble des démarches éthiques engagées en la matière.

Elle présentait aussi l'intérêt de ne pas céder à la tentation de définir un cadre juridique contraignant, qui aurait eu pour inconvénient de figer des règles en codifiant des préceptes moraux et, partant, de gêner et de ralentir l'innovation. Vos rapporteurs, au terme de leurs investigations, ne sont toujours pas convaincus de l'urgence d'une intervention législative ou réglementaire en matière d'intelligence artificielle, en raison de son caractère très évolutif. Pour eux, une focalisation sur l'éthique de l'intelligence artificielle permet à la fois de répondre à des préoccupations de court terme mais aussi de plus long terme. Pour les premières, vos rapporteurs retiennent un propos de Laurence Devillers, professeure à l'Université Paris IV Sorbonne et directrice de recherche au Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur (LIMSI-CNRS, campus Paris-Saclay) : « L'utilisation de systèmes informatiques fonctionnant à partir d'apprentissage machine, met en lumière la nécessité d'une réflexion éthique sur les limites et performances des systèmes, surtout lorsqu'ils s'adaptent en continu. Ces systèmes amènent une rupture technologique et juridique par rapport aux algorithmes classiques paramétrables. » Sur le long terme, vos rapporteurs ont entendu l'appel que Yann LeCun a lancé lors de sa leçon inaugurale au Collège de France : « dans quelques décennies, quand nous pourrons peut-être penser à concevoir des machines réellement intelligentes, nous devrons répondre à la question de comment aligner les valeurs des machines avec les valeurs morales humaines ». Même s'il s'agit d'une question de long terme, elle mérite d'être posée dès aujourd'hui. C'est d'ailleurs le thème du travail30(*) conduit en 2016 et 2017 par l'association mondiale des ingénieurs électriciens et électroniciens (Institute of Electrical and Electronics Engineers ou IEEE).

Ces technologies doivent, en effet, être maîtrisées, utiles et faire l'objet d'usages conformes à nos valeurs humanistes.


* 8 Les robots et la loi, Jean-Yves Le Deaut et Bruno Sido, rapporteurs, Sénat, n° 570 (2015-2016).

* 9 Ce livre fait valoir l'argument d'une prétendue faible connexion des élites avec les enjeux de transformation massive de nos sociétés sous l'impact de la révolution numérique.

* 10 Le numérique au service de la santé, Catherine Procaccia et Gérard Bapt, rapporteurs, Sénat n° 465 (2014-2015).

* 11 Sécurité numérique et risques : enjeux et chances pour les entreprises, Anne-Yvonne Le Dain et Bruno Sido, rapporteurs, Sénat n° 271 (2014-2015).

* 12 La place du traitement massif des données (big data) dans l'agriculture : situation et perspectives, Jean-Yves Le Deaut, Anne-Yvonne Le Dain et Bruno Sido, rapporteurs, Sénat n° 614 (2014-2015).

* 13  Les drones et la sécurité des installations nucléaires, Jean-Yves Le Deaut et Bruno Sido, rapporteurs, Sénat n° 267 (2014-2015).

* 14  Les nouvelles mobilités sereines et durables, Denis Baupin et Fabienne Keller, rapporteurs Sénat n° 293 (2013-2014).

* 15 Les enjeux des nouvelles technologies d'exploration et de traitement du cerveau, Alain Claeys et Jean-Sébastien Vialatte, rapporteurs, Sénat n° 476 (2011-2012).

* 16 La gouvernance mondiale de l'Internet, Claude Birraux et Jean-Yves Le Deaut, rapporteurs, Sénat n° 219 (2005-2006).

* 17 Les conséquences de l'évolution scientifique et technique dans le secteur des télécommunications, Pierre Laffitte et René Tregouet, rapporteurs, Sénat n° 159 (2001-2002).

* 18  Images de synthèse et monde virtuel : techniques et enjeux de société, Claude Huriet, rapporteur, Sénat n° 169 (1997-1998)

* 19 Les techniques des apprentissages essentiels pour une bonne insertion dans la société de l'information, Franck Sérusclat, rapporteur, Sénat n° 383 (1996-1997).

* 20 La France et la société de l'information : un cri d'alarme et une croisade nécessaire, Pierre Laffitte, rapporteur, Sénat n° 213 (1996-1997).

* 21 Les nouvelles techniques d'information et de communication : l'Homme cybernétique, Franck Sérusclat, rapporteur, Sénat n° 232 (1994-1995).

* 22 Cf. - http://www.eu-robotics.net/cms/upload/PDF/euRobotics_Deliverable_D.3.2.1_Annex_Suggestion_GreenPaper_ELS_IssuesInRobotics.pdf

* 23 Cf. le rapport Sénat n° 534 (2015-2016) de M. Christophe-André Frassa, ainsi que les avis n 524, 525, 526 et 528 respectivement de M. Philippe Dallier, au nom de la commission des finances, de Mme Colette Mélot, au nom de la commission de la culture, de l'éducation et de la communication, de M. Patrick Chaize, au nom de la commission de l'aménagement du territoire et du développement durable, et de M. Bruno Sido, au nom de la commission des affaires économiques.

* 24 Cf.  http://www.craft.ai/images/posts/craft-ai-interviewed-by-cap-digital/craft_ai_article_cap_digital.pdf

* 25 Cahier n° 4, mars 2012.

* 26 Cf.  http://www.agence-nationale-recherche.fr/fileadmin/user_upload/documents/2012/Cahier-ANR-4-Intelligence-Artificielle.pdf

* 27 Cf. https://hal.inria.fr/ALLISTENE-CERNA/hal-01086579v1

* 28 L'éthique est une discipline philosophique qui porte sa réflexion sur les fondements de la morale. Elle envisage donc les normes, les limites et les devoirs de celle-ci. L'éthique se définit aussi comme un ensemble de principes moraux qui sont à la base de la conduite d'un sujet.

* 29 La note « Quelles priorités éducatives pour 2017-2027 ? » de France Stratégie, parue en mai 2016, s'interroge sur les conditions de réussite du virage du numérique. Elle a conduit à un débat public le 13 juin 2016. Elle se demande comment prendre appui sur le numérique pour améliorer les pédagogies, sur quels niveaux d'enseignement faire porter en priorité les investissements en matière de numérique, s'il faut privilégier le développement préalable de contenu pédagogique numérique ou bien l'équipement des élèves, des établissements ou des enseignants et, enfin, sur quelles collectivités faire reposer la charge de ces financements. Une note de la fondation Terra Nova du 10 mars 2016 intitulée « L'école sous algorithme » appelle à développer la culture numérique dans le monde éducatif et à un travail de l'OPECST sur les technologies éducatives.

* 30 Cf. le site http://standards.ieee.org/develop/indconn/ec/autonomous_systems.html