Allez au contenu, Allez à la navigation

Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport

15 mars 2017 : Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport ( rapport d'information )

C. LA PRISE EN COMPTE GRANDISSANTE DES ENJEUX ÉTHIQUES

1. Le cadre national de la réflexion sur les enjeux éthiques de l'intelligence artificielle

La place des systèmes d'intelligence artificielle et des machines utilisant ces technologies, notre dépendance à leur égard et la maîtrise que nous conservons de leur évolution sont des questions qui méritent d'être débattues dès aujourd'hui.

Il convient d'anticiper les problèmes posés par l'intelligence artificielle et d'accompagner ses usages d'une réflexion éthique.

Comme il a été vu, la science-fiction, avec Isaac Asimov, a envisagé la question et proposé des lois de la robotique, mais comment garantir, au-delà du statut juridique du robot et de ces lois, que ces technologies puissent être maîtrisées, utiles et conformes à nos valeurs ? La réflexion sur les enjeux éthiques de l'intelligence artificielle doit clarifier le cadre dans lequel s'inscrit la recherche en intelligence artificielle, ses usages ainsi que les limites éventuelles qu'il faut fixer à l'intelligence artificielle. Pour Gérard Sabah, les aspects pertinents sur lesquels l'éthique de l'intelligence artificielle doit réfléchir et se prononcer sont « les impacts de telles machines sur la vie privée, sociale, politique et économique, ainsi que les valeurs qui les sous-tendent et celles qu'elles impliquent ». Il poursuit en affirmant que « la société doit définir clairement les limites acceptables entre la science et la fiction, le progrès et les risques encourus, afin de préserver notre identité et notre liberté ».

La CERNA d'Allistene, déjà évoquée plusieurs fois, joue en la matière un rôle majeur, elle a d'ailleurs produit des rapports, dont il sera rendu compte plus loin. Sa création est récente et fait suite aux demandes parallèles en 2009 du Comité d'éthique du CNRS (COMETS) et d'Inria. Le rapport du COMETS sur l'éthique des Sciences et technologies de l'information et de la communication (STIC) a particulièrement donné naissance à la CERNA196(*). Il convient de relever que le COMETS s'est, à plusieurs reprises, penché sur les problèmes éthiques posés par les STIC197(*).

Le rôle de la CERNA en matière de réflexion éthique sur le numérique est remis en perspective198(*) avec les nouvelles missions dévolues à la CNIL, après la loi du 7 octobre 2016 pour une République numérique199(*). Aux termes de cette loi, la CNIL, qui se définit comme l'autorité française de contrôle en matière de protection des données personnelles200(*), a en effet été chargée de conduire une réflexion sur les questions d'éthique liées au numérique et aux algorithmes, ce qui la mène à animer le débat public en la matière. Une page Internet dédiée a été créée201(*). Il s'agit aussi de s'intéresser aux questions de sociétés soulevées par l'évolution des technologies numériques. La CNIL a choisi d'y répondre par l'organisation de débats publics, d'ateliers et de rencontres. Selon elle, son rôle consiste à « initier un processus de discussion collectif que feront vivre tous ceux - institutions publiques, société civile, entreprises - qui souhaitent y prendre part en organisant des débats et manifestations multiformes ». Elle a ainsi mis en place une plateforme202(*) pour contacter l'équipe de la mission « éthique et numérique », afin de permettre à toute « institution publique, membre de la société civile ou entreprise » de pouvoir prendre part au débat sur les algorithmes. Elle assurera la coordination et la cohérence des diverses manifestations. 

Un cycle de débats publics intitulé « Les algorithmes en débat » est ainsi organisé par la CNIL en 2017. Pour la CNIL, la réflexion doit porter cette année sur « les algorithmes à l'heure de l'intelligence artificielle ». Elle retient que « ceux-ci occupent dans nos vies une place importante, bien qu'invisible. Résultats de requêtes sur un moteur de recherche, ordres financiers passés par des robots sur les marchés, diagnostics médicaux automatiques, affectation des étudiants à l'université : dans tous ces domaines, des algorithmes sont à l'oeuvre. Ces derniers mois, le sujet des algorithmes s'est invité dans le débat public et a suscité une forte attention médiatique ». Différentes questions sont posées203(*).

À l'automne 2017, la CNIL rendra publique la synthèse des échanges et des contributions. Il s'agira d'établir une « cartographie de l'état du débat public » et un « panorama des défis et enjeux ». Des pistes ou des propositions pour accompagner le développement des algorithmes dans un cadre éthique pourraient faire par la suite l'objet d'arbitrages par les pouvoirs publics.

L'articulation et la complémentarité entre le travail de la CERNA qui représente le monde de la recherche, et celui de la CNIL, chargée de la dimension sociétale de la réflexion éthique, sont nécessaires et pourraient être formalisées. À ce stade, vos rapporteurs relèvent que les manifestations envisagées204(*) sont le plus souvent organisées conjointement par la CNIL avec la CERNA, le COMETS, l'AFIA, Universcience ou, encore, le Genotoul de Toulouse (plateforme éthique et bioscience).

Le Conseil général de l'économie (CGE) a rendu le 15 décembre 2016 un rapport au ministre de l'économie et des finances portant sur les « Modalités de régulation des algorithmes de traitement des contenus »205(*). Ses auteurs, Jacques Serris et Ilarion Pavel, montrent que les algorithmes de traitement des contenus sont inséparables des données qu'ils traitent et des plateformes qui les utilisent pour proposer un service. Mais alors qu'il y a de nombreux travaux sur la protection des données et sur la loyauté des plateformes, il y en a encore peu sur les algorithmes eux-mêmes. Ceux-ci sont pourtant des moteurs d'innovations, avec la révolution des réseaux neuronaux et de l'apprentissage profond. Ce rapport ne propose pas une nouvelle régulation sectorielle qui s'appliquerait aux algorithmes. En revanche, il souligne qu'il faut développer la capacité à tester et contrôler les algorithmes - tout en préservant l'innovation. Ses auteurs proposent cinq pistes d'action qui ont pour objet la montée en compétence et le développement de l'expertise des pouvoirs publics, mais appellent aussi au développement de bonnes pratiques dans les différents secteurs économiques. Ils soulignent par ailleurs qu'il faut préserver une image positive des technologies utilisées pour concevoir ou opérer des algorithmes. C'est essentiel pour continuer à attirer les jeunes générations de françaises et de français dans des filières de formation exigeantes (mathématiques, ingénieurs ou data scientists) où la France est aujourd'hui bien placée.

Vos rapporteurs relèvent que la plateforme scientifique collaborative « TransAlgo »206(*), lancée en janvier 2017, portée par Inria et placée sous la direction de Nozha Boujemaa, travaille de manière utile au développement de pratiques transparentes et responsables dans le traitement algorithmique des données207(*). Dans la notion de « responsabilité », sont considérés à la fois le respect des règles juriques et le respect des règles éthiques. Il s'agit de répondre aux préoccupations exprimées d'explicabilité, de loyauté, de neutralité, de non-discrimination des algorithmes mais aussi des biais des données et des algorithmes. Plus récemment, un Institut « Convergence i2-DRIVE » (son nom vient de « Interdsciplinary Institute for Data Research : Intelligence, Value and Ethics ») porté par l'Université Paris-Saclay et lui aussi piloté par Nozha Boujemaa - incluant 14 partenaires académiques et bénéficiant de soutiens industriels - a été accepté en avril 2017 dans le cadre de l'appel à projet du PIA 2 et comporte un programme de travail sur dix ans. Il vise la conjonction des expertises en sciences du numérique et en sciences humaines et sociales pour l'innovation en matière de recherche et de formation dans le domaine des sciences des données et de l'intelligence artificielle avec leurs enjeux socio-économiques et éthiques. Cette conjonction annonce aussi des perspectives fécondes en matière de transfert et d'innovation par la vision systémique que proposera i2-DRIVE pour adresser les défis technologiques et éthiques de la transformation numérique à l'ère des Big Data et des systèmes cognitifs.

Pour la CERNA, dans son rapport sur l'éthique de la recherche en robotique, le respect de la vie privée doit être une priorité dans la mesure où les systèmes d'intelligence artificielle et les robots déplacent les frontières d'utilisation, d'exploitation et d'usage, ce qui pose de nouvelles difficultés208(*). La conception des robots doit donc intégrer l'exigence de confidentialité des données personnelles qu'ils traitent.

Ce rapport remarque également que les capacités d'autonomie des systèmes d'intelligence artificielle et des robots portent surtout actuellement sur l'autonomie opérationnelle, mais demain leur autonomie sera de plus en plus décisionnelle, issue de systèmes plus élaborés. Les robots auront, de plus, outre les développements en informatique, la possibilité d'une plus grande ressemblance avec l'être humain, comme tente de le montrer le chercheur Hiroshi Ishiguro au Japon. Les interrogations éthiques sur les finalités d'un tel projet d'intelligence artificielle humanoïde et sur ses effets s'imposent. La ressemblance avec l'humain renvoie à l'hypothèse de la « Vallée de l'étrange », introduite par Masahito Mori en 1970. Cette sorte de malaise ressenti par les êtres humains face à des entités presque semblables à eux, mais pas au point de s'y tromper a été présentée précédemment de manière plus détaillée par vos rapporteurs.

La CERNA a formulé neuf préconisations générales, sept sur l'autonomie, cinq sur l'imitation du vivant et quatre sur l'homme augmenté. Vos rapporteurs les rappellent ici de manière synthétique :

- lorsque le chercheur s'exprime en public sur une question de société relative à son activité professionnelle, il doit distinguer son intervention experte de l'expression de son opinion personnelle ;

- les établissements de recherche se dotent de comités opérationnels d'éthique en sciences et technologies du numérique ;

- les établissements de recherche et les acteurs concernés mettent en place des groupes de travail et des projets de recherche interdisciplinaires ouverts à l'international et incluant des chercheurs et des juristes pour traiter des aspects juridiques des usages de la robotique ;

- les établissements de recherche et les acteurs concernés mettent en place des actions de sensibilisation et de soutien auprès des chercheurs et des laboratoires de recherche dans le numérique. Lors de l'élaboration et dans la conduite de ses projets le chercheur saisira, si nécessaire, le comité opérationnel d'éthique de son établissement ;

- lors de la conception d'un système numérique ayant la capacité de capter des données personnelles, le chercheur se demandera si ce système peut être équipé de dispositifs facilitant le contrôle de sa conformité à la réglementation lors de sa mise en usage ;

- le chercheur veillera à prendre en compte l'exposition potentielle de ses recherches à des attaques numériques ;

- si le chercheur considère que le projet vise un développement pouvant avoir un impact important sur la vie des utilisateurs, il veillera à en délibérer avec les acteurs et les utilisateurs potentiels afin d'éclairer au mieux les choix scientifiques et technologiques ;

- le chercheur veillera à documenter l'objet ou le système conçu et à en exposer les capacités et les limites. Il sera attentif aux retours d'expérience à tous les niveaux, du développeur à l'utilisateur ;

- le chercheur veillera à faire une communication mesurée et pédagogique sachant que les capacités des objets et systèmes qu'il conçoit peuvent susciter des questionnements et des interprétations hâtives dans l'opinion publique ;

- concernant l'autonomie, le chercheur doit se poser la question des reprises en main que l'opérateur ou l'utilisateur peut effectuer et étudier la possibilité ou non laissée à l'humain de « débrayer » les fonctions autonomes du robot. Il doit faire en sorte que les décisions du robot ne soient pas prises à l'insu de l'opérateur, être conscient des phénomènes de biais de confiance, et être attentif à expliciter les limites des programmes de perception, d'interprétation et de prise de décision, en particulier les programmes qui visent à conférer une conduite morale au robot. Le chercheur doit évaluer jusqu'à quel point les logiciels d'interprétation du robot peuvent caractériser correctement une situation et discriminer entre plusieurs situations qui semblent proches, surtout si la décision d'action est fondée uniquement sur cette caractérisation. Il faut en particulier évaluer comment les incertitudes sont prises en compte. Le chercheur doit analyser la prévisibilité du système humain-robot considéré dans son ensemble, en prenant en compte les incertitudes d'interprétation et d'action, ainsi que les défaillances possibles du robot et celles de l'opérateur, et analyser l'ensemble des états atteignables par ce système. Il doit intégrer des outils de traçage dès la conception du robot. Ces outils doivent permettre d'élaborer des explications, même limitées, à plusieurs niveaux selon qu'elles s'adressent à des experts de la robotique, à des opérateurs ou à des utilisateurs ;

- en matière d'émotions, le chercheur étudiera, au regard des fonctions utiles du robot, la pertinence et la nécessité de susciter des émotions et de recourir à des aspects ou des comportements biomimétiques, notamment dans les cas de forte ressemblance visuelle ou comportementale entre un robot et un être vivant. Dans les cas où l'apparence ou la voix humaines sont imitées, le chercheur s'interrogera sur les effets que pourrait avoir cette imitation. Le chercheur doit avoir conscience que la démarche biomimétique peut brouiller la frontière entre un être vivant et un artefact. Le chercheur consultera sur ce brouillage le comité opérationnel d'éthique de son établissement ;

- pour les projets de recherche qui ont trait au développement de la robotique affective, le chercheur s'interrogera sur les répercussions éventuelles de son travail sur les capacités de socialisation de l'utilisateur ;

- pour les projets qui mettent en présence des enfants et des robots, le chercheur doit se poser la question de l'impact de l'interaction enfant-robot sur le développement des capacités émotionnelles de l'enfant, tout particulièrement dans la petite enfance ;

- pour les projets de recherche relatifs à des robots susceptibles d'avoir des effets sur l'affectivité des utilisateurs et de susciter leur attachement, le chercheur devra élaborer un protocole de conception et d'évaluation en veillant à impliquer les compétences multidisciplinaires nécessaires et des utilisateurs potentiels ;

- le chercheur doit être prudent dans sa communication sur les capacités émotionnelles des robots et sur l'imitation de la nature et du vivant, notamment parce que l'expression des émotions, au sens humain, par un robot, est un leurre, et parce que l'imitation du vivant peut amener, volontairement ou pas, à prêter à l'artefact des caractéristiques du vivant ;

- les chercheurs en robotique réparatrice ou d'assistance doivent appliquer, en coordination avec les professionnels de santé, les aidants et les patients, les principes d'éthique en usage dans le secteur médical afin d'arbitrer entre les exigences d'efficacité et de sécurité des soins, celles d'autonomie et d'intégrité de la personne et, enfin, de protection de la vie privée. Ces questions relèvent de l'éthique et non uniquement du droit en cela qu'elles demandent à être arbitrées dans chaque cas particulier et qu'elles ne reçoivent pas de réponse générale. Pour en traiter, il faudra prendre avis auprès des comités opérationnels d'éthique des sciences médicales et veiller à ce que les compétences technologiques y soient étroitement associées. Dans le cas d'organes robotisés à vocation réparatrice, le chercheur aura le souci de la préservation de l'autonomie de l'individu équipé, à savoir de la maîtrise qu'il conservera autant que faire se peut sur ses actions, et de la conservation de l'intégrité des fonctions autres que celles concernées par la réparation. Dans le cas des dispositifs robotisés visant l'augmentation, le chercheur veillera à la réversibilité de celle-ci : les dispositifs doivent être amovibles sans dommages pour la personne, autrement dit, sans que la personne perde l'usage de ses fonctions initiales. En vue de prévenir les discriminations induites par l'augmentation, le chercheur se posera la question de l'incidence de l'augmentation des facultés et des capacités humaines induites par les dispositifs qu'il développe sur le comportement social de ceux qui en bénéficient ainsi que, symétriquement, de ceux qui n'en bénéficient pas.

La CERNA a formulé dans son second rapport, intitulé « Éthique en apprentissage machine », et rendu public en avril 2017, ses préconisations sur le machine learning structurées autour de six thèmes directeurs : les données des systèmes d'apprentissage (1-4), l'autonomie des systèmes apprenants (5-6), l'explicabilité des méthodes d'apprentissage et leur évaluation (7-9), les décisions des systèmes d'apprentissage (10), le consentement dans le domaine du numérique (11), la responsabilité dans les relations homme-machine (12-13), et l'organisation de la recherche française sur l'éthique du numérique (14-17) :

1. Les concepteurs et entraîneurs des systèmes d'apprentissages veillent à la qualité des données d'apprentissage et aux conditions de leur captation.

2. Les entraîneurs doivent garantir que les données représentent un miroir de la diversité culturelle.

3. Les variables dont les données sont réglementées, les entraîneurs doivent veiller à ce qu'elles ne soient pas discriminantes (âge, sexe, race, etc.), tout en respectant le principe de confidentialité des données.

4. Le concepteur d'un système d'apprentissage automatique doit prévoir des dispositifs de traçabilité du système.

5. La machine ne doit pas introduire de biais de caractérisation et induire en erreur l'utilisateur sur l'état de son système.

6. Le concepteur doit maintenir un certain niveau de vigilance dans la communication sur les capacités d'un système apprenant, afin de ne laisser aucune place à l'interprétation ni à des fantasmes ou craintes irrationnelles.

7. Le concepteur doit veiller à l'explicabilité, la transparence des actions de son système apprenant, tout en maintenant un niveau de performance suffisant.

8. Tout en garantissant une meilleure explicabilité du système, le concepteur doit décrire les limitations des heuristiques d'explication du système, en évitant notamment la création de biais.

9. Le concepteur d'un système apprenant apporte sa contribution à l'élaboration des normes et des protocoles d'évaluation de l'apprentissage machine.

10. Le concepteur doit garantir la place de l'humain dans les décisions assistées par des machines apprenantes, afin d'éviter notamment la création de biais ou l'installation de dépendance de l'humain par rapport aux décisions des machines.

11. La mémorisation des traces des données personnelles utilisées dans le processus d'apprentissage devra obtenir le consentement de l'utilisateur et en accord avec la législation sur la protection des données personnelles en vigueur.

12. Le concepteur du système doit y inclure des mécanismes de contrôle automatiques ou supervisés.

13. Le concepteur doit fournir une déclaration des intentions d'usage du système informatique « de manière sincère, loyale et complète » au cours de son apprentissage.

14. La création d'un réseau national de recherche dénommé « Initiative Fédérative de Recherche Numérique, Éthique et Société » permettrait de faire émerger un positionnement français sur les questions d'impact sociétal et éthique des sciences et technologies du numérique.

15. La création de comités d'éthique opérationnels d'établissements en science et technologie du numérique est conseillée.

16. Les établissements sont également incités à lancer des initiatives sur les aspects juridiques des usages des innovations du numérique, au travers de groupes de travail et projets de recherches avec d'autres acteurs concernés.

17. Des actions de sensibilisation et soutien du chercheur par les établissements doivent être mises en place.

Le rapport produit par la CERNA présente, au total, des recommandations plus opérationnelles que celles fournies par les autres structures ayant rendu public des rapports similaires, telles que l'association mondiale des ingénieurs électriciens et électroniciens (Institute of Electrical and Electronics Engineers ou IEEE), qui regroupe plus de 400 000 membres, ou les « 23 points d'Asilomar » issus de la conférence « Beneficial AI 2017 » (initiatives qui seront évoquées plus loin dans le présent rapport). La singularité du rapport de la CERNA s'observe également par le fait que les recommandations mises en avant concernent, pour la majeure partie d'entre elles, des aspects techniques du développement de l'apprentissage automatique, alors que le rapport de l'IEEE et les « 23 points d'Asilomar » abordent des problématiques plus vastes, telles que la question des investissements, des relations entre les scientifiques et les décideurs, la course à l'innovation entre les chercheurs, le bénéfice collectif, la vie privée, la défense ou encore les problèmes économiques et humanitaires.

En outre, les 17 propositions avancées par ce rapport de la CERNA misent davantage sur la pluridisciplinarité, qui est, selon les auteurs, essentielle à la réflexion sur les considérations éthiques, juridiques et scientifiques de l'apprentissage automatique.

Le Club informatique des grandes entreprises françaises (CIGREF), créé en 1970 à l'initiative de dirigeants de grandes entreprises, a lui aussi réfléchi aux questions éthiques posées par l'intelligence artificielle et la robotique. Deux rapports ont ainsi été rendus publics, dont vos rapporteurs ont rencontré les auteurs. Le premier porte sur le thème de « l'éthique du numérique »209(*) et a été rédigé par Flora Fischer, chercheuse en philosophie des technologies à la Sorbonne et chargée de recherche au CIGREF, que vos rapporteurs ont eu le plaisir d'auditionner. Le second, qui se veut livre blanc, porte sur la « Gouvernance de l'intelligence artificielle dans les grandes entreprises », et a été réalisé en partenariat avec le cabinet Alain Bensoussan Avocats210(*).

Le premier rapport du CIGREF sur « l'éthique du numérique » montre que la technologie numérique est à la fois relationnelle, d'usage et fabriquée, comme toute technologie. L'éthique du numérique est donc à la fois une éthique des usages et de la conception. Flora Fischer aime à rappeler que le philosophe Gilbert Simondon disait que « toutes les technologies sont des médiations » et que le numérique crée un nouveau rapport au monde, dans lequel il faut simplement être attentif à l'éthique des nouveaux usages et à la démultiplication. Beaucoup d'entreprises qui naissent aujourd'hui avec le numérique, tel que les start-up, mettent déjà en oeuvre la privacy by design et l'éthique by design, ce qui suppose d'anticiper les usages et la façon dont tels ou tels outils vont adapter les pratiques et de voir quelles questions éthiques cela va engendrer. Pour respecter ces objectifs éthiques, il faut anticiper les usages des outils dès la conception et prévoir des architectures souples, suffisamment pour pouvoir agir rétroactivement sur les usages et sur la conception. Il faut aussi explorer les limites des nouveaux outils et des nouveaux services. Les GAFA ayant été les pionniers, ils ont imposé leurs propres règles, ce qui pourra justifier une régulation, par exemple en matière de stockage et de traitement des données privées. Les entreprises qui vont mettre en oeuvre des services numériques passeront par la privacy by design211(*), et l'éthique by design212(*), ce qui sera plus facile pour des jeunes et petites entreprises que pour des grandes entreprises plus anciennes. Cela nécessitera une révision de l'architecture des plateformes. Dans ce contexte général, l'État ne peut et ne pourra qu'agir a posteriori.

Le second rapport du CIGREF, le livre blanc sur la « Gouvernance de l'intelligence artificielle dans les grandes entreprises », apporte une vision prospective visant à permettre aux entreprises d'anticiper le passage de la transition digitale que nous vivons déjà à la « transition intelligente » à venir. Il présente l'intérêt de partir du cadre historique de l'intelligence artificielle, en passant par ses définitions (générale et technique) et de ses modes d'expression (robots, avatar, chatbots...), afin de montrer que l'intelligence artificielle confronte le management de l'entreprise à des situations émergentes multiples, à la fois culturelles, humaines (impact sur les manières de travailler), éthiques et juridiques... Les entreprises devront être en mesure d'anticiper, par exemple, l'évolution des compétences, l'évolution de la réglementation, que ce soit sur la robotique intelligente ou sur les différentes formes de l'intelligence artificielle.

Le livre blanc aborde également la question du droit prospectif : l'intelligence artificielle, du fait de son autonomie, a un degré d'imprévisibilité dans le cadre de son interaction avec les êtres humains, or, en l'état actuel du droit, aucune règle ne serait directement applicable à la responsabilité délictuelle de l'intelligence artificielle, ce qui peut paraître discutable. Des craintes liées au développement de l'intelligence artificielle font débat et posent questions.

Par exemple, la délégation de tâches à haute responsabilité (décision, recommandation) à des machines interroge sur le libre arbitre et la place laissée à la pertinence de l'interprétation humaine. L'entreprise ne saurait donc contourner des questions éthiques de deux ordres : l'éthique des usages et l'éthique de la conception (by design)... ». L'enjeu est de « saisir la complexité du sujet et mieux comprendre les freins et leviers à actionner pour accompagner au mieux les opportunités à venir ».

Vos rapporteurs ont, en outre, rencontré les animateurs et des chercheurs du projet ETHICAA (Éthique et Agents Autonomes), financé par l'Agence nationale de la recherche (ANR) pour la période 2014 - 2017, dont les rapports techniques et les publications sont disponibles213(*). Coordonné par Grégory Bonnet (GREYC - Normandie Université), il associe différents partenaires214(*) et chercheurs.

Les objectifs initiaux du projet peuvent être rappelés. Les machines et les logiciels (agents) deviennent de plus en plus autonomes et agissent de plus en plus sans être contrôlés par des utilisateurs ou des opérateurs humains. C'est pourquoi, la question de doter ces agents autonomes de comportements éthiques se pose.

L'objectif du projet ETHICAA est de définir ce que devrait être un système composé d'un ou plusieurs agents artificiels capables de gérer des conflits éthiques, aussi bien au niveau individuel qu'au niveau collectif. Il y a en effet des verrous scientifiques majeurs.

En premier lieu, les théories éthiques sont difficiles à mettre en oeuvre sous forme de principes éthiques opérationnels.

En second lieu, ces principes éthiques opérationnels sont eux-mêmes difficiles à implanter parce qu'ils sont liés à l'évaluation courante de la situation, dont l'automatisation rencontre de fortes limites.

En troisième lieu, d'un point de vue philosophique, il existe de nombreux principes éthiques et aucun d'eux n'est meilleur que les autres, rendant ainsi difficile de choisir celui qui doit être mis en oeuvre. Enfin, les systèmes informatisés sont de plus en plus ouverts et décentralisés, c'est-à-dire impliquant des agents artificiels autonomes en interaction avec d'autres agents, des opérateurs ou des utilisateurs humains. Dans ces circonstances, la gestion des conflits éthiques entre différents agents devient une question cruciale et des méthodes originales sont nécessaires pour répondre à cette problématique.

Un état des lieux des travaux peut être fait en mars 2017 : les résultats intermédiaires des travaux du projet ETHICAA se structurent en trois points : (1) une réflexion autour des concepts éthiques à employer et des domaines d'application sensibles ; (2) une production de modèles de décision et de raisonnement éthiques ; (3) une fédération d'une communauté de recherche autour de ces thématiques.

1. Dans le domaine de la réflexion, deux études ont été produites :

· Un état de l'art dans le domaine de la philosophie morale et de l'intelligence artificielle a permis de formuler des définitions : agent artificiel éthique (cadre idéal non réalisable en pratique) ; agent artificiel éthique compétent (agent capable de justifier ses actes en fonction de critères explicites) ; situation de conflit éthique.

· Une identification de quatre scénarios-clés intéressants à des fins de modélisation et d'expérimentation : un scénario de véhicule autonome, un scénario de véhicule aérien piloté en tandem par un agent artificiel et un agent humain, un scénario d'agent de surveillance médicale, un scénario d'organisation et de coopération d'agents de gestion de portefeuilles.

2. Dans le domaine de la production, deux approches ont été mises en oeuvre et expérimentées sur une partie des scénarios mentionnés précédemment :

· Un travail sur des architectures d'agents se fondant sur l'utilisation des logiques d'actions, de logique modale et de logique argumentative pour modéliser et expliquer a priori un raisonnement moral.

· Un travail sur la vérification formelle de propriétés éthiques ayant pour but de vérifier a posteriori si la spécification d'un système multi-agents répond à des critères éthiques.

3. Dans le domaine de la fédération d'une communauté de recherche, le projet s'axe sur deux points :

· Une interaction avec la communauté internationale de recherche par l'organisation d'un atelier international ainsi que la participation au dépôt d'une action COST Responsible Artificial Intelligence et à la IEEE Global Initiative on Ethical Considerations in the Design of Autonomous Agents.

· La diffusion grand public au travers d'articles et conférences de vulgarisation. À cela, s'ajoutent de nombreuses interventions en séminaires, journées d'études, tables rondes et interventions radiophoniques.

Quant aux perspectives du projet ETHICAA, il s'agit de rassembler les différents modèles de décision produits au sein d'un même cadre de conception auquel s'ajoutera la dimension multi-agent, offrant ainsi une grille de lecture unifiée pour concevoir des méthodes répondant aux problématiques de régulation éthiques d'agents autonomes. D'un point de vue de développement, le projet ETHICAA envisage de finaliser un logiciel de démonstration orchestrant une simulation du scénario de gestion éthique d'actifs financiers, il s'agit en effet d'aboutir à une preuve de concept (« proof of concept ») à travers l'organisation et la coopération d'agents de gestion de portefeuilles selon des règles éthiques.

2. Les nombreuses expériences anglo-saxonnes de réflexion sur les enjeux éthiques de l'intelligence artificielle

Les expériences de réflexion sur les enjeux éthiques de l'intelligence artificielle, que ce soit aux États-Unis ou au Royaume-Uni, sont particulièrement nombreuses et se sont multipliées de façon impressionnante dans la période récente. Ces expériences de réflexion sont le plus souvent non gouvernementales et sont fréquemment financées par des donations privées : on peut relever que cette observation s'inscrit dans le contexte d'une tradition de mécénat scientifique et technologique aux États-Unis, alors qu'en France le mécénat reste largement consacré à l'art et à la culture.

Vos rapporteurs ont, en effet, observé une multiplication surprenante d'initiatives anglo-saxonnes, souvent coordonnées, visant la prise en compte de principes éthiques dans la recherche et les usages de l'intelligence artificielle. Ils souhaitent les rappeler.

Il existe tout d'abord une structure plus ancienne que les autres, qui reste jeune puisqu'elle a été créée en 2000, The International Society for Ethics and Information Technology (INSEIT), qui édite aussi sa propre revue. Cette structure, qui rassemble beaucoup de chercheurs du monde académique, est de plus en plus éclipsée par la multiplication récente des collectifs ou des instituts se donnant pour rôles d'animer une réflexion sur les enjeux éthiques du numérique et plus spécifiquement de l'intelligence artificielle. Ces initiatives plus récentes sont souvent financées par des fonds privés issus de grandes entreprises du secteur et ont recours à des plans de communication aboutis.

L'une des principales initiatives est l'Institut du futur de la vie ou « Future of Life Institute » (FLI)215(*), fondé en mars 2014, qui est à l'origine en janvier 2015 de la lettre d'avertissement sur les dangers potentiels de l'intelligence artificielle, qui affirmait qu'étant donné le grand potentiel de l'intelligence artificielle, « il était important d'étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges ». Le FLI s'interroge ainsi sur les conséquences économiques, légales et éthiques de l'intelligence artificielle et de l'automatisation des tâches et promeut le développement d'une intelligence artificielle bénéfique et fiable.

Le FLI, visité par vos rapporteurs en janvier 2017, situé à Cambridge, près de Boston (avec le MIT et Harvard), est une organisation à but non lucratif, dont le financement repose sur d'importantes donations privées. Il se donne pour mission de « catalyser et soutenir la recherche et les initiatives visant la sauvegarde de la vie et proposant une vision optimiste de l'avenir ». Il s'agit de « tirer le meilleur profit des nouvelles technologies et de prévenir les risques potentiels pour l'humanité du développement de l'intelligence artificielle ». Il soutient ainsi en 2016 et 2017, après un appel à projets lancé en 2015, pas moins de 37 projets de recherche destinés à prévenir les risques liés à l'intelligence artificielle216(*). Selon Max Tegmark, président du FLI, il existerait une « course entre le pouvoir grandissant de la technologie et le bon sens avec lequel on la gère » : alors que « jusqu'ici, tous les investissements ont eu pour objectif de rendre les systèmes plus intelligents, c'est la première fois qu'il y a un investissement sur l'autre aspect ».

Lors d'un colloque à New York sur les défis posés par l'émergence de l'intelligence artificielle, organisé le 14 octobre 2015 par l'Institut de recherche sur la criminalité et la justice des Nations Unies (UNICRI), Max Tegmark était invité avec un autre expert217(*) à s'exprimer devant quelques 130 délégués de 65 États. Ils ont clairement souligné les risques liés à l'intelligence artificielle et appelé à la mise en place d'une réflexion solide sur l'éthique de l'intelligence artificielle.

Le second expert, Nick Bostrom, philosophe, fondateur du Future of Humanity Institute (FHI) en 2005 au sein de l'Université d'Oxford (unité de l'Oxford Martin School), rencontré par vos rapporteurs, a également fondé, dès 2004, un Institute for Ethics and Emerging Technologies (IEET), proche du mouvement transhumaniste.

De manière similaire au Future of Humanity Institute, ont été créées plusieurs structures qui travaillent toutes en réseau les unes avec les autres, au sein de l'Université de Cambridge, un Centre for the Study of Existential Risks (CSER) créé en 2012 et un Leverhulme Centre for the Future of Intelligence créé en 2016 (tous les deux visités par vos rapporteurs), au sein de l'Université de Berkeley, un Machine Intelligence Research Institute (MIRI), créé lui aussi en 2016 et animé par Stuart Russel218(*), rencontré par vos rapporteurs.

Il peut être relevé que les anciens dirigeants de Paypal, Elon Musk (actuellement patron de Tesla et SpaceX) et Sam Altman se sont fixés pour but de promouvoir et de développer des outils d'intelligence artificielle en open source. Ils ont ainsi fondé, le 11 décembre 2015, la « fondation OpenAI », qu'ils président, association à but non lucratif visant à réfléchir aux questions de société que pose l'intelligence artificielle. Vos rapporteurs ont eu la chance de visiter cette association basée dans la Silicon Valley et d'en rencontrer des responsables.

Le dernier exemple, peut-être le plus significatif est le « Partnership on AI » formé en septembre 2016 par Google, Microsoft, Facebook, IBM et Amazon afin de réfléchir et de faire avancer de manière collective les discussions sur l'intelligence artificielle. Yann LeCun et Demis Hassabis ont joué un rôle essentiel dans ce partenariat. Vos rapporteurs se sont réjouis du fait qu'Apple a rejoint cette initiative le 26 janvier 2017 le jour de leur visite du siège de l'entreprise219(*). La responsable des affaires publiques d'Apple a alors expliqué à vos rapporteurs que les valeurs spécifiques à Apple, en particulier la protection des données personnelles et de la vie privée, pourraient être mieux prises en compte.

Apple a donc rejoint officiellement, et en tant que membre fondateur, avec Facebook, Google, Microsoft, IBM et Amazon, les activités du collectif voué au développement éthique de l'intelligence artificielle, ce « Partnership on AI ». Les six « GAFAMI » se sont donc dotés d'un outil commun, réputé être ouvert aux entreprises, aux chercheurs et à toute personne morale intéressée par la démarche. Le « Partnership on AI » a aussi intégré dans son conseil d'administration six nouveaux membres provenant d'ONG et d'universités. De cette manière, son conseil d'administration se compose désormais de douze membres, six responsables d'entreprises des nouvelles technologies (GAFAMI) et de six autres appartenant aux ONG. Ces six représentants d'ONG et d'universités sont : Dario Amodei d'OpenAI, une organisation fondée par Elon Musk, Deirdre Mulligan de l'Université de Californie Berkeley, Jason Furman du Peterson Institute of International Economics, un prestigieux think tank de Washington, Subbarao Kambhampati de l'Association for the Advancement of Artificial Intelligence, Carol Rose de l'Union Américaine pour les Libertés Civiles (ACLU) et Eric Sears de la fondation MacArthur. Le communiqué de presse de « Partnership on AI » affirme : « C'est un moment important pour Partnership on AI, alors que nous établissons un conseil d'administration diversifié et équilibré qui étendra et élargira notre leadership. L'inclusion de perspectives différentes et d'une réflexion critique constante a été une mission centrale depuis le début, et nous continuerons à ajouter de nouvelles voix à mesure que nous avançons ». D'après le collectif, le conseil d'administration contrôlera les activités générales de l'organisation avec un directeur exécutif (encore inconnu), avec un Comité exécutif de direction (inconnu lui aussi) qui jugera et développera des initiatives selon les objectifs de l'organisation. Ces initiatives concerneront notamment la résolution « des problématiques importantes, [...] sur l'éthique, la sécurité, la transparence, la vie privée, l'influence, et l'équité » engendrées par les intelligences artificielles du futur. La première réunion du conseil a eu lieu le vendredi 3 février à San Francisco. L'organisation promet de révéler plus de détails sur son programme de recherche et d'activités.

Le rapport « L'Intelligence artificielle et la vie en 2030 » (Artificial Intelligence and Life in 2030220(*) en anglais) publié en septembre 2016 par l'Université Stanford, visitée par vos rapporteurs, dévoile les résultats de l'étude « One Hundred Year Study of Artificial Intelligence », un projet universitaire débuté en 2014 et initié par Eric Horvitz, chercheur au laboratoire Microsoft Research. Le rapport a été réalisé par les membres du Comité permanent de l'étude, présidé par Barbara J. Grosz et composé de six autres membres, dont Eric Horvitz et Russ Altman, et par un groupe d'étude rassemblant dix-sept chercheurs spécialisés dans le sujet de l'intelligence artificielle.

L'étude et les résultats présentés au sein de ce rapport portent sur l'analyse, à long terme, des avancées techniques de l'intelligence artificielle et de ses implications sur la société au cours des cent dernières années. Ce projet reprend les travaux d'une autre étude menée entre 2008 et 2009, informellement connue sous le titre de « Étude d'Asilomar de l'Association pour les progrès de l'intelligence artificielle » (AAAI Asilomar Study, en anglais). Au cours de cette étude, un groupe d'experts de l'intelligence artificielle appartenant à des établissements, institutions et champs disciplinaires différents ainsi que des spécialistes des sciences cognitives, des juristes et des philosophes, avaient été mobilisés par Éric Horvitz, qui était à cette époque le président de l'AAAI.

Selon les auteurs de ce rapport, les technologies issues de l'intelligence artificielle, à l'instar de la reconnaissance vocale ou de l'utilisation de systèmes de recommandations automatiques, ont déjà et continueront de bousculer des pans entiers de l'économie mondiale et des sociétés. L'intelligence artificielle représente en cela un enjeu considérable, tant du point de vue économique que politique et sociétal, et un facteur de création de valeur pour nos sociétés. Il est, de fait, essentiel que les pouvoirs publics et les citoyens en saisissent les enjeux, dont la complexité interdit tout angélisme ou catastrophisme a priori. Les gouvernants sont ainsi encouragés à produire une législation encourageant l'innovation, la production et le transfert d'expertise, et promouvant les responsabilités que doivent endosser le monde de l'entreprise et la société civile afin d'affronter les défis apportés par l'utilisation de ces technologies, notamment sur la question de la répartition des fruits de la croissance numérique.

Les auteurs de ce rapport soumettent de nombreuses recommandations à l'attention des décideurs, couvrant un large spectre de domaines. Des propositions de politiques publiques sont ainsi proposées en matière de protection de la vie privée, d'innovation, de responsabilité civile et pénale, ou encore de fiscalité. Trois recommandations majeures peuvent être retenues. Tout d'abord, les auteurs recommandent d'accroître le niveau d'expertise des gouvernants en matière d'intelligence artificielle, afin qu'ils puissent mieux apprécier les impacts de ces technologies. Ensuite, ils incitent à l'élimination des obstacles et des freins à la transparence et aux recherches sur la sécurité, la protection de la vie privée et les répercussions sociales entraînées par l'utilisation de technologies douées d'intelligence artificielle, afin de prévenir les usages abusifs. Enfin, les auteurs de ce rapport appellent au financement d'études d'impact pluridisciplinaires.

À la suite de ce rapport de septembre 2016 et puisqu'il n'existait aucun guide commun encadrant le domaine de l'intelligence artificielle, édictant notamment de bonnes pratiques en la matière, plusieurs spécialistes de l'intelligence artificielle et de la robotique se sont réunis lors de la conférence dénommée « Beneficial AI 2017 » organisée par le Future of Life Institute (le FLI, dont il a été question plus haut). La conférence s'est tenue à Asilomar, en Californie du 5 au 8 janvier 2017221(*), avec le soutien de sponsors tels que Alexander Tamas, Elon Musk, Jaan Tallinn et deux associations « The Center for Brains, Minds, and Machines » et « The Open Philanthropy Project ».

Aux termes de la rencontre, les spécialistes ont procédé à l'adoption de vingt-trois principes baptisés « Les 23 principes d'Asilomar » et dont l'objectif est d'encadrer le développement de l'intelligence artificielle. D'après les informations recueillies, les principes ont été signés par 846 chercheurs spécialisés dans l'intelligence artificielle et la robotique et par 1 270 autres spécialistes dans divers domaines. Ces « 23 principes d'Asilomar » constituent un guide de référence d'encadrement éthique du développement de l'intelligence artificielle, qui explique que « l'intelligence artificielle a déjà fourni de nombreux outils utiles qui sont utilisés au quotidien à travers le monde. Son développement continu, guidé par les principes suivants, offrira des opportunités extraordinaires pour aider, responsabiliser et rendre plus performants les humains pour les décennies et les siècles à venir ». Les « 23 principes d'Asilomar »222(*) se présentent comme suit :

1) Objectif des recherches : Le développement de l'intelligence artificielle ne doit pas servir à créer une intelligence sans contrôle mais une intelligence bénéfique.

2) Investissements : Les investissements dans l'intelligence artificielle doivent être orientés vers le financement de recherches visant à s'assurer de son usage bénéfique, qui prend en compte des questions épineuses en matière d'informatique, d'économie, de loi, d'éthique et de sciences sociales. Parmi ces questions :

- « Comment rendre les futures intelligences artificielles suffisamment solides pour qu'elles fassent ce qu'on leur demande sans dysfonctionnement ou risque d'être piratées ? »

- « Comment améliorer notre prospérité grâce à cette automatisation tout en maintenant les effectifs humains ? »

- « Comment adapter le cadre juridique afin d'être plus juste et efficace, de suivre le rythme de l'intelligence artificielle et de gérer les risques qui y sont associés ?

- « Quel ensemble de valeurs l'intelligence artificielle devra respecter, et quel statut éthique devrait-elle revêtir ?

3) Relations entre les scientifiques et les législateurs : Un échange constructif et sain entre les développeurs d'intelligence artificielle et les législateurs est souhaitable.

4) Esprit de la recherche : Un esprit de coopération, de confiance et de transparence devrait être entretenu entre les chercheurs et les scientifiques en charge de l'intelligence artificielle.

5) Éviter une course : Les équipes qui travaillent sur les intelligences artificielles sont encouragées à coopérer pour éviter des raccourcis en matière de standards de sécurité.

6) Sécurité : Les intelligences artificielles devraient être sécurisées tout au long de leur existence, une caractéristique vérifiable et applicable.

7) Transparence en cas de problème : Dans le cas d'une blessure provoquée par une intelligence artificielle, il est nécessaire d'en trouver la cause.

8) Transparence judiciaire : Toute implication d'un système autonome dans une décision judiciaire devrait être accompagnée d'une explication satisfaisante contrôlable par un humain.

9) Responsabilité : Les concepteurs et les constructeurs d'intelligence artificielle avancée sont les premiers concernés par les conséquences morales de son utilisation et de ses détournements. Il leur incombe donc d'assumer la charge de les anticiper.

10) Concordance de valeurs : Les intelligences artificielles autonomes devraient être conçues de façon à ce que leurs objectifs, leur comportement et leurs actions s'avèrent conformes aux valeurs humaines.

11) Valeurs humaines : Les intelligences artificielles doivent être conçues et fonctionner en accord avec les idéaux de la dignité, des droits et des libertés de l'homme, ainsi que de la diversité culturelle.

12) Données personnelles : Chacun devrait avoir le droit d'accéder et de gérer les données le concernant au vu de la capacité des intelligences artificielles à analyser et utiliser ces données.

13) Liberté et vie privée : L'utilisation d'intelligence artificielle en matière de données personnelles ne doit pas rogner sur les libertés réelles ou perçue des citoyens.

14) Bénéfice collectif : Les intelligences artificielles devraient bénéficier au plus grand nombre, les valoriser et les rendre plus performants.

15) Prospérité partagée : La prospérité économique découlant de l'utilisation de systèmes d'intelligence artificielle devrait être partagée avec le plus grand nombre, pour le bien de l'humanité.

16) Contrôle humain : Les humains devraient pouvoir choisir comment et s'ils veulent déléguer des décisions de leur choix aux intelligences artificielles.

17) Anti-renversement : Le pouvoir obtenu en contrôlant des intelligences artificielles très avancées devrait être soumis au respect et à l'amélioration des processus civiques dont dépend le bien-être de la société plutôt qu'à leur détournement à d'autres fins.

18) Course aux IA d'armement : Une course aux intelligences artificielles d'armement mortelles est à éviter.

19) Avertissement sur les capacités : En l'absence de consensus sur le sujet, il est recommandé d'éviter les hypothèses au sujet des capacités maximum des futures intelligences artificielles.

20) Importance : Les intelligences artificielles avancées pourraient entraîner un changement drastique dans l'histoire de la vie sur Terre, et devront donc être gérées avec un soin et des moyens considérables.

21) Risques : Les risques causés par les IA, particulièrement les risques catastrophiques ou existentiels, sont sujets à des efforts de préparation et d'atténuation adaptés à leur impact supposé.

22) Auto-développement infini : Les IA conçues pour s'auto-développer à l'infini ou s'auto-reproduire, au risque de devenir très nombreuses ou très avancées rapidement, doivent faire l'objet d'un contrôle de sécurité rigoureux.

23) Bien commun : Les intelligences surdéveloppées devraient seulement être développées pour contribuer à des idéaux éthiques partagés par le plus grand nombre et pour le bien de l'humanité plutôt que pour un État ou une entreprise.

Il convient, en outre, d'observer que Microsoft a lancé en 2017 un fonds d'investissement en capital-risque consacré à l'intelligence artificielle avec un objectif de ciblage sur les investissements à impact positif pour la société. D'après le vice-président de Microsoft Ventures, Nagraj Kashyap, « l'intelligence artificielle doit être conçue pour assister l'humanité, être transparente, maximiser l'efficacité sans détruire la dignité humaine, protéger intelligemment la vie privée et assurer la responsabilité de l'imprévu, et se garder des préjugés. Ce sont ces principes qui guideront l'évolution de ce fonds ». Le premier investissement de Microsoft est destiné à la plateforme « Element AI » basée à Montréal, cofondée avec Yoshua Bengio, professeur à l'Université de Montréal. Cet investissement confirme à vos rapporteurs le fait que la capitale du Québec se place parmi les principaux pôles mondiaux de l'intelligence artificielle, alors que Google y avait également basé une de ses divisions de recherche en intelligence artificielle.

De même que Microsoft, avec Pierre Omidyar et Reid Hoffman, les fondateurs d'eBay et de LinkedIn, ont lancé en 2017, avec le fondateur de Raptor Group James Pallotta et les fondations Knight et William et Flora Hewlett, un fonds d'investissement de 27 millions de dollars, qui porte le nom de Ethics and Governance of Artificial Intelligence Fund, qui accompagnera les projets R&D axés sur les problématiques d'éthique dans le domaine de l'intelligence artificielle. Le fonds est piloté par le Media Lab du MIT et le Berkham Klein Center for Internet and Society de Harvard. Cette enveloppe sera exploitée pour soutenir les initiatives repérées dans le monde académique et orientées vers le développement d'une intelligence artificielle éthique, capable de ne pas « reproduire et amplifier les biais humains ». Dans cette optique, il s'agira d'impliquer, au-delà des ingénieurs, des sociologues, des philosophes, des juristes, des économistes... et les régulateurs, au croisement des sciences informatiques, humaines et sociales. L'Ethics and Governance of Artificial Intelligence Fund se donne aussi pour mission de vulgariser l'intelligence artificielle auprès du grand public.

Vos rapporteurs s'interrogent sur les objectifs précis des GAFAMI et d'Elon Musk à travers ces nombreuses initiatives. La volonté de ces nouveaux géants pourrait-elle être celle de se dédouaner ou de créer un nuage de fumée pour ne pas parler des vrais problèmes éthiques posés à court terme par les technologies d'intelligence artificielle, telles que l'usage des données ou le respect de la vie privée ? Vos rapporteurs n'ont pas tranché et laissent aux auteurs de ces initiatives le bénéfice du doute. Chris Olah, l'un des auteurs de « Concrete Problems in AI Safety », travail de recherche publié par Google fait valoir qu'« alors que les risques potentiels de l'IA ont reçu une large attention de la part du public, les discussions autour de ce sujet sont restées très théoriques et basées sur des spéculations » et qu'il faut développer « des approches pratiques d'ingénierie de systèmes d'intelligence artificielle opérant de façon sûre et fiable ». Dépassant les débats théoriques entre pro et anti-IA, ces initiatives permettent d'aborder avec des experts la réalité concrète de l'intelligence artificielle, même si elles donnent, selon vos rapporteurs, une place trop grande au risque de l'émergence d'une IA forte qui dominerait et pourrait faire s'éteindre l'espèce humaine.

En mars 2017, la fondation Future Society de la Harvard Kennedy School a rendu un rapport « La Révolution de l'intelligence artificielle au service de tous » dans le cadre de son initiative pour l'intelligence artificielle223(*). Coordonné par Cyrus Hodes et Nicolas Miailhe, il décrit l'émergence de ces technologies, en souligne les opportunités et les défis en matière de politiques publiques puis formule quelques recommandations.

Vos rapporteurs résument ci-après le contenu des trois dernières parties de ce rapport.

1- Pour ce qui concerne tout d'abord les opportunités économiques et sociales offertes par l'intelligence artificielle, il faut observer que le développement de l'IA pourrait se traduire par une révolution de la gouvernance, à travers l'efficacité des processus décisionnels pour les acteurs publics et privés. La capacité des algorithmes d'apprentissage machine à exploiter les stocks et les flux croissants de données est susceptible de déclencher une vague d'optimisation dans de nombreux domaines, à l'instar de l'énergie et des transports. L'intelligence artificielle peut être essentiellement utilisée comme une « technologie de prédiction », dont la diffusion pourrait réduire considérablement le coût du traitement des données historiques et donc faire des prédictions pour un large éventail de tâches telles que le profil des risques, la gestion des stocks ou la prévision de la demande. Le développement de l'intelligence artificielle annonce des formes de collaboration et de complémentarité nouvelles et économiquement plus efficaces entre les humains et les machines. L'intelligence artificielle peut potentiellement être considérée comme un nouveau facteur de production, en améliorant l'efficacité des facteurs traditionnels du travail et du capital et en créant un hybride capable de créer des effectifs entièrement nouveaux. Dans de nombreux cas, l'intelligence artificielle sera capable de s'auto-améliorer, et de surpasser les humains en termes d'échelle et de vitesse.

Dans le domaine de la santé, les progrès réalisés dans l'intelligence artificielle créent ce que beaucoup considèrent comme des technologies véritablement transformatrices et évolutives pour aborder et traiter les maladies et les médicaments. Tous les principaux acteurs de l'intelligence artificielle entrent sur le marché de la santé, et l'intelligence artificielle est perçue par les praticiens comme un facilitateur de la révolution médicale de précision et de prévention, ainsi que dans le séquençage génomique. Le recours à des technologies d'intelligence artificielle dans le domaine de la santé peut également inclure la découverte et la création de molécules et de médicaments, la personnalisation des soins, l'utilisation de « bots » médicaux, ou encore les soins apportés aux personnes âgées.

L'intelligence artificielle a déjà un impact conséquent sur le transport avec l'introduction de capacités de conduite autonome. Le développement de réseaux neuronaux profonds est l'un des principaux moteurs des progrès impressionnants réalisés dans les véhicules autonomes au cours de la dernière décennie. La révolution des formes de mobilité transformera en profondeur l'industrie automobile, qui pourra muter en industrie de services, et avoir un impact sur les paysages urbains et suburbains, avec la possibilité que cela puisse traiter la ségrégation spatiale qui a souvent été accompagnée de la marginalisation sociale.

Bien que l'éducation soit, à court terme, un secteur moins impacté par la substitution de l'emploi à l'intelligence artificielle, avec un potentiel d'automatisation estimé à 27%, les outils que l'intelligence artificielle apporte aux éducateurs et aux étudiants se révéleront très précieux en termes d'efficacité. À mesure que les MOOC (Massive Open Online Courses) et les SPOC (Small Private Online Courses) gagnent en popularité en donnant accès au meilleur contenu de cours pour tous, alors que le crowdsourcing et l'apprentissage machine sont développés pour assurer notamment les tâches d'enseignement et d'évaluation.

En analysant et comprenant les normes et les variations des comportements des utilisateurs, l'intelligence artificielle s'est avérée être un outil efficace adoptant des mesures proactives (contrer les cyberattaques, le vol d'identité, la lutte contre le terrorisme...). Au-delà de la cybersécurité, l'intelligence artificielle prend de plus en plus de poids dans la défense et la sécurité. Elle permet au personnel de sécurité nationale d'être mieux informé grâce à des systèmes de gestion et des outils de simulation plus intelligents.

Dans le domaine de la robotique, les progrès de l'intelligence artificielle influent radicalement sur les tactiques et les capacités de mission des plates-formes autonomes qui sont en mesure de façonner et d'influencer la manière dont les conflits et les opérations de sécurité se déroulent à l'avenir.

Dans la police, l'intelligence artificielle est utilisée comme un outil d'identification puissante, et de plus en plus comme un instrument prédictif indiquant où et quand les crimes peuvent se produire. Comme dans la défense, ces applications devront être très sérieusement régies pour éviter les abus, ce qui pourrait avoir des effets dévastateurs.

2- Les défis pour les politiques publiques sont grands. En raison de sa dynamique d'entreprise, la montée en puissance de l'intelligence artificielle a été caractérisée par la formation de ce que l'on pourrait appeler un «oligopole global dissymétrique» qui soulève des problèmes importants en termes de répartition de la richesse et de la puissance, mais pourrait également étouffer l'innovation en empêchant l'apparition de nouveaux acteurs. Le marché de l'intelligence artificielle est dominé par quelques multinationales américaines (GAFAMITIS) et chinoises (BATX), dont la capitalisation boursière représente aujourd'hui plus de 3,3 mille milliards de dollars. Le marché de l'intelligence artificielle présente de fortes caractéristiques « the winner takes most » en raison de la prévalence particulière d'effets de réseau et d'effets d'échelle. Cet oligopole est dissymétrique en cela qu'il présente de sérieux déséquilibres entre, d'une part, les multinationales numériques hautement innovantes dont les modèles économiques perturbateurs se déroulent à l'échelle transnationale et, d'autre part, les États-nations. Cette dissymétrie qui concerne la révolution numérique en général est encore aggravée par le développement de l'intelligence artificielle puisque les multinationales sont maintenant en mesure de capturer et de fournir des fonctions clés de gouvernance. L'«oligopole global dissymétrique» de l'intelligence artificielle pourrait être une source de tensions sévères au cours des prochaines décennies dans les pays et entre eux. Sans régulation et redistribution, l'accumulation déséquilibrée de richesse et de pouvoir entre les mains de quelques acteurs privés pourrait favoriser la montée en puissance des populismes et des extrémismes à l'échelle mondiale.

Un autre élément crucial des défis politiques associés au développement de l'intelligence artificielle se rapporte à la délégation croissante de compétences aux agents autonomes. Le potentiel de l'intelligence artificielle pour la croissance, le développement et le bien public exigera l'adoption de normes techniques et de mécanismes de gouvernance qui maximisent la libre circulation des données et des investissements dans des services à forte intensité de données.

En outre, il pourrait y avoir des tensions entre la nécessité d'une réglementation rigoureuse des données afin de garantir la protection de la vie privée, le consentement éclairé et la lutte contre la discrimination, d'une part, et les conditions de marché nécessaires pour favoriser l'innovation et développer des bases technoindustrielles puissantes d'autre part.

Certains chercheurs ont exprimé de graves inquiétudes quant au risque d'amplification des biais sociaux présenté par l'apprentissage machine, les algorithmes pouvant devenir ainsi source de discrimination, comme l'a montré l'expérience du bot conversationnel « Tay » développé par Microsoft.

L'ensemble de défis politiques majeurs associés au développement de l'intelligence artificielle se réfère à l'impact de l'automatisation sur les emplois et les inégalités, certains chercheurs craignant un potentiel «décrochage» des classes moyennes. De nombreux experts estiment que la vague d'automatisation alimentée par l'intelligence artificielle influencera profondément les profils d'emplois. Les résultats des études sur l'impact de l'automatisation du travail menées au cours des cinq dernières années diffèrent cependant radicalement dans leur évaluation et leurs projections (comme il a été vu le rapport de l'OCDE publié en juin 2016 a conclu qu'une moyenne modeste de 9 % des tâches est automatisable, alors qu'une étude de 2013 de Frey et Osborne se voulait plus alarmiste avec sa conclusion qu'environ 47 % des emplois américains seraient sensibles à l'automatisation au cours des deux prochaines décennies).

La capacité des sociétés à façonner la révolution de l'intelligence artificielle dans une destruction créatrice et à diffuser son bénéfice à tous dépend principalement de la façon dont elle réagit collectivement. Des réponses politiques systémiques seront nécessaires, y compris la réforme et la réinvention éventuelle de la sécurité sociale et de la taxe de redistribution. Les systèmes d'éducation et de développement des compétences devront également être réformés pour permettre des transitions professionnelles viables. Compte tenu de la difficulté à prédire les zones les plus impactées et de désagréger l'automatisation axée sur l'intelligence artificielle d'autres facteurs, les réponses politiques devront d'abord viser l'ensemble de l'économie, jusqu'à ce que les stratégies ciblées deviennent plus efficaces et que les pratiques de suivi et d'évaluation aient été conçues.

3. En matière de recommandations, le rapport « La Révolution de l'intelligence artificielle au service de tous » formule huit propositions :

1 : Les institutions privées et publiques devraient être encouragées à examiner si et comment elles peuvent influencer de manière responsable l'intelligence artificielle dans un sens bénéfique pour la société.

2 : Les États et les organisations internationales devraient travailler sur le développement de mécanismes de coordination mondiale pour surveiller collectivement l'état de l'intelligence artificielle.

3 : Les États et les organisations internationales devraient soutenir davantage la recherche et la prévoyance sur la dynamique (vitesse et magnitude) du développement de l'intelligence artificielle.

4 : Les États et les organisations internationales devraient soutenir le développement de modèles prédictifs analysant l'impact des machines autonomes sur les marchés du travail, les emplois ou tâches futurs, les mécanismes économiques, le bien-être collectif et les structures de risque et les compétences associées.

5 : Les États et les organisations internationales devraient soutenir davantage de recherche en sciences sociales sur l'interaction entre la science, la technologie et la société à l'époque de l'intelligence artificielle.

6 : Les États et les organisations internationales devraient soutenir davantage de recherches sur le renforcement des protections juridiques contre les biais algorithmiques.

7 : Les États et les organisations internationales devraient s'efforcer de créer un cadre politique mondial et des normes harmonisées régissant les flux et les stocks de données, en particulier les données personnelles, ainsi que l'utilisation d'algorithmes.

8 : Les institutions privées et publiques ainsi que les organisations professionnelles devraient être encouragées à diriger de manière proactive les débats publics en engageant les experts de l'IA, les praticiens, les parties prenantes et la société en général sur le thème de la gouvernance de l'intelligence artificielle.

3. Le travail en cours sur les enjeux éthiques au sein de l'association mondiale des ingénieurs électriciens et électroniciens (Institute of Electrical and Electronics Engineers ou IEEE)

Vos rapporteurs soulignent l'important travail en cours sur les enjeux éthiques actuellement au sein de l'association mondiale des ingénieurs électriciens et électroniciens (Institute of Electrical and Electronics Engineers ou IEEE), qui regroupe plus de 400 000 membres.

L'initiative mondiale de l'IEEE pour « les considérations éthiques dans l'Intelligence Artificielle et les Systèmes Autonomes » a en effet pour principal objectif de proposer un cadre éthique de référence pour le développement des systèmes d'intelligence artificielle et des systèmes autonomes.

Souhaitant dépasser la recherche de la performance technologique en soi, ou le succès commercial, l'IEEE vise à ce que ces systèmes se comportent d'une manière bénéfique pour l'humanité et que leur développement contribue au bien-être de celle-ci. L'approche est, d'une part, de produire un document évolutif rédigé collectivement et, d'autre part, de proposer des standards qui pourraient devenir des standards industriels. La première version du document d'IEEE « Conception conforme à l'éthique : une vision pour fixer comme priorité le bien-être humain avec l'intelligence artificielle et les systèmes autonomes » a été publiée le 13 décembre 2016, avec l'idée d'une discussion d'ici à l'été 2017 et la diffusion d'une deuxième version consolidée prévue à l'automne 2017.

Plusieurs événements, réunions et téléconférences sont programmés afin de discuter du texte, y compris en Europe, par exemple à Bruxelles le 11 avril 2017, et surtout un événement marquant, qui se tiendra sous la forme d'une plénière les 5 et 6 juin à Austin (Texas), à l'issue duquel sera réalisée la deuxième version du texte. C'est la communication de ce texte qui est prévue à l'automne 2017. Enfin, une troisième plénière aura lieu en Asie en 2018 (Japon ou Chine).

Le document publié le 13 décembre 2016 aborde les différents aspects de la création et du développement d'algorithmes et de l'intelligence artificielle concernés par des questionnements éthiques et propose des recommandations pour chacun d'entre eux. Il en formule huit, que vos rapporteurs récapitulent ci-dessous.

1. Les principes généraux de la recherche en intelligence artificielle 

Le développement de l'intelligence artificielle doit être encadré par un respect des principes fondamentaux des droits humains, de responsabilité, de transparence, d'éducation et de connaissance.

2. Les valeurs « programmées » dans les systèmes autonomes

Les valeurs morales à intégrer aux algorithmes des systèmes autonomes ne peuvent être universelles, et, sans tomber dans le relativisme, doivent davantage s'adapter aux communautés d'utilisateurs concernées et aux tâches qui lui sont confiées. Il est important de veiller, dès la conception des algorithmes, à ce que la multiplicité de valeurs ne les fasse pas entrer en conflit les unes avec les autres et ne désavantage aucun groupe d'utilisateurs. Cela implique donc qu'une architecture de calcul exigeante des valeurs et normes éthiques doit être respectée.

3. La méthodologie de recherche et de conception éthiques

Il est essentiel que la méthodologie de recherche et de conception d'algorithmes et de systèmes autonomes comble de nombreux manques. Au-delà de son enseignement actuellement absent des programmes d'études en ingénierie, l'éthique doit être intégrée dans de nombreux domaines d'activité. Les pratiques industrielles doivent être davantage marquées par une culture éthique et la communauté concernée doit s'emparer des sujets idoines et assumer sa responsabilité éthique. Du fait du mode de fonctionnement et de prise de décision des algorithmes, il est nécessaire d'inclure des composants de type « boîtes noires » décryptables a posteriori afin d'enregistrer les informations aidant à l'analyse des processus de décision et d'action des systèmes autonomes.

4. La sécurité

Les comportements imprévus ou involontaires de systèmes d'intelligence artificielle représentent potentiellement un danger grandissant. Il est de fait essentiel de renforcer la sécurité de l'utilisation de systèmes d'intelligence qui, en devenant de plus en plus capables, peuvent devenir dangereux. Les chercheurs et concepteurs de systèmes de plus en plus autonomes devront se confronter à un ensemble complexe de défis de sécurité sur le plan technologique ainsi que sur le plan éthique.

5. La protection des données à caractère personnel

L'un des principaux dilemmes éthiques relatif au développement de l'intelligence artificielle concerne l'asymétrie de données (data asymmetry), entre ceux qui les produisent et ceux qui les agrègent, les traitent, les manipulent et les vendent. La protection des données à caractère personnel doit être organisée en considération de différents facteurs : comment est défini et est identifié le caractère « personnel » d'une donnée ; comment définir le consentement d'accès à des données à caractère personnel ; les conditions d'accès et de traitement de ces données ; etc.

6. Les considérations juridiques

L'utilisation de systèmes autonomes soulève de nombreuses questions d'un point de vue juridique. Des exigences de responsabilisation, de transparence et de vérifiabilité des actions des robots sont essentielles et les dispositifs existants doivent être améliorés. À titre d'exemple, la transparence des systèmes autonomes permet de garantir qu'une intelligence artificielle respecte les droits individuels et, utilisée par une administration, qu'elle ne porte pas atteinte aux droits des citoyens et peut recueillir leur confiance. En outre, il est nécessaire d'adapter le cadre juridique concernant la responsabilité des préjudices et dommages causés par un système autonome, ainsi que concernant l'intégrité et la protection des données à caractère personnel.

7. La défense et les « robots tueurs »

L'utilisation d'armes létales autonomes, également appelées « robots tueurs », revêt un caractère risqué, en cela que leurs actions pourraient être altérées et devenir un danger non maîtrisable, en cela que la surveillance humaine en est exclue. Ces « robots tueurs », à l'instar des drones militaires, sont critiqués, et la légitimation de leur développement pourrait potentiellement créer des précédents, qui du point de vue géopolitique pourraient être dangereux à moyen terme, notamment en termes de prolifération de ces armes, d'abus d'utilisation et d'escalade rapide des conflits. En outre, l'absence de standards de conception ne permet pas aujourd'hui d'adopter des règles éthiques clairement définies.

8. Les problèmes économiques et humanitaires

L'objectif de ce rapport, en matière économique et social, est d'identifier les principaux moteurs de l'écosystème mondial des technologies dans ce domaine et de prendre en compte les ramifications économiques et humaines, voire humanitaires, afin de suggérer des opportunités clés de solutions. Ces dernières pourraient être mises en oeuvre de manière à débloquer les points critiques de tension. Les systèmes autonomes et, plus largement, l'intelligence artificielle, souffrent d'une mauvaise image auprès du grand public, du fait d'une interprétation erronée par de nombreuses oeuvres de culture populaire alarmistes sur les capacités d'un système d'intelligence artificielle « forte », qui n'est pas encore advenu et n'est pas une réalité envisageable à court terme.

Le phénomène de robotisation et de développement de l'intelligence artificielle n'est généralement pas perçu uniquement dans un contexte de marché. Si toute politique publique sur l'intelligence artificielle peut potentiellement ralentir l'innovation, de nombreuses craintes émergent, notamment concernant l'emploi, les changements technologiques évoluant trop rapidement pour permettre aux méthodes de formation de la main-d'oeuvre de s'adapter. Par ailleurs, l'accès aux technologies d'intelligence artificielle n'est pas équitablement réparti, entraînant un manque de compréhension des informations par une partie de la population ; en cela, l'avènement de l'intelligence artificielle et des systèmes autonomes peut exacerber les différences économiques et structurelles entre les pays développés et les pays en développement.

En outre, l'IEEE élabore actuellement des standards, dans une démarche parallèle à la discussion du document « Conception conforme à l'éthique : une vision pour fixer comme priorité le bien-être humain avec l'intelligence artificielle et les systèmes autonomes ». Trois propositions de standards industriels ont ainsi été proposées et d'autres sont à venir. Ils sont en cours de rédaction dans des groupes de travail ouverts, au sein, de la IEEE Standard association :

- Standard pour un processus tenant compte des considérations éthiques dans la conception des systèmes.

- Standard sur la prise en compte de la protection de la vie privée dans les systèmes et logiciels utilisant des données personnelles.

- Standard sur les niveaux de transparence mesurables pour le test de systèmes et l'évaluation de leur niveau de conformité.

Une telle rédaction de standards prend du temps, au moins un an, et d'autres idées de standard pourraient être proposées et soumises à la discussion.

Selon l'animateur du comité d'IEEE ayant produit le document « Conception conforme à l'éthique : une vision pour fixer comme priorité le bien-être humain avec l'intelligence artificielle et les systèmes autonomes » et qui prépare le second rapport, Raja Chatila, directeur de l'Institut des systèmes intelligents et de robotique (ISIR), auditionné à plusieurs reprises par vos rapporteurs, deux aspects concernant l'éthique devraient être particulièrement abordés : d'une part, les méthodologies de conception éthique de systèmes autonomes, de manière à ce que ceux-ci tiennent compte des valeurs éthiques humaines (par exemple respect de la vie humaine, des droits humains) et de manière à ce que les algorithmes qui les régissent soient transparents, explicables, traçables, et, d'autre part, l'éthique des machines, c'est-à-dire comment les décisions prises par une machine peuvent intégrer un raisonnement éthique.

4. Une sensibilisation insuffisante du grand public à ces questions et un besoin de partage en temps réel de la culture scientifique et de ses enjeux éthiques

Vos rapporteurs constatent une sensibilisation insuffisante du grand public aux questions posées par l'intelligence artificielle et les systèmes autonomes. Les traitements médiatiques de ces questions restent le plus souvent sensationnalistes, voire alarmistes, alors qu'une information objective serait souhaitable.

La vision déjà tronquée du grand public, sous l'effet des oeuvres de fiction, et en particulier du cinéma, n'est pas améliorée par la lecture de la plupart des articles disponibles sur l'intelligence artificielle dans nos journaux et magazines.

Vos rapporteurs veulent affirmer avec force le besoin de partage en temps réel de la culture scientifique et de ses enjeux éthiques.

Votre rapporteure, Dominique Gillot, présidente du Conseil national de la culture scientifique, technique et industrielle (CNCSTI), entend rappeler que ce Conseil, placé auprès du ministre chargé de la Culture et du ministre chargé de la Recherche, « participe à l'élaboration d'une politique nationale en matière de développement de la culture scientifique, technique et industrielle, en cohérence avec les grandes orientations de la stratégie nationale de recherche ».

Réuni pour la première fois le 24 novembre 2015224(*), ses membres, réfléchissent aux actions à conduire et sur l'articulation entre le niveau national et le niveau régional. Parmi les thèmes prioritaires de réflexion et de travail figurent l'utilisation des technologies et notamment du numérique dans la médiation scientifique, les entreprises et l'innovation, les filles et la science, l'appui de la recherche aux décisions publiques, l'après COP 21. Votre rapporteure, Dominique Gillot, souligne l'importance de la visibilité du débat public autour de ces questions.

L'Alliance sciences sociétés (ALLISS) se donne justement pour première mission d'animer le débat public225(*), mais aussi de renforcer les capacités d'initiatives des acteurs de la société civile, de soutenir les initiatives des institutions de l'enseignement supérieur et de recherche, de favoriser le croisement des savoirs académiques, d'action et d'expérience et, enfin, d'accompagner les collectivités territoriales et leurs politiques publiques. En collaboration avec l'OPECST, l'IHEST et le ministère de l'Enseignement supérieur et de la recherche, ALLISS a organisé en novembre 2016 la session inaugurale de lancement de son livre blanc « Prendre au sérieux la société de la connaissance »226(*). Fruit de quatre années de travail, riche de la participation de plus de 1 500 personnes et de 450 organisations et de la contributions de plus de 150 organisations de la société civile, ce livre blanc a été rendu public en mars 2017, avec l'idée de mettre en lumière des expériences exemplaires, de contribuer à un diagnostic partagé et d'effectuer des recommandations pour les acteurs publics et les acteurs impliqués dans l'enseignement supérieur et la recherche : établissements d'enseignement supérieur et de recherche mais aussi acteurs de la société civile, associations, syndicats, entreprises... Les recommandations du document portent sur les interactions entre société civile, enseignement supérieur et recherche, dans le but d'aboutir entre autres à une meilleure intégration de la société civile dans les choix des politiques publiques d'innovation.

Les activités d'éducation populaire ou les ateliers citoyens sont d'autres pistes pour sensibiliser le grand public aux questions posées par l'intelligence artificielle. Vos rapporteurs ne se satisfont pas des traitements sensationnalistes ou alarmistes de ces questions par les médias. Les informations contenues dans le présent rapport devraient être accessibles à tous et transmises par le biais d'activités d'éducation populaire ou par des ateliers citoyens.

Le rapport « Vers une société apprenante »227(*) remis en mars 2017 par François Taddéi, directeur du Centre de recherches interdisciplinaires (CRI), à la ministre de l'Éducation nationale, de l'enseignement supérieur et de la recherche va dans ce sens et propose une approche systémique interdisciplinaire marquée par « une culture de la confiance, de la liberté et du mentorat bienveillant », avec le numérique comme catalyseur des évolutions afin de mobiliser les moyens matériels et humains pour répondre aux défis éducatifs.

Vos rapporteurs observent, en outre, que non seulement le numérique doit être transformé par l'éthique, mais que le numérique est, par lui-même, un facteur d'évolution des règles éthiques appliquées par les chercheurs, surtout au cours des dernières années. Le contrôle par les pairs se fait de manière plus décentralisée et collaborative.

L'exemple de pubpeer, site de discussion en ligne d'articles scientifiques228(*), peut être cité de manière significative. Les réseaux sociaux de chercheurs229(*) sont une autre illustration.


* 196 Rapport du COMETS sur l'éthique des STIC : http://www.cnrs.fr/comets/IMG/pdf/08-rapportcomets091112-2.pdf

* 197 Il est loisible de mentionner l'existence de rapports sur le partage des données ( http://www.cnrs.fr/comets/IMG/pdf/2015-05_avis-comets-partage-donnees-scientifiques-3.pdf), sur le contrôle des publications scientifiques avec les nouveaux médias ( http://www.cnrs.fr/comets/IMG/pdf/mediaaviscometsavril16-2.pdf) ou, encore sur les sciences citoyennes ( http://www.cnrs.fr/comets/IMG/pdf/comets-avis-entier-sciences_citoyennes-25_juin_2015.pdf).

* 198 Selon Max Dauchet, président de la CERNA, cette dernière a « pour mission de mener une réflexion éthique au titre du monde de la recherche. La proximité dans le numérique étant grande entre la recherche et les usages, la CERNA a milité activement pour la création par la loi pour une République numérique d'un dispositif traitant plus largement des questions éthiques et sociétales, comme le CCNE le fait dans le secteur de la vie et de la santé. La création d'un tel dispositif que la CERNA appelait de ses voeux, ayant été confié à la CNIL, elle doit conduire à conforter la CERNA comme coordinateur du monde de la recherche au sein du débat de société sur ces questions ». Il ajoute que « le rôle de la CERNA est à positionner suite aux nouvelles missions dévolues à la CNIL, sous l'angle des rapports entre la recherche dans le numérique et la société ».

* 199 Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.

* 200 Sa mission historique, conformément à la loi n° 78-17 du 6 janvier 1978 modifiée à plusieurs reprises, dont par la loi pour une République numérique précitée, est de veiller à ce que l'informatique soit au service du citoyen et qu'elle ne porte atteinte ni à l'identité humaine, ni aux droits de l'Homme, ni à la vie privée, ni aux libertés individuelles ou publiques. Elle assure ainsi la protection des données à caractère personnel dans les traitements informatiques mis en oeuvre sur le territoire français.

* 201 Cf. https://www.cnil.fr/fr/ethique-et-numerique

* 202 Cf. https://www.cnil.fr/fr/webform/contacter-lequipe-de-la-mission-ethique-et-numerique

* 203 S'agit-il d'une nouvelle révolution industrielle, ou d'un simple moyen d'améliorer la productivité ? Les algorithmes sont-ils les nouveaux décideurs ? Ont-ils pour effet de nous enfermer dans une bulle informationnelle, mettant en danger ouverture culturelle et pluralisme démocratique ? Sont-ils au contraire un moyen d'accéder à des idées, contenus, données ou personnes inaccessibles ou invisibles jusqu'alors ? Quelle transparence à l'ère des algorithmes : comment concilier transparence et propriété intellectuelle ? Faut-il repenser, face aux progrès de l'intelligence artificielle, la responsabilité des acteurs publics et privés ? Comment construire le libre-arbitre dans un monde « algorithmé » ?

* 204 Cf. https://www.cnil.fr/fr/les-partenaires-et-evenements

* 205  http://www.economie.gouv.fr/cge/modalites-regulation-des-algorithmes-traitement-des-contenus

* 206  http://www.economie.gouv.fr/files/files/PDF/Inria_Plateforme_TransAlgo2016-12vf.pdf

* 207  https://www.inria.fr/actualite/actualites-inria/transalgo

* 208 Ces systèmes ont la capacité de capter des données personnelles (photos ou vidéos de personnes, voix, paramètres physiologiques, géolocalisation...), leur déploiement soulève donc des questions liées à la protection de la vie privée et des données personnelles.

* 209 http://cigref.fr/Publication/2014-CIGREF-Ethique-et-Numerique-une-ethique-a-reinventer-Rapport-mission-F-FISCHER.pdf

* 210 http://www.cigref.fr/wp/wp-content/uploads/2016/09/Gouvernance-IA-CIGREF-LEXING-2016.pdf

* 211 Respect de la vie privée dès le stade de la conception du produit.

* 212 Respect de règles éthiques dès le stade de la conception du produit.

* 213 https://ethicaa.org

* 214 Les responsables scientifiques du projet pour les partenaires sont : Alain Berger (société Ardans) ; Olivier Boissier (Institut Henry Fayol - ARMINES) ; Pierre-Antoine Chardel (Institut Mines-Télécom) ; Jean-Gabriel Ganascia (LIP6 - Université Paris 6) ; Catherine Tessier (ONERA).

* 215 L'Institut a été fondé en mars 2014 par Max Tegmark cosmologiste au MIT, Jaan Tallinn co-fondateur de Skype, Anthony Aguirre physicien à l'UCSC et deux étudiants (Viktoriya Krakovna et Meia Chita-Tegmark), figurent à son conseil consultatif l'informaticien Stuart J. Russell, le biologiste George Church, le physicien Frank Wilczek, les cosmologistes Stephen Hawking et Saul Perlmutter, ou, encore, l'entrepreneur Elon Musk.

* 216 Il s'agit, par exemple, de développer une intelligence artificielle capable d'expliquer ses décisions ou, encore, de travailler sur l'alignement de l'intelligence artificielle sur les valeurs humaines.

* 217 Outre Max Tegmark, président du FLI, dont il a déjà été question, le second expert était Nick Bostrom, philosophe, fondateur du Future of Humanity Institute (FHI) de l'Université d'Oxford.

* 218 Stuart Russell travaille à l'Université de Berkeley, où il est professeur au département d'informatique et directeur du centre pour l'étude des systèmes intelligents. Ancien membre du bureau exécutif de l'AAAI (American Association for Artificial Intelligence), il a reçu de nombreux prix scientifiques Il est l'auteur de plus de cent articles et de plusieurs best-sellers sur l'intelligence artificielle. Il a co-rédigé le principal manuel disponible sur l'IA avec Peler Norvig, ancien professeur à l'Université de Californie du Sud, directeur scientifique chez Google, qui auparavant travaillé pour la NASA sur l'intelligence artificielle et la robotique, ainsi que pour Junglee sur l'extraction d'informations par Internet., membre de l'AAAI et de l'ACM (Association for Computing Machinery).

* 219 Lors de la visite de vos rapporteurs au siège appelé « campus Apple », situé en plein centre de la Silicon Valley au 1 InfiniteLoop à Cupertino en Californie, un communiqué de presse leur a été communiqué par des responsables de l'entreprise. Il expliquait qu'Apple rejoint ce partenariat en tant que membre fondateur (« founding partner »). Le communiqué de presse se trouve ici : https://www.partnershiponai.org/2017/01/partnership-ai-update/

* 220 L'intégralité du rapport publié par l'Université Stanford est disponible ici : https://ai100.stanford.edu/sites/default/files/ai_100_report_0831fnl.pdf

* 221 Son programme figure ici : https://futureoflife.org/bai-2017/

* 222 https://futureoflife.org/ai-principles/

* 223 Cf. le site : http://ai-initiative.org/

* 224 Cette réunion a été suivie par la remise du prix « Le goût des sciences », prix qui a pour objectif de valoriser le travail des chercheurs et des éditeurs, d'encourager les vocations scientifiques et d'affirmer l'importance de la culture scientifique au sein de la culture générale contemporaine.

* 225 Cf. la charte de l'Allliance : https://uploads.strikinglycdn.com/files/5d463c19-d192-418c-9987-9d3a62b95a22/CHARTE_ALLISS.pdf

* 226 Le livre blanc est téléchargeable sur le site d'ALLISS : http://www.alliss.org/

* 227 Cf. http://cache.media.education.gouv.fr/file/03_-_mars/19/0/2017_rapport_taddei_740190.pdf

* 228 Cf. https://pubpeer.com/

* 229 Cf. https://www.researchgate.net