Allez au contenu, Allez à la navigation

Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport

15 mars 2017 : Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport ( rapport d'information )

B. DES « LOIS D'ASIMOV » À LA QUESTION CONTEMPORAINE DE LA RÉGULATION DES SYSTÈMES D'INTELLIGENCE ARTIFICIELLE

1. Dépasser les « lois d'Asimov » pour envisager un droit de la robotique

Dès ses premiers romans, l'écrivain Isaac Asimov a formalisé ses « trois lois » applicables au comportement des robots. Ces « trois lois », qui s'apparentent à des règles éthiques, sont les suivantes :

- première loi, « un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger » ;

- deuxième loi, « un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi » ;

- troisième loi, « un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi ».

Au-delà de l'articulation des « trois lois » de la robotique entre elles, Isaac Asimov a imaginé une quatrième loi, dite « loi zéro », élaborée par les robots eux-mêmes. Cette invention suit le changement d'échelle de la sphère d'influence des robots. Elle consiste en une généralisation de la première loi, par le passage d'un individu à l'humanité toute entière : « nulle machine ne peut porter atteinte à l'humanité ni, restant passive, laisser l'humanité exposée au danger ».

Bien qu'elles puissent avoir l'air infaillibles, ces règles peuvent être prises en défaut et atteindre leurs limites. L'oeuvre d'Isaac Asimov montre que l'application et l'articulation entre ces trois lois ne vont pas de soi. Ces règles, interprétées par les robots, peuvent même finir par nuire aux êtres humains.

La Corée du Sud s'est tout de même inspirée de ces « lois » pour rédiger un projet de charte sur l'éthique des robots, dans le but « d'éviter les problèmes de société qui pourraient découler de mesures sociales et juridiques inadéquates prises pour encadrer l'existence de robots dans la société ».

Vos rapporteurs rappellent que les « lois d'Asimov » sont des règles issues de la fiction et qu'elles posent des problèmes réels de mise en oeuvre. Les experts en robotique rencontrés par vos rapporteurs ont tous souligné la difficulté à traduire ces « lois » dans des systèmes matériels. Au total, il s'agit davantage de principes éthiques généraux que de prémices à un droit de la robotique.

Les travaux d'Andrea Keay visant à compléter les « lois d'Asimov » participent aussi de cette logique éthique. Pour mémoire, elle propose que les robots ne soient pas utilisés comme des armes, qu'ils doivent se conformer aux lois, notamment celles sur la protection de la vie privée, être sûrs, fiables et donner une image exacte de leurs capacités, qu'ils ne doivent pas être utilisés pour tromper les utilisateurs les plus vulnérables (ce qui plaide pour éviter les robots humanoïdes trop ressemblants) et qu'il doit être possible de connaître le responsable de chaque robot.

Reconnaître une personnalité juridique des robots est une des pistes innovantes qui parcourent le débat public sur la robotique.

En France, l'avocat Alain Bensoussan, rencontré à plusieurs reprises par vos rapporteurs, milite en faveur de l'adoption d'un droit des robots au sein de l'association pour le droit des robots qu'il préside. Il a ainsi rédigé un projet de charte des droits des robots, qui fait de ces derniers des êtres artificiels dotés d'une personnalité juridique particulière et d'un droit à la dignité169(*). Il réfléchit également aux implications en matière de responsabilité et d'assurance. En outre, il demande à ce que tout robot dispose de systèmes de sécurité permettant un arrêt d'urgence.

Selon Alain Bensoussan, les textes actuellement en vigueur, à l'instar de la loi du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés170(*), n'offrent pas un cadre juridique suffisant face aux évolutions en cours de la robotique, à l'amélioration des capacités d'apprentissage et de la liberté décisionnelle du robot et à la question de la confidentialité des enregistrements et des données que celui-ci peut recueillir. En particulier, pour Alain Bensoussan, il serait essentiel d'intégrer aux corpus normatifs existants un « droit des robots », qui se déclinerait sur trois axes : les règles générales applicables à tous les types de robots ; les règles spécifiques par type de robot (véhicule autonome, robot humanoïde...) ; et les référentiels robotiques sur les plans éthiques, culturels et normatifs.

Vos rapporteurs ont sur le sujet de la reconnaissance de la personnalité juridique des robots un avis très réservé. Ils ne sont pas convaincus de l'intérêt de reconnaître une personnalité juridique aux robots et se demandent à qui il conviendrait d'accorder la personnalité juridique, au robot dans son ensemble ou à son intelligence artificielle ?

Dans la mesure où le système d'intelligence artificielle pourrait migrer d'un corps robotique à un autre, la partie physique du robot ne serait qu'un contenant, destiné à recevoir pour un temps donné un système. Il serait alors opportun d'opérer une discrimination entre la partie physique et la partie informatique du robot en vue de les soumettre à des régimes juridiques différents, notamment en matière de responsabilité. Il faudrait alors pouvoir, tel l'historien Ernst Kantorowicz distinguant les deux corps du roi, discerner les deux corps du robot171(*).

Vos rapporteurs estiment qu'il est urgent d'attendre en la matière et que le sujet de la personnalité juridique des robots n'est pas à une question qui mérite d'être posée à ce stade. ý

2. Les questions juridiques en matière de conception (design), de propriété intellectuelle et de protection des données personnelles et de la vie privée

S'agissant des autres aspects juridiques de l'intelligence artificielle et de la robotique, il sera loisible de conduire une réflexion et de faire de la prospective concernant la conception (design) et l'autorisation de commercialisation172(*). Pour Rodolphe Gélin et Olivier Guilhem, respectivement directeur scientifique et directeur juridique d'Aldebaran puis de Softbank Robotics, il n'existe pas de vide juridique béant. Les rapports parus sur le sujet, notamment dans le monde anglo-saxon, semblent aller dans le même sens.

Dans l'état actuel du droit, en cas de commercialisation de robots entre professionnels, ces derniers disposent d'une certaine liberté contractuelle qui leur permet de combler les incertitudes législatives et jurisprudentielles. Ainsi, leur appréciation totale des possibilités et leur maîtrise des contraintes et limites technologiques leur offrent une approche technique permettant la distribution de la responsabilité finale de chaque partie prenante de cet échange commercial (fabricant, développeur, propriétaire et utilisateur).

Concernant la commercialisation de robots à destination des consommateurs, le droit de la consommation a vocation à s'appliquer.

La propriété intellectuelle pose des questions auxquelles vos rapporteurs n'ont pas de réponses définitives. Quel est le statut de ce qui est créé par des technologies d'intelligence artificielle ? Ces oeuvres sont-elles la propriété de son acheteur, de son fabricant, de l'éditeur du logiciel ? En tout cas elles n'appartiennent pas à la machine d'après vos rapporteurs. Plusieurs juristes, tel l'avocat Alain Bensoussan imagine à l'inverse une telle solution, qui implique de doter les intelligences artificielles et les robots d'une personnalité propre, comme il a été vu cette idée n'emporte pas leur adhésion.

Dans l'état actuel du droit français, la reconnaissance d'une création pleinement robotique ou issue de technologies d'intelligence artificielle n'existe pas et seul un être humain peut bénéficier d'un régime de propriété intellectuelle pour ses créations. Il existe néanmoins certains mécanismes juridiques permettant à une oeuvre ou à un ouvrage dont le processus de création a été partiellement assuré par une machine ou un système d'intelligence artificielle de bénéficier d'un régime de protection au titre de la propriété intellectuelle. Ainsi, il est possible d'accorder un brevet à une création résultant d'un processus industriel impliquant un ordinateur ou un robot. De même, si les créations produites par des composants robotiques ne sont pas éligibles à la protection assurée par le code de la propriété intellectuelle, le savoir-faire, qui représente un ensemble d'informations non brevetées résultant de l'expérience et de l'expérimentation, peut être utilisé comme un outil pour protéger la création robotique, à la suite de la construction jurisprudentielle et doctrinale reconnaissant la notion de savoir-faire. Enfin, conformément à la « Classification de Nice »173(*), qui est le système de classification des produits et des services établi dans le cadre de l'Organisation mondiale de la propriété intellectuelle et ratifié par la France, les robots et technologies d'intelligence artificielle sont considérés comme des biens et leurs actions en tant que fournisseur de services ne sont, de fait, pas prises en compte.

À titre de comparaison, les robots et les technologies d'intelligence artificielle n'étant pas dotés de personnalité juridique propre au regard du droit international, ils demeurent considérés aux yeux de nombreux systèmes juridiques nationaux comme des objets, et ne sont donc pas porteurs de droits. Le droit de l'Union européenne ne prévoit pas la création par un robot ou un ordinateur ; de fait, leurs créations sont exclues du champ de la protection de la propriété intellectuelle, du brevet, du dépôt de marque et du droit d'auteur tel que défini par le droit communautaire. Ainsi, au-delà de la France et plus généralement des États membres de l'Union européenne, de nombreux pays tels que l'Afrique du Sud, le Brésil, la Chine, les États-Unis ou le Japon, considèrent que la création ne peut être qu'humaine, et non issue d'une machine ou d'une technologie d'intelligence artificielle. Dans ce cas, les créations effectuées par le recours à un robot sont éligibles à la protection de la propriété intellectuelle, la propriété de la création étant attribuée au propriétaire ou à l'utilisateur de la machine ou du système.

L'avocat Laurent Szuskin propose, quant à lui, une application distributive de la propriété intellectuelle. Par exemple, une invention dans un système d'intelligence artificielle pourrait être protégeable par le brevet, les logiciels sous-jacents par le droit d'auteur, les bases de données par le droit spécifique à celles-ci, etc. Sur la question de savoir si le résultat produit par l'intelligence artificielle appartient au développeur de la solution ou au fournisseur ou encore à l'entreprise ayant intégré la solution à ses systèmes de production ou encore à une autre personne telle que celle ayant fourni les données, Laurent Szuskin plaide, en l'absence de régime légal ou de jurisprudence à ce jour, pour une solution contractuelle. Les clauses « propriété intellectuelle et savoir-faire » encadrant le développement d'intelligence artificielle ou la fourniture de services d'intelligence artificielle doivent attribuer la propriété ou du moins l'affectation contractuelle des résultats qui découlent de l'usage de la solution.

Le développement de la robotique « intelligente » et des technologies d'intelligence artificielle soulève également des questions en matière de protection des données personnelles. Au quotidien, nos ordinateurs connectés à Internet et nos smartphones avec des logiciels tels que « Siri », « Cortana » ou « Google Now », nous font d'ores et déjà cohabiter avec des algorithmes puissants, qui connaissent beaucoup de chacun de nous, le plus souvent avec notre complicité, sans que nous ne connaissions l'usage qui peut être fait de ces millions d'informations à caractère personnel. Les agents conversationnels étant appelés à jouer un rôle croissant dans nos sociétés, ce sujet doit faire l'objet d'une prise en charge satisfaisante.

Les activités robotiques sont soumises au respect de la loi n°78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés. Ainsi, les propriétaires de robots gérant le système de traitement des données doivent respecter les obligations posées par la Commission nationale de l'informatique et des libertés (CNIL), c'est-à-dire la notification standard sur les utilisations du robot, sur le type de logiciel utilisé, sur les systèmes de sécurité installés pour protéger les données d'intrusions tierces non autorisées, sur les données personnelles stockées dans le robot, et sur les informations fournies aux utilisateurs concernant le traitement de leurs données personnelles. Tout traitement de données personnelles doit être signalé en amont à la CNIL, et l'utilisation de données « sensibles », comme les données médicales, doit être autorisée par la CNIL. En outre, les propriétaires de systèmes de traitement de données personnelles sont soumis à une obligation de sécurité et de confidentialité des données.

Un effort d'adaptation du cadre juridique de la protection des données à caractère personnel aux nouvelles réalités du monde numérique a été mené récemment à la fois au niveau communautaire et au niveau national.

Le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données174(*), également appelé « règlement général européen sur la protection des données » et abrogeant la directive 95/46/CE, vise à doter les États membres d'une législation uniforme et actualisée en matière de protection des données à caractère personnel. Ce « règlement général sur la protection des données », entré en vigueur le 24 mai 2016 et qui sera applicable à partir du 25 mai 2018, est destiné à remplacer l'actuelle loi du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés.

L'application de ce règlement général européen sur la protection des données poursuit trois objectifs. Tout d'abord, l'application de ce règlement vise à « renforcer les droits des personnes, notamment par la création d'un droit à la portabilité des données et de dispositions propres aux personnes mineures »175(*). Ensuite, ce règlement impose un accroissement de la transparence et la responsabilisation des acteurs traitant des données, selon une logique de conformité dont les acteurs sont responsables, sous le contrôle et avec l'accompagnement du régulateur. Enfin, l'application de ce règlement a pour objectif de « crédibiliser la régulation grâce à une coopération renforcée entre les autorités de protection de données, qui pourront notamment adopter des décisions communes et des sanctions renforcées dans les cas de traitements de données transnationaux »176(*).

Les dispositions contenues dans le règlement général européen sur la protection des données encadrent la collecte et le traitement de données à caractère personnel par de nombreux droits et responsabilités. Ainsi, ce règlement introduit la définition de « l'expression du consentement renforcé », indiquant que les utilisateurs doivent être informés de l'usage de leurs données et doivent donner leur accord, ou s'opposer, au traitement de leurs données personnelles. De même, le droit à la portabilité des données est affirmé, et les responsables de traitements des données à caractère personnel devront assurer des opérations respectant la protection des données personnelles, à la fois dès la conception du produit ou du service et par défaut.

Le règlement général européen sur la protection des données s'accompagne de l'adoption de la directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d'enquêtes et de poursuites en la matière ou d'exécution de sanctions pénales, et à la libre circulation de ces données. Cette directive, entrée en vigueur le 5 mai 2016 et que les États membres sont tenus de transposer dans leur ordre juridique interne au plus tard le 6 mai 2018, s'applique aux opérations de données effectuées à la fois au niveau transfrontalier et au niveau national par les autorités compétentes des États membres à des fins répressives, comprenant notamment la prévention et la détection des infractions pénales et la protection contre les menaces pour la sécurité publique.

Vos rapporteurs notent que certaines dispositions de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique anticipent ce règlement européen sur la protection des données personnelles.

La loi crée, en effet de nouveaux droits informatique et libertés et permet ainsi aux personnes de mieux maîtriser leurs données personnelles, par l'affirmation du droit à l'autodétermination informationnelle, qui constitue un renforcement des principes énoncés à l'article 1er de la loi du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés. De même, elle introduit le droit à l'oubli par les mineurs via une procédure spécifique accélérée permettant un effacement des données « problématiques » sur les plateformes, prévu désormais par l'article 40 de la loi du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés. L'article 40-1 de cette même loi permet désormais aux personnes d'organiser la conservation, l'effacement et la communication de leurs données personnelles après leur décès, notamment en désignant une personne pour exécuter des directives générales ou particulières souhaitées par le défunt. En outre, le nouvel article 43 bis de la loi du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés offre la possibilité aux citoyens d'exercer leurs droits par voie électronique.

La loi du 7 octobre 2016 pour une République numérique élargit également les pouvoirs de sanctions de la CNIL et lui confie de nouvelles missions. Ainsi, le plafond maximal des sanctions de la CNIL est désormais de trois millions d'euros, cette augmentation anticipant celle prévue par le règlement général européen sur la protection des données. La loi introduit la consultation systématique de la CNIL afin que celle-ci soit saisie pour avis dès lors qu'un projet de loi ou une disposition d'un projet de loi ou de décret est relatif à la protection et au traitement des données à caractère personnel. Tous les avis de la CNIL seront par ailleurs automatiquement rendus publics. De plus, la loi renforce la CNIL de nouvelles missions en matière de protection des données personnelles. Ainsi, la CNIL doit assurer la promotion des technologies de protection de la vie privée, certifier la conformité des processus d'anonymisation des données à caractère personnel lors de leur mise en ligne et de leur utilisation, et conduire une réflexion sur les problèmes éthiques et les questions de société face à l'évolution des technologies numériques. Cette dernière mission confiée à la CNIL l'a ainsi menée à initier un cycle de débats publics, ateliers ou rencontres, intitulé « Éthique et numérique : les algorithmes en débat »177(*). Ce point sera abordé plus loin dans la partie consacrée au cadre national de la réflexion sur les enjeux éthiques de l'intelligence artificielle

Enfin, la loi du 7 octobre 2016 pour une République numérique contribue également à une meilleure ouverture des données publiques. L'article 4 de la loi modifie, en effet, le droit à la communication des documents administratifs, et crée l'article L311-3-1 du Code des relations entre le public et l'administration, qui dispose que « sous réserve de l'application du 2° de l'article L. 311-5, une décision individuelle prise sur le fondement d'un traitement algorithmique comporte une mention explicite en informant l'intéressé. Les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en oeuvre sont communiquées par l'administration à l'intéressé s'il en fait la demande. Les conditions d'application du présent article sont fixées par décret en Conseil d'État »178(*).

À ce titre, la loi signe le passage d'une logique de la demande d'un accès à la logique de l'offre de données publiques, bien que les critères de communicabilité de ces données demeurent inchangés.

Néanmoins, vos rapporteurs soulignent le fait que l'introduction de ce nouveau droit réinterroge les questions d'explicabilité et de responsabilité des algorithmes. En effet, le principe d'explicabilité d'un algorithme implique que toute décision prise par celui-ci doit être accessible et compréhensible par les personnes concernées par cette décision, afin de permettre à ces derniers de fournir une meilleure contestation des erreurs constatées ou des données erronées. De même, le principe de responsabilité d'un algorithme implique que l'algorithme ou son utilisateur rende compte des effets de leurs procédés et de leurs actions. Les algorithmes étant souvent caractérisés par leur opacité et qualifiés de boîtes noires insondables, la collecte et le traitement de données publiques désormais librement accessibles par des algorithmes soulève de nombreuses préoccupations sur la transparence des algorithmes.

Vos rapporteurs notent que la loi ne fournit toujours pas de régime juridique spécifique de protection des données personnelles dans les cas de collecte et de traitement de ces données par des robots intelligents ou des technologies d'intelligence artificielle, c'est le droit commun de la protection des données à caractère personnel dans les traitements informatiques qui continue de s'appliquer.

Afin de répondre plus spécifiquement aux préoccupations d'explicabilité, de régulation et de responsabilité des algorithmes, le Conseil général de l'économie (CGE) a remis au Gouvernement un rapport intitulé « Modalités de régulation des algorithmes de traitement des contenus »179(*). Cinq préconisations ont été formulées en vue de vérifier la conformité aux lois et règlements dont la détection de discrimination illicite. Suite à ce rapport, le secrétariat d'État à l'économie numérique a confié à l'Institut national de recherche en informatique et en automatique (Inria) le rôle d'opérateur de la plateforme scientifique d'évaluation de la responsabilité et de la transparence des algorithmes avec le soutien de l'IMT et du CNNum. Ce projet a été placé sous la direction de Nozha Boujemaa, directrice de recherche chez Inria. Les travaux de la plateforme « TransAlgo »180(*) ont ainsi été lancés en janvier 2017 et rassemblent des chercheurs de plusieurs établissements (SciencePo, UVSQ, CEA, CNRS, Inria, IMT etc).

La disposition sur l'ouverture des données publiques introduite par la loi du 7 octobre 2016 pour une République numérique et la question de la transparence des algorithmes ont été abordées, le 15 novembre 2016, dans le cadre de débats au Sénat sur les « inégalités devant l'orientation après le bac ». Au cours de ce débat, notre collègue sénatrice Sylvie Robert a abordé la question de l'algorithme de répartition utilisé par la plateforme « Admission post-bac » (APB), dont les résultats semblaient refléter des inégalités subies par les candidats, notamment en fonction de leur origine sociale, dans l'orientation dans des filières d'enseignement supérieur. L'encadré suivant rappelle l'échange que notre collègue a eu à ce sujet en séance publique avec le Gouvernement, représenté par Mme Clotilde Valter, secrétaire d'État auprès de la ministre du travail, de l'emploi, de la formation professionnelle et du dialogue social, chargée de la formation professionnelle et de l'apprentissage.

Inégalités devant l'orientation après le bac (extrait des débats181(*))

Mme Sylvie Robert. Madame la secrétaire d'État, une récente étude menée par l'INSEE dans l'académie de Toulouse souligne que les résultats d'admission post-bac reposent, dans une large mesure, sur un déterminisme social évident. À dossiers équivalents, les élèves issus de milieux favorisés s'orientent beaucoup plus vers les filières d'excellence ou les grandes écoles. Plusieurs facteurs peuvent expliquer ce constat : les différences de ressources financières, la position sociale des parents, qui influe souvent sur le choix des enfants, l'asymétrie d'information concernant les établissements d'enseignement supérieur ou encore les disparités en matière d'orientation dans les lycées. Cette configuration tend à conférer un poids déterminant au capital social et culturel détenu par l'élève et sa famille. Or le niveau de diplôme demeure un facteur prépondérant en matière d'insertion sur le marché du travail. À preuve, quatre ans après la sortie de la formation initiale, le taux de chômage des peu ou non diplômés, qui s'élève à 45 %, est quatre fois plus important que celui des diplômés du supérieur.

Pour remédier à cette situation, il se révèle donc essentiel d'agir en amont, en garantissant une égalité réelle devant l'orientation, laquelle n'est pas seulement un « processus de répartition des élèves dans différentes voies de formation », mais aussi « une aide dans le choix de leur avenir scolaire et professionnel », comme le rappelle le Haut Conseil de l'éducation.

À ce titre, il est reconnu que le système APB, admission post-bac, requiert un accompagnement et un suivi personnalisés de chaque élève. Néanmoins, l'impossibilité parfois, pour l'élève, d'obtenir dans le cadre scolaire des informations pertinentes sur les filières et établissements envisagés, ainsi que des conseils quant aux stratégies à mettre en oeuvre pour formuler ses voeux, constitue l'une des causes principales d'erreur, voire d'échec, d'orientation. D'ailleurs, dans le rapport d'information sénatorial intitulé « Une orientation réussie pour tous les élèves », il est préconisé d'intégrer le conseil en orientation dans la formation initiale et continue des enseignants. Dans cette même perspective, les rectorats ont proposé des améliorations du système APB : ouvrir le dispositif à l'ensemble des filières sélectives ; abandonner le tirage au sort utilisé pour certaines formations, qui est source de frustration, d'injustice et parfois de contentieux ; associer au processus, dès la classe de première, l'élève et sa famille, afin de les familiariser à l'outil APB et de leur permettre d'anticiper et de réfléchir posément à l'orientation ; renforcer la transparence du système APB par la publication de son code source, conformément aux dispositions de l'article 2 du projet de loi pour une République numérique, qui crée un droit d'accès aux règles définissant le traitement algorithmique.

Je souhaiterais connaître la position du Gouvernement sur ces quelques pistes de réflexion. Par ailleurs, madame la secrétaire d'État, envisagez-vous de prendre d'autres mesures afin que tous les élèves puissent faire un choix éclairé et aient des chances égales, avec le système APB, de poursuivre ses études dans la filière et l'établissement supérieur de ses voeux ?

Mme Clotilde Valter, secrétaire d'État auprès de la ministre du travail, de l'emploi, de la formation professionnelle et du dialogue social, chargée de la formation professionnelle et de l'apprentissage. Madame la sénatrice Sylvie Robert, je suis mandatée par Mme la ministre de l'éducation nationale et par mon collègue Thierry Mandon pour répondre à votre question. L'orientation des élèves est un des champs de réflexion et de travail du Gouvernement depuis 2012, dans la perspective de la lutte que nous menons contre le décrochage scolaire. C'est dans ce cadre que le parcours Avenir a été mis en place, à la rentrée 2015, pour délivrer une information personnalisée à chaque élève, et ainsi favoriser l'élaboration d'une orientation cohérente. Cet accompagnement personnalisé en lycée, dispensé dès la classe de seconde, représente d'ores et déjà deux heures par semaine en moyenne. Des actions ont également été engagées pour améliorer le continuum de formation bac-3/bac+3, telles que la généralisation du conseil d'orientation anticipé en classe de première, le renforcement du rôle de la commission académique des formations post-baccalauréat, l'amélioration de l'articulation des programmes du second degré et du supérieur par la rénovation en profondeur des programmes, le renforcement des passerelles et l'évolution de l'offre pédagogique.

Je tiens également à rappeler que le dispositif admission post-bac n'est, pour les élèves, qu'un outil d'expression des voeux. Le choix de l'orientation se fait bien évidemment en amont de la formulation de ces derniers sur le portail ; c'est le fruit d'une réflexion que l'élève mène avec l'aide de l'équipe pédagogique et grâce aux ressources de l'ONISEP, l'Office national d'information sur les enseignements et les professions. Ce portail a fait l'objet d'évolutions importantes, qui visent à améliorer l'information et à permettre à chaque élève de formaliser un choix réfléchi, que ce soit en le confortant dans son choix ou en lui conseillant une autre orientation. De plus en plus, ce portail permet en effet aux élèves de recevoir un conseil. La très grande majorité des universités l'utilisent désormais pour formuler des avis : on recense plus de 500 000 avis ainsi délivrés par les universités au cours de la dernière année. Les équipes éducatives ont été formées à cet effet dans chaque académie, au niveau des bassins de formation des établissements. Les actions mises en oeuvre sur le terrain, à l'instar des Cordées de la réussite et des parcours d'excellence, lancés à la rentrée de 2016, doivent aussi être mentionnées.

Ces politiques commencent à porter leurs fruits : nous enregistrons des résultats extrêmement positifs, avec une baisse du nombre de jeunes sortis sans qualification, inférieur cette année à 100 000, le taux de jeunes de 18 à 24 ans non qualifiés étant désormais, dans notre pays, plus faible qu'en Allemagne ou au Royaume-Uni.

J'ai bien pris note, madame la sénatrice, des questions très précises que vous avez posées sur un certain nombre de points. Je ne suis pas en mesure d'y répondre, mais je les transmettrai à Mme la ministre de l'éducation nationale et à Thierry Mandon.

Mme Sylvie Robert. Madame la secrétaire d'État, je vous remercie vivement de cette réponse, et j'ai bien noté que mes questions précises obtiendront des réponses précises. Mon intention n'était vraiment pas de critiquer le système APB, qui s'est en effet beaucoup amélioré. Je souhaitais simplement souligner la difficulté que rencontrent certains élèves, et leurs familles avec eux, pour élaborer de façon libre et éclairée leur parcours professionnel.

3. Les divers régimes de responsabilité envisageables et ceux envisagés

Les régimes de responsabilité envisageables ont tendance à mettre en cause soit le fabricant, soit le propriétaire, soit l'utilisateur. Les cas d'accident risquent en effet de se multiplier à raison de la diffusion de systèmes autonomes, notamment de robots.

Vos rapporteurs jugent donc nécessaire de se poser d'autres questions que celle d'une reconnaissance de la personnalité juridique des robots.

L'association EuRobotics (« European Robotics Coordination Action »), en charge du programme de recherche de l'Union européenne en robotique avec l'objectif de favoriser le développement de la robotique en Europe, a proposé le 31 décembre 2012 un projet de livre vert sur les aspects juridiques de la robotique182(*). Dans ce projet de livre vert, deux situations sont distinguées : celles où un robot cause un dommage du fait d'un défaut de fabrication et qui justifient une responsabilité du fait des produits défectueux183(*) et celles où un robot cause un dommage dans le cadre de ses interactions avec des humains dans un environnement ouvert. Dans ce dernier cas, avec des robots de nouvelle génération dotés de capacité d'adaptation et d'apprentissage et dont le comportement présente un certain degré d'imprévisibilité, le régime de la responsabilité du fait des produits défectueux n'est pas approprié. Le cadre juridique applicable pourrait donc s'inspirer, selon les auteurs du livre vert, de deux régimes traditionnels (responsabilité du fait des animaux ou responsabilité du fait d'autrui, comme celle des parents si l'on choisit d'assimiler les robots cognitifs aux enfants) ou, encore, d'un code de conduite éthique applicable aux robots et qui reste à rédiger.

Vos rapporteurs notent que quatre régimes de responsabilité pourraient en réalité trouver à s'appliquer aux accidents causés par des robots : le régime de responsabilité du fait des produits défectueux184(*), celui de la responsabilité du fait des animaux185(*), celui de la responsabilité du fait d'autrui186(*), ou, encore, celui, traditionnel187(*), de la responsabilité du fait des choses, mais qui ne s'applique que de façon résiduelle par rapport au régime de responsabilité du fait des produits défectueux.

Le robot est considéré comme une chose dans le droit civil français. La responsabilité du fait des choses, en tant que régime de responsabilité objectif codifié par l'ancien article 1384 du code civil, signifie que pour qu'elle soit appliquée, la chose doit être impliquée dans le dommage et qu'elle joue un rôle actif (comme le fait d'être en mouvement ou de toucher la victime) dans l'occurrence dudit dommage. C'est l'individu considéré comme « gardien » de la chose qui est responsable de la réparation du dommage causé. Cependant, si le dommage est causé par une faille de sécurité du robot, le régime de responsabilité pour le dommage causé par la chose s'applique au fabricant du robot.

Selon Arnaud Touati et Gary Cohen188(*), le régime de responsabilité du fait des choses laisse planer des incertitudes face à des biens autonomes. En effet la jurisprudence requiert, pour appliquer ce régime, d'avoir la garde de la chose pour en être tenu responsable. Or cette garde se matérialise par un pouvoir de contrôle, de direction et d'usage. Mais alors que l'on conçoit facilement l'usage d'une intelligence artificielle (utiliser le logiciel, exploiter ses capacités), en avoir la direction et le contrôle semblent deux éléments beaucoup plus difficiles à envisager face à des systèmes d'intelligence artificielle autonomes, de surcroît non matérialisés physiquement189(*).

Concernant ce régime de responsabilité applicable à l'intelligence artificielle et aux robots, Rodolphe Gélin et Olivier Guilhem estiment, quant à eux, intéressant de noter que la responsabilité du fait des choses peut appréhender certaines caractéristiques propres des robots comme leur polyvalence, leur capacité d'apprentissage et d'interaction. En revanche, l'autonomie décisionnelle semble davantage poser problème. Si le robot agit de façon autonome, qui est son gardien ? Le concepteur de son intelligence artificielle ou le propriétaire qui a réalisé son apprentissage ?

À ce niveau, le fait de mettre en place une responsabilité en cascade pourrait être envisagée. Dans la mesure où trois ou quatre acteurs sont en présence (le producteur de la partie physique du robot, le concepteur de l'intelligence artificielle, l'utilisateur et s'il est distinct de ce dernier, le propriétaire), il est possible d'imaginer que chacun puisse supporter une part de responsabilité selon les circonstances dans lesquelles est survenu le dommage. Arnaud Touati et Gary Cohen plaident de même pour offrir à l'intelligence artificielle un statut particulier, différent de celui réservé à la chose et protecteur en cas d'accident, du type « chaîne de responsabilités », allant du concepteur à l'utilisateur, en passant par le fabricant, le fournisseur et le distributeur.

À l'heure où d'autres juristes, tel Alain Bensoussan, prônent la création d'une personnalité juridique autonome pour les systèmes d'intelligence artificielle, il est important d'identifier des pistes qui ne fassent pas courir le risque de déresponsabiliser les acteurs du secteur, à commencer par les industriels de la robotique.

En outre, il conviendrait de réfléchir à la possibilité d'instituer des systèmes d'assurance spécifiques, voire des assurances obligatoires. La Fédération Française de l'Assurance a ainsi mis en place dès la fin 2014 une commission spécialisée dans les questions du numérique qui a pour objectif de structurer un écosystème plus favorable au numérique tout en respectant les enjeux concurrentiels entre les assureurs. Cette Commission, composée de 26 représentants des sociétés d'assurances, est présidée par Virginie Fauvel, en charge du Digital & Market Management d'Allianz France. La commission a notamment pour mission :

- d'analyser les enjeux collectifs attachés à la transformation digitale pour le secteur,

- d'étudier les moyens de consolider la confiance entre les assureurs et les assurés dans cette transformation,

- de promouvoir l'innovation et notamment une réglementation adaptée et graduée (principe du bac à sable réglementaire).

Cette commission a lancé plusieurs actions concrètes en 2016, dont :


· une initiative pour le Legal Design, qui vise à lutter contre la surabondance de l'information, grâce à des infographies et vidéos permettant de rendre l'information juridique plus visuelle et plus facilement compréhensible par les assurés ;


· une rencontre avec une trentaine de start-up InsurTech en décembre 2016, afin de renforcer les liens entre les assureurs et les « jeunes pousses » ;


· L'organisation d'une Learning Expedition en Silicon Valley et au CES de Las Vegas en janvier 2017.

Pour l'année 2017, plusieurs thématiques ont été définies comme prioritaires par la commission :


· Véhicules connectés/autonomes : une bonne utilisation des données des véhicules connectés permettra une meilleure prévention des risques d'accidents (ex : localisation de zones accidentogènes). Par ailleurs, il est nécessaire d'anticiper l'arrivée des véhicules autonomes afin de proposer des produits d'assurance adaptés ;


· Blockchain : cette technologie pourrait permettre de simplifier l'identification et la preuve d'assurance, ainsi que d'automatiser les procédures d'indemnisation (l'un des exemples étant l'indemnisation automatique des voyageurs en cas de retard d'avion) ;


· Intelligence artificielle : la puissance de calcul des ordinateurs et l'augmentation exponentielle du nombre de données vont permettre à l'intelligence artificielle d'offrir de très nombreuses applications nouvelles : reconnaissances vocales, reconnaissances d'images, assistants virtuels, véhicules autonomes...

Selon la Fédération Française de l'Assurance (FFA) interrogée par vos rapporteurs, l'intelligence artificielle est un sujet naissant sur lequel les impacts et les solutions ne sont pas encore connus.

En termes de réglementation, il faudra par conséquent trouver un équilibre entre un encadrement qui ne bride pas l'innovation et le fait d'apporter suffisamment de protection aux consommateurs. De nouvelles questions vont émerger avec ces nouvelles technologies, et notamment certaines concernant l'assurance et ses régimes.

Mais la Fédération Française de l'Assurance estime qu'il est encore trop tôt pour y répondre car elle n'a pas aujourd'hui de visibilité suffisante sur les applications futures de ces technologies, elle assure qu'en tout état de cause le droit et l'assurance accompagneront les nouveaux risques, ce dont se réjouissent vos rapporteurs. Avec l'émergence de nouvelles formes d'intelligence artificielle et de robotique, il pourrait être envisagé de mettre en place de nouveaux régimes d'assurance, voire de créer une assurance obligatoire.

Enfin, vos rapporteurs s'interrogent sur la question de la responsabilité juridique des algorithmes, par exemple le cas d'un moteur de recherche pour les suggestions qu'il peut proposer à ses utilisateurs.

Dans l'arrêt n° 625 du 19 juin 2013 de la Première chambre civile de la Cour de cassation190(*), la plus haute juridiction judiciaire a en effet considéré que Google ne pouvait pas être tenu pour responsable des mots proposés d'après un algorithme construit par ses soins. L'explication du raisonnement des juges est le suivant : « la fonctionnalité aboutissant au rapprochement critiqué est le fruit d'un processus purement automatique dans son fonctionnement et aléatoire dans ses résultats, de sorte que l'affichage des « mots clés » qui en résulte est exclusif de toute volonté de l'exploitant du moteur de recherche d'émettre les propos en cause ou de leur conférer une signification autonome au-delà de leur simple juxtaposition et de leur seule fonction d'aide à la recherche ».

Dans la mesure où la saisie semi-automatique de Google fonctionne uniquement à partir d'algorithmes, la Cour de cassation estime qu'il n'est pas possible d'en déduire que la responsabilité de l'entreprise puisse être engagée. Pour la Cour de cassation, les algorithmes ne sont donc pas coupables.

4. Les différenciations du droit applicable selon le type d'agents autonomes : robots industriels, robots de service, voitures autonomes et dilemmes éthiques afférents

Le livre blanc « droit de la robotique » que le SYMOP a publié en 2016 contient d'utiles réflexions à ce niveau, notamment sur les robots industriels. La question de la sécurité des robots implique, en amont, l'établissement d'une définition de la collaboration et de l'interaction homme-robot. La norme ISO 8373 : 2012 établit la définition de certains termes caractérisant une interaction entre l'homme et le robot191(*). Ainsi, à l'article 2.29 de la norme, l'interaction homme-robot est définie comme un « échange d'information et d'actions entre l'homme et le robot pour exécuter une tâche, au moyen d'une interface utilisateur », notamment au moyen d'échanges vocaux, visuels ou tactiles.

Le Parlement européen et le Conseil de l'Union européenne ont adopté la directive 2006/42/CE192(*), dite directive « Machines », dont l'objectif est d'assurer « la libre circulation des machines au sein du marché intérieur tout en garantissant un haut niveau de protection de la santé et de la sécurité », impliquant une harmonisation des exigences de chaque État membre en termes de santé et de sécurité concernant la conception et la production de machines. Les parties prenantes concernées par la directive Machines doivent respecter des obligations directement liées à leur statut :

- le fabriquant est responsable de la conformité de la machine aux exigences de santé et de sécurité. La conformité du produit est certifiée par un marquage « CE » sur la machine ;

- l'importateur peut, en plus de transmettre à l'autorité de surveillance du marché certaines informations concernant le produit, assumer une responsabilité juridique par rapport au produit importé ;

- le distributeur doit veiller à la conformité des produits qu'il met sur le marché, et l'assembleur et l'installateur doivent veiller à ce que le produit demeure conforme.

Le code du travail contient également de nombreuses dispositions concernant les exigences de santé et de sécurité. Une partie de la directive 2006/42/CE a ainsi été transposée dans le droit français aux articles R. 4311-4 et suivants du code du travail. En outre, les différentes dispositions relatives aux exigences de santé et de sécurité présentes dans le code du travail affirment que la sécurité et la protection de la santé des travailleurs sont assurées par l'employeur et s'appliquent dans le cadre de l'utilisation de robots industriels ou de services. L'employeur doit respecter les exigences de conformité en vigueur et est tenu de prendre des mesures adaptées à l'utilisation de robots, telles que des actions de prévention des risques professionnels, des actions d'information et de formation, ou encore assurer des conditions d'utilisation sécurisée des robots.

Il est important de noter, comme le relève le livre blanc du SYMOP « Droit de la robotique », que « la cour de Cassation a déjà retenu la responsabilité d'employeurs en cas d'infractions à la législation relative à la sécurité des travailleurs dans le cadre d'utilisation de robots », notamment dans le cas du décès d'un travailleur dans une usine d'emballage193(*) ou d'un employeur ayant fait travailler un salarié sur une ligne de fabrication robotisée sans prendre les mesures de sécurité nécessaires194(*).

Les robots de service posent différentes questions juridiques, dont les développements précédents ont montré que les enjeux en termes de responsabilité ou de sécurité n'étaient pas insurmontables.

En revanche, pour ce qui concerne les voitures autonomes, le besoin d'essais à grande échelle et en situation réelle appelle une clarification du cadre juridique. Il s'agit à la fois d'enjeux économiques et de sécurité.

Le cadre légal auquel sont soumises les expérimentations des voitures autonomes peut être examiné sous différents aspects. Au regard du droit privé international, certaines dispositions contenues dans la Convention de Vienne sur la circulation routière du 8 novembre 1968, comme l'obligation de présence d'un conducteur et le contrôle de celui-ci sur le véhicule en mouvement, peuvent constituer d'éventuels obstacles juridiques à la généralisation de voitures autonomes en France. Seuls les véhicules dotés de systèmes partiellement autonomes (comme les systèmes d'aide à la conduite) sont autorisés à la circulation sur la voie publique, et le chauffeur doit avoir le contrôle du véhicule. Cette convention internationale, bien qu'encore récemment amendée, nécessitera de nouvelles modifications du fait de l'intégration croissante de systèmes d'aide à la conduite, de systèmes autonomes et de systèmes d'intelligence artificielle dans les véhicules automobiles.

L'état actuel du droit communautaire peut également constituer un obstacle juridique à la circulation de véhicules intelligents sur la voie publique. L'adoption de la directive 2010/40/UE du Parlement européen et du Conseil du 7 juillet 2010 concernant le cadre pour le déploiement de systèmes de transport intelligents dans le domaine du transport routier et d'interfaces avec d'autres modes de transport a permis l'instauration d'un cadre juridique accélérant le déploiement des systèmes de transport intelligents, qui pourrait servir de modèle pour l'adoption d'une directive spécifique aux voitures numériques afin de coordonner les législations des États membres sur le déploiement des voitures intelligentes. Néanmoins, vos rapporteurs constatent que le droit communautaire ne prévoit pour le moment pas de cadre normatif spécifique permettant l'harmonisation de l'expérimentation, du déploiement et de l'exploitation des véhicules intelligents au sein de l'espace européen.

Cependant, l'adoption du règlement (UE) 2015/758 du Parlement européen et du Conseil du 29 avril 2015 concernant les exigences en matière de réception par type pour le déploiement du système eCall embarqué fondé sur le service 112 rendant obligatoire l'installation de terminaux permettant aux véhicules de communiquer entre eux (V2V) et avec les infrastructures de transport intelligent (V2I), permettent de poser les bases du déploiement des véhicules intelligents en Europe.

Vos rapporteurs notent que les États-Unis disposent de lois autorisant l'expérimentation de voitures autonomes sur la voie publique, au niveau des États du Nevada depuis juin 2011, de Floride depuis avril 2012, de Californie depuis septembre 2012, du district de Columbia depuis janvier 2013, et du Michigan depuis fin 2013. D'autres projets de loi concernant les voitures autonomes sont en cours d'adoption dans une dizaine d'États. Ces lois existantes ou en cours d'adoption fixent les conditions des tests sur la voie publique ainsi que les normes de sécurité applicables. Cependant, aucune harmonisation au niveau fédéral n'est à ce jour à l'étude.

En France, l'article R. 412-6-I du code de la route indique que tout véhicule en mouvement doit avoir un conducteur. Dans l'état actuel de la législation française, le conducteur du véhicule est responsable en cas d'accident de la route. Cependant, cette législation ne peut être appliquée telle quelle aux accidents causés par des véhicules autonomes car le conducteur n'a pas le contrôle direct du véhicule.

La course à la voiture autonome et la perspective de ses débouchés massifs et de ses gains en termes de sécurité ou d'environnement entre en tension avec le risque d'accident et surtout le flou juridique en matière de responsabilité. Le Gouvernement s'est vu confier la tâche de déterminer le régime juridique applicable et il y a donc lieu pour vos rapporteurs, et, plus largement, l'OPECST, de suivre cette mission sans interférer avec elle.

La loi n°2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte contient des dispositions introduisant le cadre expérimental visant à promouvoir l'expérimentation et le déploiement de véhicules propres, incluant les voitures sans chauffeur.

Cette loi habilite le Gouvernement à agir par ordonnance concernant l'autorisation d'expérimentation de véhicules à délégation partielle ou totale de conduite sur la voie publique. En ce sens, l'ordonnance n° 2016-1057 du 3 août 2016 relative à l'expérimentation de véhicules à délégation de conduite sur les voies publiques autorise l'expérimentation de véhicules intelligents sur la voie publique sous condition de la délivrance d'une autorisation accordée par le ministre chargé des transports, après avis du ministre de l'intérieur. Pour mémoire, le projet « Nouvelle France industrielle », annoncé à la fin de l'année 2013 avec le but de réindustrialiser les territoires, anticipait l'arrivée des véhicules à pilotage automatique d'ici à 2020.

Néanmoins, vos rapporteurs rappellent qu'une mise en circulation effective de véhicules autonomes sur la voie publique soulève des questionnements éthiques. Dans l'article « The social dilemma of autonomous vehicles »195(*) paru le 24 juin 2016 dans le magazine Science, Jean-François Bonnefon, Azim Shariff et Iyad Rahwan affirment que le choix opéré par l'algorithme peut représenter de véritables dilemmes. Certains cas peuvent conduire l'algorithme à prendre une décision basée sur un critère moral qui lui aura été programmé à l'avance. Deux conceptions s'affrontent selon les auteurs : une conception utilitariste, qui postule qu'il faut minimiser les pertes humaines, et une conception auto-protectrice qui postule que les systèmes algorithmiques embarqués doivent avant tout protéger ses passagers à tout prix.

Au cours des six études qu'ils ont menées, les auteurs ont constaté que les participants ont largement été en accord avec le fait qu'il était plus moral qu'un véhicule autonome sacrifie son passager si cela permettait de sauver un grand nombre de vies. Cependant, devant des situations concrètes, de nombreux participants avaient la tentation de faire le choix du « passager clandestin » en privilégiant les choix des véhicules autonomes protégeant ses passagers à tout prix. De fait, si des véhicules autonomes dotés de codes moraux utilitaristes et des véhicules étant programmés pour protéger leurs passagers étaient commercialisés, les participants orienteraient davantage leur choix vers les véhicules les protégeant à tout prix.

Le laboratoire du MIT « moral machine », visité par vos rapporteurs, travaille notamment sur les dilemmes éthiques concernant les voitures autonomes. Le dilemme du tramway inventé par Philippa Foot a été réaffiné et testé. Les résultats provisoires des tests conduisent cette équipe à identifier différents facteurs de choix : le nombre de tués (on préfère la solution qui réduit le nombre de morts), le fait de sacrifier en priorité des personnes qui transgressent les règles (exemple du voleur), le fait de sacrifier en priorité un animal plutôt qu'un être humain, le fait de sacrifier en priorité une personne plus âgée plutôt qu'une personne plus jeune et a fortiori un enfant, le fait de sacrifier en priorité un homme plutôt qu'une femme... Ces hypothèses soulèvent néanmoins la question du cadre éthique dans lequel situer les voitures autonomes.

Le 6 février 2017 a été donné le coup d'envoi d'un programme européen de trois ans baptisé « Autopilot ». Pour la France, Versailles fera partie des cinq lieux d'expérimentation en Europe, avec l'objectif d'améliorer l'efficacité des véhicules autonomes grâce à l'exploitation des données externes, produites par l'infrastructure, les objets connectés... et les usagers. On compte 43 acteurs impliqués dans le projet, constructeurs automobiles et sous-traitants, acteurs des télécoms, instituts de recherche... On y trouve notamment PSA, IBM, Valeo, Continental, TomTom, Stmicro ou Thales. Cinq territoires ont été choisis pour tester des concepts de communication entre véhicules autonomes et systèmes d'information externes, en France, Finlande, Espagne, Italie et Pays-Bas. Un projet similaire sera lancé en Corée. Plusieurs types de configuration seront testés : conduite en milieu urbain, sur autoroute, stationnement autonome. En France, c'est Versailles qui accueillera les tests, sous l'impulsion de l'institut Vedecom, qui a mis au point un prototype fonctionnel de véhicule autonome de niveau 4 (100 % autonome dans des zones précises).

Par ailleurs, une autre expérimentation de voitures autonomes est conduite dans un partenariat franco-allemand, visant la mise en place à partir de mars 2017 du premier site expérimental transfrontalier de tests de voitures autonomes. Il s'agira en effet d'une zone allant de Metz à Merzig dans la Sarre, avec des tronçons d'autoroutes, de routes et de zones urbaines. Il s'agit d'un complexe ouvert à tous les constructeurs, équipementiers ou entreprises du numérique ou des télécommunications. La France et l'Allemagne entendent ainsi rattraper leur retard en matière d'expérimentation de voitures autonomes et se placer ensuite à l'avant-garde de la définition des futures règles applicables (standards ou réglementation).

Concernant l'assurance applicable aux voitures autonomes, il apparaît nécessaire de se doter à terme, sur un plan global dans tous les États membres de l'UE (voire au-delà), d'un système d'assurance obligatoire afin de garantir le dédommagement total des victimes d'accidents causés par ce type de véhicules.


* 169 Cette charte précise que « les données à caractère personnel conservées par un robot sont soumises à la réglementation Informatique et libertés. Un robot a le droit au respect de sa dignité limitée aux données à caractère personnel conservées ».

* 170 L'intégralité de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés est disponible ici : https://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000886460

* 171 Ernst Kantorowicz, « Les Deux Corps du roi. Essai sur la théologie politique au Moyen Âge », Gallimard, 1957.

* 172 Un régime du type de celui qui est applicable aux médicaments avant autorisation de mise sur le marché, avec une période de tests et d'observations, pourrait devenir obligatoire pour les systèmes autonomes d'intelligences artificielles, au stade où leur commercialisation massive sera envisagée.

* 173 Les 45 classes établies par la « Classification de Nice » sont disponibles ici : http://web2.wipo.int/classifications/nice/nicepub/en/fr/edition-20170101/taxonomy/

* 174 Le texte intégral du règlement est disponible ici : http://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A32016R0679

* 175 La CNIL propose une analyse détaillée et synthétique des dispositions contenues dans le règlement général européen sur la protection des données, disponible ici : https://www.cnil.fr/fr/reglement-europeen-sur-la-protection-des-donnees-ce-qui-change-pour-les-professionnels

* 176 Ibid.

* 177La CNIL rendra publique dès l'automne 2017 la synthèse des échanges et des contributions. Comme elle l'affirme, « il s'agira d'établir une cartographie de l'état du débat public et un panorama des défis et enjeux. Des pistes ou propositions pour accompagner le développement des algorithmes dans un cadre éthique pourraient faire par la suite l'objet d'arbitrages par les pouvoirs publics ». La présentation du projet est disponible ici : https://www.cnil.fr/fr/ethique-et-numerique-les-algorithmes-en-debat-0

* 178 Le droit applicable à la communication des documents administratifs est disponible ici : https://www.legifrance.gouv.fr/affichCode.do;jsessionid=9D32BEC5092D1A4CC3D228A1256F8ABA.tpdila23v_2?idSectionTA=LEGISCTA000031367696&cidTexte=LEGITEXT000031366350&dateTexte=20170312

* 179 http://www.economie.gouv.fr/cge/modalites-regulation-des-algorithmes-traitement-des-contenus

* 180 http://www.economie.gouv.fr/files/files/PDF/Inria_Plateforme_TransAlgo2016-12vf.pdf

* 181 L'intégralité des débats conduits lors de la séance du 15 novembre 2016 après la question n° 1489 adressée à Mme la ministre de l'éducation nationale, de l'enseignement supérieur et de la recherche au Sénat est disponible ici :

https://www.senat.fr/seances/s201611/s20161115/s20161115_mono.html#cribkmk_questionorale_1489_109137

* 182 Cf. - http://www.eu-robotics.net/cms/upload/PDF/euRobotics_Deliverable_D.3.2.1_Annex_Suggestion_GreenPaper_ELS_IssuesInRobotics.pdf

* 183 La directive n° 85/374/CEE du Conseil du 25 juillet 1985 sur la responsabilité du fait des produits défectueux établit le principe de la responsabilité objective (responsabilité sans faute) du fabricant en cas de dommages provoqués par un produit défectueux.

* 184 Codifié aux articles 1386-1 et suivants du code civil, il vise à engager la responsabilité du producteur de robots dès lors que ces derniers, ayant causé un dommage, n'offrent pas « la sécurité à laquelle on peut légitimement s'attendre ». Ce critère de sécurité légitime présente l'intérêt d'être flexible.

* 185 Pour les cas où un individu est déclaré responsable des actes dommageables commis par un animal dont il a la garde ou la propriété.

* 186 Pour les cas où un individu est déclaré responsable des actes dommageables commis par un tiers.

* 187 Issu du fameux ancien article 1384 du code civil.

* 188 Article « Le droit à l'épreuve de l'intelligence artificielle » du 28 novembre 2016 paru dans la revue Village de la Justice.

* 189 Même en présence d'une application matérielle de l'intelligence, tel qu'un robot, le problème de la garde reste posé, de sorte que l'utilisateur ne contrôle pas effectivement le système, il peut simplement l'allumer ou l'éteindre.

* 190 L'intégralité de l'arrêt rendu par la Cour de la Cassation est disponible ici : https://www.courdecassation.fr/jurisprudence_2/premiere_chambre_civile_568/625_19_26825.html

* 191 Cette norme ISO définit ainsi les termes de « fonctionnement collaboratif » (article 2.25), de « robot de collaboration » (article 2.26), et « [d'] interaction homme-robot » (article 2.29). L'intégralité du texte est disponible ici : https://www.iso.org/obp/ui/#iso:std:iso:8373:ed-2:v1:fr

* 192 Directive 2006/42/EC du Parlement européen et du Conseil du 17 mai 2006 relative aux machines et modifiant la directive 95/16/CE. L'ensemble des dispositions contenues dans cette directive est accessible ici : http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:157:0024:0086:fr:PDF

* 193 Arrêt n°02-87666 du 30 septembre 2003 de la chambre criminelle de la Cour de cassation.

* 194 Arrêt n°01-21192 du 16 septembre 2003 de la deuxième chambre civile de la Cour de cassation.

* 195 Les résultats de l'étude menée par les auteurs sont disponibles sur le site Internet du magazine Science : http://science.sciencemag.org/content/352/6293/1573.full