VI. AUDITIONS DU 30 NOVEMBRE 2016

1. M. David Sadek, directeur de la recherche de l'Institut Mines-Télécom, spécialiste en intelligence artificielle

L'intelligence artificielle n'est pas un domaine nouveau ; il a connu des périodes fastes et des hivers de déclin. De nombreuses questions d'encadrement de l'intelligence artificielle sur le plan éthique se posent.

Dans cette période de renaissance de l'intelligence artificielle, certaines technologies ont atteint un niveau de maturité qui semble pouvoir tenir certaines promesses . Cependant, le potentiel de progrès en l'intelligence artificielle demeure important ; et la France y a un rôle à jouer puisque le potentiel français est garanti par des équipes de recherche de niveau mondial dans les différents domaines de l'intelligence artificielle. L'intelligence artificielle n'est pas une discipline monolithique ; c'est un ensemble de sous-disciplines et est donc, par construction, pluridisciplinaire .

Une confusion est régulièrement commise à propos de l'intelligence artificielle résumée à ce que l'on appelle aujourd'hui l'apprentissage profond ( deep learning ) d'un système informatique. Des avancées technologiques indéniables et remarquables ont été permises par les techniques d'apprentissage profond ; néanmoins, il est essentiel d'éviter de réduire l'intelligence artificielle à l'apprentissage profond . Il existe, a minima , deux grands pans de l'intelligence artificielle. Un premier pan serait le volet « stochastique », qui repose sur des mécanismes d'apprentissage à partir de traitements statistiques des données. Au delà des progrès sur le plan algorithmique, les avancées dans ce domaine ont été permises grâce notamment à la disponibilité de grandes masses de données et à l'augmentation de la puissance de calcul des machines.

Le second volet, que l'on peut qualifier de « cognitiviste », relève davantage de la formalisation, a priori, de modèles de comportements. Les travaux s'inscrivant dans ce second volet se fondent sur des modèles de raisonnement, d'inférence automatique, de représentation sémantique des connaissances, de notions d'ontologie, ... Ce second volet est partiellement éclipsé par les performances du « deep learning » dans le domaine de la perception. Cependant, la France dispose également d'équipes brillantes dans ce second volet, qu'il convient de valoriser à leur juste niveau. La force de frappe de la France en matière d'intelligence artificielle sera d'autant plus importante si elle se positionne sur une hybridation des deux approches évoquées .

Force est de constater que le domaine de l'intelligence artificielle est éclairé par la présence de grands acteurs industriels mondiaux qui mettent en place des moyens humains et matériels importants sur ce sujet. De fait, il est nécessaire de voir comment le système industriel français peut produire dans ce domaine de la valeur au niveau économique et sociétal sur la base des activités de recherche et d'innovation . Un véritable écosystème de jeunes pousses du numérique tend à émerger en France, beaucoup de ces jeunes entreprises étant très performantes. Dans cette perspective, il est essentiel que les jeunes entreprises émergentes françaises ne se fassent pas happer par les grands groupes industriels nord-américains ou asiatiques, bien que bon nombre de créateurs de start-up aient cette « ambition ». Les dispositifs de soutien à la recherche et à l'innovation se doivent d'être suffisamment incitatifs pour que le fossé entre les résultats de la recherche et la production de valeur économique soit comblé de la manière la plus efficace possible . Dans cette perspective, il est impératif de créer une boucle vertueuse entre la recherche et l'innovation, et de développer en France une culture de l'entreprenariat à partir du monde académique.

Lors des deux hivers de l'intelligence artificielle, les équipes de recherche françaises se sont dispersées. Il est essentiel de faire en sorte que ces équipes retrouvent une synergie afin que la France réacquiert sa force de frappe . L'action de l'Association française pour l'intelligence artificielle (AFIA) pourrait participer à la redynamisation de cette synergie ; il semble que cette association s'apparente davantage à un réseau. Les pouvoirs publics doivent favoriser l'émergence de dispositifs et de structures reflétant une dynamique, une volonté et une ambition en matière d'intelligence artificielle . La mise en relation au sein d'un même écosystème des jeunes pousses, de certains grands groupes industriels qui font de l'intelligence artificielle un axe stratégique, et des équipes de recherche académique, sont une opportunité que la France se doit de saisir.

Les techniques d'apprentissage excellent dans le domaine de la perception, incluant la vision par ordinateur, la reconnaissance de la parole ou le traitement des images, dans lequel il existe aujourd'hui de nombreux résultats opérationnels et industriels remarquables. Cependant, concernant la cognition, la compréhension et le traitement du sens, qui caractérisent l'intelligence humaine, ces techniques d'apprentissage n'ont pas encore démontré leurs capacités. La réalisation d'avancées concrètes de l'intelligence artificielle dans ce domaine pourra vraisemblablement émerger grâce à l'hybridation des deux approches évoquées précédemment .

Concernant les aspects éthiques de l'intelligence artificielle, la question de l'encadrement du développement des systèmes dits intelligents est primordiale, car il peut exister des comportements délibérément malveillants. Dans cette perspective, certaines données peuvent être utilisées à des fins qui ne sont pas celles pour lesquelles elles ont été produites. En outre, le fait de ne pas maîtriser les décisions et actions des algorithmes et programmes d'intelligence artificielle peut être source de questionnements éthiques. En effet, ces programmes peuvent avoir des comportements non souhaitables sans que ceux-ci ne soient délibérément malveillants.

À titre d'exemple est cité un cas rencontré par M. Sadek au cours de ses études qui est celui d'un programme de bataille navale utilisé par le Département de la défense des États-Unis d'Amérique pour entraîner ses amiraux. Il fut constaté que le programme, dont la consigne programmée était de maximiser la vitesse de sa flotte, coulait systématiquement les bateaux de sa flotte qui étaient touchés, car ceux-ci étaient affaiblis et donc moins rapides. La consigne d'éliminer les bateaux touchés de sa flotte n'était pas explicite dans l'algorithme implémenté ; cependant, le programme a de lui-même effectué cette inférence relativement simple.

Ce cas démontre le manque de contrôle sur ce qui est écrit dans les programmes complexes, qui comportent beaucoup d'implicite . En cela, la fiabilité et la conformité de fonctionnement des programmes par rapport à ce qui est strictement prévu constitue un domaine de recherche en soi et implique de nombreux questionnements éthiques. Dans le cadre de l'accélération technologique qu'entraînent les progrès de la recherche en intelligence artificielle, ces travaux de recherche éthiques sur la non-conformité de fonctionnement et donc la malveillance non délibérée potentielle de programmes devraient être renforcés et mieux valorisés, notamment en France.

2. M. Dominique Sciamma, directeur de l'école de design « Strate » à Sèvres

Aux débuts de la recherche sur l'intelligence artificielle, les enjeux se concentraient sur des problématiques de programmation. Une école de pensée, appelée le « connexionnisme », proposait une approche ascendante de l'intelligence artificielle, qui reposait sur le fait que l'intelligence est une émergence, impliquant donc que c'est l'interaction des composants qui fait émerger l'intelligence. Cette école est rapidement montée en puissance dans le monde de la recherche. Cependant, dès la fin des années 1960, un chercheur du Massachusetts Institute of Technology , M. Seymour Papert, a démontré que de nombreux problèmes ne pouvaient être résolus par l'approche connexionniste. Les résultats de cette démonstration ont contribué à l'arrêt des programmes de financement de l'école de pensée connexionniste. Cet échec de la théorie connexionniste a favorisé l'approche descendante de l'intelligence artificielle, celle des systèmes experts qui a permis un renouveau de la recherche dans l'intelligence artificielle jusqu'à la découverte de ses limites qui ont plongé cette recherche dans un deuxième « hiver » dans les années 1990.

L'intelligence artificielle se répand de manière massive à travers Internet et les objets. À terme, les humains seront entourés d'objets qui seront capables de percevoir le monde, grâce à des capteurs. Ces objets auront une représentation du monde et ils pourront croiser leur représentation du monde avec les données qu'ils auront captées pour prendre des décisions. En raison de l'existence de ces trois éléments, ces objets peuvent être qualifiés de robots. Les humains seront amenés à partager leur monde avec des objets capables de prendre des décisions, et qui prendront dans certains domaines des décisions à leur place - comme le montre l'émergence des voitures autonomes par exemple. De fait, le rapport des humains aux machines sera altéré : une véritable relation entre la machine et l'humain, tous deux capables de décider et de dialoguer, se substituera au contrôle exercé par l'humain sur la machine.

Les objets robotisés, les « robjets », s'invitent dans la vie quotidienne des utilisateurs ; c'est la première fois que l'humanité se trouverait confrontée à des objets non plus définis et caractérisés par des formes mais par des comportements. Ce ne seront plus des objets de contrôle ni des extensions du corps humains, ils seront dans la position d'un majordome et vont, sur la base de certaines informations, prendre des décisions. Les êtres humains accueilleront dans leur environnement proche des objets adoptant un comportement humain, avec une forme d'empathie.

Un rapport de relation va se substituer à un rapport de contrôle : les robots seront capables d'observer, de prendre des décisions et de dialoguer avec les êtres humains. Certains objets actuels, grâce à de nombreuses technologies notamment biométriques, sont capables d'observer les réactions des êtres humains ; cependant, le rapport de relations sera bouleversé par le caractère empathique qu'auront intégré les robots dans leur rapport aux êtres humains. L'intelligence artificielle peut s'incarner et s'adapter aux êtres humains avec qui elle est en relation en fonction de leurs caractères et manières de vivre.

Cette situation nouvelle impliquera de façonner les nouvelles relations qu'entretiendront les êtres humains avec les robots. Cela relève non d'une problématique de marché ou d'une question technique d'ingénierie, mais du design comportemental et du design de situation. De fait, il est nécessaire de réunir des spécialistes de la gériatrie, du personnel d'assistance, des ingénieurs, des sociologues, des spécialistes du comportement, et des designers pour fournir un travail d'observation, de scénarisation, d'hypothèses et de tests sur le comportement des robots dans une situation sociale.

Au-delà des enjeux comportementaux et d'acceptation sociale de l'intelligence artificielle, notamment de sa matérialisation physique, il existe également de nombreux enjeux économiques et industriels. La France est, depuis toujours, puissante en matière de mathématiques, d'informatique et d'intelligence artificielle ; à ce titre, Inria est un lieu de production intellectuelle et d'innovation remarquable. Cependant, si les premières commercialisations de produits informatiques ne visaient qu'un public restreint et ne représentaient donc pas un enjeu économique majeur, c'est aujourd'hui plusieurs milliards d'individus qui utilisent ce type d'objets.

En ce sens, les enjeux d'acceptation sociale et de désirabilité des objets, qui ne sont pas techniques mais économiques, sont déterminants, et reposent sur des critères d'expérience et d'imaginaire associés. Par exemple, il est possible de citer le cas de l'entreprise Apple : indépendamment des qualités techniques des produits, il existe un imaginaire associé à la marque Apple, amenant le consommateur à préférer, à qualité et à esthétique égale, un produit Apple à un produit Samsung. Ce travail profond de la relation à l'objet, de son inscription durable dans l'environnement humain et jusqu'à la désirabilité de l'objet, relève des designers .

De fait, il existe un enjeu industriel fort. Il est essentiel que les industriels français se mettent en position de produire des objets désirables, achetés dans le monde entier. L'industrie française a déjà démontré, à maintes reprises, sa capacité à produire des objets désirés dans le monde entier, à l'instar du succès que rencontrent les drones de l'entreprises Parrot et les objets connectées de la marque Withings. L'industrie française est remarquable en matière de design des produits ; l'expertise française n'est plus à démontrer.

Cependant, la capacité des entreprises françaises à transformer une expertise scientifique et technique en objets industriels pose question, car cette transformation ne repose pas uniquement sur l'excellence technique. Cette transformation qui ne relève pas du marketing mais du design , de la capacité à s'inscrire dans la situation de vie humaine et donc à anticiper les décisions des robots, est, sur le plan éthique, indispensable. L'ivresse technique doit être tempérée par une réflexion sur les impacts politiques et sociaux de ces « robjets », et sur les outils de contrôle à disposition des utilisateurs et des pouvoirs publics.

La question du droit des robots représente également un enjeu à prendre en considération. Il existe deux écoles d'intelligence artificielle sur cette question : l'école de l'intelligence artificielle forte (dont je suis un tenant), et l'école de l'intelligence artificielle faible. L'école de l'intelligence artificielle forte postule que l'Homme est capable de réaliser avec l'intelligence artificielle ce que la Nature a été capable de réaliser avec lui ; de fait, à terme, l'Homme produira des machines conscientes. Dans cette perspective, la question du droit des robots se posera en ce que ces derniers seront doués de conscience, et donc potentiellement porteurs de revendications en matière de droits fondamentaux.

L'introduction de robots doués d'intelligence artificielle forte peut amener de nombreux débats philosophiques, éthiques, et juridiques. Il est important d'envisager le type de société qui découlera de l'avènement d'une intelligence artificielle forte : les Hommes et les machines entreront-ils en compétition ? L'intelligence artificielle sera-t-elle susceptible de se substituer à l'intelligence humaine ? L'importance du débat et les inquiétudes entourant le développement de l'intelligence artificielle se justifient par le fait que cette question touche à quelque chose de profondément humain, et nécessite une réflexion éthique, politique, juridique et sociale approfondie.

3. M. François Taddéi, directeur du Centre de recherches interdisciplinaires (Inserm, Université Paris-Descartes), biologiste

Il est important que les acteurs publics s'emparent du sujet de l'intelligence artificielle, afin de ne pas laisser les seules sociétés privées, principalement nord-américaines et chinoises, nourrir de l'intérêt pour ce thème. L'intelligence artificielle va modifier les sociétés humaines en profondeur sans que celles-ci ne le comprennent nécessairement ni ne puissent en minimiser les dérives potentielles. Il existe de fait un besoin important de formation. Par ailleurs, il est étonnant de constater que davantage de recherches sont menées sur l'intelligence artificielle et l'apprentissage automatique que sur l'intelligence humaine et l'apprentissage des enfants, ce que démontre l'importance des intérêts économiques dans les orientations de recherche.

Cependant, la combinaison entre l'intelligence humaine et l'intelligence artificielle peut permettre aux humains, au-delà de la création de machines, d'accomplir des progrès qu'ils ne sauraient atteindre seuls. Dans ce contexte, les réflexions éthiques, politiques et sociétales sont essentielles, afin que celles-ci permettent de penser l'intelligence collective entre les humains et les machines.

Devant l'accélération des progrès dans l'intelligence artificielle, les systèmes d'apprentissage profond et l'apprentissage automatique, les systèmes d'éducation, conçus au XIX e siècle, ne sont plus en mesure de s'adapter à ces évolutions toujours plus rapides, que ce soit sur le plan de la société, du marché de l'emploi, ou des défis technologiques, scientifiques et éthiques. Si la société évolue plus vite que son système éducatif, ce système éducatif deviendra rapidement obsolète. Il apparaît ainsi essentiel d'adapter le système éducatif à cet état de fait, en apprenant aux élèves non seulement à penser sans la machine, mais également à penser avec la machine. Le système éducatif actuel met en compétition les élèves sur les savoirs d'hier ; le défi sera de construire le savoir de demain et de créer les machines qui permettront la construction de ce savoir de demain. Il est de fait nécessaire de repenser le système éducatif, dont l'évolution ne peut se décréter de manière verticale, mais plutôt de manière plus horizontale, en faisant appel à l'intelligence collective de tous les acteurs éducatifs, le ministère de l'éducation nationale, les enseignants, les chercheurs et les parents d'élèves.

En réponse aux défis de l'intelligence artificielle, il est important de mobiliser l'intelligence collective humaine et toutes les générations à tous les niveaux. Selon Aristote, les trois piliers essentiels de la connaissance : épistèmè - qui a donné « science » -, qui repose sur la connaissance du monde ; technè - qui a donné « technologie » -, qui repose sur la manière d'agir sur le monde ; et phronésis , qui est l'éthique de l'action. Or, à mesure que les savoirs s'accumulent et qu'ils permettent d'agir sur le monde, il est important de s'interroger sur l'éthique des actions. Les humains ont fait croître de manière exponentielle leurs connaissances et leur capacité à agir sur le monde, mais très peu leur capacité à penser les implications individuelles et collectives de leurs choix, tant sur le court terme et le long terme, que sur les plans locaux et globaux. L'avènement de l'intelligence artificielle et de la machine impliquent une plus grande considération de l'éthique de l'action. Les humains qui créeront ces machines, qui seront douées de technè mais très peu de phronésis , devront interroger l'éthique de leur action.

4. M. Igor Carron, entrepreneur, organisateur du principal « meet-up » en intelligence artificielle en France intitulé « Paris Machine Learning »

L'évolution de l'intelligence artificielle a connu plusieurs vagues, notamment aux États-Unis d'Amérique, les périodes séparant chacune de ces vagues étant qualifiées « d'hiver de l'intelligence artificielle ». Les hivers de l'intelligence artificielle sont les périodes où le financement public nord-américain des activités de recherche en intelligence artificielle s'est estompé drastiquement . Les réductions conséquentes de ces financements publics qui ont entraîné ces hivers s'expliquent par le fait que les pouvoirs publics estimaient que certaines méthodes utilisées ne permettaient pas d'atteindre les objectifs promis. Si la recherche en intelligence artificielle a connu un renouveau dans les années 1980, les financements octroyés à la recherche en intelligence artificielle par la DARPA - Defense Advanced Research Projects Agency - se sont à nouveau asséchés au début des années 1990, les algorithmes construits présentant de nombreuses limites.

La communauté scientifique de recherche en intelligence artificielle a continué à survivre de manière dynamique. L'avènement de Google en 1998 constitue, d'une certaine manière, un nouveau point de départ pour la recherche en intelligence artificielle . En effet, l'entreprise, dès ses débuts, a utilisé un algorithme permettant de donner des résultats aux humains. Les moteurs de recherche existants dans les années 1990, tels que ceux de Yahoo ! Portal, utilisaient des humains pour effectuer une partie des classifications. L'émergence du moteur de recherche de Google a démontré que l'humain n'était pas indispensable pour produire des pages de résultats de recherche . En ayant recours à des algorithmes efficaces, Google a capté les utilisateurs des autres plateformes de moteur de recherche et s'est placée en situation de quasi-monopole dont le moyen de financement principal est la publicité ciblée, qui utilise également des algorithmes. Dès 2001, les dirigeants de Google indiquaient que les activités de moteur de recherche constituaient une forme d'intelligence artificielle .

La majorité des algorithmes développés et utilisés actuellement n'offre pas la compréhension des décisions qu'ils prennent pour les humains. Il est de fait essentiel de construire des algorithmes permettant de comprendre et décoder les décisions prises par d'autres algorithmes, quitte à découvrir pourquoi ces algorithmes ont des biais ou pourquoi ils sont discriminants.

5. M. Jill-Jênn Vie, chercheur en thèse de doctorat à l'École normale supérieure Paris-Saclay

Le principe de l'intelligence artificielle consiste à inférer des faits à partir de données qui n'ont pas été explicitement programmées. Le développement d'une intelligence artificielle amène la question de l'objectif à optimiser, que ce soit le profit, l'économie d'énergie - à l'instar de l'entreprise Google DeepMind qui utilise son système d'apprentissage profond pour optimiser sa consommation d'énergie et réduire de 40 % la consommation d'énergie de ses centres de données -, ou encore le nombre de votes obtenus à une élection, certaines applications permettant d'optimiser l'efficacité des déplacements de campagne électorale d'un candidat.

L'utilisation de l'intelligence pour ces types d'applications a été renforcée grâce aux mécanismes d'apprentissage profond ( deep learning ). L'apprentissage profond permet entre autres à une intelligence artificielle d'effectuer de la reconnaissance d'image, de la détection d'éléments ou d'êtres vivants, de la légende automatique et de la génération d'image.

Exemple de reconnaissance d'image

Exemple de détection

Exemple de légende automatique

Exemple de génération d'image

Le code source permet l'exécution de l'algorithme : il renferme l'ensemble des séries d'opérations que doit effectuer la machine dans un ordre prédéfini . La machine va compiler le code source dans un langage, qui n'est certes pas compréhensible par l'humain, mais qui lui permet d'exécuter plus rapidement les tâches qui lui sont assignées. Un exemple d'algorithme permettant la résolution d'un problème est celui dit du « parcours main gauche », qui consiste à suivre le mur à sa gauche afin de sortir d'un labyrinthe. Cependant, de nombreux concepteurs d'algorithmes cherchent à trouver des cas spécifiques pour lesquels l'algorithme ne pourra pas résoudre le problème.

Modélisation d'un « parcours main gauche » Un labyrinthe pour lequel le parcours main gauche échoue

De nombreux jeux mathématiques sont développés sur Internet pour apprendre à programmer (par exemple un « parcours main gauche ») en assemblant des blocs : c'est le logiciel Blockly . Ils font fureur chez les plus jeunes (cf. code.org/frozen) et le logiciel Scratch utilisé pour faire découvrir l'algorithmique au collège est basé sur le même principe.

Exemple de « Blocky game »

Lors de la programmation d'un algorithme, il est important de distinguer les erreurs de spécification et les erreurs d'implémentation . Une erreur de spécification correspond à un cas non traité ou mal traité dans le cahier des charges, ce qui a notamment provoqué l'explosion du vol inaugural du lanceur européen Ariane 5. Une erreur d'implémentation correspond à un bogue informatique lors de la programmation proprement dite de l'algorithme.

Concernant le cas des erreurs de spécification , à titre d'exemple, l'entreprise de commerce électronique Amazon avait mis en vente une série de T-shirts sur lesquels il était inscrit des formules comme « Keep calm and rape a lot » (« Restez calme et violez beaucoup »). En réalité, l'entreprise n'était que le revendeur de ces T-shirts, ces vêtements étant produits par une entreprise utilisant un algorithme qui créait de manière aléatoire les slogans inscrits. Ce produit n'avait pas été pensé, mais créé par une intelligence artificielle.

De même, certains livres vendus sur la plateforme de vente en ligne sont des ouvrages entièrement créés par des algorithmes, qui n'existent pas mais qui sont issus d'un procédé de « génération automatique de texte ». De fait, les acheteurs, pensant acquérir un ouvrage rédigé par un homme, reçoivent un livre dont le texte est automatiquement et aléatoirement produit depuis une base de données par un algorithme. L'étendue du nombre de cas similaires à ceux-ci s'explique par le fait que l'impression à la demande, et plus largement la fabrication à la demande, est une pratique régulièrement utilisée par les vendeurs présents sur Amazon, afin de rationaliser les coûts de production. Ainsi, les articles, aussi illicites soient-ils, n'existent pas physiquement avant qu'un acheteur ne les commande.

Les cas d' erreurs d'implémentation peuvent, pour leur part, également avoir des conséquences sur les conditions d'utilisation et le niveau de sécurité d'une machine. Il est possible de mobiliser le cas de la PlayStation 3 , la console de jeux vidéo produite par la société japonaise Sony. Afin de sécuriser l'utilisation des jeux vidéo et lutter contre le piratage, la console ne peut exécuter que des jeux bénéficiant d'une licence. La vérification de la licence repose sur un nombre secret. Durant la phase d'implémentation, les développeurs devaient choisir un nombre au hasard pour chaque nouveau jeu ; cependant, ces développeurs ont commis l'erreur d'utiliser le même nombre secret pour chaque nouveau jeu. Cette erreur fut exploitée par des hackers qui purent résoudre une équation du premier degré et trouver ce nombre secret, leur permettant de faire lire un jeu détenteur de licence sur leur console. À la suite de la publication sur Internet de ce nombre, des poursuites ont été engagées par l'entreprise, et le nombre fut considéré comme un périphérique de contournement de sécurité, ce qui rendait illégale toute publication et transmission de ce nombre.

De nombreuses plateformes de vente utilisent des algorithmes ayant recours à des formes de discrimination volontaire avec une fixation de prix dynamique. Cette technique de fixation de prix dynamique est notamment utilisée par les plateformes de vente de billets des compagnies de transports aériens et terrestres commerciaux.

Il est également possible de recourir à des pratiques de camouflage volontaire ( obfuscation ), qui consistent à ne pas ouvrir un code source de manière délibérée. Cette technique est notamment utilisée dans des applications de prédiction de crimes ( PredPol ), dans l'affectation d'un degré de menace contre les habitants lors des patrouilles de police à partir des plateformes Beware ou Twitter , ou encore dans le diagnostic de personnes à risque de pédophilie avec la plateforme Abel Assessment .

Tous ces systèmes boîte noire se cachent derrière le prétexte qu'une ouverture du code pourrait influencer un comportement de contournement de la part de malfaiteurs, mais leur légitimité doit être remise en question.

Néanmoins, l'utilisation d'algorithmes peut amener à des discriminations involontaires exercées sans que cela ne soit programmé en amont comme, par exemple, avec l'application Street Bump , qui vise à détecter les nids-de-poule sur la route. L'effet discriminatoire involontaire induit par l'utilisation de cette application réside dans le fait que la présence de nids-de-poule sera détectée de manière plus rapide dans les quartiers où réside une population aisée. En effet, davantage d'habitants disposent des moyens financiers pour détenir un smartphone capable d'exécuter cette application dans les quartiers aisés que dans les quartiers populaires.

En connaissant les règles qui caractérisent l'algorithme, on peut repérer ce type de biais et y réagir. Sinon, on ne peut pas.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page