III. ADOPTER DES LIGNES ÉTHIQUES POUR CRÉER UNE TECHNOLOGIE RESPECTUEUSE DES DROITS FONDAMENTAUX ET DES VALEURS EUROPÉENNES

Le développement d'une technologie aussi performante que l'intelligence artificielle pose de nombreuses questions éthiques. Le fait que ces questions soient déjà soulevées dans l'opinion publique montre leur sensibilité.

Le fonctionnement de l'IA repose en effet sur des choix, des standards de normalité et une certaine idée de ce que devraient être nos comportements sociaux, autant de notions qui ne sont pas clairement définies. Or comme le rappelle la Commission européenne, « pour gagner la confiance, la technologie doit être prévisible, responsable et vérifiable, respecter les droits fondamentaux et se conformer à des règles éthiques » .

Il est donc important que la Commission européenne ait décidé d'inclure des lignes éthiques dans sa stratégie pour l'intelligence artificielle. L'objectif est d'intégrer l'éthique dès la conception des produits et services utilisant l'IA. Le groupe d'experts à haut niveau a eu pour mission de préparer ces lignes éthiques. Une première ébauche a été soumise à consultation publique et elles seront adoptées définitivement en mars 2019. Les auditions menées par vos rapporteurs ont montré que plusieurs points méritent une attention particulière.

L'intelligence artificielle ne sera pas acceptée par la société si elle n'inspire pas confiance . Et pour qu'elle inspire confiance, elle doit être bâtie sur des principes éthiques clairs et acceptés par tous. C'est l'objectif, au sein du groupe européen d'experts à haut niveau, d'un groupe de travail dirigé par la chercheuse française Nozha Boujemaa auditionnée par vos rapporteurs. Celle-ci prône une IA responsable, qui respecte les règles de la société. En outre, elle estime qu'actuellement, beaucoup de choses dans l'IA sont non intentionnelles, dues à un manque de maîtrise technologique. L'objectif est donc de prévoir l'ensemble des cas de figure sans partir dans des considérations « hors sol » et trop théoriques, donc définir des valeurs « implémentables », c'est-à-dire qui s'appliquent au réel. Pour cela, il faut aussi définir les risques et les opportunités, ce qui est intentionnel et ce qui ne l'est pas, et ce qu'il faut faire dans chaque cas.

L'IA pose d'autres questions, comme celle de la responsabilité. Pour vos rapporteurs, il ne peut y avoir de responsabilité des machines ou des robots. Une intelligence artificielle est d'abord une machine, qui a des concepteurs et des fabricants. Ce sont eux qui doivent être responsables en cas de difficulté. C'est notamment ce qu'a défendu devant vos rapporteurs M. Raja Chatila, directeur de l'Institut des systèmes intelligents et de robotique. Comme ce sont des machines complexes, elles auront plusieurs concepteurs. L'être humain qui sera confronté à une IA ne doit pas se retrouver face à un champ de responsabilités diluées. Pour pallier ce risque, on peut invoquer la vigilance, une sorte de « principe de précaution à l'envers » : chaque acteur de la chaîne est coauteur du résultat qu'est l'IA et se doit d'être vigilant ; la responsabilité réside dans l'écart entre ce que fait l'IA et ce qu'elle devrait faire. Pour mettre en application cette notion, une certaine traçabilité pourrait être appliquée . L'idée maitresse est de vérifier l'intention des fournisseurs de service d'intelligence artificielle . Pour cela, ces derniers doivent faciliter « l'auditabilité »» des produits et services et surpasser le manque de transparence. Pour Nozha Bouzemaa, la traçabilité serait au centre des lignes directrices d'éthique européennes et serait la seule entorse à la régulation a priori, car elle implique un contrôle a posteriori.

Ensuite, se pose la question de « l'explicabilité » des décisions des IA. Pour accepter l'intelligence artificielle, on doit comprendre comment elle fonctionne . Or, actuellement, on ne sait pas toujours expliquer ses résultats. Un important travail devra être fait sur la base de la transparence. La machine ne doit pas être un système opaque.

En outre, la question du biais des jeux de données est centrale. Il faut s'assurer que ce biais sera évité pour ne pas fausser des résultats qu'on croit fondés sur une approche juste. C'est pourquoi les données doivent faire l'objet d'un traitement égal et impartial.

Enfin, s'agissant de la protection des données à caractère personnel , essentielle pour une technologie aussi friande de données que l'intelligence artificielle, le RGPD semble assurer, à ce stade, une protection juridique suffisante . C'est ce qu'a estimé Isabelle Falque-Pierrotin, auditionnée par vos rapporteurs lorsqu'elle était présidente de la Commission nationale informatique et liberté. Elle s'appuie notamment sur les travaux menés sur l'IA par l'institution qu'elle présidait 7 ( * ) .

Aussi, forte d'une position éthique claire et applicable à toutes les recherches et innovations en IA faites en Europe, l'Union européenne pourra mettre en avant un véritable modèle d'intelligence artificielle en conformité avec les règles et valeurs de la société.


* 7 « Comment permettre à l'Homme de garder la main ? » , rapport de la CNIL sur les enjeux éthiques des algorithmes et de l'intelligence artificielle du 15 décembre 2017.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page