Allez au contenu, Allez à la navigation

Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport

15 mars 2017 : Pour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport ( rapport d'information )

III. CARACTÉRISTIQUES GÉNÉRALES DE LA RECHERCHE EN INTELLIGENCE ARTIFICIELLE ET ORGANISATION NATIONALE EN LA MATIÈRE

A. LES CARACTÉRISTIQUES DE LA RECHERCHE EN INTELLIGENCE ARTIFICIELLE

1. La place prépondérante de la recherche privée, dominée par les entreprises américaines et, potentiellement, chinoises

La place prépondérante de la recherche privée a été particulièrement ressentie par vos rapporteurs, y compris sur le plan de la recherche fondamentale. Cette recherche est, de plus, dominée par les entreprises américaines et pourrait, potentiellement, être dominée demain par les entreprises chinoises.

Ainsi plusieurs enseignants-chercheurs, souvent les plus brillants, ont été recrutés par ces grandes entreprises, comme en témoigne la liste suivante qui n'est pas exhaustive : Yann LeCun (Facebook), Andrew Ng (Baidu, ex-Google), Geoffrey Hinton et Fei Fei Li (Google), Vladimir Vapnik et Rob Fergus (Facebook), Nando de Freitas (Google), Zoubin Ghahramani (Uber), même Yoshua Bengio, qui a longtemps refusé de travailler dans le secteur privé, a créé la plateforme « Element AI » avec un investissement de Microsoft et a rejoint Intel à la fin de l'année 2016 au Conseil d'administration de Intel Nervana AI.

En 2010, Demis Hassabis a inventé, avec Mustafa Suleyman et Shane Legg, une start-up londonienne qui se donnait pour objectif de faire ce qui se fait de mieux en intelligence artificielle, de « résoudre l'intelligence ». Il a rapidement vu sa structure, Deepmind, être rachetée pour 628 millions de dollars par Google (en 2014).

Vos rapporteurs ont identifié plusieurs cas de chercheurs français recrutés par ces entreprises américaines, dites « GAFA » ou « GAFAMI », même s'il serait plus juste de parler des « GAFAMITIS »102(*), ou par leurs équivalentes chinoises dites « BATX »103(*). Il est à noter que certains de ces chercheurs ont refusé de rencontrer vos rapporteurs.

Laurent Massoulié, directeur du Centre de recherche commun Inria-Microsoft explique que « les frontières public/privé sont de plus en plus perméables ». L'enjeu affiché est de réunir le meilleur des deux mondes et de favoriser la mobilité des chercheurs, mais il faut observer que ce phénomène concourt aussi à la concentration des compétences au sein des entreprises privées américaines.

Comme il a été vu, les technologies d'apprentissage machine tel que le deep learning recourent à des méthodes plus ou moins statistiques qui nécessitent des données massives pour être efficaces, or ces entreprises disposent d'un avantage comparatif difficile à rattraper : des jeux de données massives, continuellement enrichis par leurs clients et usagers.

Les entreprises américaines font de plus en plus de recherche fondamentale en intelligence artificielle, ouvrent une partie de leurs résultats et communiquent sur leurs travaux et leur fonctionnement. C'est en particulier visible pour Google, Facebook, IBM ou même pour le chinois Baidu. Apple, longtemps discrète, a décidé, en 2016, d'offrir à ses chercheurs la possibilité de publier dans des revues scientifiques104(*). Six chercheurs de l'entreprise ont ainsi publié un article sur l'apprentissage machine à partir d'images de synthèse.

De plus, certains outils d'intelligence artificielle des entreprises IBM, Microsoft, Google et Facebook ont été rendus publics en « open source » en vue d'encourager la constitution de communautés de développeurs.

Ces entreprises entretiennent ainsi un formidable vivier d'experts et de chercheurs, aux États-Unis mais aussi dans le reste du monde, qui leur permet de perfectionner leurs algorithmes à moindre coût.

Les entreprises américaines dominent donc pour l'heure, et certains parlent de « silicolonisation » du monde ou de l'Europe, mais les entreprises chinoises, qui se sont longtemps contentées d'exploiter et de répliquer des technologies élaborées à l'extérieur de leurs frontières peuvent potentiellement monter en puissance. La recherche chinoise indique d'ailleurs cette tendance. La Chine a ainsi pris la tête des publications en deep learning depuis trois ans.

Même si les progrès visibles reposent encore sur des architectures conçues initialement par des scientifiques occidentaux, les atouts chinois sont réels, comme l'a indiqué à vos rapporteurs le service scientifique de l'Ambassade de France en Chine : elle dispose en effet « des deux supercalculateurs les plus puissants du monde, d'un marché intérieur très important et friand des avancées potentielles du secteur, d'une collusion féconde entre État, instituts de recherche, universités, géants de l'Internet et de l'informatique, start-up ». Ainsi, le 13e plan quinquennal chinois comprend une liste de 15 « nouveaux grands projets - innovation 2030 » qui structurent les priorités scientifiques du pays et correspondent chacun à des investissements de plusieurs milliards d'euros. Parmi ces 15 projets, on en trouve quatre qui sont consacrés indirectement à l'IA, pour un montant de 100 milliards de yuans en trois ans : un projet de « Recherche sur le cerveau » et des projets d'ingénierie intitulés « Mega données », « Réseaux intelligents » et « Fabrication intelligente et robotique ».

Ce plan a été décidé par les autorités chinoises dans le but de dynamiser la recherche en IA en Chine et de relever le défi de la concurrence avec les États-Unis. Les investissements seront orientés sur la robotique, les assistants personnels (domotique), les voitures autonomes et les objets connectés.

Les enjeux sont nationaux et les financements suivent. Mais les entreprises privées sont aussi des moteurs puissants du secteur.

On voit dans la période récente les entreprises chinoises monter en puissance, avec les « BATX »105(*).

L'entreprise Baidu a développé le principal moteur de recherche chinois, site le plus consulté en Chine et 5e site le plus consulté au niveau mondial, indexant près d'un milliard de pages, 100 millions d'images et 10 millions de fichiers multimédia. Elle communique beaucoup sur le sujet de l'IA, y consacre une part conséquente de sa recherche (Institute of deep learning, big data lab, ...) et, comme les géants américains, dispose d'un flux de données permettant d'envisager des applications dans de nombreux domaines.

Le recrutement du chercheur de Stanford Andrew Ng par Baidu en 2014 en tant que responsable de l'intelligence artificielle, alors qu'il en était le responsable chez Google, est emblématique.

De même, en 2017, Baidu débauche Qi Lu, au poste de numéro deux, alors qu'il était auparavant vice-président chez Microsoft et directeur des projets Bing, Skype et Microsoft Office et, auparavant, directeur de la recherche de Yahoo.

L'entreprise considère, comme ses concurrents, que l'IA est son principal défi comme solution clé pour des applications en vision, parole, traitement du langage naturel et sa compréhension, génération de prédictions et de recommandations, publicité ciblée, planification et prise de décision en robotique, en conduite autonome, pilotage de drones,... Elle travaille en étroite relation avec de nombreuses universités et start-up.

Les résultats algorithmiques de Baidu et de son Institute of Deep Learning sont impressionnants et du meilleur niveau mondial, malgré son existence récente. Il n'est pas évident, selon le service scientifique de l'Ambassade de France en Chine, d'évaluer la maîtrise théorique des ingénieurs mais l'entreprise montre une incontestable efficacité pour implémenter rapidement les dernières innovations du secteur.

Le système de reconnaissance d'image de Baidu a ainsi battu celui de Google depuis 2015. Son logiciel a décrit 100 000 images avec une précision de 95,42 % contre 95,20 % pour celui de Google. Baidu représente à lui seul plus de 80 % du marché chinois de la recherche en ligne (contre 9 % pour Google). La capacité de ses algorithmes à retrouver une image dans une base de données de 10 milliards d'images est de moins d'une seconde. Ils ont aussi de bonnes performances sur les benchmarks ICDAR, où ils se placent 1er sur cinq des huit évaluations conduites parmi quatre tâches.

Sur FDDB106(*) (Face Detection Data Set and Benchmark) et sur la base de données de visages LFW, ce système progresse vite : 8 % d'erreurs en décembre 2015, 2,3 % en septembre 2016 et bientôt 1 %. L'entreprise annonce aussi la meilleure précision sur la collection de benchmarks KITTI107(*) orientés pour la conduite de voitures autonomes. Baidu développe aussi des applications de reconnaissance d'image pour la plateforme de services Baidu Nuomi : une application permet par exemple de reconnaître le restaurant (et le plat) en prenant une photo de nourriture dans un restaurant.

Les autres géants chinois du net, comme Alibaba (distribution) ou Tencent (réseaux sociaux), tirent eux aussi dans la même direction : développement et diffusion grand public d'applications plus ou moins convaincantes mais manifestement exploitant des techniques d'IA un peu évoluées, même s'ils semblent moins présents dans la recherche « fondamentale ».

Créé le 6 avril 2010, Xiaomi a rapidement rejoint le club des géants chinois, en devenant l'un des plus gros constructeurs mondiaux dans les TIC (smartphones, tablettes, mais aussi bracelets connectés, télévisions intelligentes, équipements pour les maisons connectées, caméras miniatures...) sans même devoir s'installer en Occident, devenant le quatrième membre des BATX. Seul Uber présente un dynamisme comparable. Le recrutement en 2013 de Hugo Barra par Xiaomi, en tant que vice-président, est significatif. D'abord chercheur du laboratoire d'intelligence artificielle et d'informatique du MIT, laboratoire visité par vos rapporteurs, il est ensuite devenu responsable du développement du système d'exploitation Android chez Google entre 2010 et 2013. En janvier 2017, il a rejoint Facebook, en tant que vice-président de la division Oculus en charge de la réalité virtuelle. Vos rapporteurs ont été reçus au siège de Facebook à Menlo Park par les responsables de la recherche en IA de Facebook et par différents responsables de sa division Oculus le 26 janvier 2017, au moment de ce transfert de Hugo Barra de Xiaomi vers Facebook.

Huawei (télécom, téléphones), entreprise qui accorde une grande importance à la recherche fondamentale et dont la recherche s'internationalise rapidement (pôle mathématique implanté en France il y a deux ans) a mis en avant début janvier 2017 un concept de téléphone intelligent, dont on ne peut encore savoir s'il ira effectivement plus loin que ceux de ses concurrents.

Plus globalement, concernant les données, les pôles universitaires chinois peuvent aussi compter sur le soutien des industriels comme, par exemple, National Grid, China Mobile, China Unicom, Shanghai Meteorological Bureau ou Environmental Monitoring Center...

La Chine prend aussi position dans les technologies de cartographie numérique. Deux entreprises nationales, le chinois NavInfo et la société de services Internet Tencent, associées au fonds singapourien GIC, ont acquis ensemble une participation de 10 % dans le groupe HERE, contrôlé par BMW, Daimler et Volkswagen, qui ont réduit leur part en proportion. Dans ce cadre, HERE crée une filiale avec NavInfo pour étendre son offre à la Chine. Et Tencent utilisera de son côté les prestations de cartographie et de localisation de la société pour ses propres produits et services.

2. Une recherche essentiellement masculine

Vos rapporteurs dressent le constat évident que la recherche en intelligence artificielle et en robotique est essentiellement conduite par des hommes. Cette situation d'extrême masculinisation est critiquable et n'est pas souhaitable.

Selon Mady Delvaux, la domination masculine dans ce secteur serait de nature à créer des biais, dans la conception des programmes, l'analyse des données et l'interprétation des résultats, elle dénombre de l'ordre de 90 % de programmeurs et de développeurs masculins.

3. Une interdisciplinarité indispensable mais encore insuffisante

En matière d'intelligence artificielle, l'interdisciplinarité est particulièrement requise. En effet, il s'agit à la fois d'un secteur de recherche en informatique et d'un champ de réflexion bien plus large, qui mobilise des connaissances provenant de nombreuses disciplines.

L'interdisciplinarité est donc indispensable en intelligence artificielle. Cette prise en compte du critère de l'interdisciplinarité est essentielle et souvent recherchée par les équipes de chercheurs mais, elle-même sous-domaine de l'informatique, l'intelligence artificielle demeure éclatée en une cinquantaine de sous-domaines de recherche identifiés, qui parfois s'ignorent les uns les autres ou ne coopèrent pas suffisamment.

L'éclatement de la discipline en une cinquantaine de domaines

Source : Gouvernement

Non seulement l'interdisciplinarité reste insuffisamment mise en oeuvre mais l'intelligence artificielle elle-même souffre de ces découpages internes, qui tendent à cloisonner les recherches.

Vos rapporteurs ont ainsi relevé que les recherches en intelligence artificielle empruntent et devront, de plus en plus, emprunter à diverses autres disciplines et en agréger les démarches et les connaissances. Elles peuvent même aller jusqu'à s'inscrire dans d'autres espaces disciplinaires (mathématiques, physique, biologie...).

Issue des mathématiques, de la logique et de l'informatique, l'intelligence artificielle fait appel depuis des décennies, et de plus en plus, à la psychologie, à la linguistique, à la neurobiologie, à la neuropsychologie et au design. Dans la période plus récente, elle s'ancre encore davantage dans les sciences cognitives, et mobilise les outils de la génétique et des « Sciences de l'Homme et de la Société » (SHS), en particulier de la sociologie.

L'intelligence artificielle se nourrit de plus en plus des recherches issues des mathématiques, des statistiques, de la physique, de la biologie, en particulier pour ses méthodes de recherche et ses champs d'application. Elle doit également, et de plus en plus, s'alimenter auprès des SHS, plutôt sur les usages mais aussi sur les questionnements éthiques en matière de conception.

Les humanités numériques sont un exemple de démarches à l'intersection de l'intelligence artificielle et des SHS. Comme l'a expliqué Jean-Gabriel Ganascia à vos rapporteurs, les disciplines relevant des humanités, à savoir dont l'objet d'étude porte sur les oeuvres humaines, comme l'histoire, l'archéologie, la littérature, etc., tirent, depuis environ quinze ans, avantage de la numérisation des sources et de l'utilisation des techniques d'intelligence artificielle et d'apprentissage machine pour concevoir de nouveaux opérateurs d'interprétation. Aujourd'hui, ce courant scientifique situé à la frontière de l'informatique et des « sciences de la culture » est désigné sous le vocable d'« humanités numériques ». Cela fait l'objet de nombreuses recherches dans tous les pays du monde, en particulier aux États-Unis, dans les États européens, dont la France. On peut, par exemple, citer l'école polytechnique fédérale de Lausanne en Suisse, visitée par vos rapporteurs, ou le Labex OBVIL entre la Sorbonne et l'UPMC.

Par ailleurs, les liens entre intelligence artificielle et robotique ont longtemps été très étroits mais dans le dernier quart du XXe siècle une distance s'est créée sous le double effet de la spécialisation de la robotique industrielle sur des automates pas ou peu autonomes et du moindre coût de la recherche sur des systèmes logiciels d'intelligence artificielle (le coût relatif d'un robot intelligent étant plus élevé). D'après Raja Chatila, cette distance devrait maintenant se réduire car les robots deviennent de plus en plus des intelligences artificielles « encorporées » (embodied), le terme étant plus pertinent que celui « d'incorporées » car elles s'incarnent dans des corps physiques plus qu'elles n'y seraient simplement placées. Selon lui, au-delà du traitement du langage naturel, les problèmes d'interaction et d'action conjointe homme-robot posent des questions d'interdisciplinarité : la mise en oeuvre de « prises de perspective » est une problématique fondamentale pour permettre une interaction efficace et naturelle entre l'humain et le robot. Ce sujet demande un développement qui associe des recherches en robotique et en SHS, en particulier, en sociologie, philosophie, psychologie, linguistique... Le rôle des émotions dans l'interaction est à explorer, bien au-delà de travaux actuels qui se contentent de classer a priori des expressions faciales ou de produire des expressions d'émotions artificielles par le robot. L'expression d'émotions par un robot pose des questionnements scientifiques et éthiques sur l'authenticité de ces émotions et sur l'anthropomorphisation qui peut en résulter, sujet sur lequel s'est spécialisée Laurence Devillers, professeure à l'Université Paris IV Sorbonne et directrice de recherche au Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur (Limsi de Saclay) qui plaide elle aussi pour une plus grande interdisciplinarité, totalement nécessaire selon elle.

La recherche en robotique pose en effet des questions proches des sciences cognitives, des neurosciences et de plusieurs domaines des SHS, comme la sociologie, la psychologie et la philosophie. Des programmes interdisciplinaires sont probablement le bon moyen d'aborder les différentes facettes des questions fondamentales posées par l'intelligence artificielle et la robotique.

En plus des aspects technologiques, les chercheurs appellent à plus de transversalité en vue de croiser leurs approches, une pluricompétence dans les équipes, indispensable au progrès dans ce domaine où se télescopent les disciplines. Selon Bertrand Braunschweig, directeur du centre de d'Inria de Saclay, « nous avons besoin de doubles, voire de triples-compétences ».

Comprendre l'intelligence sous toutes ses formes reste une des grandes questions scientifiques de notre temps, au-delà même des progrès et des limites de l'intelligence artificielle et, comme le souligne Yann LeCun, « aucune organisation, si puissante soit-elle, ne peut résoudre ce problème en isolation. La conception de machines intelligentes nécessitera la collaboration ouverte de la communauté de la recherche entière ».

L'interdisciplinarité doit, en outre, se conjuguer avec une meilleure prise en compte du long terme, qui représente un autre défi en matière de recherche scientifique108(*), notamment en matière d'intelligence artificielle. Pour Jean-Gabriel Ganascia, cela résulte notamment des modes de financement : les logiques de court terme des projets n'offrent pas la pérennité et la vision de long terme souvent souhaitables et rendent difficiles le développement de grandes ambitions. Il note toutefois que les LabEx, ou Laboratoires d'excellence, lauréats d'appels à projets lancés dans le cadre du Programme investissements d'avenir (Grand emprunt) ont moins présenté ce défaut. Selon Gérard Sabah, membre de l'Académie des technologies, c'est la structure de la recherche française qui gênerait la recherche en intelligence artificielle parce que, selon lui, à l'exception du cas des chercheurs du CNRS (eux-mêmes souvent envahis par les tâches administratives), seuls les doctorants pourraient se consacrer à plein temps à la recherche en intelligence artificielle qui demande beaucoup d'investissement en temps, d'expérimentation et en retours d'expériences : « La contrainte d'une thèse en trois ans maximum et le fait qu'après leur soutenance ils se voient généralement obligés de continuer ailleurs (au mieux comme maître de conférences, chargé de nombreuses tâches autres que de recherche pure) font que des projets à long terme ont du mal à se développer. À mon sens, c'est une des raisons pour lesquelles la recherche fondamentale en intelligence artificielle a peu avancé (en France). Comme elle est également proche des sciences cognitives et fait donc appel à diverses disciplines, la difficulté de mener des carrières interdisciplinaires dans le cadre académique est également un frein à son développement. Or, la fréquentation d'autres disciplines demande une culture à la fois très vaste et très profonde, qui n'est pas toujours dispensée par les formations actuelles : la plupart des systèmes d'enseignement européens fonctionnent selon des structures anciennes, qui ont conduit à la spécialisation ».

Pour votre rapporteure Dominique Gillot le point évoqué d'une surcharge administrative des chercheurs constitue une appréciation controversée : souvent reproduite, elle devrait être évaluée et approfondie.

Par ailleurs, avec un point de vue plus interdisciplinaire il est possible de supposer que l'intelligence artificielle permettra aussi de mieux modéliser le fonctionnement du cerveau et les relations entre le cerveau et la conscience, ainsi que la mémoire ou la récupération et la stimulation des facultés cognitives et/ou motrices.

Ces découvertes, qui profiteront aux neurosciences, rétroagiront très probablement avec la recherche en intelligence artificielle dans un cercle vertueux.

Les projets de recherche Humain Brain Project (HBP) et Blue Brain Project (BBP) que vos rapporteurs sont allés découvrir sur place en Suisse devraient aller dans ce sens. Jean-Pierre Changeux, partie prenante des projets, leur en a fait partager l'ambition.

L'équipe du BBP de l'École polytechnique fédérale de Lausanne (EPFL) se donne pour objectif depuis mai 2005 de créer un cerveau synthétique par rétroingénierie.

Ce projet pluridisciplinaire permet aussi d'étudier l'architecture et les principes fonctionnels du cerveau. Il a été suivi, en 2013, du HBP, financé par l'Union européenne, et certains résultats sont déjà tangibles : en octobre 2015, l'équipe est parvenue à assurer la reproduction virtuelle de microcircuits de neurones de rat.

Présentation du Human Brain project (HBP)

Le Human Brain project (HBP) est un projet scientifique lancé en 2013 qui s'appuie sur le BBP et qui vise à simuler le fonctionnement du cerveau humain grâce à un superordinateur d'ici à 2024. Il a été choisi pour être l'un des deux « FET Flagships » de l'Union européenne109(*) et son coût total est estimé à 1,19 milliard d'euros. Il s'agit ainsi de mieux comprendre le cerveau et ses mécanismes de base, d'appliquer ces connaissances dans le domaine médical et de contribuer au progrès de l'informatique (et en IA). Les résultats obtenus permettraient par exemple de développer de nouvelles thérapies médicales plus efficaces sur les maladies neurologiques : en effet le projet vise à créer une nouvelle plateforme informatique médicale pour tester des modèles de maladies, améliorer le diagnostic et accélérer le développement de nouvelles thérapies.

S'agissant des progrès en informatique et en IA, l'objectif du projet est de tirer parti d'une meilleure compréhension du fonctionnement du cerveau pour le développement de technologies de l'information et de la communication plus performantes s'inspirant des mécanismes du cerveau humain. Les bénéfices espérés sont une meilleure efficacité énergétique, une fiabilité améliorée et la programmation de systèmes informatiques complexes.

Le projet est mené par une équipe coordonnée par Henry Markram, un neuroscientifique de l'École polytechnique fédérale de Lausanne (EPFL) qui, parallèlement, animait déjà le projet Blue Brain ; et codirigé par le physicien Karlheinz Meier de l'Université de Heidelberg et le médecin Richard Frackowiak du Centre hospitalier universitaire vaudois et l'Université de Lausanne, en collaboration avec plus de 90 instituts de recherche européens et internationaux répartis dans 22 pays différents. Il rassemble au total des milliers de chercheurs.

Le projet a été contesté en 2014 et 2015110(*), ce qui a conduit à le réorienter en partie, en accordant notamment plus d'importance aux neurosciences cognitives.

En mai 2015, les ingénieurs du HBP montrent les premières simulations en vue de la réalisation d'une « souris virtuelle » en plaçant un modèle informatique simplifié du cerveau d'une souris dans un corps virtuel soumis à des stimulations. Ces résultats n'ont cependant pas fait cesser les critiques contre le HBP.

La première phase du HBP a débuté fin 2013 et a duré deux ans et demi. Un premier bilan est donc à dresser.

Pour simuler le fonctionnement d'un cerveau humain, la puissance calculatoire nécessaire est estimée à un exaflops111(*). Or un superordinateur atteignant l'exaflops sera difficile à atteindre avant 2020. Steve Furber de l'Université de Manchester souligne que les neuroscientifiques ne savent toujours pas avec certitude quels détails biologiques sont essentiels au traitement cérébral de l'information, et en particulier ceux qu'on peut s'abstenir de prendre en compte dans une simulation visant à simplifier ce processus.

Visant la création de modèles pour étudier les maladies neurodégénératives, une équipe française du laboratoire CellTechs de l'école SupBiotech, en collaboration avec le CEA (Commissariat à l'énergie atomique et aux énergies alternatives) travaille sur la « reprogrammation» de cellules souches sans aucune spécialisation, dites alors « pluripotentes induites » (ou IPS), afin de les différencier pour devenir, par exemple, des cellules cérébrales : Frank Yates, enseignant-chercheur à SupBiotech et responsable de cette équipe explique que leurs cultures d'organoïdes neuroectodermiques « comptent entre 500.000 et un million de cellules, et mesurent environ 2 mm de diamètre »112(*).

Les perspectives d'application de ces projets et de BBP et de HPB en particulier sont grandes, mais la perspective d'un homme non seulement réparé mais augmenté qui pourrait à terme se dessiner soulève d'importantes questions éthiques.

Au sein des projets de grande envergure, le plus souvent menés aux États-Unis, en Chine et au Japon (mêmes si les cas du HBP de l'EPFL peut s'apparenter à cette famille de grands projets pluridisciplinaires), le caractère pluridisciplinaire est évident : au-delà du matériel informatique et des logiciels utilisés, coeur historique de l'intelligence artificielle, d'autres savoir-faire et domaines de connaissances sont largement mobilisés : la robotique, au sein de laquelle les mouvements et les perceptions sont essentiels pour produire de l'intelligence, les sciences de la vie, à l'image de la physiologie, des neurosciences et de la génétique, mais aussi les sciences humaines, avec la psychologie, la linguistique et la sociologie.

Pour vos rapporteurs, il existe un débat sur la façon de réussir cette interdisciplinarité dans le cadre existant, contraint par un académisme d'un autre temps. La remise en cause du cadre existant pourrait être bienvenue. La place que le CNRS fait, par exemple, à l'intelligence artificielle dans son organisation semble être, pour le moins, insuffisante. Il faudrait aussi revoir les modalités de carrière des chercheurs en encourageant les parcours transgressant les frontières disciplinaires et en valorisant dans les évaluations les expériences de partenariats, notamment public-privé.

4. Une recherche soumise à une contrainte d'acceptabilité sociale assez forte sous l'effet de représentations catastrophistes de l'intelligence artificielle

La recherche en intelligence artificielle ainsi que ses applications sont soumises à une contrainte d'acceptabilité sociale assez forte, notamment sous l'effet de représentations catastrophistes, comme en témoignent les sondages d'opinion.

Lors du lancement de France IA, le Gouvernement a rappelé que 65 % des Français interrogés se disent inquiets du développement de l'intelligence artificielle alors que, comparativement, 36 % des Britanniques et 22 % des Américains expriment la même crainte.

Selon un autre sondage Odoxa, réalisé en mai 2016 pour Stratégies et Microsoft, qui posait la question « L'intelligence artificielle, une chance ou une crainte ? », les Français sont aussi nombreux à voir dans cette forme d'algorithmes une opportunité (49 %) qu'un motif de peur (50 %).

Un troisième sondage, réalisé par Orange et « 01.net », réalisé, lui, en ligne parvient à des résultats plus rassurants : 40 % des sondés disent avoir peur de l'intelligence artificielle et 60 % disent ne pas en avoir peur (le fait qu'il s'agisse d'un sondage en ligne auprès des internautes introduit forcément plus de biais qu'un sondage par échantillon représentatif, les réponses étant issues de personnes déjà familières des TIC).

Les chiffres annoncés par le Gouvernement en janvier 2017 sont en fait les résultats d'une enquête de l'IFOP sur le sujet. Ces résultats traduisent, sur un plan statistique, la prise de conscience assez élevée de l'essor de l'intelligence artificielle et de ses opportunités.

Cet enthousiasme majoritaire doit être nuancé par les craintes - elles aussi majoritaires - que cette technologie suscite dans le même temps. Une majorité de sondés (67 %) voit en effet tout autant l'intérêt de l'intelligence artificielle pour améliorer le bien-être individuel et collectif, qu'il s'inquiète (à 65 %) de l'autonomie croissante des machines.

On se retrouve donc devant une logique d'appréciation contrastée qui n'est sans doute pas sans lien avec l'accent mis sur les risques de l'IA dans la culture populaire (littérature et surtout cinéma de science-fiction en particulier) et dans le débat public.

Enquête d'opinion conduite en 2016 sur l'intelligence artificielle

Source : IFOP

D'après Bernard Stiegler, directeur de l'Institut de recherche et d'innovation (IRI) du centre Georges Pompidou et professeur à l'Université de Londres, l'enseignement de ce sondage est le suivant : « la population est consciente dans son ensemble de l'importance des enjeux liés à la nouvelle intelligence artificielle qui émerge (...), de ses promesses potentielles, mais aussi et surtout de ses dangers. C'est assez rassurant : quand on sait que des personnalités aussi bien informées que Stephen Hawking ou Bill Gates ont elles-mêmes manifesté leur très grande préoccupation avec des dizaines de scientifiques de grand renom face à ce qui se met en place, il est heureux de constater que les personnes interrogées reflètent une conscience de la dimension pharmacologique du numérique, c'est à dire le fait qu'il constitue autant un remède qu'un poison - et que dans l'immédiat, le coût toxique semble s'imposer plutôt que les dimensions curatives ».

Vos rapporteurs, s'ils y sont sensibles, ne partagent pas cette analyse selon laquelle les inconvénients de l'intelligence artificielle seraient, à ce stade, supérieurs à ses avantages pour nos sociétés. Rien ne permet de le démontrer et la vigilance qui se met en oeuvre sur un plan national et international devrait en être garante.

Un autre sondage, mené par l'IFOP pour la CNIL en janvier 2017, peut être cité113(*). Il est consacré au cas plus général des algorithmes et montre que la majorité des personnes interrogées (64 %) considèrent que les algorithmes représentent plutôt une menace, en raison de l'accumulation de données personnelles sur les choix, les goûts et les comportements. Cette perception varie fortement en fonction de l'âge : pour les 18-24 ans, les algorithmes représentent d'abord une opportunité (à 51 %).

Les Français et les algorithmes : notoriété et perception

D'après un sondage mené par l'IFOP pour la CNIL en janvier 2017, les algorithmes sont présents dans l'esprit des Français mais de façon assez confuse. Si 83 % des Français ont déjà entendu parler des algorithmes, ils sont plus de la moitié à ne pas savoir précisément de quoi il s'agit (52 %). Leur présence est déjà jugée massive dans la vie de tous les jours par 80 % des Français qui considèrent, à 65 %, que cette dynamique va encore s'accentuer dans les années qui viennent.

Concernant l'opinion sur les algorithmes, une courte majorité (53 %) estime qu'ils sont plutôt sources d'erreur contre 47 % qui pensent qu'ils sont fiables. Mais, la confiance s'élève à mesure que le niveau de connaissance sur les algorithmes progresse. Un effort de pédagogie et de transparence peut donc contribuer à renforcer la confiance. 

Sous un angle marketing, 57 % des Français pensent que les algorithmes limitent l'étendue des choix proposés. Chez les plus jeunes, la tendance s'inverse, puisque 53 % des moins de 35 ans et 56 % des 18-24 ans mettent plutôt en avant le fait que les algorithmes proposent plus de choix.

Enfin, c'est sous l'angle de la perception citoyenne que l'opinion est la plus tranchée en fonction de l'âge. Si les 2/3 des Français (64 %) considèrent que les algorithmes représentent plutôt une menace en raison de l'accumulation de données personnelles sur les choix, les goûts et les comportements, les 18-24 ans inversent cette tendance nettement affirmée puisque 51 % estiment au contraire que les algorithmes représentent une opportunité.

Source : CNIL

Enfin, deux études parues en avril 2017 au sujet de l'utilisation de l'intelligence artificielle à des fins commerciales vont dans le même sens114(*) : la première montre que 72 % des 6 000 internautes sondés dans six pays déclarent en avoir peur115(*) et la seconde montre que 42 % des 2 000 personnes interrogées ne font pas confiance à l'intelligence artificielle116(*).

Vos rapporteurs, qui ont la mémoire des quarante dernières années, n'oublient pas que la popularisation d'Internet dans les années 1990 s'est elle aussi accompagnée, comme auparavant avec la télématique, de l'expression de craintes : peur de l'affaiblissement des relations sociales117(*), des pannes informatiques118(*), du piratage, de l'escroquerie commerciale, d'un nivellement intellectuel par le bas119(*) ou, encore, de l'exploitation non contrôlée et non autorisée des données personnelles... Certaines de ces peurs se sont avérées en partie légitimes et vos rapporteurs n'entonnent pas le refrain d'un scientisme optimiste et naïf devant les mutations issues des technologies numériques. Ils ne souscrivent pas, pour autant, à une application stérilisante du principe de précaution qui empêcherait la recherche en intelligence artificielle : le présent rapport le démontre, notamment dans les propositions qui seront développées plus loin.

L'actualité, au-delà de la victoire médiatisée à juste titre d'AlphaGo de DeepMind déjà évoquée et des résultats de plus en plus significatifs obtenus en intelligence artificielle, pourrait sembler mettre l'accent sur les risques liés à l'intelligence artificielle :

- le premier accident mortel lors d'un trajet en voiture autonome, a eu lieu en Floride dans un véhicule Tesla le 7 mai 2016, alimentant la peur des véhicules autonomes. Le rapport d'expertise de l'agence fédérale américaine de sécurité routière (NHTSA) a dédouané Tesla et a invoqué des facteurs humains, dans la mesure où « le conducteur de la Tesla, censé garder ses mains à tout moment sur le volant, a eu sept secondes pour voir le semi-remorque en travers de la route ». Il s'agissait en mai 2016 du premier décès sur plus de 209 millions de kilomètres parcourus par des voitures Tesla avec le pilote automatique activé, or parmi tous les véhicules circulant aux États-Unis, il y a un décès tous les 152 millions de kilomètres ;

- le premier accident responsable, mais sans victime, de la voiture autonome construite par Google, la « Google Car », a eu lieu le 14 février 2016 sur une route de Mountain View ;

« Tay », un avatar algorithmique d'intelligence artificielle créé par Microsoft dans le but de conduire des conversations sur Twitter, est devenu raciste en miroir de ses interlocuteurs120(*) quelques heures après son activation le 23 mars 2016 ;

- une association française contre l'intelligence artificielle (AFCIA) a déposé ses statuts le 18 juillet 2015121(*). Son président Cédric Sauviat a été rencontré par vos rapporteurs, qui ont jugé à la fois son discours bien construit et ses analyses excessives voire infondées, révélatrices d'un certain climat d'angoisse puisque la France serait le seul pays où une telle association existerait122(*). L'AFCIA juge « illégitime et dangereuse la recherche scientifique visant à créer des organismes à intelligence artificielle suprahumaine » et considère que le seul moyen « d'éviter un avenir funeste pour l'humanité est d'obtenir l'interdiction légale de la recherche en intelligence artificielle à l'échelle mondiale ». Se définissant comme association de lobbying, elle vise à obtenir cette interdiction auprès des pouvoirs publics ;

- et plusieurs interventions médiatiques, pétitions et lettres ouvertes, ont cherché en 2015 à interpeler l'opinion à propos des risques qui seraient inhérents à l'intelligence artificielle123(*).

Des figures médiatiques ont par ailleurs tenu des discours catastrophistes. Ainsi, Stephen Hawking, professeur de mathématiques connu pour ses contributions dans les domaines de la cosmologie et la gravité quantique, a déclaré l'année dernière dans une interview à la BBC que « les formes d'intelligences que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés ».

Bill Gates, le fondateur de Microsoft, s'est aussi inquiété en 2015 des progrès de la superintelligence : « dans quelques décennies, l'intelligence sera suffisamment puissante pour poser des problèmes ».

Jacques Attali s'est, à son tour, expliqué sur les priorités souhaitables en matière d'intelligence artificielle et s'est prononcé à la fin de l'année 2016 pour un moratoire sur les technologies d'intelligence artificielle, ce qui a surpris votre rapporteur Claude de Ganay.

5. Une recherche en intelligence artificielle qui s'accompagne de plus en plus d'interrogations et de démarches éthiques

Vos rapporteurs ont observé une multiplication des initiatives visant la prise en compte de principes éthiques dans la recherche et les usages de l'intelligence artificielle. Cela vaut pour la recherche publique, comme pour la recherche privée, en Europe comme en Amérique. Il s'agit d'une caractéristique qui singularise la recherche en intelligence artificielle, particulièrement en France où les préoccupations en matière de sécurité et de données personnelles sont fortes et font régulièrement débat.

Ils décrivent les détails de cette réalité de plus en plus tangible plus loin dans le rapport, dans la partie consacrée à la prise en compte grandissante des enjeux éthiques.


* 102 Google, Apple, Facebook, Amazon, Microsoft, IBM, Twitter, Intel et Salesforce. Ces entreprises américaines représentent la pointe de la recherche et des applications de l'IA.

* 103 L'expression désigne les géants chinois du numérique : Baidu, Alibaba, Tencent et Xiaomi.

* 104 Cette évolution doit beaucoup à Russ Salakhutdinov, directeur de l'intelligence artificielle chez Apple et professeur à l'Université Carnegie-Mellon, rencontré par vos rapporteurs. Cette communication de plus en plus scientifique d'Apple est visible aussi dans cet article qui met notamment à l'honneur Alex Acero, directeur du projet Siri, également rencontré par vos rapporteurs : https://backchannel.com/an-exclusive-look-at-how-ai-and-machine-learning-work-at-apple-8dbfb131932b#.6oxrqyd5g

* 105 Baidu, Alibaba, Tencent et Xiaomi.

* 106 Voir http://vis-www.cs.umass.edu/fddb/

* 107 Voir http://www.cvlibs.net/datasets/kitti/

* 108 Pierre-Gilles de Gènes alerte ainsi : « l'avenir de la recherche est dorénavant aux mains de gens qui ne voient que leur intérêt à trois ans (...). Le mot d'ordre semble être de supprimer tous les investissements à moyen et long termes, en postes de chercheurs comme en moyens de laboratoires. Or une bonne recherche suppose un horizon à dix ans sinon trente ans et les moyens adéquats ».

* 109 Il s'agit des « Initiatives-phare des Technologies Futures et Émergentes » de l'Union européenne, soutenues financièrement à hauteur d'un milliard d'euros chacune sur dix ans, dont la moitié est versée par le budget de l'UE (l'autre projet porte sur le graphène).

* 110 En juillet 2014, une lettre ouverte signée de 130 scientifiques est adressée à la Commission européenne. Elle critique les orientations prises par la direction du HBP et appelle l'UE à prendre des mesures pour réorienter le projet. L'objet de cette lettre est surtout la gouvernance du HBP, mais aussi le manque de réalisme du projet et son coût important. En 2015, Yann LeCun a critiqué l'idée qu'une IA pourrait émerger simplement d'un ordinateur, aussi puissant soit-il, en utilisant quelques algorithmes simples d'apprentissage. Il pense que les progrès en matière d'IA viendront plutôt de l'apprentissage machine non supervisé.

* 111 1018 soit un milliard de milliards, ou un trillion de flops (un flop est une unité de mesure de la vitesse d'un système informatique).

* 112 Cf. http://www.futura-sciences.com/sante/actualites/cerveau-faire-pousser-mini-cerveau-cest-possible-66821/

* 113 Cf. https://www.cnil.fr/sites/default/files/atoms/files/presentation_ifop_-_presentation.pdf

* 114 Cf. une synthèse dans l'article suivant : http://www.zdnet.fr/blogs/watch-it/intelligence-artificielle-les-consommateurs-restent-craintifs-39851386.htm

* 115  https://www.pega.com/ai-survey

* 116  https://uk.insidesales.com/research-paper/state-artificial-intelligence-uk-2017-public-perceptions-disruptive-technology/

* 117 Il existe, depuis une trentaine d'années et surtout depuis dix ans, une peur de la perte d'une sociabilité authentique et de son remplacement par une sociabilité virtuelle, moins durable et plus égocentrique. Les travaux du sociologue Dominique Cardon, spécialiste de l'usage de l'IA, des TIC et des comportements sur Internet et les réseaux sociaux, démontrent plutôt une corrélation en sens inverse : les jeunes adeptes des réseaux sociaux enrichissent leur vie sociale physique plus qu'ils ne l'appauvrissent. En la matière, le virtuel ne se substitue donc pas au réel. Rodolphe Gélin et Olivier Guilhem, respectivement directeur scientifique et directeur juridique d'Aldebaran puis de SoftBank Robotics, ne croient pas que l'intelligence artificielle puisse être un fossoyeur des relations sociales et rappellent que « lorsque nos enfants jouaient des heures, seuls, sur leur console de jeux ou leur ordinateur, nous redoutions qu'ils deviennent des êtres désociabilisés n'interagissant plus qu'avec leur machine. Ils ont aujourd'hui beau jeu de nous dire que, grâce aux réseaux sociaux et aux jeux en réseau, ils sont bien plus en relation avec le monde que nous, perdus dans nos livres en papier pendant des heures sans parler à personne ! ».

* 118 La peur infondée du « bug de l'an 2000 » dans les années 1990 avec son cortège de commentaires médiatiques excessifs devrait être un exemple à méditer.

* 119 « Est-ce que Google nous rend idiots ? » s'interrogeait Nicholas Carr en juin 2008 dans la revue The Atlantic (traduction du nom anglais de l'article « Is Google making us stupid ? »). La consommation de plus en plus rapide et superficielle d'informations au travers des outils numériques est patente et remet en question nos capacités intellectuelles traditionnelles, nos relations sociales et nos habitudes de travail. Une étude canadienne publiée en février 2016 démontre que les réseaux sociaux encourageraient une pensée rapide et superficielle pouvant, à terme, entraîner une superficialité cognitive et morale (cf. Logan Annisette et Kathryn Lafreniere, « Social media, texting, and personality : a test of the shallowing hypothesis » Department of Psychology, University of Windsor).

* 120 Cette évolution de Tay s'est faite au contact d'internautes cherchant délibérément à tester les limites du système en le faisant déraper d'un point de vue politique et moral.

* 121 La lecture de son site, qui utilise en fond d'écran des images extraites des films Metropolis et Matrix, est édifiante : http://afcia-association.fr/

* 122 Ce constat est renforcé par l'existence d'autres associations technophobes, inspirées par John Zerzan, Jacques Ellul, Ivan Illich ou Georges Bernanos et parfois par le néo-luddisme, à l'instar du collectif « Pièces et main-d'oeuvre » (souvent abrégé en PMO) : http://www.piecesetmaindoeuvre.com/

* 123 À l'image en janvier 2015 de la lettre d'avertissement sur les dangers potentiels de l'intelligence artificielle signée par 700 personnalités (le plus souvent des scientifiques et des chefs d'entreprise, rejoints par plus de 5000 signataires en un an) et, en juillet 2015 pour l'ouverture de la Conférence internationale sur l'intelligence artificielle qui s'est tenue à Buenos Aires, de la lettre signée par plus de mille personnalités, demandant l'interdiction des robots tueurs, lettres évoquées dans l'introduction du présent rapport.