III. DEUXIÈME TABLE RONDE, PRÉSIDÉE PAR MME DOMINIQUE GILLOT, RAPPORTEURE : DIMENSIONS STRATÉGIQUES EN MATIÈRE DE RECHERCHE EN INTELLIGENCE ARTIFICIELLE

Mme Dominique Gillot, rapporteure . - J'invite en premier lieu Jean-Marc Merriaux, directeur général de Canopé, qui est la prolongation du Centre national de documentation pédagogique (CNDP). Après avoir effectué une carrière de quinze ans à France 5, Jean-Marc Merriaux est toujours très intéressé par les actions destinées à la communauté éducative et s'investit dans l'éducation populaire. Vous avez sept minutes pour dresser un portrait des enjeux éducatifs de l'intelligence artificielle.

1. M. Jean-Marc Merriaux, directeur général de Canopé

Merci pour cette invitation. Bien évidemment, je ne suis ni un spécialiste de l'intelligence artificielle ni un chercheur. Je suis plutôt ici à titre de médiateur faisant le lien entre tous les enjeux pédagogiques attachés aux évolutions technologiques. Canopé, opérateur du ministère de l'éducation nationale, est présent pour accompagner l'évolution des pratiques pédagogiques.

Enjeux de l'intelligence artificielle

Interrogé sur la prise en charge de l'intelligence artificielle par l'éducation, je me suis efforcé de bien positionner les thèmes du débat, à commencer par la problématique majeure de l'incommunicabilité entre les sciences, les technologies et la société.

L'éducation vise à repositionner l'humain au coeur de l'ensemble des dispositifs. L'humain peut-il changer grâce et par le numérique ? L'autre problématique a trait à la place de l'humain dans une société hyperconnectée : robots, transhumanisme, interactions avec les machines, ubérisation des économies... Nous nous situons également dans un rapport au temps entre la pédagogie et l'ensemble de ces questions technologiques. Malgré le fait que les sciences et technologies n'ont jamais autant accompli pour améliorer la vie de l'homme, l'ensemble de ces technologies nouvelles font peur, ce qu'il ne faut pas sous-estimer.

L'intelligence artificielle aujourd'hui, sait comprendre ce qu'on lui demande, s'exprimer correctement et répondre à des questions simples. Nous avons évoqué Siri et un certain nombre d'autres évolutions lors de la première table ronde. Néanmoins l'intelligence artificielle ne sait pas encore comprendre le sens du langage adapté au contexte. On sait que le sens du langage et de l'oralité sont intégrés de manière très forte dans le cadre pédagogique. Demain, l'intelligence artificielle pourra sans doute répondre à des enjeux pédagogiques et inventer son propre langage, expérimenter le monde pour comprendre le sens du langage. L'éducation est aujourd'hui notre seul atout pour réduire l'incommunication entre sciences, technologie et société. Les pédagogues, au premier chef, doivent en avoir pleinement conscience. De ce fait, se pose la question de la place des sciences et des technologies du numérique dans tous les apprentissages pour comprendre une société qui se complexifie.

Apports pédagogiques de l'intelligence artificielle

Sur les apports pédagogiques de l'intelligence artificielle, j'ai tenté de dresser un éclairage rapide. De nouvelles pratiques pédagogiques pourraient émerger en dépassant la relation émetteur-récepteur et en transformant l'évaluation. Il est vrai que les enjeux de l'intelligence artificielle nous conduisent à nous interroger sur l'évaluation et, entre autres, sur les moyens de prédire la réussite des élèves. Il nous faut pouvoir intégrer cette dimension. De plus, la répétition est avant tout un acte pédagogique, de sorte que l'intelligence artificielle repose beaucoup sur ces activités de répétition. Par ailleurs, la différenciation des apprentissages constitue un autre aspect essentiel de la pédagogie, la personnalisation devant être adaptée à la diversité des élèves. J'insisterai enfin sur un dernier point, tenant au continuum pédagogique entre le temps scolaire et le hors temps scolaire. La présence future, peut-être, de robots aussi bien à l'école qu'au sein de la maison, devra être accompagnée d'outils et d'interfaces pour assurer les usages au sein et en dehors de la classe. Sur ce point, l'intelligence artificielle peut sûrement apporter un certain nombre de réponses.

J'insisterai essentiellement sur la place et le rôle de l'enseignant du fait de l'ensemble des évolutions évoquées, ainsi que sur la nécessité de l'accompagner dès lors que les nouvelles technologies seront parties intégrantes de la classe. L'intelligence artificielle va transformer le geste professionnel de l'enseignant. De même, la médiation constituera un outil important pour répondre aux enjeux technologiques. Selon moi, les nouvelles technologies ne sont pas conçues pour être en compétition avec les enseignants. L'intelligence artificielle intervient surtout pour compléter le savoir-faire de l'enseignant, en le rendant plus accessible et mieux informé. La posture du médiateur constitue par conséquent un enjeu essentiel de la nouvelle relation à l'élève. La médiation représente un enjeu de réassurance pour l'éducation dans un monde en pleine mutation technologique. Elle renforce la place de l'humain et garantit également le collectif. Le médiateur est un tiers de confiance, ce qualificatif s'appliquant a fortiori à l'enseignant. La médiation favorise en outre une meilleure adéquation avec les besoins de chaque usager.

Enfin, j'évoquerai un exemple sur lequel je travaille dans le cadre du projet e-fran , qui liera aussi bien des pédagogues que des chercheurs et des start-uppers . Nous avons développé Matador, qui était à la base un jeu de plateau mais qui a été transformé dans un environnement numérique. Le projet repose sur un monitoring individuel d'apprentissage du calcul mental par chaque élève. Plus l'élève jouera en classe et à la maison et mieux l'enseignant connaîtra ses compétences acquises et non acquises. Nous travaillerons sur le parcours d'un élève qui sera mis en rapport avec tous les autres élèves de son niveau scolaire. L'interaction et l'horizontalité constituent par conséquent des éléments importants de ce type de projet. E-fran reposera sur mille cinq cents élèves pendant une année scolaire, avec l'objectif d'analyser plus de sept cent mille opérations chaque année. Selon les profils, des parcours de jeu spécifiques seront proposés à chaque élève. L'ensemble s'appuie sur des chercheurs, aussi bien statisticiens que didacticiens et cognitivistes. Nous travaillons dans cette dynamique en intégrant l'ensemble des questions développées à l'occasion de la première table ronde, même si nos enjeux ne sont pas aussi poussés que certains domaines de l'intelligence artificielle.

Je suis au regret de devoir m'éclipser pour prendre un train. Je peux répondre aux questions maintenant.

Mme Dominique Gillot, rapporteure . - Nous devons préalablement achever les exposés. Je passe donc la parole à François Taddéi, qui possède de multiples compétences mais est invité ce jour en sa qualité de directeur du CRI, donc praticien des rencontres des intelligences. Son intervention portera sur le travail qu'il a engagé concernant l'évolution des pratiques pédagogiques liée à l'évolution des technologies.

2. M. François Taddei, directeur du Centre de recherche interdisciplinaire (CRI)

Effectivement, la ministre de l'Éducation nationale m'a confié une mission ayant trait à la société apprenante. Il s'agit de déterminer comment nous apprenons tout au long de la vie, que ce soit dans la petite enfance, dans l'enseignement scolaire supérieur ou au cours de la vie professionnelle.

Aujourd'hui, l'intelligence artificielle et l'intelligence humaine co-évoluent. En ma qualité de biologiste de l'évolution, je constate que nous avons connu un certain nombre de grandes transitions évolutives avec l'apparition de la vie et même avec celle des cerveaux. La connexion de ces cerveaux entre eux délivre une série de messages coordonnés pour progressivement accomplir un nombre croissant de réalisations. Puis l'homme est apparu et a inventé d'autres manières, toujours plus élaborées, de communiquer. Le langage est bien entendu l'une d'entre elles, avant l'écriture, l'imprimerie et l'informatique. Il existe aujourd'hui une accélération de ces transitions qui comportent une certaine part de singularité technologique. Dès lors, nous avons besoin d'inviter des acteurs de tous horizons à réfléchir à cette pluralité de futurs, que l'on peut souhaiter ou non. Cette pluralité d'acteurs inclut les enfants, toujours très intéressés par les thématiques nouvelles. Lorsqu'on donne aux enfants la possibilité de s'interroger, nous constatons qu'ils peuvent aller très loin. Nous avons ainsi développé un programme dénommé « Les savanturiers », à l'occasion duquel des enfants se questionnent et travaillent avec des chercheurs. Assez spontanément, ils posent des questions telles que l'existence avant le big bang ou le devenir de l'humain. Les enfants sont fondamentalement attirés par les sujets ayant trait à l'intelligence artificielle et la robotique. Ils se demandent spontanément quelle sera leur place dans ce monde et s'ils co-évolueront avec les nouvelles formes d'intelligence.

L'intelligence collective est présente depuis longtemps dans le vivant, mais passe progressivement à un collectif d'hommes et de machines. Dans le monde des échecs, on parle d'IA-centaures, combinaisons d'hommes et de machines qui battent les hommes mais aussi les machines jouant seuls. Voilà ce qui marche le mieux.

Le besoin de questionnement éthique est en outre présent. Il nous interroge sur la place de l'homme. Les plateformes de recherche participative peuvent mobiliser l'intelligence collective au service de grands enjeux. François Houllier a ainsi rendu plusieurs rapports au terme de la mission sur les sciences participatives qui lui a été confiée. Les intelligences artificielles sont capables d'optimiser un jeu de données mais ne peuvent pas spontanément inventer un autre jeu ou se donner d'autres objectifs. L'école cherche à apprendre à mémoriser le passer, ce que l'intelligence artificielle sait faire, mais il faut aussi inventer. Cette capacité à se questionner est encore une spécificité humaine qu'il faut approfondir toujours plus. Nous devons travailler sur la complémentarité, coopérer pour questionner demain et co-construire ces solutions. Les grands défis planétaires nécessitent toujours plus d'intelligence. Il faut convaincre nos concitoyens que nous ne devons pas arrêter la course, mais plutôt réfléchir aux raisons pour lesquelles nous courons. Nous devons nous poser ces questions collectivement, en ne laissant pas l'évolution technologique s'affranchir des questions éthiques. Aristote disait déjà qu'il existe trois formes de connaissance : épistémè , la connaissance du monde (qui a donné l'épistémologie et la science), technè , l'action sur le monde (qui a entraîné l'apparition des technologies dont nous discutons aujourd'hui) et phronésis , l'éthique de l'action ou sagesse pratique. Nous avons donc besoin de réfléchir simultanément à la coévolution de ces sciences technologiques et de cette éthique individuelle et collective. La réflexion doit être de court et long termes, locale et globale. C'est pourquoi il est nécessaire de former les décideurs sur les grands enjeux. Par conséquent, je me félicite de cette mission parlementaire. La prise de conscience de ces enjeux doit faire l'objet d'un débat toujours plus large et évidemment international. Nous devons impliquer toujours plus d'acteurs dans la réflexion. Notre système éducatif et notre enseignement supérieur devront être pensés pour s'adapter au monde de demain. Les institutions d'intelligence humaine seront tenues de se réinventer à l'heure où les machines vont les concurrencer.

Mme Dominique Gillot, rapporteure . - La place et la transmission de la connaissance constituent évidemment des enjeux fondamentaux. Je vais passer la parole à Olivier Esper, responsable des affaires publiques de Google France. Vous allez nous présenter les activités de Google et de sa filière en matière de recherche en intelligence artificielle. Nous sommes évidemment tous très intéressés par ce qui se passe chez Google, notamment par l'appel à la sensibilisation à la responsabilité sociétale de cette grande société.

3. M. Olivier Esper, responsable des affaires publiques de Google France

Je vous remercie de m'avoir invité à vos travaux pour y apporter ma modeste contribution, n'étant moi-même pas un chercheur. Je sais que vous prévoyez également de vous déplacer à l'international, j'espère que vous aurez l'occasion de rencontrer Greg Corrado le directeur de la recherche de Google.

Mme Dominique Gillot, rapporteure . - Oui c'est bien prévu lors de notre déplacement aux États-Unis la semaine prochaine.

M. Olivier Esper. - Très bien. À l'été 2015, les fondateurs de Google ont créé une maison-mère nommée Alphabet pour permettre à différentes entreprises distinctes - et désormais autonomes par rapport à Google - de porter des projets intégrant de l'intelligence artificielle : Waymo pour la voiture autonome, Deep Mind pour le programme AlphaGo...

Pour sa part, Google concentre essentiellement ses recherches sur l'apprentissage automatique, le machine learning , pour concevoir des machines qui répondront intelligemment à des solutions et situations nouvelles. Ces machines sont entraînées avec des jeux de données. La recherche menée par Google correspond à un modèle ouvert, que des ingénieurs extérieurs à Google peuvent utiliser dans d'autres projets. Le constat posé par Google est celui du franchissement actuel d'un cap. De plus en plus d'usages, de traductions concrètes de la recherche existent aujourd'hui dans le monde réel, et sont la résultante de capacités de calcul augmentées, de sources d'informations très riches et de communautés larges de chercheurs et d'ingénieurs.

La plupart des services de Google intègrent de l'apprentissage machine, avec trois objectifs. Le premier d'entre eux est d'améliorer la performance des produits. Par exemple, Google Translate , appelé en France Google Traduction , reposait initialement sur une traduction mot à mot. En 2016, la nouvelle version de ce service intègre de l'apprentissage machine. Ce changement a abouti à une augmentation des performances inégalée au cours des 10 dernières années. Le second de ces objectifs est de proposer des nouvelles fonctionnalités. Par exemple GooglePhoto permet désormais aux utilisateurs d'effectuer des recherches dans leur bibliothèque sur des mots-clés sans avoir au préalable annoté ces photos. Le troisième objectif des chercheurs de Google est de se confronter à des problématiques à grande échelle. Par exemple, Gmail est maintenant capable de bloquer plus de 99,9 % du spam, y compris des variantes de messages jamais encore vus auparavant, grâce à l'utilisation de techniques de réseaux neuronaux.

En dépit des progrès réalisés, les champs de recherche sont encore nombreux. J'en citerai trois identifiés par nos ingénieurs, et qui feront écho à certains éléments que nous avons abordés précédemment. Le premier champ de recherche a trait à la compréhension des modèles. Il s'agit de développer des modèles auto-explicatifs susceptibles d'expliquer un résultat par rapport à une situation spécifique. En deuxième lieu, les ingénieurs Google travaillent sur l'apprentissage machine à partir de petits jeux de données. En la matière la qualité et le volume de ces données sont d'importance. Par exemple, pour reconnaître un chat sur une photo, nous avons besoin de millions de photos de chats pour entraîner les machines. Or la possibilité d'entraîner ces machines sur de plus petits jeux d'échantillons permettrait de mettre en oeuvre l'apprentissage automatique sur un plus grand nombre de domaines.

Enfin, le troisième champ de recherche concerne l'amélioration de la compréhension de sémantiques subtiles des modèles. Pour reprendre l'exemple des photos, le modèle est capable de repérer un chat mais ne sait pas encore dire si la photo est triste ou drôle. Une telle contextualisation de l'image n'est pas encore permise. De même, le système ne sait pas encore comprendre qu'une vache volant dans le ciel n'est pas une situation normale.

En parallèle de ces domaines de recherche de nature scientifique, des travaux sont également réalisés sur des enjeux sociétaux et éthiques. Comme d'autres technologies, l'apprentissage machine n'est pas bon ou mauvais en soi car tout dépend de l'usage qui en est fait. Afin de réfléchir aux enjeux sociétaux éthiques, nous sommes membres fondateurs de « Partnership on AI » 77 ( * ) avec Facebook et d'autres entreprises, afin de développer des bonnes pratiques et de maximiser les retombées positives des nouvelles technologies. Ici encore, je citerai trois domaines sur lesquels nous travaillons. En premier lieu sur les risques de sécurité que pourrait poser l'intelligence artificielle, nos chercheurs ont publié l'an dernier un papier en collaboration avec les universités de Stanford et de Berkeley 78 ( * ) .

Le deuxième exemple de recherches a trait au risque de partialité ou de discrimination si la machine est elle-même entraînée sur un jeu de données biaisé. Dans ce domaine encore, nos ingénieurs ont publié des travaux. Lors de la conférence NIPS à Barcelone, organisée en décembre dernier sur l'intelligence artificielle, deux de nos ingénieurs ont publié un papier pour cerner la problématique et proposer une approche de solutions 79 ( * ) .

En troisième lieu, l'impact économique de l'intelligence artificielle, c'est-à-dire sa traduction concrète sur les emplois présents et futurs, conduit à réfléchir aux métiers de demain et à ajuster l'éducation en conséquence. Dans ce domaine, les études sont loin de converger vers les mêmes chiffres, mais il importe d'ores et déjà de réfléchir à la formation.

En conclusion au-delà des exemples que j'ai mentionnés, l'objectif de Google est de rendre ses services plus performants et utiles dans la vie quotidienne des gens. L'intelligence artificielle permettra aussi de se confronter aux grands problèmes de notre société. Dans le domaine de la lutte contre le réchauffement climatique, Google a utilisé de l'apprentissage machine pour optimiser l'allocation de ressources de ses data centers . Cette mesure a permis une réduction de 40 % de la consommation d'énergie. L'entreprise s'est en effet fixé pour objectif de parvenir dès la fin 2017 à 100 % d'approvisionnement en énergie renouvelable, en particulier grâce à l'utilisation de l'intelligence artificielle. Ces avancées technologiques ont donc un potentiel positif.

Mme Dominique Gillot, rapporteure . - Delphine Reyre est directrice Europe des affaires publiques de Facebook, deuxième site web le plus visité au monde après Google. Facebook fait un usage croissant des technologies d'intelligence artificielle. J'ai rencontré à deux reprises Yann LeCun, directeur de la recherche en intelligence artificielle de Facebook, qui dirige la recherche mondiale de Facebook mais a installé un laboratoire de recherche en France.

4. Mme Delphine Reyre, directrice Europe des affaires publiques de Facebook

Merci beaucoup de votre invitation. Je souhaite juste apporter une petite note personnelle. Avant de rejoindre Facebook, j'ai travaillé pour un grand ministre de la recherche, Hubert Curien, qui entretenait des liens très étroits avec l'OPECST. Je suis donc présente parmi vous avec un plaisir particulier. Olivier a très bien décrit comment les grandes entreprises du numérique abordent les sujets de l'intelligence artificielle. Je ne serai par conséquent pas trop redondante, étant précisé que Yann LeCun sera disposé à répondre à toutes les autres questions par la suite. Je vous propose plutôt de vous apporter un éclairage particulier, car sous l'impulsion de Yann nous avons choisi d'établir notre laboratoire d'intelligence artificielle en grande partie à Paris. Je préciserai comment s'exerce le dialogue entre la recherche publique et la recherche privée sur ces domaines en évolution rapide.

Facebook a investi deux grands domaines d'intelligence artificielle. Un groupe travaille sur la recherche appliquée, en particulier sur des applications concrètes dont l'un des exemples-types concerne les capacités de reconnaissance visuelle. Ces applications permettent à des malvoyants ou des non-voyants d'utiliser Facebook et donc d'accéder au monde des réseaux sociaux. La machine doit par exemple permettre de lire ou de décrire à ces personnes l'image qu'ils reçoivent sur leur fil d'actualité. Le décloisonnement des usages des médias sociaux est ainsi opéré au bénéfice des personnes atteintes de handicaps. Dans son ensemble, le thème de l'accessibilité connaîtra un développement rapide.

Par ailleurs, je souhaitais évoquer plus précisément notre activité de recherche fondamentale, dénommée Facebook Artificial Intelligence Research (FAIR) , développée par trois laboratoires basés respectivement à Menlo Park dans la Silicon Valley, New York où enseigne Yann LeCun, et Paris. Le choix de Paris s'est bien entendu opéré sous l'impulsion de ce grand chercheur qui a bien voulu travailler avec Facebook, mais aussi parce que l'excellence de l'école mathématique française est mondialement reconnue. Inria, l'ENS, l'Université Pierre-et-Marie-Curie ainsi que d'autres universités sont véritablement des sources d'excellence, de sorte qu'il nous a paru important de pouvoir travailler avec leurs chercheurs sans nécessairement les faire partir aux États-Unis. D'ailleurs ces chercheurs ne souhaitaient pas véritablement s'expatrier. Ainsi, l'installation du laboratoire à Paris nous a permis de fixer les chercheurs en France, d'en faire revenir d'autres et même d'attirer des chercheurs étrangers. Sur vingt-cinq chercheurs accueillis à Paris, figure en effet une proportion importante de chercheurs étrangers. Telle est la preuve que la France peut être un centre d'excellence et une terre d'attraction pour l'intelligence artificielle.

Ainsi que je l'évoquais, nous travaillons avec la recherche publique et en partenariat étroit avec Inria. Je souhaite également apporter un éclairage sur un instrument très spécifique à la France, les Conventions industrielles de formation par la recherche (CIFRE), qui permettent une interaction formidable entre la recherche publique et la recherche privée. Les thésards et les doctorants accueillis en milieu de recherche privée, auront sans doute vocation à exercer dans la recherche publique. Facebook a également mis en place un programme de dons de moyens de calcul à des universités françaises et européennes, parmi lesquelles Inria, l'ENS et l'Université Pierre-et-Marie-Curie. Nous avons récemment annoncé un certain nombre de dons de ce type en France.

Lorsque nous maintenons des chercheurs en France, ils continuent à participer activement à la communauté scientifique française. Ces chercheurs enseignent et apportent leur contribution à des conférences. Yann LeCun a, à ce titre, ressenti comme un très grand honneur de donner des conférences au Collège de France, dans le cadre de sa chaire d'informatique.

Enfin, la quasi-totalité des travaux effectués par Facebook sont publiés en mode ouvert, de sorte qu'ils sont immédiatement saisissables par tous chercheurs. Il existe donc un véritable effet de démocratisation en intelligence artificielle grâce à ce mode ouvert. La recherche n'est pas réservée à de grands groupes privés et est mise à la disposition de tous.

En termes d'éthique, Facebook est partenaire avec Microsoft, Google, IBM et Amazon du Partnership on AI . Il est également important de souligner que nous travaillons quasi exclusivement sur des données publiques.

Mme Dominique Gillot, rapporteure . - Vous n'avez pas parlé du crédit d'impôt recherche (CIR).

Mme Delphine Reyre. - Notre objectif est de trouver avant tout des cerveaux. À cet égard le CIFRE nous satisfait davantage.

Mme Dominique Gillot, rapporteure . - Merci beaucoup pour votre exposé très précis. L'intervenant suivant est Laurent Massoulié. Votre expérience est également très intéressante puisque vous êtes directeur d'un centre de recherche commun à Inria et à Microsoft. Ce type de partenariat a vraisemblablement vocation à se développer.

5. M. Laurent Massoulié, directeur du Centre de recherche commun Inria-Microsoft

Je vous remercie de votre invitation. J'ai rejoint Inria il y a quatre ans pour diriger le laboratoire commun entre Microsoft Research et Inria. Je suis chercheur dans les réseaux et les systèmes distribués. Le laboratoire commun Microsoft Research-Inria est né il y a dix ans d'une ambition de collaboration étroite entre les directeurs de recherche de Microsoft et d'Inria. Le projet a été rendu possible car les chercheurs se connaissaient. Actuellement, le laboratoire héberge une quarantaine de chercheurs travaillant sur six projets, dont quatre sont liés à l'intelligence artificielle.

L'un de ces projets, ayant trait à la vision sur ordinateur et dirigé par Jean Ponce ici présent, traite de la compréhension automatique des vidéos. Un autre projet concerne l'imagerie médicale, avec l'objectif de parvenir à poser des diagnostics personnalisés et à aboutir à une meilleure prévention grâce à l'intelligence artificielle. Enfin nous avons des projets autour des fondamentaux des algorithmes pour l'apprentissage supervisé ou non supervisé, notamment dans le c loud , par exemple, la plateforme de cloud computing de Microsoft.

Force est de constater que les partenariats entre un institut tel qu'Inria et les laboratoires de recherche industrielle comme celui de Microsoft sont non seulement faisables, mais seront de plus en plus nombreux à l'avenir. En réalité, les chercheurs qui font avancer la science dans le privé et le public sont issus des mêmes formations, se connaissent et assistent aux mêmes conférences. Par conséquent, la frontière entre le privé et le public est de plus en plus perméable, et ce dans les deux sens. Dans la conduite de nos projets, nous avons formé de jeunes chercheurs qui, pour un certain nombre d'entre eux, ont été recrutés ensuite par Microsoft. Nous avons également connu des transferts dans l'autre direction. Pour ma part, je suis l'un des trois cas de chercheurs ayant quitté Microsoft pour rejoindre Inria.

L'objectif des partenariats public-privé vise en premier lieu à ce que le privé apporte ses problèmes à la recherche publique. Les chercheurs en vision tels que ceux de l'équipe de Jean Ponce, s'ils peuvent être au contact avec les équipes de Microsoft sur la réalité augmentée, seront ses contributeurs sur le sujet. Dans l'autre sens, il existe un engouement des grands groupes tels que Microsoft sur le fait de travailler avec les chercheurs d'Inria, dont l'excellence est reconnue et qui disposent d'une grande latitude pour s'engager sur des objectifs de long terme. Par exemple lorsque Microsoft décide de s'intéresser à l'imagerie médicale, les chercheurs d'Inria recrutés ont déjà des dialogues approfondis avec les centres hospitaliers universitaires (CHU) et sont en prise avec les vrais problèmes de l'imagerie médicale.

Je conclurai en affirmant que le partenariat public-privé est un excellent moyen de faire avancer la connaissance dans le privé et l'innovation dans le public. De plus l'attractivité des salaires dans le public restant moindre que dans le privé, ce genre de partenariats peut représenter une solution.

Mme Dominique Gillot, rapporteure . - Sans transition, je donne la parole à Dominique Cardon, professeur de sociologie à l'Institut d'Études Politiques de Paris et ancien de Médialab, spécialisé dans la sociologie de la recherche et des mondes numériques.

6. M. Dominique Cardon, professeur de sociologie à l'Institut d'Études Politiques de Paris/Médialab

L'intelligence artificielle est née trois fois, morte deux fois, et réapparaît aujourd'hui dans l'espace public. Elle a sans doute un problème de communication. Pour l'apprivoiser, nous aurions besoin de nous défaire de cette hypothèse d'estompement de la frontière entre l'humain et l'inhumain, et de cette obsession anthropomorphique. L'intelligence artificielle revêt plusieurs formes car les conceptions de l'intelligence sont différentes, il y a donc plusieurs types d'intelligence artificielle. J'observe une tentative des anciennes générations de prendre le train des nouvelles formes d'intelligence artificielle, comme le deep learning . Il est important pour la collectivité de chercheurs de ne pas faire de promesses inconsidérées dans cette représentation de la science autonome de la machine.

Par ailleurs, les nouvelles techniques étant massivement statistiques, la question des données est très centrale. Les enjeux posés à la société sont à la fois éthiques et concernent la complémentarité entre recherche publique et recherche privée. Il faut se demander à partir de quelles données les modèles sont aujourd'hui construits. Les données appartiennent en effet aux grandes entreprises privées, les GAFA en particulier (Google, Apple, Facebook, Amazon). On voit apparaître de nouvelles formes d'articulation entre recherche publique et recherche privée, sous l'impulsion des meetups en particulier, comme celui qu'organise Igor Carron

Comprendre, critiquer et apprivoiser sont les principaux enjeux. Le premier de ces enjeux, épistémologique, vise à comprendre le fonctionnement de l'intelligence artificielle et à éduquer la société aux nouveaux objets. Il faut en faire à la fois un enjeu scientifique et éducatif, ainsi qu'il l'a été rappelé. À ce titre, il est nécessaire d'étudier l'informatique, les mathématiques et les statistiques. Google possède une manière de classer l'information qui lui est propre, Facebook a également une pratique spécifique, elle aussi discutable. Il est par conséquent nécessaire de faire comprendre à nos sociétés les visions du monde qui sont derrière ces représentations pour savoir les critiquer. Les inquiétudes sur ces questions sont nombreuses. Il existe des biais.

La dynamique actuelle autour du Conseil national du Numérique et d'Inria correspond à un besoin de notre société de se saisir des enjeux des algorithmes, en dialogue avec les chercheurs, pour éventuellement vérifier les classements d'un certain nombre d'opérations ou le respect de principes de diversité. Il faut qu'il y ait des débats. Sur les monopoles, sur la fixation des prix, sur le respect du principe de diversité ou sur les bulles d'informations, il faut que la société soit partie prenante de ces discussions. Le concept de loyauté des algorithmes vise à mettre en place des techniques informatiques pour vérifier la manière dont les utilisateurs comprennent ce que fait l'algorithme pour eux. Les travaux de Benjamin Edelman à ce sujet méritent d'être cités.

Apprivoiser les différentes formes d'intelligence artificielle suppose de cesser de penser les intelligences artificielles comme des machines autonomes. C'est une image dont il faut se défaire car nous en sommes encore très loin en vérité. Il faut se désenvoûter de ces croyances pour mieux vivre avec ces nouvelles technologies.

Mme Dominique Gillot, rapporteure . - Merci d'avoir posé la question de la détention des données, qui suscite beaucoup de fantasmes, et de la capacité à les engranger. Le monopole pose question à notre société et à nos usagers. Nous terminons avec Gilles Babinet, dont le témoignage est précieux car il a été dès 2011, le premier président du Conseil National du Numérique et il est aujourd'hui Digital Champion auprès de la Commission européenne, il pourra profiter de son intervention pour nous parler de cette nouvelle mission.

7. M. Gilles Babinet, entrepreneur, digital champion auprès de la Commission européenne

Bonjour, et merci de votre invitation à participer à vos travaux. J'ai quelque peu restructuré mes propos au fur et à mesure des interventions de ce matin. Je ne possède aucune expertise poussée en intelligence artificielle, même si ce sujet me passionne en tant que néophyte. Pour autant, je souhaite le rapprocher des enjeux productifs et d'enseignement en général, aussi bien dans le primaire que dans le supérieur. Depuis une dizaine d'années, une résurgence de l'intelligence artificielle a été constatée, notamment sous l'impulsion de personnalités telles que Yann LeCun et d'autres encore. Les applications concrètes sont disponibles depuis peu. Des intelligences artificielles sont déjà partout, dans notre quotidien. Nous avons tous été confrontés à une intelligence artificielle via nos smartphones ou les feux rouges dans les villes. Cette intelligence artificielle faible, qui fait partie du quotidien de chacun de nous, devrait à ce titre être davantage enseignée et être davantage connue.

L'impact productif constitue une préoccupation majeure. Vous connaissez le grand débat actuel qui porte sur la baisse des gains de productivité au sein de l'OCDE. En France, il s'agit d'une priorité puisque nous sommes passés sous la barre des 1 % depuis deux ans. Or il est manifeste que les technologies d'intelligence artificielle sont capables d'appréhender des environnements d'incertitude élevée et de créer de la productivité dans bien des domaines : recherches documentaires, recherches juridiques et jurisprudentielles, transports de personnes... Je pense par exemple aux clercs de notaires ou aux conducteurs de véhicules. Il est par conséquent essentiel d'aider le plus largement possible à la diffusion de ces techniques, dans la mesure où des enjeux de compétitivité entre les nations s'expriment à cet égard. Il faut à la fois faire de la recherche fondamentale et de la recherche appliquée.

Il convient de mettre en place des modèles d'apprentissage et de diffusion de la science les plus pertinents possibles. Aussi bien en termes épistémologiques que d'enseignement, le numérique implique des nouvelles formes de transmission des savoirs.

Nous avons tout d'abord besoin d'interdisciplinarité. Je ne reviendrai pas sur les notions et les enjeux de pluridisciplinarité très largement évoqués précédemment, mais j'évoquerai une nouvelle fois la thématique des mondes ouverts.

Les mondes ouverts interviennent aujourd'hui dans une dynamique qui ne peut plus être ignorée, avec une efficacité bien supérieure au système de recherche verticale. Je suis très sensible au fait que nous disposions en France d'institutions telles que l'École Normale Supérieure (ENS) qui, en termes de ratios sur le nombre de prix Nobel, est en tête de tous les classements. Pour autant, il s'agit d'une école très élitiste donc limitée en nombre d'élèves. Nous pouvons saluer les travaux essentiels réalisés au sein de l'ENS dans le domaine de l'intelligence artificielle, mais ces travaux ne me semblent pas rendre compte des dynamiques du monde à venir. La plateforme d' open source GitHub , qui réunit à elle seule plus de seize millions de codeurs, produit trente-sept millions de projets informatiques, dont entre quarante et soixante mille projets dans le domaine de l'intelligence artificielle équivalant à plus de cent cinquante milliards de lignes de code. Or il n'y a aucune réflexion stratégique de l'enseignement supérieur et de la recherche pour massifier les dynamiques rencontrées sur ces plateformes et bâtir des ponts avec ces systèmes de science ouverte. Il faudrait systématiser au sein des institutions de recherche françaises et de l'enseignement supérieur des modèles reposant sur des systèmes d' open source .

Pour ma part, je suis proche de La Paillasse , laboratoire de sciences ouvertes dans le domaine du vivant, que j'accompagne de jour en jour pour l'aider à subsister. Les subventions dont il bénéficie sont assez limitées. En réalité, je constate qu'il existe une incompréhension absolument totale des institutions en charge des enjeux de recherche, dans un monde où la recherche devient de plus en plus futuriste alors que précédemment elle était incrémentale. En effet, la recherche du XX e siècle s'effectuait en blouse blanche, pour inventer par exemple le moteur à explosion qui a sans cesse été amélioré par la suite. Puis est apparue au XXI e siècle la personne ayant recueilli le plus de critiques positives dans toute l'histoire de l'automobile pour son véhicule Tesla, alors que sa société n'a que dix ans. Il ne faut pas se leurrer : les techniques de l'innovation mises en oeuvre au sein de Tesla s'inspirent du monde du numérique, de l' open source, de la pluridisciplinarité et également de contributions externes.

Ces modes de fonctionnement sont très incompris d'éminentes personnalités qui dirigent les unités de recherche ou les universités les plus prestigieuses en France. Il s'agit d'une interpellation de ma part, car je crois important de s'intéresser à ces domaines. En effet, même si l'expertise mathématique continuera d'être essentiellement académique, une relation étroite entre algorithmie et code est mise en oeuvre pour faire fonctionner les intelligences artificielles. Autant je peux comprendre que l'algorithmie nécessite des chaires académiques et des laboratoires de recherche, autant la partie code est davantage profane. Tout le monde peut contribuer à innover dans le domaine du code.

En outre, il m'apparaît indispensable de nous intéresser à ces systèmes d'innovation ouverte - et je tiens ces propos avec ma casquette européenne - dans la mesure où le niveau d'investissement de la Chine et des États-Unis dans le domaine de l'intelligence artificielle est devenu considérable. La Chine serait même passée devant les États-Unis, avec la recherche conduite par Baidu qui représenterait à elle seule le tiers du total des dépenses de recherche en intelligence artificielle des États-Unis. De ce fait, nous ne pourrons plus entrer en compétition sur la quantité, mais sur le modèle de science que nous mettrons en oeuvre, ce sur quoi nous devons concentrer nos efforts. Or selon un rapport de 2016 de l'OCDE, la France est le pays dans lequel la collaboration entre l'entreprise et l'université est la plus faible. Certes nous pouvons, comme la représentante de Facebook l'a fait, nous féliciter de l'existence des CIFRE et du CIR, mais la transdisciplinarité doit également être encouragée.

J'achèverai mon propos sur la nécessité de créer des ponts entre le public et le privé et entre le primaire, le secondaire, le supérieur et la recherche. Je ne crois pas au futur de la recherche académique au sens strict, car les contributions extérieures seront essentielles à la réussite. Une personne autodidacte ayant appris à coder depuis l'école primaire pourra fournir des apports conséquents dans ce domaine. Il faut une prise de conscience politique sur ce point sous peine d'être relégué à un rang secondaire.

Mme Dominique Gillot, rapporteure . - Vous rejoignez les premiers intervenants sur le rôle de l'éducation et la formation des esprits à une plus grande agilité pour permettre éventuellement les formations autodidactes. Vous avez, les uns et les autres, apporté des informations qui vont susciter le débat.

8. Débat

M. Igor Carron, entrepreneur, fondateur du Paris Machine Learning meetup . - J'ai entendu les représentants d'Inria ainsi que les intervenants de Google et Facebook, nous tenir des propos très intéressants. En revanche une chose n'a pas été dite. Scikit-Learn , bibliothèque logicielle libre dédiée à l'apprentissage automatique, est un outil de création française, utilisé par environ deux cent mille personnes, des ingénieurs du monde entier. Cet outil, utilisant l' open source et en partie financée par Inria, n'a pas été mentionné. Lui, tout comme un certain nombre d'autres utilisés par nos start-up et notre tissu économique, sont absents des discussions. Je parle à la représentation nationale sur ce point. Scikit-Learn est réalisé en grande majorité en France, et est utilisé par une importante communauté à l'heure actuelle. D'ailleurs cet outil pourrait être accessible à des élèves dès la seconde. Il me semblait par conséquent important de rappeler ici que des projets existent, qu'ils sont sous les radars, y compris de personnes qui parlent d'intelligence artificielle avec autorité, et qu'ils éprouvent de grandes difficultés à survivre.

Mme Dominique Gillot, rapporteure . - Le cas de Scikit-Learn me rappelle celui d' OpenClassrooms , qui lui aussi est invisible.

M. Igor Carron, entrepreneur, fondateur du Paris Machine Learning meetup . - Oui, mais le modèle d' OpenClassrooms se rapproche plus de celui des MOOC ( massive open online courses ou formation en ligne ouverte à tous).

M. Bertrand Braunschweig, directeur du Centre Inria de Saclay. - Merci à Igor Carron d'évoquer Scikit-Learn , dont une partie est développée à Inria de Saclay. La communauté est bien consciente de son importance et se montre soucieuse de son maintien. Je voulais vous rassurer sur le fait que Scikit-Learn est plutôt en bonne santé aujourd'hui.

M. Pavlos Moraitis, directeur du laboratoire d'informatique de l'Université Paris-Descartes. - Les financements public-privé nécessitent un meilleur développement en France. Les recherches universitaires doivent davantage bénéficier de financements par les grandes entreprises. À titre d'exemple, l'un de mes collègues d'Harvard m'a récemment raconté qu'il lui était tout à fait possible d'appeler un représentant de Google au téléphone, pour obtenir dès le lendemain un financement sur un projet.

M. Olivier Esper, responsable des affaires publiques de Google France. - Je tiens à signaler que nous offrons des dispositifs similaires en Europe.

M. Olivier Guillaume, Président d'O² Quant. - Nous constatons que l'intelligence artificielle est uniquement un outil d'aide à la productivité en participant à l'augmentation cognitive de l'homme. En France, nous avons les meilleurs cerveaux en recherche. Comment pourrait-on favoriser l'émergence de l'intelligence artificielle dans l'innovation française et européenne et permettre l'amélioration de nos sociétés ?

M. Jean-Daniel Kant, maître de conférences à l'Université Pierre-et-Marie-Curie Paris-VI. - J'ai trouvé l'analyse de Dominique Cardon passionnante et je voudrais conseiller de regarder l'excellente mais très déprimante série Black Mirror , qui met en scène des projections très réalistes sur une intelligence artificielle mal gérée. Mon objectif n'est pas de produire des intelligences artificielles autonomes, mais je tiens à souligner que ces intelligences existent déjà de fait.

M. Jean Ponce, professeur et directeur du département d'informatique de l'École normale supérieure (ENS). - Pas vraiment...

M. Jean-Daniel Kant, maître de conférences à l'Université Pierre-et-Marie-Curie Paris-VI. - Les Google Cars en font partie. Il y a aussi le cas de conseils d'administration où siègent des intelligences artificielles. Je n'ose pas imaginer les projets de recherche et de défense que nous ne connaissons pas, et dans lesquels l'intelligence artificielle autonome est également présente. Certes, il ne s'agit pas de la meilleure façon de répondre positivement aux peurs, mais je pense qu'il y a un certain nombre de gens qui souhaitent, pour une série de raisons, développer l'intelligence artificielle autonome. Il ne faut, par conséquent, pas en nier l'existence.

M. Patrick Albert, PDG de SuccessionWeb . - J'ai une question qui me semble fondamentale à l'intention des parlementaires ici présents. Quels sont les objectifs que nous pouvons nous donner en tant que pays ? Alors que le titre de la session est « dimensions stratégiques en matière d'intelligence artificielle » , nous voyons que trois intervenants représentent des multinationales basées aux États-Unis. Certes nous pouvons nous réjouir qu'ils viennent en France travailler avec nous, mais il est tout de même inquiétant que ce soient eux qui nous conseillent, surtout à l'heure où il s'agit de rendre à nouveau grande l'Amérique. Les brevets déposés sont largement américains. Je pense par conséquent que nous devons travailler à définir nos objectifs nationaux.

Mme Dominique Gillot, rapporteure . - Merci pour cette question qui resitue le sujet en son coeur.

M. Yves Demazeau, président de l'association française pour l'intelligence artificielle (AFIA). - Je souhaite signaler que nous organiserons lundi prochain avec le MEDEF une journée « Intelligence artificielle et entreprises de France » , au cours de laquelle seront présents des groupes tels que Renault, Veolia ou Dassault pour évoquer l'impact de l'intelligence artificielle sur leurs activités.

M. Jean-Claude Heudin, directeur de l'Institut de l'Internet et du Multimédia. - Nous disposons aujourd'hui d'outils de financement de la recherche mais je tiens à insister sur la complexité des dossiers, qui représente un vrai frein à la compétitivité. On passe plus de temps à monter les dossiers et dans les contrôles que dans le travail de recherche lui-même. Aujourd'hui les start-up ne peuvent pas se permettre de dépenser autant d'énergie à travailler sur les dossiers. Le financement obtenu avec des mois de retard représente un véritable problème.

Mme Dominique Gillot, rapporteure . - Ces travers ont été largement commentés mais on assiste à une simplification des procédures, le futur livre blanc de l'enseignement supérieur et de la recherche l'illustrera.

Mme Amal Taleb, vice-présidente du Conseil National du Numérique. - Je travaille pour SAP et je suis membre du Conseil National du Numérique. Je souhaite partager une question sous forme de constat avec vous, sur laquelle nous devrions réfléchir collectivement. L'intelligence artificielle doit investir le tissu industriel classique. La France a la chance de posséder un beau tissu industriel. L'Allemagne a récemment fait le même constat lors de la conférence franco-allemande. Pour autant, la représentation nationale ne pourra faire l'économie de la manière dont l'intelligence artificielle va intervenir directement sur les process de production B to B me semble-t-il, en mettant les entreprises, les grandes comme les petites, dans la discussion. Il faut de l'intelligence collective et garder à l'esprit le fait que nous sommes engagés dans une industrie du futur, dans laquelle l'intelligence artificielle devra être prise en compte de façon importante. Certes nous avons la culture B to C de l'usage, des consommateurs et des usagers, mais il faudra de manière beaucoup plus globale introduire en mode pull l'intelligence artificielle comme un moyen de gagner des parts de marché.

Mme Dominique Gillot, rapporteure . - Différentes stratégies ont été mises au point par des comités qui ont réfléchi longuement aux points que vous évoquez. Sur la stratégie nationale de la recherche, les mesures prises il y a un an sont déjà rediscutées eu égard à la rapidité avec laquelle les sujets et les questions prégnantes émergent. Effectivement, nous devrons mener un débat entre les représentants de la recherche fondamentale académique et cette poussée très forte des jeunes start-uppers , qui réinvestissent des connaissances acquises il y a parfois longtemps et mises à jour de manière autodidacte. De jeunes diplômés tentent également l'expérience de la start-up sans choisir la recherche fondamentale. Nous ne pouvons pas non plus exiger que les choses s'effectuent de manière instantanée. L'ensemble de vos remarques sont essentielles et seront consignées dans notre rapport. Un bouleversement devra manifestement être opéré dans notre société sur la transformation de la connaissance en innovation, tout en n'omettant pas de tenir compte des impératifs de la décision politique, qui doit être prudente. Nous sommes en France.

Mme Amal Taleb, vice-présidente du Conseil National du Numérique. - Effectivement vous avez parfaitement raison, il nous faut résoudre ce hiatus. L'un des moyens est d'investir le tissu industriel beaucoup plus classique. Il se trouve que nous avons beaucoup de chance, puisque que nous avons des logiques et des réflexions similaires à celles de l'Allemagne. De manière différente, ce pays intègre les entreprises dans son tissu. Il nous faut impérativement inclure les grands groupes, les PME plus classiques et les start-up afin de créer cet écosystème qui permettra de développer l'intelligence artificielle et sans doute, de faire jouer les intelligences collectives. Ces associations pourraient également nous permettre de dépasser les blocages financiers.

M. Gilles Dowek, directeur de recherche Inria et professeur attaché à l'ENS de Paris-Saclay. - La difficulté à trouver des financements ne vaut pas seulement pour le secteur privé, mais également pour des organismes publics tels que le CEA.

M. Jean Ponce, professeur et directeur du département d'informatique de l'École normale supérieure (ENS). - Nous n'avons pas, à l'ENS ou à Inria, de réelles difficultés à trouver des financements de la part d'industriels car nous en rencontrons chaque semaine. Nous sommes privilégiés à ce niveau. Les réseaux de chercheurs (RC) sont aussi un bel outil à cet égard. En revanche, j'explique à ces partenaires que nous sommes une petite équipe en recherche fondamentale, qui ne dispose pas du temps et des compétences nécessaires au travail d'encadrement. Le statut de chercheur n'est pas fait pour cela, et pour ma part je n'aurais pas le temps d'encadrer un trop grand nombre de post-doctorants, de l'ordre de la dizaine par exemple.

Mme Dominique Gillot, rapporteure . - Nous avons évoqué le plan de carrière d'un chercheur et les différentes étapes à passer, qui nécessitent des allers-retours. Votre questionnement a été abordé à travers la stratégie nationale de l'enseignement supérieur : comment valoriser les parcours itératifs d'un chercheur dans le privé, le public, la recherche et la formation ? Aujourd'hui nous n'avons pas les bons outils.

M. Jean Ponce, professeur et directeur du département d'informatique de l'École normale supérieure (ENS). - Aux États-Unis, des collaborateurs ont pour mission de travailler avec les industriels et de faire le pont avec les chercheurs.

M. Fabien Moutarde, professeur au centre de robotique de Mines ParisTech. - Il faut faire évoluer les statuts des chercheurs pour permettre davantage d'allers-retours entre la recherche privée et la recherche publique. J'ai commencé ma carrière chez Alcatel, mais j'ai eu du mal à revenir dans le public.

Sur la partie stratégique, mon sentiment est qu'il est nécessaire de pousser au maximum, par des plans de financement de projets de recherche, la robotisation et l'automatisation de tout ce qui peut l'être. Il s'agit en effet d'un enjeu économique et stratégique pour la France et pour l'Europe. Or une censure a existé sur le sujet par crainte du chômage. Pourtant, l'absence d'automatisation aboutira malgré tout à la perte des emplois que l'on souhaite protéger. Des complémentarités saines peuvent être trouvées entre la robotique et l'humain, pour confier aux hommes les tâches ayant davantage de valeur ajoutée. On peut aussi aller vers un revenu citoyen et conduire à des relocalisations.

Mme Dominique Gillot, rapporteure . - Les sciences dures et les sciences sociales doivent davantage travailler ensemble. Il semble en effet souhaitable de supprimer les tâches répétitives et difficiles, pouvant entraîner à la longue un handicap. Il est vrai que dans le débat actuel de la société, cette dimension du bénéfice pour les personnes dont les métiers vont être supprimés n'est jamais abordée. C'est pourquoi le sujet de l'éducation est essentiel.

M. Igor Carron, Paris Machine Learning Meetup . - En France nous avons un problème avec les données. Alors que certains organismes parviennent à accumuler un grand nombre de données, ils sont immédiatement confrontés aux limites de leur utilisation. Au ministère de l'Éducation, il ne semble pas que des recherches soient menées sur le développement et l'éducation afin d'aboutir à une meilleure efficacité, aucun centre ne collecte les données pour améliorer les politiques éducatives à ma connaissance. Facebook et Google n'étaient que des start-up il y a encore dix-quinze ans, mais se sont développées grâce à l'intelligence artificielle. Pour ma part, j'estime hautement souhaitable que les données de l'Éducation Nationale puissent être utilisées par les chercheurs afin de faire progresser la science de l'éducation. Il nous manque un centre d'expertise à ce sujet.

Mme Laurence Devillers, professeur à l'Université Paris-Sorbonne/LMSI-CNRS. - Je souhaite intervenir sur la problématique de l'éthique, au sujet de laquelle les intervenants de Facebook et Google ont mentionné qu'une réflexion était en cours au sein d'un partenariat entre entreprises. Existe-t-il des moyens de mener cette réflexion en collaboration avec les chercheurs ? Comment allez-vous vous ouvrir alors qu'on constate une certaine opacité ? Les impacts d'une telle réflexion porteront notamment sur l'éducation et la protection des données.

M. François Taddei, directeur du Centre de recherche interdisciplinaire. - Aujourd'hui, les traces numériques des apprenants ne sont pas disponibles pour faire progresser l'ensemble du système. Pourtant, ces données pourraient être un miroir pour l'enseignant, le chef d'établissement et les parents. Si nous pouvions passer des data à l'information, nous progresserions grandement. T. S. Eliot se demandait où est passée la sagesse que nous avons perdue dans la connaissance et où est passée la connaissance que nous avons perdue dans l'information... Nous avons besoin de créer des centres de recherche pour avancer sur ces sujets. La CNIL et Inria dialoguent à ce sujet. Il faut mettre en place des plateformes sécurisées en termes de vie privée, mais avec une vraie valeur collective. Le big data pourrait par exemple proposer des solutions pour résoudre les difficultés d'apprentissage. Inria s'est beaucoup rapprochée de l'INSERM pour travailler dans le domaine de la recherche en éducation, mais nous ne disposons d'aucune possibilité d'analyser les data . Nous savons qu'on consacre 2,24 % de la richesse nationale à la R&D mais nous ne savons pas combien nous consacrons à l'éducation.

Mme Dominique Gillot, rapporteure . - Vous soulevez de vraies questions. La recherche en éducation doit se faire à l'université.

M. François Taddei, directeur du Centre de recherche interdisciplinaire. - Cependant, la capacité des enseignants sur l'intelligence artificielle et le numérique est très limitée.

Mme Dominique Gillot, rapporteure . - Elle est très réduite, en effet. Il faut agir sur les structures de formation des enseignants, en particulier les écoles supérieures du professorat et de l'éducation (ESPE), qui ont remplacé les instituts universitaires de formation des maîtres (IUFM). La définition des maquettes est rigidifiée par les anciennes pratiques. J'ai assisté à un débat absolument incroyable au cours duquel on expliquait qu'un poste réservé à un mathématicien ne pouvait pas être transformé en un poste d'enseignant en informatique. Les carrières sont, à l'évidence, beaucoup trop rigides. À l'Université de Cergy-Pontoise, une recherche est en cours sur l'utilisation des outils de l'intelligence artificielle pour observer comment les enfants fixent leur attention. La difficulté actuelle tient à la résistance des parents à ce que leurs enfants soient l'objet de telles expériences, car l'anonymisation n'est pas au rendez-vous. Il faut donc obtenir une réassurance en la matière.

M. François Taddei, directeur du Centre de recherche interdisciplinaire. - Il faut s'assurer que les progrès bénéficieront à chacun des acteurs, y compris aux premiers intéressés. Si les parents ont l'impression que les progrès bénéficient à certains seulement, nous n'y arriverons pas.

M. Gilles Dowek, directeur de recherche Inria et professeur attaché à l'ENS de Paris-Saclay. - Aujourd'hui, le ministère de l'Éducation nationale ne comprend rien aux enjeux qu'il y a à former les jeunes sur l'informatique et l'intelligence artificielle. Je donnerai un exemple sur ce point. Il est coutume de dire que pour enseigner un sujet, quatre éléments sont nécessaires : un élève, un enseignant, du temps à consacrer à cette activité, et un programme. Aujourd'hui, le Conseil supérieur des programmes a fait un bon travail pour élaborer des contenus à enseigner en informatique au collège, mais il manque des enseignants. Or le ministère de l'Éducation nationale ne comprend pas la nécessité d'avoir des enseignants en informatique. Le raisonnement au sein de ce ministère est d'affirmer que l'informatique étant une discipline relativement facile, les jeunes possèdent la matière dans leur ADN. De ce fait, tant que nous resterons arc-boutés sur ce type de conceptions, nous ne pourrons pas avoir un public informé de ce que les algorithmes sont censés faire.

M. Jean-Gabriel Ganascia, professeur à l'Université Pierre-et- Marie-Curie-Paris VI. - Dans tous les métiers, le numérique est central. Il faut par conséquent lancer des formations mixtes, car c'est nécessaire pour le secondaire comme pour le supérieur. Pour notre part, nous avons élaboré une formation lettres-informatique, car il faut nous préparer à de nouveaux métiers. Nous avons parlé du travail et des risques que la robotisation faisait courir à certains métiers, mais il est possible de compenser les pertes d'emplois par de nouveaux métiers. Pour préparer les personnes à ces métiers, la formation est tout à fait essentielle. À cela, il faut ajouter que la formation dont il s'agit n'est pas nécessairement initiale. La formation tout au long de la vie doit être développée, en transformant les institutions supérieures et les écoles pour parvenir à ce résultat. Il faut également revenir sur le travail, pour lequel la comptabilisation en « temps passé à l'établi » n'a plus aucun sens. Le temps de présence au bureau c'est obsolète. Il est indispensable d'ajouter le temps de formation au temps de travail, étant observé que l'idée de trente-cinq heures passées au travail est tout à fait désuète. Je pense que nous aurons du mal à faire passer ces idées.

Pour rejoindre les propos de Gilles Dowek sur l'administration de l'Éducation nationale, je confirme que le ministère a du mal à opérer ces transformations. J'avais moi-même un projet de sciences participatives des enseignants dans les domaines littéraires, mais ce projet a été mis sur la touche faute de pouvoir être mis en contact direct avec des enseignants par un directeur académique au numérique, qui était aussi peu compétent qu'indisponible.

Enfin, sur les questions d'éthique et d'intelligence artificielle, nous organiserons avec l'AFIA le 5 juillet 2017 une journée qui leur est consacrée.

Mme Dominique Gillot, rapporteure . - Juste un petit rappel sur le compte personnel d'activité (CPA), preuve que les parlementaires ont malgré tout fait avancer les choses en matière de formation. Le CPA a été mis en place au 1 er janvier 2017 pour associer formation et travail. Nous voulons également confier à l'université la formation tout au long de la vie. La loi doit être appliquée, mais elle met du temps pour ce faire.

M. Gilles Babinet, entrepreneur, digital champion auprès de la Commission européenne. - Nous avons des approches très holistiques, comme en témoignent les exemples de nos réflexions sur l'éthique ou sur l'éducation. Cela nous ramène à l'un des problèmes dont souffre notre pays, qui est celui de la parole politique, handicapée par l'incapacité du corps politique à se projeter dans un futur humaniste, et qui respecte nos valeurs. Il faut tracer ce futur. Trop souvent, les débats tiennent à des enjeux du XX e siècle. Or, la révolution digitale ne peut plus nous faire penser que nos sociétés fonctionneront comme au siècle dernier.

Mme Dominique Gillot, rapporteure . - L'OPECST a été créé dans ce but entre autres. Je voudrais que Google réponde aux questions qui ont été posées concernant le partenariat sur l'intelligence artificielle. Pourra-t-on faire des choses ensemble ?

M. Olivier Esper, responsable des affaires publiques de Google France. - Je réponds positivement à la question de Laurence Devillers. Les uns et les autres, avons bien souligné nos modèles ouverts de recherche, qui ont évolué dans ce sens dans la période récente. Le partenariat sur l'intelligence artificielle a bien évidemment pour objet de regrouper la diversité. Son conseil d'administration n'est pas encore finalisé mais des Européens dont Yann LeCun, français, en font déjà partie. L'idée est de mettre en oeuvre une réflexion collective.

Mme Dominique Gillot, rapporteure . - L'ouverture est une bonne chose mais il s'agit également de travailler avec des partenaires non liés à vous par contrat.

M. Olivier Esper, responsable des affaires publiques de Google France. - Sur le site du partenariat sur l'intelligence artificielle figure déjà la possibilité de manifester son intérêt à participer à la réflexion.

Mme Delphine Reyre, directrice Europe des affaires publiques de Facebook. - Nous nous engageons auprès de vous à faire part de l'intérêt fort exprimé à être parties à la réflexion. Nous pourrons ensuite imaginer les formes de cette discussion.

Mme Laurence Devillers, professeur à l'Université Paris-Sorbonne/LMSI-CNRS. - Je réfléchis avec plusieurs collègues sur la robotique et l'éthique dans le cadre de la CERNA. Nous avons donc des sujets de réflexion qui pourraient intéresser les grands groupes. Nous vous transmettrons nos rapports, mais nous pourrions également imaginer autre chose dans une démarche participative avec d'autres groupes industriels. La réflexion sur l'intelligence artificielle doit être menée de manière collégiale en y intégrant les dimensions éthiques. Je suis impliquée dans la société savante IEEE, qui réunit des centaines de chercheurs du monde entier pour travailler sur des standards à mettre en place ensemble. Il est essentiel de ne pas opérer de façon isolée sur des sujets tels que ceux-ci, qui concernent notre futur. C'est pourquoi nos gouvernements devraient s'emparer de cette question.


* 77 https://www.partnershiponai.org

* 78 https://research.googleblog.com/2016/06/bringing-precision-to-ai-safety.html

* 79 Https://research.googleblog.com/2016/10/equality-of-opportunity-in-machine.html

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page