Mercredi 13 décembre 2023
- Présidence de Mme Christine Lavarde, présidente -
La réunion est ouverte à 13 h 40.
Communication sur les travaux de la délégation
Mme Christine Lavarde, présidente. - Je vais commencer par faire quelques annonces sur les prochains travaux de la délégation à la prospective. Tout d'abord je voudrais vous remercier, car plus des deux tiers des membres de la délégation ont répondu au questionnaire sur les thèmes de l'année et une dizaine d'entre vous nous ont indiqué leur souhait d'être rapporteur. Cela va nous permettre de publier dès aujourd'hui un communiqué de presse pour annoncer que la délégation va consacrer cette année au sujet de l'intelligence artificielle (IA) et les services publics.
Nous annoncerons les deux premiers binômes : Sylvie Vermeillet et Didier Rambaud qui travailleront sur l'intelligence artificielle, le système fiscal et la protection sociale. Le titre pourra bien sûr évoluer ; il appartiendra aux rapporteurs de déterminer s'ils se pencheront, par exemple, sur l'amélioration du recouvrement ou sur une meilleure accessibilité aux dispositifs. Un deuxième binôme, composé d'Anne Ventalon et de Christian Redon-Sarrazy, travaillera sur l'IA et le système de santé. Étant donné ce que j'ai entendu la semaine dernière sur les possibilités offertes par l'intelligence artificielle dans le diagnostic d'un cancer - des années en amont, en fonction de nombreux facteurs de risque -, cela est à la fois effrayant et porteur de beaucoup d'espoir.
Nous poursuivrons au cours du printemps sur l'IA et l'éducation. Bernard Fialaire est volontaire ; si quelqu'un souhaite se joindre à lui, l'invitation est lancée. Un autre binôme, constitué de Nadège Havet et de Jean-Baptiste Blanc, travaillera sur l'IA et l'environnement - je me joindrai à vous, car c'est un sujet qui m'intéresse également. Enfin, je suggère un autre thème : IA, territoires et proximité. Il s'agit de toute la réflexion sur les changements que l'IA entraînera dans les services publics locaux, ceux du quotidien. Amel Gacquerre vient de se proposer, un appel est lancé aux membres de la délégation qui voudraient se joindre à elle.
Ce dernier thème pourrait être traité en partenariat avec la délégation aux collectivités territoriales, puisque j'ai échangé sur ce sujet avec Françoise Gatel, qui est très partante pour mener ce travail entre nos deux délégations. Je vous rappelle que nous avons déjà un partenariat acté avec la délégation aux droits des femmes pour le 7 mars prochain, où nous organiserons un événement commun autour de l'intelligence artificielle et des femmes.
Sur la thématique que nous aborderons ensuite, la notion de valeur à l'horizon 2050, nous avons déjà des candidats pour parler de la valeur économique. Nous verrons dans quelques mois pour les autres sous-thèmes : la valeur sociale, la valeur de la démocratie et la valeur de l'autorité.
Pour vos agendas, nous nous retrouverons le jeudi 1er février pour notre atelier de prospective avec Futuribles, RTE et la Red Team du ministère des armées. Cet atelier aura lieu un jeudi matin. Le sondage a été sans appel : seize membres sur vingt souhaitent que nous nous réunissions le mardi soir. Nous en avons bien pris note. Lorsque les réunions se tiendront avec d'autres délégations, elles auront lieu le jeudi matin, leur créneau habituel. Dans toute la mesure du possible, nous fixerons nos propres réunions le mardi soir.
Audition de Gilles Babinet, co-président du Conseil national du numérique
Bienvenue M. Babinet. Ce n'est pas votre première venue devant nous ; vous avez notamment déjà contribué à un rapport que j'avais coécrit avec Véronique Guillotin et René-Paul Savary sur le numérique et la gestion de crise. Ce rapport nous avait conduits à vous interroger sur le plus difficile, lorsque l'on traite du numérique, c'est-à-dire l'acceptation de ces outils et de leurs usages par les citoyens. C'est un point qui, dans notre thème « IA et services publics », devra forcément être questionné. En effet, nous pouvons avoir de nombreuses bonnes idées, mais si elles ne sont pas acceptées par les citoyens, si nous n'arrivons pas à démystifier l'idée que le numérique serait une entrave à la liberté, nous aurons fait tout cela pour rien.
Nous avons choisi de vous inviter à nouveau car vous êtes un expert de ces questions, en tant que co-président du Conseil national du numérique depuis 2021. Vous vous intéressez au numérique, mais aussi désormais à l'intelligence artificielle. Vous avez notamment coécrit, en 2020, l'ouvrage « Refondre les politiques publiques avec le numérique ».
Nous vous auditionnons peut-être un peu trop tôt, puisque le comité de l'intelligence artificielle générative, mis en place par la Première ministre en septembre, n'a pas encore rendu ses conclusions. Sans doute ne pourrez-vous donc pas nous les dévoiler, mais peut-être pouvez-vous nous en donner les idées directrices.
Vous avez une connaissance de l'histoire du numérique, comme en témoigne votre dernier livre Comment les hippies, Dieu et la science ont inventé Internet. Ce titre suscite des interrogations. Je prolongerai donc la question : comment, d'internet, est-on passé à l'intelligence artificielle et à ChatGPT ?
Enfin, comme nous ne sommes pas tous familiers des différentes catégories d'intelligence artificielle, pourriez-vous, dans le cours de votre propos, nous expliquer la différence entre l'apprentissage automatique - le machine learning -, l'intelligence artificielle générative et les grands modèles de langage - les LLM ? Nous sortirions beaucoup plus érudits de cette audition.
M. Gilles Babinet, co-président du Conseil national du numérique (CNNum). - Pour situer mon propos, j'indique que je suis avant tout un entrepreneur. J'ai monté des entreprises pendant trente ans dans le domaine du numérique. Il y a une dizaine d'années, j'ai décidé de faire un pas de côté pour m'intéresser aux enjeux du numérique et à son rapport avec la société. Je l'ai fait dans différents cercles : j'ai travaillé dix ans au sein de l'Institut Montaigne, à la Commission européenne, j'ai été longuement professeur à Sciences Po et, également, au sein du Conseil national du numérique. J'ajoute que je donne des cours à l'Institut national du service public (INSP) et que j'ai écrit un ouvrage qui s'appelle Politique publique et numérique, intelligence artificielle et territoire.
Le sujet connaît une accélération spectaculaire avec l'émergence de l'intelligence artificielle générative. Le principal facteur n'est pas tant l'invention d'une nouvelle technologie que son avènement. Cette technologie était sur étagère depuis 2017 et s'inscrit dans un continuum d'innovations depuis 2005-2006 qui la rend aujourd'hui tout à fait tangible. Les questions qu'elle soulève sont pertinentes : son impact sur la société, sur les systèmes productifs et, évidemment, sur l'État et son évolution à moyen terme.
Qu'est-ce que l'intelligence artificielle générative ? Elle découle d'un article paru en 2017, qui s'intitule en anglais Attention is all you need - « L'attention est tout ce dont vous avez besoin » -, qui constitue une vraie rupture dans l'état de l'art de cette technologie, en partant du principe que l'on est capable de traiter des ontologies très larges. Pour vous donner une idée, les grands modèles s'appuient sur des quantités d'apprentissage considérables : 250 000 sites web, soit environ deux pétaoctets de données. Pour se représenter cela physiquement, si vous mettez ces données dans des disques durs, cela correspond à peu près à deux mètres cubes et demi. C'est une somme de choses absolument impossible à se représenter, qui correspondrait à quelque chose comme 800 fois l'aller-retour de la Terre à la Lune en documents écrits au format académique. C'est une très grande quantité de données, ce qui est d'ailleurs l'un des problèmes.
Lorsque vous avalez des quantités de données aussi astronomiques, vous avalez aussi des données que vous ne souhaitez pas, ce qui est l'une des raisons du phénomène des « hallucinations », ces réponses fausses qui constituent pour l'instant une limite forte à l'émergence de ces technologies.
Plusieurs questions se posent à l'égard de ces technologies, notamment celle du système productif. Les travaux menés, notamment par de grands cabinets de conseil comme McKinsey ou BCG, montrent que nous faisons face à des gains de productivité très importants. Aucune technologie récente ne nous a procuré de tels gains, à commencer par internet, qui est une déception. Comme le disait le prix Nobel d'économie Robert Solow en 1987 : « Je vois des ordinateurs partout, sauf dans les statistiques de productivité. » Jusqu'à aujourd'hui, on ne peut mesurer en macroéconomie l'impact d'internet sur la productivité, ni le considérer comme une révolution comparable à l'électricité ou au moteur à explosion. Le machine learning constitue 95 % de ce que l'on observe en intelligence artificielle, y compris les modèles génératifs, ou large language models. C'est un processus qui découle d'une grande phase d'apprentissage - où le modèle assimile, par exemple, 250 000 sites web - puis d'une phase d'apprentissage continu, qui est la conversation que vous avez avec la machine et qui lui permet de continuer à apprendre, pas toujours dans les bonnes directions d'ailleurs. Cette discipline nous promet des gains de productivité importants qui nous poussent à repenser complètement notre modèle productif. J'insiste sur ce point : ce n'est pas un incrément. Si l'on essaie de forcer les modèles de machine learning à s'adapter au système productif, on ira vers de grandes déceptions. Si, au contraire, on repense le système productif pour qu'il bénéficie de ces technologies, on peut obtenir des gains de productivité assez importants.
Le système industriel, dont nous sommes à mon sens en train de sortir, est bâti sur deux éléments : la division scientifique du travail, qui spécialise des tâches quasiment autonomes, et un système de management de type « commande et contrôle ». Ce dernier découle de la première révolution industrielle : à la fin des guerres napoléoniennes, au Royaume-Uni, l'armée britannique est décommissionnée au moment où apparaissent de grandes unités productives. Comme les seules expériences de grandes organisations étaient alors militaires, ce sont les gradés qui ont organisé le système productif britannique, puis occidental et enfin global. Cette culture est parvenue jusqu'à nous.
Elle est toutefois aujourd'hui déclassée par un modèle en plateforme. L'important est de parvenir à une intégration transversale, multi-silos, qui permet de synchroniser les chaînes de valeur de façon beaucoup plus efficace, avec à la clé des gains de productivité très importants. C'est le coeur du modèle Tesla. Si Tesla parvient à s'attaquer au modèle d'affaires très optimisé de l'automobile, c'est parce que cette entreprise a adopté ce modèle « plateformisé » : elle synchronise aussi bien les outils de production industrielle que l'ensemble des chaînes de valeur à très grande échelle. Ce modèle est actuellement très incompris en Europe. Quelques régions s'en emparent : le Mittelstand allemand l'étudie, les distretti du Nord de la Lombardie s'y intéressent également. La France, qui pourtant compte des acteurs importants dans les systèmes industriels, est plutôt en retard sur ce point.
Il est effectivement une bonne idée de concevoir des plans d'investissement de type France 2030. La notion écosystémique, basée sur l'intégration de données et l'intelligence artificielle, sera très structurante dans le modèle productif de demain, et l'impulsion des pouvoirs publics ne sera pas la moindre des conditions pour y réussir. Je ne suis généralement pas très colbertiste, mais force est de reconnaître qu'il est important de donner une structure aux logiques de filières, d'écosystèmes.
Le deuxième volet est d'ordre social : il s'agit de s'interroger sur l'incidence de ces technologies sur la sphère sociale. Je suis particulièrement sensible à une sorte de diffraction - qui n'a pas attendu l'intelligence artificielle pour s'exprimer - entre les territoires et les métropoles. De nombreux travaux mettent en évidence cette dynamique : les métropolitains parlent anglais, sont à l'aise avec la globalisation, ont fait des études supérieures et travaillent plutôt dans des activités tertiaires. Pour les habitants des territoires, c'est l'inverse. Ce schisme s'accroît. Il n'est pas propre à la France, mais il est très caractéristique des nations fortement désindustrialisées.
La France a pour caractéristique notable, parmi les pays de l'OCDE, d'être passée de 24 % de PIB industriel à 10 % aujourd'hui. Aucun autre pays n'a connu une décroissance industrielle aussi forte. C'est un très fort marqueur du vote populiste : lorsque l'on superpose les zones de désindustrialisation à celles des tendances électorales, on trouve souvent une forte proportion de votes populistes. Or, la caractéristique de l'industrie est d'être ancrée dans les territoires. Nous avons là une explication assez forte de cette dynamique.
Aujourd'hui, une nouvelle technologie arrive, qui constitue une sorte de phénomène exacerbé de cette notion de schisme. C'est une technologie exogène, qui vient pour l'essentiel d'Amérique, dont le corpus général est en anglais. Les personnes à l'aise avec cette technologie sont très largement formées dans le supérieur et évoluent dans le monde tertiaire. Par conséquent, ce type de technologie est de nature à renforcer cette polarisation. J'ai passé un mois, cet été, à me déplacer dans des territoires très ruraux et j'ai discuté avec des maires de petits villages. J'ai été frappé de voir à quel point, lorsque je leur disais que je travaillais dans l'intelligence artificielle, les gens la ressentaient comme une menace, qui s'exprime principalement sur deux thèmes.
Le premier thème est celui du travail, avec le risque de déclassement, la perspective de moins de travail et d'une plus faible mobilité sociale. L'autre aspect, une peur plus générique lorsque l'on ne comprend pas la nature de ces technologies, est que la machine puisse nuire aux êtres humains, qu'elle devienne autonome, ait une conscience propre et s'affronte à eux.
Qu'en est-il de ces deux peurs ? La première concerne l'enjeu de la productivité. Il y a vraisemblablement beaucoup de perspectives de productivité au sein de ces technologies, mais nous ne savons pas du tout quelle en sera la quantité. Si l'on écoute certains futurologues, plus personne n'aura de travail demain. Je ne souscris pas à cette thèse, notamment parce que faire des extrapolations est très dangereux. Nous observons aujourd'hui des limites très fortes au fonctionnement de ces modèles et nous ne savons pas forcément comment les dépasser. On peut supposer que nous aurons des gains de productivité substantiels, mais loin d'être infinis. Un historien que j'aime beaucoup, Paul David, a travaillé sur le schisme entre la première et la deuxième révolution industrielle. On constate que des problèmes apparaissent lorsque l'arrivée des technologies est très brutale, c'est-à-dire lorsque le système social et le système de formation professionnelle n'arrivent pas à s'adapter. Si la technologie arrive extrêmement rapidement, nous aurons des zones de déclassement et une destruction nette de valeur d'ensemble, plutôt qu'une captation de ces gains de productivité par l'ensemble du corps productif. Par conséquent, il est vraiment important que les différentes composantes du système productif s'emparent de cette technologie, se forment, et que, de la TPE à la grande entreprise, il y ait une prise de conscience générale et collective. C'est quasiment un enjeu majeur de société. Il ne suffit pas de dire aux chefs d'entreprise de s'intéresser à l'intelligence artificielle, il faut une compréhension collective de ce qu'elle est.
Je milite depuis un an pour la mise en place d'un dispositif « Café IA » ayant pour objet de parler d'intelligence artificielle avec 15 millions de Français. Seul un élan collectif nous permettra de nous réemparer de ces technologies exogènes et de faire en sorte qu'elles nous soient propres. Pour cela, nous devons décider nous-mêmes de ce que nous voulons en faire. Le champ du possible est extrêmement vaste. Ces technologies ont généralement été orientées dans une logique très consumériste. Les gains de productivité des cinquante dernières années ont été presque tous réinvestis dans un accroissement du potentiel de consommation.
Aujourd'hui, une nouvelle technologie de productivité arrive au moment où nous faisons face à un enjeu majeur : la transition environnementale, qui nous coûtera entre 3 et 4 points de PIB par an jusqu'en 2050. Soit nous procédons à des efforts de redistribution majeurs, ce qui peut poser problème, soit nous utilisons ces nouveaux gains de productivité pour financer cette transition plutôt que de les réinvestir dans le consumérisme.
Je n'insisterai jamais assez sur l'opportunité que représente la concomitance de ces deux phénomènes. C'est une chance à saisir. La France dispose d'une forte expertise environnementale, avec de grands acteurs comme Saur, Veolia ou Suez, et d'une énergie parmi les plus décarbonées au monde grâce au nucléaire. Si nous repensons notre système productif à l'aune de ce nouveau paradigme, trois facteurs nous placent au coeur du jeu. Le premier est la qualité de notre énergie, qui devient une opportunité avec l'émergence de taxes carbone aux frontières de l'Europe, et donc notre capacité de production décarbonée. Le deuxième est notre localisation géographique au coeur de l'Europe, qui nous offre un fort potentiel de réindustrialisation si nous créons des chaînes d'approvisionnement modernes. Le troisième facteur est que les usines de demain - un article a été publié dans Les Échos il y a trois ou quatre jours à ce sujet - sont des usines non manufacturières. Comme pour l'agriculture, qui représentait 80 % de l'emploi il y a deux cents ans contre environ 2 % aujourd'hui, l'industrie est amenée à devenir totalement non manufacturière. Cela ne signifie pas des destructions nettes d'emplois, mais une transformation vers des emplois de services liés à l'industrie, ce qu'apporte précisément l'intelligence artificielle.
Il y a une véritable opportunité pour la France de se positionner sur ces enjeux. Les Allemands sont dans une situation difficile avec leurs choix énergétiques, leur contexte démographique et leurs chaînes d'approvisionnement très intégrées avec les pays de l'Est, notamment la Biélorussie, l'Ukraine et la Russie. Une fenêtre est donc à saisir, très liée à cette idée d'intelligence artificielle.
Le troisième volet est l'enjeu de la sphère publique. Le sujet est vaste, mais quelques grands enjeux ont été soulevés en partie par l'AI Act, le nouveau règlement européen annoncé par Thierry Breton. Il s'agit de savoir quel sera le fonctionnement de la sphère publique dans la perspective de l'intelligence artificielle. Le premier enjeu, à mon sens, est celui des services paramétriques ou du crédit social, selon le point de vue que l'on adopte. Le crédit social est le modèle chinois. Vous traversez au feu rouge à Shenzhen - je l'ai vu de mes propres yeux -, vous n'êtes pas encore de l'autre côté du passage piéton que vous avez déjà reçu une amende. Ce système existe. Or, l'AI Act dit explicitement que nous n'avons pas le droit de faire cela. En réalité, c'est déjà partout : lorsque vous roulez à 90 kilomètres par heure au lieu de 80, c'est déjà un système paramétrique et automatisé qui peut le contrôler.
Dans les pays scandinaves, l'accès aux droits est automatisé : vous recevez l'équivalent du RSA sur votre compte sans rien demander, car vos données sociales et fiscales ont été rapprochées. Parcoursup est un système paramétrique, l'algorithme de la CAF aussi. Qu'on le veuille ou non, ces systèmes sont amenés à envahir la sphère publique pour des raisons de productivité. La question n'est donc pas de les interdire, mais de garantir l'équité des citoyens face à ces dispositifs. Mon sentiment, pour avoir beaucoup travaillé sur cette question, notamment à la Commission européenne, est qu'à moyen terme, il nous faudra une forte évolution des institutions publiques. Les citoyens ne doivent plus faire face à l'État, mais être au coeur de sa construction. Ils seront les garants ultimes de l'équité face à ces modèles, en ayant accès à la transparence des algorithmes et en veillant à ce qu'ils ne soient pas discriminants. Cette dynamique est partiellement enclenchée. OpenFisca, le moteur de calcul fiscal, est en open source, tout comme Parcoursup. Chacun peut donc y accéder et l'examiner. Le deuxième pas consiste à construire des institutions qui intègrent des citoyens coproducteurs des services publics, sous une forme de réserve civique. Ils seraient ainsi capables, d'une part, de coproduire - l'usager doit être dans la boucle dès le départ - et, d'autre part, de créer de la confiance.
L'une des raisons de la défiance est que les décisions se prennent à Paris, de façon opaque. Lorsque vous allez dans les territoires, c'est évident. J'ai moi-même mené des débats sur la 5G ou sur le compteur Linky, et le reproche sous-jacent est toujours celui du centralisme et de la verticalité. Le sujet de l'intelligence artificielle nous place devant un choix : soit nous décidons de renforcer ce centralisme, et nous échouerons, soit nous en profitons pour affirmer que ce débat - emblématique des peurs que l'on peut nourrir sur le climat ou sur de nombreuses évolutions géopolitiques - peut nous permettre de passer de la peur à la compréhension et de décider ensemble de ce que nous pouvons faire.
Concernant les territoires, nous faisons face à un enjeu d'une grande complexité : il s'agit de veiller à ce qu'il n'y ait pas de décalage entre l'accès aux services publics dans les territoires et ce qui se passe au sein des grandes métropoles. La question est de savoir comment l'intelligence artificielle se positionne à cet égard. J'ai mené des auditions sur cette problématique qui étaient absolument vertigineuses. L'un des aspects de l'intelligence artificielle est sa capacité à évoluer au travers des langages naturels. La qualité de la reconnaissance vocale a connu une augmentation très importante. Ces systèmes de grands modèles de langage peuvent nous apporter deux choses. La première est la capacité d'interaction dans la communication, qui devient de plus en plus fluide. Il y a un léger retard sur le français par rapport à l'anglais, qui n'est que de quelques semaines, car les corpus en anglais sont plus vastes. Néanmoins, je parle littéralement à GPT-4 en conversation normale. Si vous utilisez Zoom et que vous lui demandez de vous faire un compte rendu à la fin d'une réunion, vous verrez que la qualité du compte rendu est stupéfiante. Par conséquent, l'interaction avec les services publics va s'améliorer.
L'autre caractéristique des LLM est leur capacité à unifier des expériences aujourd'hui cloisonnées. Si un service public vous demande d'aller chercher des documents qui relèvent de la sphère sociale, puis de la sphère fiscale, la machine est capable d'intégrer l'ensemble de ces éléments, et ce, dans le respect de l'utilisation de vos données personnelles. De nombreux défis devront être surmontés pour y parvenir, mais si nous en avions la volonté, nous disposerions d'une véritable opportunité de rapprocher l'expérience des services publics des citoyens. À mon sens, c'est une opportunité très supérieure à celle qu'offrait le numérique, dont la promesse initiale était précisément celle-là. Il y a vingt ans, on nous disait que nous allions tout faire sur internet ; en réalité, nous avons éloigné les gens des services publics.
Sur le plan de la santé, nous avons tous vu les publications dans la revue Nature sur la qualité du diagnostic, qui est indéniable. En imagerie, l'IA a déjà amélioré le diagnostic. En dermatologie, par exemple, la qualité du diagnostic par IA est systématiquement supérieure à celle des médecins ; c'est un fait incontesté. En oncologie, nous commençons à obtenir des résultats supérieurs. Il ne faut pas se leurrer : cette technologie est assez facile d'accès et ne bouleverse pas le modèle, car nous resterons très longtemps dans des modèles supervisés. Autrement dit, à la fin, c'est le médecin qui décide. En effet, les machines sont incapables de contextualisation, ce qui est l'une de leurs grandes faiblesses. Elles ne comprennent pas le contexte : la personne en face de vous est-elle capable d'observance ? Quelles sont ses conditions de vie ? Un médecin comprend ces éléments, et le diagnostic sera donc très fortement assisté. L'IA est un phénomène qui entre massivement dans le système. La question première est la suivante : face à la crise hospitalière - crise de vocations, de moyens et de changement de contexte -, l'apprentissage automatique constituera-t-il une aide précieuse ? Je le crois, mais à moyen terme.
Les études sont unanimes : en ville comme à l'hôpital, 30 % du temps des soignants est consacré à de la bureaucratie. D'ailleurs, quand vous allez voir votre médecin, c'est horripilant : il a le nez dans l'ordinateur, bien plus qu'il ne vous regarde dans les yeux. Nous avons tous fait cette expérience. Cela change la nature de la relation et peut altérer la qualité du diagnostic final. Grâce à l'IA, nous avons une opportunité de réduire, notamment à l'hôpital, le temps passé à faire des reportings à l'ARS, à la HAS ou à je ne sais qui encore.
Ce phénomène est très largement contraint par notre transcription du volet santé du RGPD, sur lequel le législateur français a choisi de faire « ceinture et bretelles », ce qui rend le mouvement dans cette direction difficile. Un rapport doit sortir dans les jours qui viennent, le rapport Vautrin, commandé par l'exécutif sur ce point précis. Je vous invite à en prendre connaissance, il montre la difficulté de faire de la recherche et de traiter des processus, ce que l'on appelle des workflows. À moyen terme, nous avons la possibilité d'obtenir des améliorations assez importantes. Le risque est que l'on essaie de faire des améliorations en gardant le système tel qu'il existe. Pour que ces améliorations fonctionnent, il faut accepter d'avoir des logiques de bac à sable, c'est-à-dire de repenser vraiment l'ensemble du processus d'embarquement du patient. Heureusement, j'ai entendu dire qu'il y avait quelques expérimentations de ce type.
Rapidement sur l'école, pour finir. Nous arrivons dans le contexte de l'enquête PISA, dont les données viennent de sortir. Elles sont dramatiques, même si nous ne subissons pas un très grand déclassement. On pouvait espérer que, comme nous n'avions pas fermé les écoles pendant la covid, cela se répercuterait dans le classement. Même pas. Nous avons plutôt descendu un peu plus que les autres grands pays de l'OCDE. C'est désormais une priorité nationale de premier ordre. Je me concentrerai sur deux points, de façon assez arbitraire, relevés par l'équipe de l'OCDE.
Il y a une corrélation absolue entre le temps de formation des professeurs et la performance dans le classement PISA. Les quatre premiers pays sont Singapour, la Corée, la Chine et Taïwan. L'Estonie, premier pays européen, n'est que huitième ou neuvième. La caractéristique première de ces pays est le temps de formation des enseignants : cent heures par an, contre dix en France. Quand on cherche à comprendre cet écart, la direction générale de l'enseignement scolaire (DGESCO) répond qu'il est très difficile d'apporter la formation aux enseignants et que, lorsqu'on met en place des MOOC, ils ne les suivent pas. Je ne dis pas que l'intelligence artificielle résoudra ce problème, mais il est certain que, par rapport aux MOOC où les taux d'attrition sont de 95 %, les taux d'observance sont bien plus élevés lorsque l'on personnalise l'enseignement au travers d'une conversation. La Khan Academy a d'ailleurs mené des travaux intéressants à cet égard. C'est donc une dynamique intéressante.
Le deuxième paramètre mis en avant par PISA, qui me semble extrêmement angoissant, est la très faible mobilité sociale du système scolaire. Non seulement notre système n'est pas très qualitatif, mais les élèves qui entrent depuis un milieu très dégradé en sortent dans un contexte tout aussi dégradé. Il n'y a pas de transversalité, ou alors de manière exceptionnelle, et moins que dans les autres pays. Pour un pays qui a pour devise la notion d'égalité, l'égalité des chances que procure l'école est un sujet dont nous devrions être soucieux. Quand on essaie de comprendre ce qui se passe, on observe un phénomène que l'on n'explique pas très bien et qui se passe à l'extérieur de l'école. Le facteur de maintien dans sa strate sociale est le fait que les parents de milieux aisés passent plus de temps avec leurs enfants, car ils en ont les conditions, et leur paient davantage de cours particuliers. C'est un élément assez visible, car notre organisation sociale le favorise.
Nous avons tendance à beaucoup incriminer l'école, mais à moins regarder son contexte, or celui-ci est un surdéterminant extrêmement fort. À cet égard, la Khan Academy a mis en place une initiative que j'ai expérimentée, qui est vraiment remarquable. On peut consulter sur leur site des conversations avec de grands personnages de l'histoire. On peut donc parler avec Marie Curie, ou même avec des gens dont on n'est pas sûr qu'ils aient vraiment existé en tant que tels, comme Shakespeare. Comme il a beaucoup écrit, on peut avoir une conversation avec lui. C'est assez stupéfiant, car on peut mettre un enfant de cinq ans devant Einstein, comme on peut y mettre un scientifique qui fait de l'astrophysique de très haut niveau. Tout cela est extrêmement prometteur, mais repose sur une condition : que l'on construise l'ingénierie pédagogique autour de cet outil. Nous disposons d'un outil potentiellement remarquable pour assister les élèves lorsqu'ils sont chez eux, mais cela nous pousse à repenser fortement le processus pédagogique. Une chose assez prometteuse est le fait que, depuis quelques années, la rue de Grenelle est entrée dans une logique d'expérimentation à large échelle, avec des tests quasi randomisés, en double aveugle. On va prendre cent classes, mener une expérimentation et, si cela fonctionne, essayer de l'étendre. C'est un élément de nature à donner un peu d'espoir sur notre capacité à sortir les REP du sillon dans lequel elles se situent.
Mme Christine Lavarde, présidente. - Je propose que nous prenions toutes les questions et que vous y répondiez ensuite, car les questions au Gouvernement vont suivre.
Pour faire la transition avec vos propos, le ministre de l'éducation nationale vient d'annoncer que tous les élèves de seconde bénéficieraient d'une sorte de tutorat par intelligence artificielle à la rentrée prochaine. Est-ce une bonne ou une mauvaise chose ? À vous écouter, j'ai tendance à considérer que ce n'est pas suffisant, car la pédagogie n'est pas repensée.
M. Christian Redon-Sarrazy. - Un sujet est au coeur de nos préoccupations : celui de notre souveraineté dans le domaine de l'IA.
Le retard n'est-il pas déjà irrattrapable ? Le dernier exemple en date est celui de Mistral AI, qui vient d'intégrer le camp des licornes. Sommes-nous en capacité, contrairement au cloud par exemple, d'être demain au niveau et de ne pas accuser le retard que nous avons connu sur quasiment toutes les innovations de rupture jusqu'à présent ?
M. François Bonneau. - Il semblerait qu'en matière d'intelligence artificielle ou d'automatisation numérique - appelons-la comme on veut -, il y ait des biais qui peuvent induire certaines réponses. Comment pouvons-nous agir sur ce point pour les éviter et prévenir tout ce que cela peut induire en conséquence ?
Mme Amel Gacquerre. - J'ai une question très courte. Vous avez mentionné une crainte souvent exprimée sur le contrôle de l'intelligence artificielle et évoqué, ce que je trouve passionnant, tous les usages que l'on en fait déjà aujourd'hui et que l'on en fera demain.
Ma question est très simple : que répondez-vous à ceux qui se demandent comment garder la main sur cet outil ?
M. Yannick Jadot. - S'agissant de l'enseignement, la question n'est-elle pas, avant même de repenser l'ingénierie pédagogique - et l'on voit bien tout le potentiel existant -, de former les enfants au codage et à la maîtrise de ces outils dès le plus jeune âge ?
En effet, tout ce que vous exposez sur la manière de repenser les services publics en intégrant les usagers suppose d'abord de faire de nos enfants des citoyens en capacité de maîtriser ces outils. Pour l'instant, le rôle des usagers se limite à attribuer des étoiles et à répondre à des questionnaires simplistes pour indiquer s'ils sont satisfaits ou non du service. Personne n'ira examiner les algorithmes ; il faut donc, au préalable, comprendre ce qu'est un algorithme.
M. Gilles Babinet. - Je suis assez circonspect sur ce que le ministre a annoncé concernant son modèle de langage. Cela ressemble beaucoup à un effet d'annonce. Ces dispositifs n'ont aucun sens s'ils ne s'inscrivent pas dans un contexte.
Lorsque vous parlez avec des professeurs, ou avec l'OCDE, celle-ci vous dit que l'une des caractéristiques du système français, en primaire, est qu'il y a quarante-huit disciplines. La recommandation de l'OCDE est de quinze. Tout le monde y va de son idée : cours de laïcité, cours de code... Pour prêcher pour ma chapelle, je dirai : faisons des cours d'intelligence artificielle !
Ce qui donne le plus de capacité aux enfants, c'est tout de même de savoir lire, écrire et compter. Tant que l'école n'aura pas réussi cette mission, je mettrai au second rang - même si je sais combien c'est préoccupant - la sensibilisation des enfants aux enjeux de la désinformation ou la nécessité d'avoir un code de conduite sur les réseaux sociaux. Nous voyons tous les drames qui surviennent chaque jour parce qu'ils y disent n'importe quoi et que ce discours de haine se propage. Mon inflexion est la suivante : une fois que nous aurons résolu le problème de base, celui qui donne de la mobilité, nous pourrons nous préoccuper de ce point. Mais sur le fond, vous avez raison.
M. Yannick Jadot. - Vous instituez un enseignement en silo. Tout ce que vous nous expliquez sur l'intelligence artificielle relève du principe des plateformes. Cet apprentissage serait un apprentissage de plus.
M. Gilles Babinet. - Ce qui permet d'aller vers l'apprentissage, c'est d'être à l'aise en société, et donc de savoir s'exprimer, lire, écrire et compter. C'est un débat éternel entre les holistiques et les spécialistes. Pour ma part, je m'en remets beaucoup à l'OCDE, qui dispose d'une grande capacité de comparaison et de recommandation. Les pays qui ont suivi ses préconisations ont progressé. L'Allemagne a gagné huit places dans le classement PISA depuis 2000 en appliquant strictement ses recommandations ; nous, nous en avons perdu trois.
Vous avez tout à fait raison concernant le petit questionnaire à la fin du service public : il est totalement biaisé, car on y répond une fois la procédure accomplie. C'est donc absurde. Les personnes qui abandonnent en cours de route ne sont pas comptabilisées. Quand l'Observatoire des services publics annonce qu'un service obtient 95 % de taux de satisfaction, cela n'a en réalité aucun sens. C'est un biais méthodologique fondamental qui mérite d'être souligné.
Sur la souveraineté, sujet sur lequel j'ai beaucoup travaillé et publié hier encore un article dans Les Échos, je dirai ceci : la souveraineté se regagne comme elle s'est perdue, en quarante ans. Nous avons fait n'importe quoi avec notre système productif, qui était pourtant de bon niveau il y a quarante ans. Nous l'avons détruit. Nous amorçons peut-être un début de demi-tour, mais cela prendra très longtemps. Il faut se méfier des recettes de court terme comme le protectionnisme. Il faut accepter que nous ayons perdu cette souveraineté en très large partie.
Cela dit, il faut aussi relativiser : même les Américains, aujourd'hui, ne sont pas souverains, car ils ne maîtrisent pas la fabrication de certains composants majeurs ou technologies. Et donc, ce qui compte, c'est de comprendre de quoi sont faites ces chaînes d'approvisionnement et d'en renforcer les points faibles. À l'échelle nationale, cela me semble impossible ; c'est à l'échelle européenne qu'il faut agir. D'ailleurs, les constructeurs automobiles vous le disent, ils rapatrient leur chaîne de valeur sur un périmètre qui correspond à l'espace européen, plus le Maroc et la Turquie. C'est la même chose dans l'aéronautique.
Sur les biais, c'est un vaste débat. Aujourd'hui, les grands modèles de langage sont très à la mode. Ils sont fascinants, car ils sont capables d'aborder n'importe quelle thématique avec une grande efficacité. En fait, une thématique renforce l'autre : le fait de s'intéresser, par exemple, aux courants marins permet de renforcer la compréhension du climat. La machine est capable de faire des corrélations que nous ne savons pas établir. On voit d'ailleurs que les grands modèles de langage sont beaucoup plus puissants pour la prévision météorologique que les systèmes spécialisés dans lesquels nous avons investi des centaines de millions d'euros.
Toutefois, le biais de ces systèmes est qu'ils produisent des hallucinations. J'en parlais avec de grands experts, comme Luc Julia ou Yann Le Cun, qui me disaient que nous n'arriverons probablement pas à réduire ces hallucinations en dessous de quelques pour cent. Cela signifie que les LLM devront toujours être supervisés pour être utilisés. Ce ne seront jamais des systèmes automatiques qui prendront eux-mêmes les décisions. On ne pourrait donc pas avoir des systèmes qui analysent les déclarations fiscales des contribuables de façon totalement automatisée, puis qui décident d'un redressement. Ce genre de chose ne se fera pas avec des LLM, car les risques sont trop importants. Le véhicule autonome n'est pas du tout fondé sur les LLM. Vous avez donc des systèmes maîtrisés, verticalisés, et des systèmes extrêmement puissants, mais avec un risque d'hallucination significatif. J'ajoute que ces technologies peuvent aussi être utilisées pour faire de la désinformation, créer de fausses images, synchroniser des armées de trolls et déstabiliser une élection. C'est l'une de nos grandes craintes. Quand je parle avec les agents de Viginum, c'est leur principale crainte, et cela arrivera certainement à l'occasion des grandes élections.
Nous avons un coup d'avance : comme ces technologies sont open source et réparties, de nombreuses personnes, notamment dans le monde de la cybersécurité, s'intéressent à la manière de concevoir des systèmes de contre-mesures pour éviter la prise de contrôle de ces systèmes. Concernant la perte de contrôle par rapport à l'intelligence artificielle, vous évoquez sans doute la notion d'intelligence artificielle générale, dont on parle beaucoup dans la presse. Il faut se méfier des journalistes qui trouvent là un sujet facile. Les experts dégagés de conflits d'intérêts - ceux qui ne sont pas Sam Altman ou qui n'ont pas intérêt à attirer les projecteurs sur eux - vous diront qu'il n'y a aujourd'hui aucune autre base que la science-fiction pour affirmer que ces dispositifs existeront un jour. Nous allons avoir des systèmes qui vont monter en puissance. Nous ne savons pas quand GPT-5 sortira, mais ce sera probablement dans les prochains mois, et ce sera assez stupéfiant. Pour clore le débat, aujourd'hui, aucune de ces machines ne passe, et de très loin, ce que l'on appelle le test de Turing, c'est-à-dire le fait d'avoir une conversation avec une machine sans plus être capable de dire si l'on parle avec un être humain ou avec une machine. Nous l'avons fait passer à 150 élèves de Stanford et, dans 94 % des cas, ils ont su déterminer s'ils étaient face à une machine ou à un être humain.
Mme Amel Gacquerre. - Ce que je souligne au travers de ma question, c'est l'enjeu de la pédagogie et de la démocratie. Que répond-on à cela ? J'ai bien conscience de la réponse, mais il s'agit d'un enjeu énorme, car, vous le dites, les messages sont simples, voire simplifiés, et cet enjeu est très fort au sein de notre population.
M. Gilles Babinet. - Je vous réponds ainsi qu'à Yannick Jadot : s'il faut sacraliser les enseignements qui créent de la mobilité sociale, il faut aussi créer un mécanisme qui touche tous les Français. Je me bats pour créer, dans tous les ministères et partout, un mécanisme de proximité, un « Café IA », où l'on parlera à 15 millions de Français d'intelligence artificielle. On rassurera Mme Michu sur le fait que son petit-fils ne va pas perdre son emploi et on lui expliquera que ces machines ne vont pas devenir conscientes. Au patron de TPE, on expliquera comment il peut se servir de l'intelligence artificielle pour mieux gérer certaines tâches. Et à un jeune de 14 ans, on lui dira qu'il peut en faire son métier.
J'ai la conviction que ces technologies n'ont pas pour vocation de devenir ce qu'est le modèle américain, hyperintensif sur le plan du capital et à la finalité très consumériste. Nous pouvons faire quelque chose de différent.
M. Yannick Jadot. - Ou consumérisme ou société de surveillance...
M. Gilles Babinet. - D'ailleurs, je vous l'ai dit, nous éviterons cela à partir du moment où nous repenserons l'interaction avec les citoyens. Si les citoyens sont dans la boucle, il y a moins de risques.
Mme Christine Lavarde, présidente. - C'est une bonne piste de travail pour nous. Puisque l'enjeu est bien de montrer qu'en 2050 ou 2070, nous vivrons avec l'intelligence artificielle, mais en bonne entente.
M. Gilles Babinet. - Bien avant !
Mme Christine Lavarde, présidente. - Je vous remercie.
Cette audition a fait l'objet d'une captation vidéo, disponible en ligne sur le site du Sénat.
La réunion est close à 14 h 40.