D. QUATRIÈME CONTROVERSE : L'INTELLIGENCE ARTIFICIELLE EST-ELLE UNE MENACE ?

M. Pierre Henriet, député, président de l'Office. - J'ai le plaisir de présenter notre quatrième controverse : « L'intelligence artificielle est-elle une menace ? », avec un sujet plus que jamais au coeur de l'actualité, et d'accueillir nos deux intervenants.

Depuis sa naissance en 1956 lors de la conférence de Dartmouth, l'intelligence artificielle interroge sur sa dangerosité. Près de soixante-dix ans plus tard, les médias continuent de se demander si elle est une menace. En 2016, nos anciens collègues ont rendu pour l'Office le premier rapport parlementaire sur le sujet sous le titre : « Pour une intelligence artificielle maîtrisée, utile et démystifiée ». L'intérêt pour l'intelligence artificielle et ses éventuels dangers fluctuent dans le débat public. À l'heure de ChatGPT et des IA génératives, nous constatons l'intérêt des travaux de l'Office qui permettent d'actualiser nos connaissances sur les évolutions technologiques et les évolutions du débat public. Le rapport de 2016 faisait déjà le constat que les technologies d'intelligence artificielle progressaient de manière exponentielle, ce que nous avons pu constater avec le deep learning, les big data ou l'accélération de la vitesse de calcul des processeurs.

La science nous montre que l'avènement d'une super intelligence, dite IA forte, est peu probable car contrainte par l'acceptabilité sociale, notamment alimentée par des représentations catastrophiques, par exemple dans la littérature ou le cinéma.

De façon plus réaliste, nous pouvons discuter des menaces réelles, des risques qui doivent être identifiés, anticipés et maîtrisés. Nous pouvons aussi évoquer l'impact de l'IA sur la place dominante et monopolistique de quelques entreprises dans un contexte d'économie globalisée de plateformes, mais également sur le marché du travail.

Enfin nous pouvons évoquer la manière de mettre ces technologies au service de l'homme et des valeurs humanistes, selon quels principes
- politiques, juridiques et éthiques - et sur quel plan - national, européen, mondial.

Espace de dialogue depuis quarante ans, l'Office a toute sa place dans ce débat. Les Bureaux de l'Assemblée nationale et du Sénat l'ont d'ailleurs saisi pour qu'il poursuive ses travaux sur l'intelligence artificielle. Je remercie pour cela le Président Gérard Larcher. Je laisse la parole à nos deux intervenants pour ouvrir le débat et nous donner des pistes de réflexion pour l'avenir.

M. Raja Chatila, professeur de robotique et d'intelligence artificielle, membre du conseil scientifique de l'Office. - Je vous remercie pour cette introduction.

L'intelligence artificielle est à la fois un domaine scientifique et une technologie avec un effet important sur la société, grâce à son caractère diffusif qui la rend présente dans tous les secteurs et domaines. Nous devons donc l'appréhender comme un domaine socio-technique. Ce n'est pas un phénomène naturel qui est évoqué ici, mais de sont des objets, conçus et développés par des êtres humains et des entreprises. Notre maîtrise en tant qu'êtres humains et sociétés, en tant que parlementaires et gouvernement, est possible à mettre en oeuvre car la simple observation, dans ce cas, ne suffit pas.

Mais il ne convient pas de croire aux annonces alarmistes sur la superintelligence. Ce discours n'est pas fondé scientifiquement, mais dominé par d'autres raisons pour avoir un effet de crainte et donner confiance dans la maîtrise de ces risques, qui doit revenir à la société et à ses organisations.

L'intelligence artificielle, comme toute technologie, doit être correctement maîtrisée et adaptée pour être en accord avec la loi et les droits humains. Il est essentiel d'en comprendre les mécanismes pour la démystifier et les effets pour l'utiliser et la maîtriser, selon les termes du rapport de l'Office de mars 2017 évoqué précédemment.

Mars 2017 a également vu la naissance d'une nouvelle architecture d'intelligence artificielle chez Google, appelée Transformer. Celle-ci a permis une avancée majeure dans le domaine du traitement automatique de la langue naturelle. Cette avancée a entraîné une accélération du développement des systèmes d'intelligence artificielle générative avec, par exemple, ChatGPT, mais aussi le système Bloom en Europe, grâce au supercalculateur Jean Zay. Nous ne sommes donc pas en retard, mais nous devons avoir de la motivation et des moyens pour être acteurs et ne pas se soumettre au bon vouloir de la Californie.

Les recommandations du rapport de 2017 sont toujours valides, mais d'autres apparaissent désormais. Le Comité national pilote d'éthique du numérique, dont nous sommes membres, vient de publier un avis sur les enjeux d'éthique des systèmes d'IA générative. Cet avis propose dix recommandations sur la conception et douze sur la gouvernance.

Par exemple, sur la question de la vérité, ces systèmes mélangent le vrai et le faux, par leur nature même, à cause de leur méthode statistique et corrélative. Or, un accord commun sur des vérités partagées est un socle de la cohésion de la société, on l'a vu lors de l'assaut sur le Capitole. Un accord sur la vérité des faits partagée est donc essentiel et cette menace doit être maitrisée.

Un autre aspect est l'absence de signification et de sémantique. Ces systèmes n'appréhendent pas la signification des mots et des textes, ce sont les humains qui le font. Des textes sans signification peuvent donc être produits et doivent être pris avec la plus grande prudence, sans même parler des images. Il est donc nécessaire de former les utilisateurs à ces limites et problèmes.

Je vais mentionner l'une des applications envisagées : l'éducation (et l'apprentissage) qui est un cheminement dans lequel interagissent le pédagogue et l'apprenant pour acquérir des connaissances et des savoir-faire. Les systèmes d'IA peuvent donner des résultats mais sans mention de qualité ni de source. Il est donc primordial de pouvoir étudier leur effet sur le développement cognitif des élèves avant de les utiliser.

En termes de régulation, ces systèmes doivent être considérés comme à haut risque car, quelle que soit leur utilisation, ils contiennent ce problème de la vérité. La responsabilité des acteurs tout au long de la chaîne de valeur, des modèles de fondation jusqu'aux applications, doit être identifiée. Il n'est pas possible d'exclure de la responsabilité les concepteurs des modèles, par exemple.

Enfin, concernant la réglementation, ces systèmes sont construits à partir de calculs sur de grandes quantités de données présentes sur Internet. Les questions de la protection des données personnelles et de la propriété intellectuelle se posent donc ici et doivent être examinées au regard de l'existence de cette nouvelle technologie.

Mme Laurence Devillers, professeur d'informatique appliquée aux sciences sociales. - Je vous remercie pour cette invitation. Je vais compléter les propos de Raja Chatila puisque nous avons travaillé ensemble sur ce rapport du Comité national pilote d'éthique du numérique, organisme pérennisé par le président de la République, Emmanuel Macron, au mois de mars. Un nouveau comité sera donc en place à partir de septembre.

La controverse sur l'intelligence artificielle se développe autour des craintes de perte d'emploi, de la machine qui devient superintelligente ou encore devant le fait qu'elle consomme une grande quantité d'énergie. Mais cette évolution permet aussi de découvrir de nouveaux vaccins ou de faire émerger des manières de mieux consommer. Nous sommes bien face à des tensions fondamentales, qu'elles soient éthiques ou anthropologiques, sur les connaissances.

Entre admiration et peur, le public et les décideurs comprennent mal ces nouvelles technologies. Or, il y a des menaces d'équilibre. Si demain nous allons vers une plus grande consommation de ces objets, notre société verra l'apparition de modèles complexes, tout en étant incapable de les remettre à jour, de les recréer, donc avec une perte de savoir-faire très forte. Nous sommes donc face à un problème d'éducation fondamental sur ces outils, pour disposer d'experts mais aussi pour former les citoyens à leur utilisation.

L'émergence de ChatGPT marque l'occasion de traiter enfin ces sujets au coeur de la société. Derrière ce constat, nous trouvons les géants du numérique et leur envie de prise de pouvoir, qui pose un problème géopolitique grave. En effet, nous sommes face à un système d'IA générative basé sur des modèles qui s'appuient sur des milliards de données, avec des hyperparamètres peu transparents. L'opacité des modèles est totale et doit être régulée. L'intérêt du système Bloom est qu'il propose un modèle open, qui peut être testé. Mais les autres systèmes sont très opaques, ce qui entraîne par exemple qu'une même question peut engendrer en réponse deux phrases différentes. Ce facteur température implique en effet que le système ne répond pas avec la réponse la plus probable mais avec la première séquence de mots repérée.

Par ailleurs, fondamentalement, ces systèmes sont créés sur une hypothèse linguistique : les tokens, qui ne sont même pas des mots mais un ensemble de caractères, des vecteurs contenants. Les entités tokens tendent donc à avoir des sens similaires dans des conditions similaires. Ce principe amène à avoir des vaches qui pondent des oeufs... selon l'exemple bien connu. La machine ne produit que des statistiques liées à des contextes. Mais des comportements émergents peuvent également apparaître dans certains contextes, lors d'une requête affinée. L'utilisateur pourrait croire ici que la machine s'adapte à lui mais le processus ne relève pas de l'humain, ce que nous pouvons avoir du mal à distinguer.

Il est donc essentiel que ces capacités soient plus ouvertes. L'apprentissage de ces machines diffère d'un apprentissage humain tel que peut le vivre un enfant. ChatGPT propose ainsi plusieurs types d'apprentissage : l'auto-apprentissage (produire le mot le plus probable derrière une séquence de mots) ou le manque (un mot de la phrase est enlevé et le système cherche à le prédire). Ces systèmes montrent des qualités mais sans abstraction ni raisonnement humain. Nous les humanisons à défaut. Dans l'éducation, il est urgent de démystifier ce que nous percevons de la machine pour ne pas créer une société de dépendance.

Il est important de rappeler également que les données de ces modèles sont principalement anglo-saxonnes et à plus de 80 % en anglais. Nous devons alors nous interroger sur l'influence d'une langue sur une autre, ce que nous ne pouvons pas appréhender du point de vue de la recherche. Nous connaissons cette influence mais nous ne pouvons pas la mesurer, donc la maîtriser. Le citoyen ne comprend alors pas ce qui survient et la machine peut de son côté devenir totalement incohérente. Elle peut se comporter à la manière d'un humain mais sans conscience ni émotion. Sur ce sujet du multilinguisme et du traitement automatique de la langue, je vous indique qu'un important projet est en cours d'élaboration avec le ministère de la Culture au sein de la Cité internationale de la langue française de Villers-Cotterêts.

La première préconisation de notre rapport repose donc sur le besoin d'une entité souveraine pour travailler sur ces sujets qui arrivent trop vite dans la société et pour lesquels les GAFAM ne sont pas capables d'apporter des solutions. Nous sommes face à des objets qui bénéficient d'une certaine autonomie.

Il faut ainsi travailler à la fois sur une loi et sur les normes européennes dès aujourd'hui car il y a une prise de pouvoir extrêmement rapide qui s'opère en parallèle. Il importe d'oeuvrer pour l'avenir des citoyens.

Ce bouleversement est énorme dans le monde du travail et il nous faut l'anticiper, ce qu'a peu abordé notre concertation. Par exemple, aider un enseignant à voir qu'un travail est le résultat de différents apports peut se révéler utile.

Nous devons donc aller beaucoup plus loin sur la compréhension de ces systèmes et nous devons impérativement pouvoir dialoguer avec les GAFAM. Une mise à disposition des bonnes pratiques est également indispensable, dans un souci de mutualisation. Nous devons associer les bonnes et les mauvaises pratiques entre entreprises, par exemple dans le domaine médical. Les États-Unis prennent le leadership très rapidement et il nous revient d'éclairer les pièges réels de ces intelligences artificielles génératives. Je vous recommande à ce sujet le film documentaire Derrière les écrans de fumée proposé par des « repentis » des GAFAM qui expliquent les politiques de manipulation mises en oeuvre et le profil de cobayes que les utilisateurs endossent en utilisant des produits comme ChatGPT.

Nous pouvons donc conclure en rappelant qu'un effort de guerre est nécessaire et j'espère que l'Office pourra en être l'un des vecteurs. Il se pourrait qu'à court terme les normes pour le marché européen soient élaborées par les Etats-Unis et la Chine...

Premier intervenant. - Nous constatons la grande complexité des questions débattues dans les différentes controverses, ainsi que l'intérêt de l'Office pour éclairer les politiques. Mais nous voyons également les transitions et les changements qui vont s'avérer nécessaires. Comment l'Office peut-il aider au changement ?

Deuxième intervenant. - Je souhaite poser une question sur les émotions, qui a priori distinguent l'humain du robot. J'ai appris qu'une IA générative émergente, Project December, permettait d'échanger avec une personne décédée. Existe-t-il des IA génératives capables de donner l'illusion de l'émotion ou du sentiment et quelles en seraient les conséquences ?

Mme Laurence Devillers. - Sur les émotions, dont j'ai fait mon sujet de recherche pour les détecter dans la voix et le langage, les tokens sont utilisés. Au niveau international, nous travaillons sur les émotions depuis 2000 environ, à travers la voix et les émotions très mélangées qu'elle peut contenir. Ces machines sont très loin de détecter ces distinctions. Elles procèdent à une simplification importante, mais qui peut être intéressante dans certains cas, dans les systèmes qui s'adaptent à la voix, par exemple dans les cas de pathologies mentales.

L'autre sujet est celui des dead bots, initiés par Microsoft, qui consistent à faire parler quelqu'un qui n'est plus là. On sait simuler la voix d'une personne décédée, ceci a été réalisé pour le général de Gaulle. Pour ce qui est du langage, il est donc possible de prendre des données et de les retravailler en ce sens. Mais des enjeux conversationnels et des enjeux d'éthique apparaissent car faire parler quelqu'un avec des mots qu'il n'a jamais dits ne relève pas de la dignité humaine. On crée une immortalité numérique. Il nous revient de nous interroger sur la manière dont la société peut vivre avec ce type de systèmes. Certaines sociétés, comme les sociétés asiatiques, l'acceptent mieux que d'autres. Il y a des exemples en Chine et au Japon. Pour prendre un autre exemple, le système Replica, conçu en Russie, s'appuie sur l'idée de répliquer une personne décédée. Il y a là des dérives évidentes.

Notre rapport propose donc non pas d'interdire, mais de s'interroger collectivement sur notre souhait de disposer de tels outils. Il y a des avis divergents. Nous sommes devant un monde d'experts qui nous fait miroiter des améliorations, par exemple avec l'émergence de réponses émotionnelles mais ce n'est pas vrai, cela est fait pour des enjeux purement économiques et marketing.

M. Pierre Henriet, député, président de l'Office. - Pour revenir à la première question, il convient de ne pas confondre les rôles de chacun, qu'ils soient d'expertise, d'analyse, d'évaluation ou de prise de décision. L'Office se situe au milieu, dans l'analyse et l'évaluation.

La réunion de ce matin répond en partie à vos interrogations, par exemple comment, avec une meilleure compréhension, réguler l'intelligence artificielle et où il faut cibler pour gagner en efficacité. Il nous faut en effet être efficace pour tous ceux pour qui nous travaillons, notamment le législateur.

Bien sûr, nous voyons que sur le sujet de l'intelligence artificielle, nous ne maitrisons pas les résultats et la multitude des projections.

Mme Laurence Devillers. - De nombreux chercheurs travaillent sur ces sujets. En France, par rapport aux pays anglo-saxons, nous négligeons encore la nécessité de mettre en oeuvre une entité souveraine « science et société » regroupant les aspects technologiques et les conséquences. Notre pays n'est pas assez tourné vers l'interdisciplinarité.

Troisième intervenant. - Si l'on mélange experts et société civile, il serait important de mieux maîtriser les déclarations de liens d'intérêt.

Mme Laurence Devillers. - Oui, mais je ne parlais ici que des chercheurs, pas de la société civile.

Mme Sonia de La Provôté, sénatrice, vice-présidente de l'Office. - Nous sommes face à un système invasif d'un point de vue intellectuel et il nous manque un cadre pour le réguler, à l'inverse de la médecine, par exemple, qui repose sur des protocoles de suivi d'expérimentation au niveau international.

Ensuite, l'information traitée par ces systèmes est numérique et relève donc d'un domaine relativement récent. Le poids accordé à l'ancien et au présent est donc déséquilibré. La question sur le poids de la vérité scientifique est donc posée car les remises en cause des dernières années peuvent déstabiliser la science et je peux citer par exemple les platistes.

Enfin, il est primordial de développer l'humain avec la pédagogie et l'éducation, ainsi que le sens critique, le libre choix et le choix éclairé, ce qui nécessite de gros moyens. Ces outils doivent rester des outils et pas des éléments visant à modifier la pensée et la société.

M. Pierre Henriet, député, président de l'Office. - Nous constatons en effet que ChatGPT est utilisé pour alimenter les théories du complot, ce qui démontre les limites en termes d'éthique.

M. Raja Chatila. - Nous sommes en effet des cobayes d'expérimentation, sans accord et sans contrôle. Nous assistons à une forme de coup d'Etat numérique dont il faut avoir conscience et face auquel il faut réagir. Un certain effet de sidération prédomine, raison pour laquelle il faut démystifier ces systèmes pour, à terme, aller plus loin et ne plus subir le bon vouloir des GAFAM au niveau international. Le rôle des institutions peut être posé ici, en rappelant que le rapport de 2017 formulait des recommandations dont la mise en oeuvre est seulement partielle. Un lieu doit être trouvé pour que l'exécutif puisse prendre en compte les préconisations de l'Office.

Un autre problème est celui de la qualité des informations, qui sera impactée par ces systèmes. Ainsi, ChatGPT ignore ce qui s'est passé depuis septembre 2021, date de sa mise en service, mais sa mise à jour prendra en compte les données issues des intelligences artificielles génératives, ce qui entraînera un risque supplémentaire, et de manière incontrôlable. Il est alors primordial d'aller au-delà de la pédagogie, vers une réflexion sur l'action à mener face à ces problèmes.

Mme Laurence Devillers. - Sur la toile, nous constatons que les utilisateurs malveillants ont pris en main l'objet, pour propager des fausses informations et déstabiliser les démocraties. Ce constat nécessite un véritable effort de guerre de recherche allié à de la politique. Nos recherches peuvent nourrir les idées. Sinon, une autre solution serait d'aller vers l'anarchie sur la Toile pour rendre le système « fou ».

N'oublions pas que ce système consomme beaucoup d'énergie et nécessite de nombreux data centers. Nous devons donc obliger les géants du numérique à s'ouvrir plus pour disposer de davantage d'informations sur les modèles et les grands systèmes grâce à des réglementations, même si nous sommes bien conscients que l'ensemble du problème ne se résoudra pas ainsi.

Mme Valérie Faudon. - Nous nous sommes nous-mêmes demandé comment faire pour permettre une meilleure connaissance de l'industrie nucléaire pour les publics intéressés. Nous avons constaté que ChatGPT n'était pas fiable. Notre interrogation suivante a porté sur la manière dont le public recherchait de l'information : est-ce grâce à ces systèmes, car Internet propose déjà de très nombreuses informations complètement erronées et sans sources, ce qui me semble être une aberration ?

Mme Laurence Devillers. - Tous ces outils restent une bonne idée mais dans une approche à la fois bottom up et top down. Cela signifie qu'il faut apprendre l'importance des sources, et apprendre à déconstruire un texte généré par ChatGPT pour en découvrir, éventuellement, les inepties. J'encourage les jeunes mais aussi les adultes à suivre ce processus, mais je crains que nous soyons souvent paresseux... Dans cette optique, je vous incite à ne jamais utiliser ChatGPT quand vous souhaitez réaliser un travail important.

M. Pierre Henriet, député, président de l'Office. - Sur ces propos, je vous propose de clôturer notre réunion en remerciant tous nos intervenants.

Nous concluons ainsi cette deuxième journée d'anniversaire de l'OPECST, avec l'immense plaisir d'avoir reçu des intervenants de qualité qui nous permettent de comprendre les enjeux scientifiques et de connaissance et d'éclairer les décisions à prendre sur les régulations, dans de nombreux domaines. Continuons à faire prévaloir la science ! Je vous remercie.

Les thèmes associés à ce dossier

Partager cette page