C. DEUX VOIES PARALLÈLES AUSSI INDISPENSABLES L'UNE QUE L'AUTRE : SAVOIR FAIRE AVEC ET SANS L'IA
L'utilité de l'IA et les risques liés à son utilisation plaident pour une vision positive mais prudente.
Pour garantir une utilisation efficace et éthique de l'IA, un consensus existe sur le besoin de formation massif des chercheurs et des ingénieurs et la nécessité, pour les uns et les autres, de garder un esprit critique. S'il faut former à l'IA, il faut aussi, dans chaque discipline, garder la maîtrise des savoirs fondamentaux.
1. Rappeler le caractère fondamental pour tout chercheur du rapport au terrain
En premier lieu, il convient de ne jamais perdre de vue que les technologies d'IA restent des systèmes de calcul statistique créés par des êtres humains, mais incapables de donner du sens aux données. Comme l'a souligné Raja Chatila, professeur émérite d'intelligence artificielle, de robotique et éthique à Sorbonne Université : « Ce sont les chercheurs qui pensent, pas les machines ». Par nature ou par construction, les IA sont capables d'hallucinations, c'est-à-dire de corrélations erronées.
Dans ce contexte, la maîtrise des fondamentaux de chaque discipline et le rapport au terrain restent indispensables pour rester maître de son projet de recherche, en particulier dans l'hypothèse d'un arrêt ou d'une interruption des systèmes.
Il s'agit, pour reprendre l'expression de Daniel Andler, mathématicien et philosophe, d'assurer l'explicabilité des modèles d'apprentissage et des résultats en faisant preuve d'un « bilinguisme technologique » : il faut pouvoir exploiter pleinement les technologies d'IA, mais également pouvoir s'en passer. Le maintien de l'expertise des chercheurs est en particulier essentiel au regard des « boîtes noires » qui caractérisent le fonctionnement de certaines IA comme ChatGPT.
Est ainsi mise en lumière l'une des limites à l'utilisation de l'IA : on ne peut s'en servir à un haut niveau que sur des sujets que l'on connaît déjà bien.
À cela s'ajoute l'enjeu de l'exactitude des données utilisées dans des recherches assistées par l'IA. Il s'agit d'un aspect particulièrement critique dans certaines disciplines, comme la recherche clinique par exemple et l'évaluation de médicaments ou de protocoles chirurgicaux.
2. Maîtriser les IA et l'art du prompt
Les membres du Conseil scientifique ont souligné l'importance pour les chercheurs d'être massivement formés à l'IA, en particulier pour comprendre comment fonctionne l'échange itératif avec les modèles de langage et pour maîtriser l'art du prompt.
L'Office ne peut qu'abonder en ce sens, la nécessité d'approfondir les efforts de formation à l'IA ayant été mis en exergue par le Parlement dans de nombreux travaux7(*).
3. Adopter une approche éthique : transparence, frugalité
Parmi les bonnes pratiques qui doivent se diffuser dans la communauté scientifique, l'obligation de signaler, chaque fois que cela est nécessaire, l'utilisation de l'IA dans les publications et les travaux de recherche apparaît indispensable. Cette règle de transparence doit être enseignée dès la formation initiale, a fortiori dans un contexte où les outils d'IA générative transforment les façons d'apprendre et d'évaluer les étudiants.
Enfin, l'impact environnemental de l'IA est un autre enjeu éthique auquel étudiants et chercheurs doivent être formés. Si, dans ce domaine, la balance coûts-avantages n'apparaît pas toujours évidente, il est heureux que des entités comme le CNRS commencent à inclure les enjeux de frugalité dans leurs réflexions stratégiques sur la transition environnementale.
* 7 Voir notamment, au-delà du rapport de l'OPECST précité, le rapport d'information de MM. Christian Bruyen et Bernard Fialaire n° 101 (2024-2025), fait au nom de la délégation à la prospective du Sénat, IA et éducation.