Rapport de l'OPECST n° 154 (2000-2001) de MM. René TRÉGOUËT , sénateur et Christian CUVILLIEZ,, député, fait au nom de l'Office parlementaire d'évaluation des choix scient. tech., déposé le 19 décembre 2000

Disponible au format Acrobat (3,4 Moctets)

N° 2821
--

N° 154
--

ASSEMBLÉE NATIONALE

SÉNAT

CONSTITUTION DU 4 OCTOBRE 1958

ONZIÈME LÉGISLATURE

SESSION ORDINAIRE DE 2000-2001

_____________________________________________________

__________________________________________________________

Enregistré à la Présidence de l'Assemblée nationale
le 9 décembre 2000.

Annexe au procès-verbal de la séance
du 19 décembre 2000.

________________________

OFFICE PARLEMENTAIRE D'ÉVALUATION DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

________________________

RAPPORT SUR

LES CONDITIONS D'IMPLANTATION D'UN NOUVEAU SYNCHROTRON
ET LE ROLE DES TRES GRANDS EQUIPEMENTS DANS LA RECHERCHE PUBLIQUE
OU PRIVEE, EN FRANCE ET EN EUROPE

LE RÔLE DES TRÈS GRANDS ÉQUIPEMENTS DANS LA RECHERCHE
PUBLIQUE OU PRIVÉE, EN FRANCE ET EN EUROPE

PAR M. Christian CUVILLIEZ,

PAR M. René TRÉGOUËT,

Député.

Sénateur.

__________________

Déposé sur le Bureau de l'Assemblée nationale
par M. Jean-Yves LE DÉAUT,
Premier
Vice-Président de l'Office

__________________

Déposé sur le Bureau du Sénat
par M. Henri REVOL,
Président de l'Office.

Que sont les très grands équipements scientifiques (TGE) et quel rôle jouent-ils dans la recherche publique et privée en France et en Europe ? Quels sont les besoins prévisibles dans ce domaine ? Quelles sont les procédures de décision et de financement actuelles et comment peut-on les améliorer ? Quelles pourraient être les modalités d'un soutien accru des entreprises et de l'Union européenne à leur construction et à leur mise en _uvre ?

Telles sont quelques-unes des questions auxquelles M. Christian CUVILLIEZ, Député, et M. René TRÉGOUËT, Sénateur, répondent, après leur précédente étude sur les conditions d'implantation d'un nouveau synchrotron publiée en mars 2000.

C'est à un voyage au " pays des TGE " qu'est d'abord invité le lecteur, à qui sont présentés, sans prétendre à l'exhaustivité, d'une part de nombreux grands équipements actuellement en service, répertoriés ou non dans la nomenclature actuelle, et, d'autre part, quelques-uns des projets formulés par les chercheurs eux-mêmes.

Les Rapporteurs proposent ensuite de distinguer les divers TGE selon leur finalité et établissent trois catégories à cet effet : les TGE de percée thématique , les TGE d'infrastructure et les TGE de grand programme .

Cette classification permet de définir des modes de décision et de financement adaptés à chaque cas concret, l'ensemble des TGE nécessitant au demeurant une politique de concertation étroite avec la communauté scientifique et une action continue dans le temps.

Faisant le constat que des perspectives doivent être tracées non seulement pour les investissements mais aussi pour les recrutements de jeunes chercheurs, M. Christian CUVILLIEZ et M. René TRÉGOUËT appellent à l'organisation des Etats généraux de la recherche du début du XXI e siècle réunissant les populations, la communauté scientifique et les élus, dont l'objectif serait de définir la vision et l'organisation de la recherche française pour les prochaines décennies et dont les propositions pourraient être reprises dans une loi de programmation traduisant le Contrat d'objectifs de la recherche française du début du XXI e siècle.

Lettres de saisine

Groupe de travail

Personnalités rencontrées

Rapport

Sommaire

- première partie : La montée des besoins en grands équipements dans toutes les disciplines scientifiques.

- deuxième partie : Le rôle moteur des très grands équipements et l'importance d'en tirer le meilleur parti.

- troisième partie : La nécessité d'améliorer les décisions sur les tge et de programmer à long terme le financement de la recherche.

- recommandation

- examen du rapport par l'Office

- annexes

Comptes rendus des auditions

LETTRES DE SAISINE

GROUPE DE TRAVAIL

M. Roger BALIAN , membre de l'Académie des sciences, ancien président de la Société française de physique

M. Gilles COHEN-TANNOUDJI , Conseiller du directeur des sciences de la matière du CEA

M. Robert COMÈS , Directeur du Laboratoire pour l'Utilisation du Rayonnement Electromagnétique (LURE)

M. Jean GALLOT , Professeur émérite à l'université de Rouen, ancien Recteur

M. Jean JERPHAGNON , conseiller du directeur technique d'Alcatel

Mme Sylvie JOUSSAUME , Directrice-adjointe, Laboratoire des sciences du climat et de l'environnement, CEA-CNRS

M. Philippe LAREDO , Directeur de recherche, Centre de sociologie de l'innovation, Ecole Nationale Supérieure des Mines de Paris

Mme Claudine LAURENT , Vice-présidente du Conseil supérieur de la recherche et de la technologie (CSRT)

M. Denis LE BIHAN , Directeur de recherche CEA, Service hospitalier Frédéric Joliot, Orsay

Mme Phyllis LIVANOS , Direction des sciences de la matière, chargée du suivi de la fusion, CEA

M. Vincent MIKOL , Directeur de recherche, Aventis

M. Jérôme PAMELA , Responsable du JET dans le cadre du European Fusion Development Agreement

M. Pierre POINTU , ancien Directeur des services de recherche du groupe Saint Gobain

M. Jochen SCHNEIDER , Directeur du Hasylab, Hambourg

M. Michel SPIRO , Président du conseil scientifique du LEP-CERN

PERSONNALITÉS RENCONTRÉES

I - Auditions

Les comptes rendus des auditions sont publiés dans le volume 2 du présent rapport.

La méthodologie du rapport
mercredi 26 avril 2000

M. Jacques FRIEDEL , Président honoraire de l'Académie des Sciences
Mme Claudine LAURENT
, Vice-présidente du Conseil supérieur de la recherche et de la technologie (CSRT)
M. Roger BALIAN
, membre de l'ancien Conseil des grands équipements

Les aspects budgétaires et fiscaux des TGE
mercredi 17 mai 2000

Ministère de la recherche - direction de la recherche
M. Vincent COURTILLOT
, Directeur de la recherche
M. Michel Le BELLAC
, Conseiller du diecteur de la recherche pour la physique et les sciences de l'ingénieur (CRD2)
M. Jean-Pierre CHARLEMAGNE
, Chef du bureau du Budget civil de recherche, du Développement et du financement des programmes

Ministère de la Recherche - Direction de la Technologie
Mme Geneviève BERGER
, Directrice de la Technologie
M. Bernard FROIS
, Directeur du département énergie, transports, environnement et ressources naturelles (DTA4)
M. Jean-Alexis GRIMAUD
, Directeur du département bio-ingéniérie (DTA2)

Ministère de l'Economie, des Finances et de l'Industrie - Secrétariat d'Etat au Budget
M. Laurent GALZY
, Sous-directeur, Direction du budget
M. Stéphane BRIMONT
, Chef de Bureau, Direction du budget

CEA
M. Philippe BRAIDY
, Directeur financier
M. François GOUNAND
, Directeur des Sciences de la Matière
M. Bernard SALANON
, Direction de la Stratégie
M. Pierre TRÉFOURET
, Chef du service des Affaires publiques

CNRS
M. Nicolas RUBEL
, Chef du service de la programmation des moyens
Mme Nathalie GODET
, Secrétaire permanent des grands équipements

Sciences et Technologies de l'Information et de la Communication
mercredi 31 mai 2000

INRIA
M. Gilles KAHN
, Directeur scientifique

BULL
M. Gérard ROUCAIROL
, Directeur de la recherche et du développement, Président du Conseil d'orientation du réseau national des technologies logicielles

CINES (Centre Informatique National de l'Enseignement Supérieur)
M. Alain QUÉRÉ
, Directeur

France TELECOM
M. Francis JUTAND
, Directeur scientifique de France Télécom R & D
Mme Marie-Claude FÉRON
, Adjointe aux relations institutionnelles

MATRA DATAVISION - SYNTEC
M. Hugues ROUGIER
, Président

RENATER
M. Dany VANDROMME
, Directeur

CEA
M. Jean THERME
, Directeur du LETI
M. Alain HOFFMANN
, Directeur de l'Informatique
M. Bernard SALANON
, Direction de la Stratégie
M. Pierre TRÉFOURET
, Chef du service des Affaires publiques

CNRS
M. Michel VOOS
, Chargé de mission auprès du Directeur général
M. Jacques DUPONT-ROC
, Directeur scientifique adjoint au département des sciences physiques et mathématiques
M. Patrick LE QUÉRÉ
, Chargé de mission au département des sciences pour l'ingénieur
M. Jean-Charles POMEROL
, Chargé de mission au département des sciences pour l'ingénieur
M. Serge FAYOLLE
, Directeur adjoint de l'IDRIS (Institut du Développement et des Ressources en Informatique Scientifique)

Sciences du Vivant
mercredi 7 juin 2000

Programme national de Génomique
Professeur Pierre CHAMBON
, Président du conseil scientifique

Institut de génétique et de biologie moléculaire cellulaire
Professeur Dino MORAS

Génopoles
Dr. Pierre TAMBOURIN
, Directeur général

EMBL
Dr. Fotis C. KAFATOS
, Directeur général
Dr. Christian BOULIN
, Coordinator of Scientific facilities

Institut Pasteur
Professeur Henri KORN
, Directeur du Laboratoire de biologie cellulaire et moléculaire du neurone

CEA
M. Michel VAN DER REST
, Directeur de l'IBS, Grenoble
Dr. Denis LE BIHAN
, Directeur de recherche, Laboratoire d'imagerie neurologique anatomique et fonctionnelle, Service hospitalier Frédéric Joliot, Orsay
M. Bernard SALANON
, Direction de la Stratégie
M. Pierre TRÉFOURET
, Chef du service des Affaires publiques

CNRS
Mme Geneviève ROUGON
, Directeur scientifique adjoint au Département des sciences du vivant
M. Jean-Claude THIERRY
, Chargé de mission au département des sciences du vivant

INSERM
Professeur Patrice DEBRÉ
, Directeur scientifique auprès du Directeur général

Les sources de neutrons, le magnétisme à haut champs et la RMN
mercredi 21 juin 2000

CEA
M. René PELLAT
, Haut Commissaire à l'énergie atomique
M. François GOUNAND
, Directeur des sciences de la matière
Mme Françoise FABRE
, Adjointe au directeur des sciences de la matière
M. Bernard SALANON
, Direction de la stratégie
M. Pierre TRÉFOURET
, Chef du service des affaires publiques

CNRS
M. Alain FONTAINE
, Directeur scientifique adjoint, Département des Sciences physiques et mathématiques
M. Dominique GIVORD
, Directeur du service des champs magnétiques pulsés, Toulouse
M. José TEIXEIRA
, Directeur-adjoint du Laboratoire Léon Brillouin
Mme Dominique VIOLLET
, Chargée des relations avec les élus

Institut LAUE-LANGEVIN
M. Christian VETTIER
, directeur adjoint

LCMI (Laboratoire des Champs Magnétiques Intenses) / GHMFL (Grenoble High Magnetic Field Laboratory) /
M. Peter WYDER
, Directeur
M. Gérard MARTINEZ
, Directeur-adjoint (CNRS)
M. Claude BERTHIER
, Responsable des programmes RMN (CNRS)

Politique générale des TGE
mercredi 28 juin 2000

Compagnie de Saint Gobain
M. J-C LEHMANN
, Directeur de la recherche de Saint Gobain

Ministère de la Recherche : Direction de la Recherche
Michel FOUGEREAU
, Conseiller du Directeur de la Recherche pour les sciences de la vie, la biologie et la médecine
M. Jacques HAIECH
, Directeur du Programme national de génomique
M. Claude PUECH
, Conseiller du Directeur de la Recherche pour les Mathématiques et l'Informatique
Mme Michèle LEDUC
, Conseiller du Directeur de la Recherche pour la Physique et les Sciences de l'Ingénieur

Ministère de la Recherche : Direction de la Technologie
M. Jean-Alexis GRIMAUD
, Directeur du département bio-ingéniérie
M. Maurice FISCHER
, Conseiller pour les technologies de l'information
M. Bernard FROIS
, Directeur du département énergie, transports, environnement, ressources naturelles

Physique des particules et Physique du noyau
mercredi 13 septembre 2000

CERN
M. Luciano MAIANI
, Directeur général
M. Claude DÉTRAZ
, Directeur de la recherche

CEA
M. François GOUNAND
, Directeur des sciences de la matière
M. Bernard SALANON
, Direction de la Stratégie
M. Pierre TRÉFOURET
, chef du service des affaires publiques

CNRS-IN2P3
M. Jean-Jacques AUBERT
, Directeur scientifique
M. Guy WORMSER
, Directeur scientifique adjoint

GANIL
M. Daniel GUERREAU
, Directeur
M. Dominique GOUTTE
, Directeur adjoint
M. Laurent BEAUVAIS
, Secrétaire général
M. Jean-Pierre GRANDIN
, CIRIL (Centre interdisciplinaire de recherche Ions lourds Lasers)

Fusion
mercredi 20 septembre 2000

CEA
M. René PELLAT
, Haut-Commissaire à l'énergie atomique
M. Guy LAVAL
, Directeur de recherche
M. Jean JACQUINOT
, Chef du département de recherche sur la fusion contrôlée
M. Michel CHATELIER
, Directeur de recherche
M. Bernard SALANON
, Direction de la Stratégie
M. Pierre TRÉFOURET
, Chef du Service des Affaires publiques

CNRS
M. Dominique ESCANDE
, Directeur de recherche au CNRS - Laboratoire de physique des interactions ioniques et moléculaires

ITER
M. Robert AYMAR
, Directeur

JET
M. Jérôme PAMELA
, Responsable du JET dans le cadre de l'European Fusion Development Agreement

Fusion avec confinement inertiel,
Physique gravitationnelle et
Géologie sous-marine
mercredi 4 octobre 2000

Laser MégaJoule
M. Guy LAVAL
, Directeur de recherche CNRS, Conseiller du Haut-commissaire à l'énergie atomique
M. Bernard SALANON
, Direction de la Stratégie

Projet VIRGO (Physique gravitationnelle)
M. Alain BRILLET
, OCA - co-Directeur du projet VIRGO
M. Claude BOCCARA
, Directeur de recherche, ESPCI
M. Michel DAVIER
, Professeur à l'Université de Paris-Sud (LAL), Membre de l'Académie des Sciences
M. Jacques DUPONT-ROC
, Directeur scientifique adjoint- CNRS - Département Sciences Physiques et Mathématiques
M. Daniel ENARD
, OCA - Directeur technique du projet VIRGO
Mme Elisabeth GIACOBINO
, Directrice de recherche, Laboratoire Kastler-Brossel, Université Pierre et Marie Curie
M. Jean-Marie MACKOWSKI
, INPL- SMA-Virgo
M. François RICHARD
, Directeur du Laboratoire de l'accélérateur linéaire (LAL)
M. Michel YVERT
, Laboratoire d'Annecy-le-Vieux de Physique des Particules (LAPP)

OPD (Ocean Drilling Program)
M. John LUDDEN
, Directeur de recherche, CRPG-CNRS, Nancy
M. Philippe PÉZARD
, Directeur de recherche, Insteem-CNRS
M. Philippe VIDAL
, Directeur adjoint, INSU-CNRS

Océanographie
mercredi 18 octobre 2000

IFREMER
M. Jean-François MINSTER
, Président-directeur général
M. Daniel DESBRUYÈRES
, Directeur du département de l'environnement profond
M. Maurice HÉRAL
, Directeur Ressources vivantes
M. Philippe HUCHON
, Professeur à l'Université Paris VI

CNRS
M. Guy BOUCHER
, INSU-CNRS
Mme Pascale DELECLUSE
, Laboratoire d'océanographie dynamique et de climatologie (LODYC) - CNRS / Université PARIS 6 / IRD
Mme Laurence EYMARD
, Présidente du groupe ad hoc Terre-Océan-Atmosphère-Espace du Comité des Programmes scientifiques du CNES
M. Gérard JUGIE
, IFRTP (Institut français de recherche et de technologie polaire) - CNRS / CNES / Ifremer / TAAF / MétéoFrance / EPF
M. Laurent LABEYRIE
, Laboratoire des sciences du climat et de l'environnement (LSCE) - CNRS / CEA, Directeur du programme IMAGES (International Marine Global Change Study)
M. Christian LE PROVOST
, Laboratoire d'études en Géophysique et océanographie spatiales (LEGOS) CNRS / CNES / Univ. Toulouse 3
M. Frank ROUX
, INSU, Chargé de mission pour la physique de l'océan et de l'atmosphère
Mme Dominique VIOLLET
, Chargée des relations avec les élus

CNES
Mme Nicole PAPINEAU
, Déléguée adjointe à l'observation de la Terre
M. Philippe ESCUDIER
, Chef de la division altimétrie et du projet Jason
M. Arnaud BENEDETTI
, Chargé des relations avec le Parlement

CEA
M. Philippe JEAN-BAPTISTE
, Direction des sciences de la matière
M. Bernard SALANON
, Direction de la stratégie
M. Pierre TRÉFOURET
, Cabinet de l'Administrateur général, chargé des relations avec le Parlement

Météorologie
mercredi 25 octobre 2000

CNES
M. Jean-Louis FELLOUS
, Délégué à l'étude et à l'observation de la Terre
M. Arnaud BENEDETTI
, Chargé des relations avec le Parlement

CNRS
M. Gilles BERGAMETTI
, Laboratoire interuniversitaire des systèmes atmosphériques (LISA) - CNRS / Univ. Paris 7 / Univ. Paris 12
Mme Laurence EYMARD
, CNRS, Présidente du groupe ad-hoc Terre-Océan-Atmosphère-Biosphère du Comité des Programmes scientifiques du CNES
M. Daniel GUEDALIA
, Laboratoire d'aérologie - CNRS / Observatoire Midi-Pyrénées / Univ. Paul Sabatier Toulouse III, Président de la Commission spécialisée océan-atmosphère
M. Franck ROUX
, CNRS - INSU, Chargé de mission pour la physique de l'océan et de l'atmosphère
M. Michel VAUCLIN
, Laboratoire d'études des transferts en hydrologie et environnement (LTHE) CNRS / Univ.Grenoble 1 / INP Grenoble / IRD
Mme Dominique VIOLLET
, Chargée des relations avec les élus

Institut Pierre-Simon Laplace (IPSL)-CETP, LMD, LODYC, LPCM, LSCE, SA-CNRS/Univ. P & M Curie Paris VI/Univ. Versailles-St Quentin-CEA-ENS-ORSTOM-CNES
M. Gérard MEGIE
, Directeur de l'IPSL
Mme Danièle HAUSER
, Centre d'étude des environnements terrestres et planétaires (CETP) - CNRS / Univ. Versailles, Présidente du comité scientifique du programme national de recherche sur l'atmosphère et l'océan
M. Jean JOUZEL
, Laboratoire des sciences du climat et de l'environnement LSCE-CNRS/CEA
M. Hervé LE TREUT
, Laboratoire de Météorologie dynamique - CNRS / ENS / Ecole Polytechnique / Univ.Paris 6, Modélisation de l'atmosphère

Météo-France
M. Daniel CARIOLLE
, Directeur de la recherche

Astronomie,
Astrophysique et
Planétologie
mercredi 8 novembre 2000

CEA
M. Joël FELTESSE
, Chef du DAPNIA (Département d'Astrophysique, de Physique des particules, de Physique Nucléaire et de l'Instrumentation Associée), Direction des sciences de la matière
M. Laurent VIGROUX
, Chef du SAp (Service d'Astrophysique), Direction des sciences de la matière
M. Bernard SALANON
, Direction de la Stratégie
M. Pierre TRÉFOURET
, Conseiller au cabinet de l'administrateur général

CNES
M. José ACHACHE
, Directeur général adjoint scientifique du CNES
M. Richard BONNEVILLE
, Délégué à l'exploration et à l'étude de l'Univers
M. Arnaud BENEDETTI
, Chargé des relations avec le Parlement

CNRS
M. Michel BLANC
, Directeur du Laboratoire d'astrophysique de l'Observatoire Midi-Pyrénées
Mme Geneviève DEBOUZY
, Directrice scientifique adjointe de l'INSU-CNRS
M. Bernard FORT
, Directeur de l'Institut d'astrophysique de Paris
M. Jacques HAISSINSKI
, Professeur à l'université Paris-Sud, chercheur au LAL, Orsay
M. Jean-Marie HAMEURY
, Directeur de l'Observatoire de Strasbourg
M. Olivier LE FEVRE
, Directeur de recherche, Laboratoire d'Astrophysique de Marseille (LAM), Représentant de la France au Conseil de l'ESO
M. Jean-Loup PUGET
, Directeur de l'Institut d'astrophysique spatiale d'Orsay
M. Christophe SOTIN
, Professeur de géophysique à l'université de Nantes
Mme Dominique VIOLLET
, Chargée des relations avec les élus

ESA
M. R-M. BONNET
, Directeur du programme scientifique

Station spatiale internationale, vols habités et Galileo
mercredi 15 novembre 2000

CNES
M. Gérard BRACHET
, Directeur général
M. Jean-Paul GRANIER
, Conseiller auprès du directeur général
M. Arnaud BENEDETTI
, Chargé des relations avec le Parlement

CNRS
M. Jacques SEYLAZ
, Directeur scientifique adjoint du Département des sciences du vivant
M. Christophe VIGNY
, Chargé de mission à l'INSU

ESA
M. Antonio RODOTA
, Directeur général
M. Jean-Jacques DORDAIN
, Directeur de la stratégie et de l'évaluation technique
M. Louis FORNERY
, Administrateur à la Direction de la stratégie

Sciences de l'Homme et de la société
Projets de réacteurs du CEA
mercredi 22 novembre

CNRS
Mme Marie-Claude MAUREL
, Directrice du Département des sciences de l'Homme et de la société du CNRS
M. Georges TATE
, Directeur adjoint du Département des sciences de l'Homme et de la société du CNRS
M. Philippe FLUZIN
, Directeur de l'Institut de recherche sur les archéomatériaux
M. Bruno HELLY
, Directeur de recherche à l'Institut Fernand Courby
M. Bruno PEQUIGNOT
, Professeur des Universités, Conseiller scientifique du Département des Sciences de l'Homme et de la société
Mme Dominique VIOLLET
, Chargée des relations avec les élus

CEA
M. François GOUNAND
, Directeur des sciences de la matière
M. Jean-Louis LACLARE
, Chef du projet de source de neutrons multi-usages
M. Jacques BOUCHARD
, Directeur du pôle nucléaire civil du CEA (réacteur Jules Horowitz)
M. Bernard SALANON
, Direction de la Stratégie
M. Pierre TRÉFOURET
, Conseiller au cabinet de l'administrateur général

Ecosystèmes terrestres
mercredi 29 novembre

INRA
M. Bertrand HERVIEU
, Président
Mme Marion GUILLOU
, Directrice générale
M. Jean BOIFFIN
, Directeur scientifique Environnement, Forêt et Agriculture

Commission de l'Union européenne
mercredi 29 novembre

M. Philippe BUSQUIN , Commissaire européen à la Recherche
M. Yvan CAPOUET
, Conseiller au cabinet du Commissaire à la Recherche, chargé de l'énergie, des STIC, des affaires économiques et des entreprises
M. Marco MALACARNE
, Chef de l'unité Access to Research Infrastructures
Mme Jeanne MONFRET
, Conseiller scientifique à la Représentation permanente de la France auprès des institutions européennes

II - Visites

CERN
M.
Luciano MAIANI , Directeur général
M.
Claude DÉTRAZ , Directeur de la recherche
M. M. BUHLER-BROGLIN
, Direction des accélérateurs

Institut Laue Langevin (ILL)
Professeur Dirk DUBBERS
, Directeur
M. Christian VETTIER
, Directeur
M. Colin CARLILE
, Directeur

ESRF
M. Yves PETROFF
, Directeur

LCMI (Laboratoire des Champs Magnétiques Intenses) / GHMFL (Grenoble High Magnetic Field Laboratory) /
M. Peter WYDER
, Directeur
M. Gérard MARTINEZ
, Directeur-adjoint (CNRS)

EMBL (European Molecular Biology Laboratory)
M. Stephen CUSACK
, Directeur

INTRODUCTION GÉNÉRALE

Dans sa réunion du 17 novembre 1999, le Bureau de l'Assemblée nationale, à la demande du Groupe communiste, a saisi l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), d'une étude sur les " conditions techniques d'implantation du projet de synchrotron SOLEIL " .

L'OPECST a, le 15 décembre 1999, adopté l'étude de faisabilité présentée par vos Rapporteurs, et a suggéré au Bureau de l'Assemblée nationale de reformuler sa saisine dans les termes suivants : " les conditions d'implantation d'un nouveau synchrotron et le rôle des très grands équipements dans la recherche publique et privée, en France et en Europe" , une demande que le Bureau de l'Assemblée nationale a acceptée le 2 février 2000.

La première partie du présent rapport sur les conditions d'implantation d'un nouveau synchrotron a été adoptée à l'unanimité par l'Office parlementaire, le 15 mars 2000.

Après avoir démontré, dans cette étude, l'utilité d'un nouveau synchrotron en France, l'Office parlementaire a pu constater avec satisfaction que le ministre de la recherche, suivant en cela ses recommandations, avait, contrairement à son prédécesseur, choisi comme priorité la construction d'un synchrotron sur le territoire national.

Le présent document traite du sujet plus général du rôle des très grands équipements dans la recherche publique et privée en France et en Europe.

Cet élargissement du sujet s'avère particulièrement opportun.

Les investissements dans les TGE étaient précédemment quelque peu artificiellement opposés à la nécessité d'améliorer les moyens des laboratoires, à l'urgence d'accélérer le recrutement de jeunes chercheurs, et à l'impératif de favoriser l'imagination et à la mobilité des petites équipes de recherche.

Aujourd'hui, les controverses sur les très grands équipements semblent s'être atténuées mais n'ont pas disparu. Pour autant la question des très grands équipements demeure d'une importance capitale pour la recherche.

Dans le souci d'une bonne utilisation des fonds publics, il y a bien évidemment lieu de s'interroger sur leur efficacité scientifique ainsi que sur celui de leur rentabilité économique, d'autant que l'évolution du budget civil de la recherche et du développement technologique, malgré une légère amélioration cette année, ne semble pas suffisante pour amorcer une remontée significative de l'effort national de recherche et développement rapporté au PIB.

En contrepartie, il convient aussi d'analyser l'apport de ces investissements, non seulement au plan scientifique et technologique mais aussi pour l'industrie et l'économie nationales.

Les très grands équipements de la recherche, dont au demeurant le rôle dans la science moderne n'a pas été décrit en détail, sont en effet présentés depuis quelques années sous leur seul angle budgétaire, sans que d'ailleurs leurs retombées aient été prises en compte.

Quel bilan peut-on dresser de leur contribution à la collectivité nationale, européenne ou internationale ?

Au reste, au delà de la réponse à apporter sur leur rôle dans la recherche, il convient de noter que les très grands équipements posent une série de questions essentielles sur l'organisation des pouvoirs publics et les processus de décision.

Comment effectuer des choix d'investissement lorsque les projets de TGE de différentes disciplines entrent en concurrence ?

Comment intégrer les investissements à long terme que représentent les très grands équipements dans les contraintes de la gestion budgétaire annuelle de l'Etat et des organismes de recherche ?

Comment trouver un équilibre entre les contributions des régions, de l'Etat et de l'Union européenne et comment articuler ces efforts plus complémentaires que substituables ?

Telles sont quelques-unes unes des questions auxquelles le présent rapport tente d'apporter une contribution, étant entendu que leur résolution, si elle est possible, supposera des travaux supplémentaires et approfondis de la part de tous les acteurs de la recherche.

Comme pour l'étude sur le synchrotron, vos Rapporteurs se sont entourés d'un groupe de travail comprenant des scientifiques de haut niveau. En voici la liste :

M. Roger BALIAN , membre de l'Académie des sciences, ancien président de la Société française de physique

M. Gilles COHEN-TANNOUDJI , Conseiller du directeur des sciences de la matière du CEA

M. Robert COMÈS , Directeur du Laboratoire pour l'Utilisation du Rayonnement Electromagnétique (LURE)

M. Jean GALLOT , Professeur émérite à l'université de Rouen, ancien Recteur

M. Jean JERPHAGNON , Conseiller du directeur technique d'Alcatel

• Mme Sylvie JOUSSAUME , Directrice-adjointe, Laboratoire des sciences du climat et de l'environnement, CEA-CNRS

M. Philippe LAREDO , Directeur de recherche, Centre de sociologie de l'innovation, Ecole nationale supérieure des Mines de Paris

Mme Claudine LAURENT , Vice-présidente du Conseil supérieur de la recherche et de la technologie (CSRT)

M. Denis LE BIHAN , Directeur de recherche, CEA, Service Hospitalier Frédéric Joliot, Orsay

Mme Phyllis LIVANOS , Direction des sciences de la matière, chargée du suivi de la fusion, CEA

M. Vincent MIKOL , Directeur de recherche, Aventis

M. Jérôme PAMELA , Responsable du Joint European Torus (JET)

M. Pierre POINTU , ancien Directeur des services de recherche du groupe Saint Gobain

M. Jochen SCHNEIDER , Directeur du Hasylab, Hambourg

M. Michel SPIRO , Président du conseil scientifique du LEP-CERN.

Au cours des 16 réunions tenues avec les membres de ce groupe, ce sont plus de 200 responsables d'administrations, d'organismes et de laboratoires de recherche qui ont été auditionnés sur le rôle des très grands équipements dans la recherche publique et privée en France et en Europe.

Vos Rapporteurs tiennent à souligner l'extraordinaire enthousiasme des chercheurs auditionnés. La recherche française possède à l'évidence des équipes motivées, compétentes et compétitives, capables de communiquer brillamment les résultats de leurs travaux dans un langage accessible.

Que tous les membres du groupe de travail et les scientifiques auditionnés soient remerciés ici de leur contribution à l'information de la représentation nationale.

PREMIÈRE PARTIE - LA MONTÉE DES BESOINS EN GRANDS ÉQUIPEMENTS DANS TOUTES LES DISCIPLINES SCIENTIFIQUES

Avertissement

Le présent chapitre a pour but de donner un aperçu de la réalité que constituent les très grands équipements de la recherche (TGE).

En s'appuyant sur la nomenclature actuelle des TGE de la direction de la recherche du ministère chargé de la recherche, des auditions ont été organisées pour recueillir la vision de responsables du ministère, de responsables d'organismes de recherche ou de laboratoires et de chercheurs, sur les très grands équipements qu'ils utilisent ou dont ils prévoient la nécessité dans les années à venir.

Par ailleurs, vos Rapporteurs ont également étudié les besoins de différents domaines qui ne possèdent pas pour le moment des grands outils répertoriés dans la nomenclature actuelle, par exemple les sciences et technologies de l'information et de la communication ou les sciences du vivant ou bien encore les sciences de l'homme et de la société.

Dans toute la mesure du possible, c'est l'ensemble du paysage des très grands investissements qui a été parcouru.

Pour autant le présent rapport ne saurait prétendre à l'exhaustivité, ni pour les installations actuelles ni pour les besoins futurs.

Introduction

L'histoire des très grands équipements commence en France avec la construction de l'Observatoire du Pic du Midi et du grand aimant de Bellevue. Au plan international, la multiplication des très grands équipements internationaux de recherche est un phénomène dont on peut dater l'origine aux débuts du CERN. En 1949, Louis de BROGLIE fait la proposition que l'Europe se dote d'un laboratoire scientifique européen susceptible de favoriser la reconstruction de la science européenne. Cette proposition est appuyée dès l'année suivante par l'UNESCO.

La mise en service en 1957 du premier accélérateur du CERN inaugure une nouvelle ère, d'une part celle de la coopération scientifique internationale et d'autre part la construction de très grands équipements dont le rythme de création s'accélère au début des années 1970.

Aujourd'hui, selon la nomenclature de la direction de la recherche du ministère chargé de ce secteur, la France a construit ou est impliquée dans une quarantaine de très grands équipements qui représentent une partie importante, surtout par sa visibilité, des investissements de la recherche.

Quelle est la contribution de ces très grands équipements à la science moderne ?

Représentent-ils des outils indispensables ou au contraire, par leur coût et leur nombre, sont-ils la marque d'une dérive d'une science fascinée par le gigantisme et oubliant d'être modeste et créative ?

Pour répondre à des questions aussi cruciales pour la recherche scientifique et les chercheurs, il était impératif de ne faire preuve d'aucun dogmatisme et de s'en tenir, dans un premier temps, à l'observation des faits.

La méthode suivie par vos Rapporteurs pour la deuxième partie de leur étude sur " les conditions d'implantation d'un nouveau synchrotron et le rôle des très grands équipements dans la recherche publique et privée " est identique à celle utilisée pour l'étude sur le synchrotron.

Vos Rapporteurs ont écouté, sans aucun a priori, les responsables des organismes de recherche et des grands laboratoires publics impliqués décrire les très grands équipements en service actuellement, leurs modalités de fonctionnement et leur rôle dans les disciplines concernées.

Différentes installations ont également été visitées, en nombre insuffisant certes, mais avec le souci de recueillir une expression directe des acteurs, sans le filtre des hiérarchies de toute nature.

Les quelques deux cents scientifiques auditionnés par vos Rapporteurs reconnaîtront dans certains des paragraphes qui suivent, les propos qu'ils ont tenus devant le groupe de travail, certains de ces propos étant cités, d'autres ne l'étant pas, faute de temps pour rendre compte en détail, en quelques six mois, d'une investigation aussi ambitieuse.

En tout état de cause, la responsabilité des considérations qui suivent n'incombe en rien aux scientifiques auditionnés puisque le choix de privilégier tel ou tel aspect n'est pas le leur.

Les comptes rendus des auditions fourniront une description plus complète et authentifiée par les intervenants eux-mêmes de la situation de chaque discipline.

Mais à l'occasion de ces rencontres avec les concepteurs ou les utilisateurs des très grands équipements, l'avenir a naturellement été évoqué.

Vos Rapporteurs ont évidemment invité leurs interlocuteurs à décrire en toute liberté les besoins prévisibles de leurs disciplines dans les années à venir, hors de toute contrainte hiérarchique ou budgétaire.

Il en résulte un tableau des besoins prévisibles des différentes disciplines qui donne une indication sur les investissements à réaliser dans les prochaines années pour les seuls très grands équipements.

Toutefois, pour raison garder et pour avoir une indication sommaire mais comparative sur les nouveaux besoins par rapport aux dépenses actuelles, un décompte précis de l'évolution des dépenses depuis 1990 faites pour les très grands équipements, a été fourni dans chaque cas, grâce aux statistiques fournies par la direction de la recherche du ministère de la recherche.

Après les visites réelles ou virtuelles des très grands équipements et l'écoute attentive des représentants de la recherche française impliqués dans cette question, on ne saurait dissimuler que l'ampleur des besoins d'investissements pour l'avenir est considérable.

Mais comment, dans le même temps, ne pas avouer que la passion mise par les chercheurs pour exposer leurs projets et le caractère fascinant des perspectives de la science moderne éclipsent quelque peu les contingences financières ?

I - PHYSIQUE DES PARTICULES

La physique des particules a pour principaux objectifs l'identification des constituants élémentaires de la matière, la compréhension des forces qui régissent l'Univers et la description de l'évolution de celui-ci depuis ses origines.

La recherche en physique des particules présente la caractéristique d'appartenir au domaine de la recherche fondamentale mais ses retombées indirectes sont importantes dans de nombreux domaines, comme l'électronique, l'informatique, le développement des accélérateurs, l'ingénierie des grands projets ou la formation à la recherche.

En outre, la physique des particules et l'astrophysique sont deux disciplines dont l'enrichissement mutuel s'accroît avec le temps.

La recherche en physique des particules recourt essentiellement aux très grands équipements, indispensables pour parvenir à mettre en évidence les particules élémentaires.

La masse critique très importante des investissements à réaliser pour cette recherche et une forte volonté de coopération internationale ancienne ont conduit à la création en 1954 du CERN, qui focalise les efforts de l'Europe et attire par sa réussite d'autres collaborations.

La communauté française de la physique des particules, qui dispose de ses propres laboratoires en France, apporte au CERN ses compétences et y réalise en coopération les expérimentations les plus lourdes et les plus complexes, moyennant une contribution budgétaire qui est l'une des plus importantes après celle de l'Allemagne.

On verra dans la suite dans un premier temps, quels sont les équipements lourds du CERN et à quelles dépenses ils correspondent pour la recherche française.

L'avenir du CERN sera ensuite évoqué à grands traits, dans cette période difficile qui s'ouvre pour lui après l'arrêt du LEP (grand collisionneur électrons-positons) le 2 novembre 2000 et avant la mise en service du LHC (grand collisionneur ions-protons) qui devrait intervenir dans les cinq ans.

1. Les équipements lourds de la physique des particules

Les équipements lourds de la physique des particules utilisés par les chercheurs français sont essentiellement représentés par les installations du CERN, qui comprennent une dizaine d'accélérateurs, dont le plus grand, le LEP, est un anneau de 27,5 km implanté à cent mètres de profondeur, à cheval sur la France et la Suisse aux environs de Genève.

Depuis sa création, le CERN a fait de nombreuses découvertes importantes en physique des particules et dans d'autres branches des sciences. Ces découvertes ont contribué à améliorer la compréhension de l'Univers. Bien que moins connue, la découverte des courants neutres en 1973 et le succès pour la première fois au monde de colbeam_fr.htmlcollisions de faisceaux de protons sont parmi les principaux temps forts de l'histoire du CERN. Le travail de recherche du CERN est aussi à l'origine de nombreuses inventions remarquables et d'avancées technologiques dont la plus célèbre est le World Wide Web.

Plusieurs scientifiques du CERN ont reçu des distinctions prestigieuses. Carlo RUBBIA et Simon VAN DER MEER ont obtenu le prix Nobel de physique pour " leurs contributions décisives au grand projet qui a conduit à la découverte des particules de champ W et Z, véhicules de l'interaction faible " . charpak_fr.htmlGeorges CHARPAK, physicien au CERN depuis 1959, reçut le prix Nobel de physique en 1992 pour " l'invention et la mise au point de détecteurs de particules, en particulier la chambre proportionnelle multifils, une percée dans la technique d'exploration des parties les plus infimes de la matière " .

Le CERN représente une accumulation considérable de grands équipements comme les accélérateurs et les détecteurs de particules. La communauté des utilisateurs du CERN rassemble près de 7000 scientifiques, chercheurs, ingénieurs, techniciens et étudiants. Cette communauté provient majoritairement des Etats membres mais s'étend désormais au delà de l'Europe, à la Russie, aux Etats-Unis, au Canada, au Japon et plus généralement à l'Asie.

Le budget du CERN a atteint 939 millions de francs suisses en 1999. La contribution de la France s'est élevée pour cette même année à 16,2 % du total. La contribution du Royaume-Uni atteint 15,7 %, celle de l'Allemagne 23,7 %, celle de l'Italie 13,6 % et celle de l'Espagne 6,4 %. Les contributions calculées en francs suisses sont proportionnelles au revenu national net et sont révisées chaque année en fonction de l'évolution de ce dernier.

Au cours de ses 20 premières années d'existence, le CERN a vu son budget augmenter puis se stabiliser et diminuer légèrement. En contrepartie de la décision prise en 1995 de lancer le LHC, un objectif de réduction des effectifs à 2000 postes en 2005 a été adopté.

On sait que le LEP, principale installation du CERN, a été arrêté le 2 novembre 2000, pour permettre la construction du LHC (Large Hadron Collider) qui constitue la nouvelle frontière du CERN pour la physique des particules. Cette machine mettra en jeu des particules d'une énergie plus élevée et devrait permettre de répondre à de nouvelles questions de la physique des hautes énergies.

La réalisation du LHC s'effectue selon un schéma renouvelé par rapport à celui du CERN.

L'investissement est en effet réalisé hors budget. Par ailleurs, de nouveaux participants sont admis à participer, en particulier les Etats-Unis et le Japon. Enfin le financement du LHC est assuré en partie sur emprunt.

Au demeurant, le budget du LHC est d'un montant équivalent à celui du LEP alors que ses performances sont largement supérieures, ceci ayant été rendu possible par le progrès technologique. La construction du LHC capitalise évidemment sur les équipements primaires déjà en fonction, dont le tunnel circulaire du LEP, les accélérateurs périphériques d'alimentation, et sur les compétences accumulées par le CERN.

L'investissement du LHC représente un montant de 2,5 milliards de francs suisses, dont 80 % à la charge du CERN et 20 % à la charge des participants non-membres. Les détecteurs représentent un montant supplémentaire de 1,2 milliard de francs suisses, dont 80 % à la charge des pays non-membres et 20 % à celle du CERN.

La première retombée que la France obtient du CERN provient des salaires. Les deux tiers des personnels du CERN vivent en effet en France mais les commandes à l'industrie française et régionale représentent également des montants importants.

Même si la notion de juste retour n'existe pas au CERN, un mécanisme de rééquilibrage des retombées a été mis en place au profit des pays les moins favorisés au milieu des années 1990.

2. Les TGE de la physique des particules dans la nomenclature actuelle

La nomenclature actuelle des très grands équipements (TGE) comprend actuellement deux TGE pour la physique des particules, d'une part la contribution de la France au budget du CERN et d'autre part la participation française au LHC.

Sur les deux premières années de la période, les dépenses des TGE de la physique des particules comprennent également l'accélérateur national d'électrons de Saclay arrêté en 1991.

Tableau 1 : Dépenses relatives à l'accélérateur d'électrons 1

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

Accélérateur d'électrons

(TGE scientifique)

personnel

17

26

exploitation

4

construction

28

21

total

45

51

En 2000, la contribution budgétaire au CERN devrait représenter 74 % du total des TGE de la physique des particules et la participation au LHC 26 %.

On trouvera ci-après l'évolution des dépenses relatives respectivement au CERN et au LHC.

S'agissant du CERN sur la période 1990-2000 et de la charge qu'il a représenté pour la France, le cumul des dépenses de personnel s'élève à 4,16 milliards de francs, les dépenses d'exploitation à 1,806 milliard de francs et les dépenses de construction à 1,444 milliard de francs.

Tableau 2 : Evolution des dépenses relatives au CERN 2

millions de francs (français)

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

CERN

(TGE scientifique)

personnel

337

359

370

369

407

433

422

392

375

360

336

exploitation

184

197

194

178

232

240

157

118

104

103

99

construction

83

90

124

105

74

83

164

145

155

191

230

total

604

646

688

652

713

756

743

655

634

654

665

La charge du LHC pour la France devrait représenter en 2000 environ un tiers de celle représentée par la contribution globale au CERN.

Tableau 3 : Evolution des dépenses relatives au LHC 3

millions de francs (français)

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

LHC

(TGE scientifique)

personnel

42

65

117

162

136

166

167

170

exploitation

construction

11

14

31

58

38

47

52

59

total

53

79

148

220

174

213

219

229

S'agissant des dépenses annuelles, la somme des dépenses de personnel, d'exploitation et de construction pour l'ensemble du CERN et du LHC s'élevait à 604 millions de francs en 1990 et devrait atteindre 894 millions de francs en 2000, soit une augmentation de 48 % en francs courants.

Figure 1 : Evolution des dépenses annuelles dans les TGE de la physique des particules

Figure 2 : Evolution des dépenses relatives aux TGE de la physique des particules par rapport aux dépenses totales des TGE scientifiques et techniques

Sur la période 1990-2000, on constate une fluctuation des dépenses de la part de la physique des particules autour de 20 % de la dépense totale pour les TGE. Néanmoins, plusieurs remarques peuvent être faites.

En premier lieu, le niveau absolu de la part de la discipline dans la dépense totale pour les TGE n'appellerait pas de commentaire particulier, si le nombre de disciplines faisant appel à des équipements lourds n'était pas lui-même en augmentation rapide.

Par ailleurs, une diminution de la dépense est enregistrée depuis 1994 jusqu'à 1999.

On peut se demander toutefois si l'augmentation prévue pour 2000 n'est pas le début d'une évolution à la hausse qui ramènerait durablement la part de la physique des particules vers un étiage supérieur à 20 % du fait de la construction effective du LHC.

3. Les besoins prévisibles

Les grands sujets scientifiques à l'ordre du jour du CERN en 2000 ont été la maximisation des dernières semaines de fonctionnement du LEP et le début de la construction du LHC.

Les défis à long terme du CERN sont la perpétuation de son leadership mondial en physique des particules et la pérennisation à long terme de son existence.

Sur un plan financier, le LHC inaugure une nouvelle méthode de management du CERN, avec une ouverture plus grande et le partage de la charge financière par un nombre accru de participants.

Une question importante est de savoir si le modèle du CERN va perdurer ou au contraire être remis en cause, du fait de tendances centrifuges qui pourraient s'accentuer rapidement à mesure de l'augmentation des retombées de cette recherche fondamentale.

Avec le LHC, le CERN va principalement explorer l'origine de la masse des particules et l'existence d'un monde de la matière au delà de celui qui nous est familier (nouvelles dimensions, monde supersymétrique, monde de l'antimatière).

Mais l'un des problèmes majeurs du CERN pendant la période de construction du LHC, est de conserver un spectre de recherches de haut niveau. A cet égard, le projet d'émission de faisceaux de neutrinos dirigés à travers la roche vers le laboratoire souterrain du Gran Sasso en Italie constitue un projet d'importance, qui bénéficie d'ailleurs du soutien de la France.

Cette contrainte de crédibilité scientifique à maintenir pourrait influer à la hausse sur les dépenses.

Un projet tel que le LHC nécessite un travail de conception, de développement et de construction qui s'étale sur environ 20 ans. Les recherches sur les détecteurs ont commencé il y a 15 ans. Les travaux sur le traitement des données qui seront obtenues à partir de 2005 ont commencé en 1995.

Sur un plan technique, l'après LHC est représenté d'une part par le projet de super-collisionneur linéaire TESLA, résultat d'une collaboration internationale de 29 institutions appartenant à 9 pays, dont la faisabilité est pratiquement démontrée. D'autre part, une deuxième voie est représentée par le projet CLIC, préparé par le CERN mais en retard d'au moins quatre années sur TESLA.

Sur un plan organisationnel, s'agissant de l'avenir du CERN au delà du LHC, la question fondamentale est de savoir si son modèle de laboratoire international peut continuer à apporter les meilleures solutions pour la construction de très grands équipements en physique des particules, plutôt qu'un laboratoire national engagé dans des partenariats bilatéraux.

Cette question est soulevée par la compétence croissante de l'Allemagne dans cette discipline scientifique.

En définitive, c'est la répartition des tâches et des équipements dans le monde qui suscite des interrogations.

L'Allemagne, premier contributeur budgétaire du CERN, souligne depuis plusieurs années l'insuffisance des retombées dont elle bénéficie en retour. Il est vrai qu'il existe une politique allemande vigoureuse en physique des particules et que ce pays réclame un rééquilibrage.

Selon certains observateurs, le soutien de l'Allemagne au CERN ne semble pas devoir être remis en cause, puisque les deux tiers des spécialistes du domaine travaillent au CERN, contre un tiers à DESY (Deutsches Elektronen Synchrotron, Hambourg).

D'autres observateurs préféreraient que le CERN continue de jouer un rôle pivot même dans un avenir lointain, plutôt de voir le leadership pour la génération d'accélérateurs qui suivra le LHC être repris par DESY.

Le projet TESLA de super-collisionneur linéaire est en effet porté par DESY. Son coût est estimé aujourd'hui à hauteur de 2 à 3 milliards de dollars, soit de 14 à 21 milliards de francs, un montant encore sujet à des variations mais qui ne devrait pas significativement dépasser celui du LHC.

Les responsables du CERN proposent une répartition des rôles qui pourrait respecter les desiderata de chacun. Leur postulat de base est qu'après que l'Europe a fait l'effort principal pour le LHC, il revient naturellement aux Etats-Unis de prendre à leur charge, avec bien sûr le soutien de l'Europe, la plus grande part de TESLA, soit la moitié des coûts de construction et un engagement sur la durée du programme.

Dans ce schéma proposé par le CERN, l'Allemagne se verrait reconnaître la place de leader européen des sources de lumière avancées, c'est-à-dire en premier lieu des lasers à électrons libres (FEL - Free electron lasers) et bénéficierait d'une aide européenne à ce sujet.

Le CERN, quant à lui, s'attacherait à la modernisation du LHC et conserverait son rôle moteur dans les accélérateurs.

Toutefois, rien ne dit que l'Allemagne pourrait se satisfaire de cette répartition des rôles, qui, en tout état de cause, irait à l'encontre de ses ambitions dans la recherche fondamentale sur la physique des particules et à l'encontre des synergies des différentes recherches pratiquées à DESY, c'est-à-dire le développement des accélérateurs, la physique des particules et les études sur les lasers à électrons libres.

En filigrane, la question posée est de savoir si la rentabilité globale des investissements dans la physique des particules est bien maximisée dans le schéma actuel ou s'il conviendrait d'adopter un autre modèle à partir des années 2015-2020.

II - PHYSIQUE DU NOYAU

Si la physique nucléaire a accordé une place importante à la fission atomique et à la physique des réacteurs nucléaires civils, ses domaines d'étude sont en réalité considérablement plus larges.

En effet, la physique nucléaire s'intéresse aussi aux constituants de la matière, au degré de cohésion des noyaux en fonction du nombre et de la nature de leurs constituants, au comportement de la matière dans des conditions extrêmes et enfin à l'origine des éléments dans l'Univers.

Plus que de physique nucléaire, il est donc logique de parler aujourd'hui de physique du noyau. C'est ce qui sera fait dans la suite.

Depuis son origine, la physique du noyau recourt à de grands équipements. La nomenclature actuelle des TGE retient le GANIL, Grand accélérateur national d'ions lourds de Caen, ainsi que les dépenses de démantèlement de l'ancien accélérateur d'ions lourds SATURNE.

Les dépenses correspondant aux grands équipements de la physique du noyau sont en diminution depuis 1990, tant en valeur absolue qu'en valeur relative.

Compte tenu de l'importance de la physique du noyau tant au plan de la recherche fondamentale que pour la résolution de questions importantes relatives à l'aval du cycle nucléaire, il est important d'examiner quels pourraient être les besoins d'investissement de la discipline dans les années à venir.

1. Les équipements lourds de la physique du noyau

Le GANIL n'est pas venu s'ajouter purement et simplement à un parc initial maintenu en fonctionnement.

Au contraire, alors que la première expérience du GANIL est intervenue en 1983, au cours des 15 années suivantes, de 1983 à 1997, la physique du noyau française a su fermer différentes installations considérées comme obsolètes, tels l'accélérateur linéaire d'électrons de Saclay (ALS), l'accélérateur d'ions lourds Alice d'Orsay, l'accélérateur national Saturne de Saclay, l'accélérateur Sara de l'Institut des sciences nucléaires de Grenoble, et redéployer vers la protonthérapie le synchrocyclotron d'Orsay.

Le GANIL se définit comme un laboratoire d'accueil et un outil pluridisciplinaire. Il comprend un ensemble d'accélérateurs (cyclotrons) fournissant des faisceaux d'ions lourds dans une très large gamme de masse et d'énergie. Il délivre également des faisceaux dits exotiques, c'est-à-dire essentiellement instables, de haute énergie.

Après que la décision de construction a été prise en 1975, la première expérience est intervenue en 1983. Le coût de la construction initiale s'est élevé à 641 millions de francs 1983, soit 938 millions de francs 1999. Le coût des modifications et compléments apportés entre 1983 et 1999 s'est élevé au total à 911 millions de francs 2000.

En 1999, le GANIL a fourni 5100 heures de faisceaux à haute énergie et 1700 heures à moyenne énergie. Il dispose d'équipements expérimentaux performants. Un nouvel ensemble de production et d'accélération de faisceaux exotiques appelé SPIRAL est en cours d'achèvement.

Les installations du GANIL sont utilisées par 600 utilisateurs extérieurs. La demande de temps de faisceau est au moins deux fois supérieure au temps de fonctionnement disponible.

Les installations comparables au GANIL sont en Europe le GSI de Darmstadt en Allemagne, une installation au demeurant plus complémentaire que concurrente, l'accélérateur d'ions lourds Dubna en Russie, MSU aux Etats-Unis et RIKEN au Japon.

2. Les TGE de la physique du noyau dans la nomenclature actuelle des TGE

Le démantèlement de SATURNE se traduit encore par une dépense d'une dizaine de millions de francs par an.

Tableau 4 : Evolution des dépenses annuelles relatives à Saturne 4

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

Saturne

(TGE scientifique)

dépenses

71

97

75

72

61

55

49

28

6

5

3

personnel

53

49

40

35

29

23

21

10

8

5

10

construction

2

total

124

148

115

107

90

78

70

38

14

10

13

Le GANIL est un GIE (Groupement d'intérêt économique) créé pour 30 ans par la Direction des sciences de la matière du CEA et l'IN2P3-CNRS.

Son budget proprement dit s'élève à 52 millions de francs, les personnels de ce GIE continuant d'être gérés par les membres du GIE. Les dépenses totales relatives au GANIL correspondent à 146 millions de francs en 2000.

Tableau 5 : Evolution des dépenses annuelles relatives au GANIL 5

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

GANIL

(TGE scientifique)

personnel

65

108

64

71

79

90

93

95

97

98

93

exploitation

71

73

52

55

49

47

47

49

51

58

53

construction

6

17

21

18

19

10

total

136

181

116

132

145

158

158

163

158

156

146

Sur la période 1990-2000, les dépenses des TGE de la physique du noyau ont baissé en moyenne de près de 4 % par an.

Figure 3 : Evolution des dépenses annuelles dans les TGE de la Physique du noyau

Dans l'ensemble des dépenses relatives aux TGE scientifiques et technologiques, la physique du noyau ne représente plus que 3,5 % contre 9,1 % en début de période.

Figure 4 : Evolution des dépenses relatives aux TGE de la Physique du noyau par rapport aux dépenses totales des TGE S & T

3. Les besoins prévisibles

La question des besoins prévisibles de la physique du noyau peut s'envisager sous deux angles.

Le premier est celui d'une coopération européenne accrue qui pourrait se traduire par un élargissement des perspectives de recherche et par une diminution des coûts de fonctionnement du GANIL.

Le deuxième axe est celui d'une accélération des recherches et de l'approfondissement de leur intérêt pour différents types d'applications.

S'agissant de la coopération internationale, le GANIL développe à l'heure actuelle un programme de recherche et de développement commun avec la Belgique, les Pays-Bas et la Finlande, pour augmenter la gamme des faisceaux disponibles avec l'installation SPIRAL.

On peut penser que ce programme se traduisant par un partage des coûts de mise à disposition de GANIL, il ne devrait pas se traduire par une augmentation sensible des dépenses.

Par ailleurs, le GANIL participe en tant que coordonnateur au grand programme EURISOL, en collaboration avec tous les grands laboratoires européens, qui vise à définir un avant-projet de machine de 2 ème génération tirant parti des premières années de fonctionnement de SPIRAL. Ces développements sont liés à la mise au point d'accélérateurs de très haute intensité.

Le futur de la physique du noyau est suffisamment brillant pour pousser à des efforts accrus, qui entraîneraient des dépenses supplémentaires même en cas de coopération internationale.

La production et l'étude des noyaux exotiques représentent l'un des points forts des recherches conduites au GANIL. Ces noyaux exotiques comportent des proportions de neutrons et de protons très différentes de celles caractérisant l'état stable, ce qui devrait permettre de mieux comprendre le noyau lui-même.

D'autres résultats porteurs d'avenir concernent la mise en évidence de noyaux à halos de neutrons, l'identification de nouvelles structures de noyaux, dont des formes de polymères avec des liaisons covalentes assurées par des neutrons en excès ou encore le domaine de la recherche des noyaux superlourds, liée à la création de nouvelles espèces chimiques de numéro atomique supérieur à celui de l'uranium, l'élément le plus lourd existant dans la nature.

Les études menées au GANIL permettent également de progresser dans la connaissance de la genèse des éléments dans l'Univers et voient leurs enseignements devenir de plus en plus utiles à l'astrophysique.

Mais la recherche fondamentale en physique du noyau est actuellement peu sollicitée pour résoudre l'épineuse question des déchets radioactifs de haute activité et de leur éventuelle transmutation. Or la rupture des noyaux des transuraniens et des produits de fission pourrait nécessiter de mieux comprendre leurs mécanismes de stabilisation.

Les perspectives de la physique du noyau sont donc prometteuses et même brillantes, tant au plan des résultats récemment obtenus qu'à celui des applications.

Des investissements complémentaires pourraient donc être à consentir à l'avenir.

III - PHYSIQUE GRAVITATIONNELLE

La force gravitationnelle est une des forces de la nature que l'homme a identifiée sur un plan scientifique depuis très longtemps. Au début du 17 ème siècle, Galilée met en évidence le fait que tous les corps tombent avec la même accélération. A la fin du même siècle, les lois de la gravitation sont établies par Newton. Au début du XX e siècle, Einstein rattache les perturbations du champ gravitationnel à la structure de l'espace temps avec la théorie de la relativité générale.

Selon la théorie de la relativité générale, il existerait des ondes gravitationnelles, en réalité des perturbations du champ gravitationnel, qui se propagent à travers l'espace à la vitesse de la lumière, en décroissant très lentement lorsqu'elles interagissent avec la matière, sans être arrêtées toutefois ni par les étoiles ni par la matière interstellaire.

Jusqu'à aujourd'hui, les ondes gravitationnelles n'ont pu être mises en évidence qu'indirectement à partir de l'étude d'un pulsar binaire, en raison de la faiblesse de la force gravitationnelle.

En définitive, la détection directe des ondes gravitationnelles constitue un objectif d'un intérêt théorique fondamental. Le projet VIRGO s'attaque à la démonstration d'une des constructions intellectuelles les plus élaborées de la physique. Mais, ce faisant, le projet VIRGO représente également un défi considérable pour la physique expérimentale.

1. Les équipements lourds de la physique gravitationnelle

Le projet de détecteur français d'ondes gravitationnelles est né en 1982 au CNRS. Après que l'Italie s'est associée au projet, deux évaluations ont été conduites au CNRS et à l'INFN italien et une décision positive a été prise en 1994. La construction de l'équipement proprement dit est en cours. L'acquisition des données devrait commencer en 2003.

Cet équipement, intitulé VIRGO, est un interféromètre constitué de deux bras orthogonaux de 3 km de long comprenant chacun des cavités optiques résonantes et deux miroirs à leurs extrémités. Deux faisceaux de lumière laser produits par la même source parcourent de très longs chemins à l'intérieur des cavités, 120 km en l'espèce dans chaque bras, et sont recombinés en opposition de phase.

Or les ondes gravitationnelles déforment l'espace temps de telle sorte que, le long de deux directions perpendiculaires, les distances entre des points fixes augmentent dans une direction et diminuent dans l'autre durant le passage des ondes. Les ondes gravitationnelles entraîneront donc un changement de distance entre les miroirs qui lui-même se traduit par une variation des longueurs des chemins optiques parcourus par les deux faisceaux laser, d'où un déplacement partiel de phase des faisceaux. C'est selon ce principe que la détection d'ondes gravitationnelles doit avoir lieu.

VIRGO sera sensible aux ondes gravitationnelles dans un large spectre de fréquences, de 10 à 6000 Hz, ce qui devrait permettre de détecter les ondes produites par l'explosion de supernovae ou par la coalescence de systèmes binaires dans la Voie Lactée et dans les galaxies extérieures, comme par exemple celles de l'amas de VIRGO.

Les défis technologiques à relever pour la construction de VIRGO ont été nombreux.

Le laser de VIRGO est le premier exemplaire d'une nouvelle génération de lasers ultrastables. Les miroirs possèdent à la fois la plus haute réflectivité et la meilleure qualité de surface, deux objectifs qui ont pu être atteints après dix années de recherche et la construction d'un laboratoire de fabrication spécifique. En outre, l'interféromètre a dû être parfaitement isolé des bruits sismiques et avec ses 6 km de long, le tube sous vide du faisceau sera l'une des plus grandes chambres à vide du monde.

VIRGO fonctionnera jour et nuit, à l'écoute de tous les signaux qui arrivent à tout moment de l'univers.

2. Le TGE actuel de la physique gravitationnelle

Le budget total de ce TGE est de l'ordre de 500 millions de francs. La France assure 45 % de ce budget et l'Italie 55 %. Exploité dans le cadre d'une société civile de droit italien, le coût annuel total d'exploitation atteint 55 millions de francs par an, partagé à égalité par la France et l'Italie.

Selon le ministère de la recherche, l'investissement cumulé atteint 227 millions de francs depuis 1992, pour une dépense totale de 446 millions de francs.

Tableau 6 : Evolution des dépenses relatives à VIRGO 6

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

VIRGO

physique gravitationnelle

(TGE scientifique)

personnel

8

13

16

26

29

22

27

27

28

exploitation

17

6

construction

8

26

13

29

39

25

37

24

26

total

16

39

29

55

68

47

64

68

60

On notera figure suivante que les dépenses relatives à VIRGO semblent stabilisées à un niveau de 60-65 millions de francs par an, personnel inclus.

Figure 5 : Evolution des dépenses annuelles dans le TGE de la Physique gravitationnelle

En définitive, en 1999, les dépenses relatives à VIRGO ont représenté 1,5 % du total des dépenses relatives aux TGE scientifiques et techniques.

Figure 6 : Evolution des dépenses relatives au TGE de la physique gravitationnelle par rapport aux dépenses totales des TGE scientifiques et techniques

Aussi original soit-il, le projet VIRGO n'est pas le seul projet de détection des ondes gravitationnelles dans le monde. La détection interférométrique des ondes gravitationnelles fait en effet l'objet des expériences LIGO aux Etats-Unis, GEO600 en Allemagne et TAMA au Japon.

3. Les besoins prévisibles

Le futur du TGE VIRGO est représenté en premier lieu par son achèvement et sa mise en service en 2003. Une amélioration de l'appareil est toutefois déjà prévue pour 2006.

En second lieu, une coopération est à développer avec l'Allemagne qui, elle-même, conduit un projet en partenariat avec le Royaume-Uni.

En troisième lieu, il convient de faire coïncider la détection des ondes gravitationnelles avec d'autres mesures, comme celles de rayonnements électromagnétiques de longueurs d'ondes variées. Les événements susceptibles de créer des ondes gravitationnelles détectables sont en effet des événements particulièrement violents comme l'explosion de supernovae ou d'hypernovae, que l'on observe par ailleurs dans les longueurs d'onde des rayons X ou des rayonnements gamma. On peut donc prévoir à cet égard des recherches additionnelles qui auront sans doute un volet de modélisation important.

En quatrième lieu, la préparation de la génération suivante de détecteurs doit d'ores et déjà être entamée, puisque aussi bien 25 ans se seront écoulés entre la conception de l'appareil et son entrée en service.

Ces différentes actions, indispensables pour tirer tout le bénéfice de l'investissement déjà réalisé, ne sont pas encore chiffrées mais ne devraient pas être de nature à faire changer d'ordre de grandeur les dépenses relatives au TGE VIRGO.

1 Source : direction de la recherche, ministère de la recherche, juin 2000

2 Source : direction de la recherche, ministère de la recherche, juin 2000

3 Source : direction de la recherche, ministère de la recherche, juin 2000

4 Source : direction de la recherche, ministère de la recherche, juin 2000

5 Source : direction de la recherche, ministère de la recherche, juin 2000

6 Source : direction de la recherche, ministère de la recherche, juin 2000

IV - FUSION

La recherche sur la fusion est une activité qui se trouve confrontée à un paradoxe, celui d'avoir une finalité explicitement industrielle de production d'électricité alors que la démonstration scientifique de la faisabilité de la fusion contrôlée reste à faire. On pourrait d'ailleurs ajouter une troisième difficulté que rencontrent les recherches sur la fusion, à savoir l'ampleur des moyens requis pour les installations de recherche.

L'horizon de la fusion contrôlée est la production d'électricité. C'est l'objectif des chercheurs qui s'intéressent à ce domaine. C'est la justification des investissements considérables dont il a bénéficié.

Sans cette perspective, il ne fait pas de doute que la recherche aurait été abandonnée, tant sont grandes les difficultés qu'elle rencontre. Selon l'expression de M. Roger BALIAN, " la recherche sur la fusion contrôlée constitue un projet scientifique mais de motivation non scientifique, qui n'appartient pas en tout état de cause au domaine de la science fondamentale " .

Au vrai, cette recherche a incontestablement souffert d'annonces prématurées sur l'horizon de ses débouchés. On constate d'ailleurs une propension toujours actuelle dans les présentations faites par certains chercheurs, à comparer d'ores et déjà le coût du kWh produit par la fusion à celui du kWh nucléaire, alors que l'on ne peut envisager aucune perspective de réacteur industriel avant au minimum 30 à 40 ans.

Il faut toutefois souligner les retombées des recherches sur la fusion dans le domaine scientifique pour la physique des plasmas ou la magnétohydrodynamique et dans le domaine technologique, avec les applications industrielles des plasmas, du cryomagnétisme et des avancées dans le domaine des matériaux et de l'instrumentation.

Si le chemin est long avant ce terme, c'est qu'il reste à apporter la démonstration scientifique de la fusion contrôlée. Les tokamaks en fonctionnement actuellement progressent dans leurs performances. Mais ce sera l'objectif d'ITER-FEAT, machine conçue dans le cadre d'une collaboration internationale, que d'effectuer cette démonstration en atteignant un rapport puissance issue de la fusion sur puissance supplémentaire fournie au combustible au moins égal à 10. Mais, même en cas de succès, ITER-FEAT n'ouvrira pas la voie, à lui seul, à un réacteur électrogène. Des développements complémentaires seront nécessaires, en particulier dans le domaine des matériaux à faible activation et des couvertures tritigènes, avant une étape d'intégration technologique finale.

Il s'agit là d'un projet dont le coût est tel qu'il est mondial depuis son origine. La France possède de réelles chances d'accueillir, pour le compte de l'Union européenne, ce projet dans l'hexagone, si toutefois les conditions d'un effort de financement particulier peuvent être réunies.

1. Les équipements lourds de la fusion

Les efforts de la France dans les recherches sur la fusion contrôlée prennent appui sur une machine nationale, TORE SUPRA, et sur une participation française à la machine européenne JET.

Le tokamak TORE SUPRA, installé à Cadarache est issu du regroupement des moyens relatifs aux machines TFR (tokamak) de Fontenay-aux-Roses, Petula (tokamak) et Wega (stellarator) de Grenoble, installations qui ont été arrêtées au milieu des années 1980.

La construction de TORE SUPRA a duré 7 ans, le premier plasma ayant été obtenu en 1988. Le volume du plasma de TORE SUPRA est de 20 m 3 , à comparer au volume de l'ordre de 1 m 3 des machines de la génération précédente et au 100 m 3 du JET.

TORE SUPRA a obtenu des plasmas sur des durées de 2 minutes et permet des démonstrations complémentaires à celles du JET. Celui-ci est plus performant du fait de son grand volume mais est limité en durée d'impulsion à 5 secondes pour les plasmas les plus performants.

Par rapport à l'ensemble des machines servant dans le monde à l'étude de la fusion, TORE SUPRA est le seul grand tokamak à mettre en _uvre la technologie des aimants supraconducteurs.

Dans la répartition de facto des sujets de recherche relatifs à la fusion, TORE SUPRA s'est spécialisé dans l'étude des temps longs et détient le record de l'énergie extraite. La modernisation en cours, qui s'achèvera en 2008, a pour objectif l'accès à la physique et à la technologie des décharges performantes et de longue durée, c'est-à-dire de 1000 secondes environ. En tout état de cause, on peut considérer que vers 2008, le programme TORE SUPRA sera arrivé à maturité.

TORE SUPRA a exercé un effet d'entraînement dans le domaine du magnétisme et de la cryogénie.

C'est pour cette installation qu'ont été développés des aimants supraconducteurs et une installation cryogénique inédite, technologies qui ont ensuite été utilisées au CERN pour construire le LHC. Les techniques cryomagnétiques développées par le CEA pour la fusion et la physique des particules ont trouvé de nombreuses applications dans le domaine médical et d'autres domaines de recherche.

Les travaux conduits avec TORE SUPRA sont complétés par les recherches effectuées sur le tokamak européen JET implanté en Grande-Bretagne.

La décision de construction du JET (Joint European Torus) fut prise en 1978 par le Conseil des ministres de la CEE, sa construction intervenant de 1978 à 1983, date à laquelle le premier plasma a été obtenu.

Le JET est le plus grand tokamak du monde. Il détient le record mondial d'énergie de fusion, soit 22 MJ pendant près de 4 secondes. Il détient également le record mondial de puissance de fusion, à 16 MW, avec un rapport puissance issue de la fusion sur puissance additionnelle fournie au combustible égal à 0,64.

Seul instrument à pouvoir fonctionner avec un mélange deutérium-tritium, le JET joue un rôle clé dans la préparation de l'étape expérimentale suivante, présentée sous le nom d'ITER (International Thermonuclear Experimental Reactor).

Le JET présentant encore un fort potentiel, son utilisation a été prolongée jusqu'à la fin 2002 et est envisagée jusqu'à la fin du 6 ème PCRD. Un investissement supplémentaire a été proposé dans ce sens, consistant dans l'augmentation de puissance de chauffage du plasma, afin d'affiner les scénarios de fonctionnement d'ITER, de finaliser l'ingénierie de différents dispositifs essentiels de ce dernier et de progresser dans la recherche fondamentale sur la physique des plasmas. L'essentiel de cet investissement devrait être financé par EURATOM.

Le JET est utilisé depuis le 1 er janvier 2000 dans le cadre d'un nouvel accord, l'European Fusion Development Agreement (EFDA), dont le but est de mettre en place un cadre coopératif fort, de focaliser et de réorganiser les recherches afin de préparer ITER. Outre le JET, l'EFDA couvre les recherches en technologies de la fusion et la participation européenne à ITER. L'EFDA pourrait éventuellement évoluer vers une agence européenne, en particulier si ITER était décidé.

2. Les TGE de la fusion dans la nomenclature actuelle

Les dépenses annuelles relatives à TORE SUPRA sont stables depuis 1995, à moins de 150 millions de francs par an, selon les chiffres du ministère de la recherche. En 1999, le personnel attaché à TORE SUPRA représentait 356 personnes, dont 282 appartenant au CEA, 24 présents dans le cadre d'EURATOM et 16 doctorants.

Tableau 7 : Evolution des dépenses relatives à TORE SUPRA 1

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

TORE SUPRA

(TGE scientifique)

personnel

92

70

82

57

67

81

81

82

83

86

86

exploitation

96

97

52

51

51

38

45

40

42

39

41

construction

23

24

22

17

17

17

total

188

167

134

108

118

142

150

144

142

142

144

La participation française au JET représente quant à elle un montant de 11 millions de francs par an, correspondant à une quote-part des frais d'exploitation.

Le faible coût de la participation française au JET s'explique par l'intervention des crédits communautaires pour le financement de la machine.

En effet, le programme européen de recherche sur la fusion fait l'objet d'une action clé  du 5 ème PCRD, qui est mise en oeuvre dans le cadre des activités EURATOM. Deux des principaux axes de cette action clé sont d'une part la pleine exploitation du JET et d'autre part la consolidation des bases scientifiques d'ITER.

De fait, le budget du JET pour l'année 2000 est de 67,5 millions d'euros. EURATOM le finance à hauteur de 73 %. Un Fond conjoint réunissant l'UKAEA et les " Associations ", c'est-à-dire les organismes nationaux de recherche contractuellement associés à EURATOM, finance 21 % du total. Le reste, c'est-à-dire 6 %, correspond à des activités conduites dans les laboratoires nationaux et financées par ceux-ci. La participation directe du CEA au Fond conjoint représente 1,4 million d'euros.

Tableau 8 : Evolution des dépenses relatives au JET 2

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

JET

(TGE scientifique)

personnel

exploitation

21

22

17

17

17

10

10

10

10

11

11

construction

total

21

22

17

17

17

10

10

10

10

11

11

Compte tenu des évolutions précédentes, il n'est pas étonnant de constater que les dépenses des TGE de la fusion sont étales depuis 1995.

Figure 7 : Evolution des dépenses annuelles relatives aux TGE de la fusion

Par ailleurs, les dépenses des TGE de la fusion représentent en 2000 3,4 % de l'ensemble des dépenses des TGE scientifiques et techniques.

Figure 8 : Evolution des dépenses relatives aux TGE de la fusion par rapport aux dépenses totales des TGE scientifiques et techniques

3. Les besoins prévisibles

Le tokamak français et le tokamak européen actuellement en fonctionnement ne semblent pas nécessiter à moyen terme des dépenses susceptibles de faire croître sensiblement leurs budgets. La modernisation en cours de TORE SUPRA sera achevée en 2008 dans les limites budgétaires actuelles. La prolongation du JET au delà de 2002 ne devrait pas représenter une charge supplémentaire considérable pour les pays membres, dans la mesure où EURATOM assume la plus grande part du financement.

En réalité, la grande question est celle du projet ITER-FEAT, conçu dans le cadre d'une coopération internationale.

La coopération en matière de recherche sur la fusion a pris une dimension mondiale depuis la fin des années 1980 à la suite d'un sommet du G7.

Avec un horizon à plusieurs dizaines d'années pour l'obtention de résultats industrialisables, l'absence de concurrence et de retombées immédiates en matière de fourniture d'énergie, un accord international a pu être signé entre les Etats-Unis, le Japon, l'Europe et la Russie, les recherches en cours au plan national se poursuivant toutefois en parallèle.

Le programme ITER subséquent a connu une première étape au terme de laquelle le projet a été jugé surdimensionné et coûteux. Le coût de la machine préconisée intitulée ITER-FDR atteignait en effet 6 milliards de dollars. Le projet a connu ensuite une phase difficile, notamment en raison du retrait des Etats-Unis.

Le projet actuel intitulé ITER-FEAT résulte d'une simplification du projet initial. Son coût est ramené à 3,5 milliards de dollars, soit environ 25 milliards de francs.

Les dépenses de recherche sur la fusion dans le monde sont d'un montant considérable. EURATOM consacre environ 200 millions d'euros par an, auxquels il faut ajouter les 250 millions d'euros annuels dépensés par les pays membres, soit un total de 450 millions d'euros dépensés en Europe. Les sommes consacrées annuellement à ces mêmes recherches atteignent un montant comparable au Japon et environ 250 millions de dollars aux Etats-Unis. Le total des dépenses atteint donc environ 1,1 milliard d'euros par an.

La construction d'ITER-FEAT dont le devis actuel est de 3,5 milliards d'euros, semble possible aux partisans du projet, dans la mesure où elle s'étalera sur 10 ans et où elle s'accompagnera d'une fermeture progressive de la plupart des installations actuelles.

Selon la répartition des dépenses arrêtée actuellement, un partenaire du projet ITER, par exemple l'Union européenne, accueillant la machine sur son sol devrait prendre à sa charge 25 % du coût d'ITER-FEAT, en plus de sa contribution aux 75 % restant qui sont à partager équitablement entre l'ensemble des partenaires.

Dans le cas où l'Europe, dans le cadre d'EURATOM serait candidate pour accueillir le projet, la charge financière pour le pays hôte ne constituerait qu'une partie de ces 25 %, le complément étant financé par le budget communautaire EURATOM. La part précise du pays hôte reste donc à négocier.

C'est dans ce cadre que le CEA propose à l'Union européenne la candidature du site de Cadarache pour accueillir la machine ITER-FEAT. Les atouts de la France sont ses compétences dans le domaine de la fusion, les qualités du site de Cadarache, ainsi que l'absence d'autre candidat en Europe.

Sur un plan financier, la dépense pour la France serait sans nul doute importante même si la part d'EURATOM reste à négocier. Mais les commandes à l'industrie nationale et les revenus provenant de l'exploitation viendraient compenser la charge initiale, avec un décalage de trésorerie dont il faut tenir compte.

Sur le seul plan financier, l'exemple du CERN montre que la France a pu obtenir des retombées considérables de son rôle moteur dans un grand projet international, aux plans scientifiques, technologiques et économiques.

Reste à savoir si l'exemple du CERN est transposable à la fusion et si une participation de toutes les grandes zones économiques mondiales pourra être réunie, conformément aux objectifs initiaux du projet.

V - LE LASER MEGAJOULE

Le Laser MegaJoule est un très grand investissement technologique, en cours de construction, destiné au programme de simulation lié à la Défense nationale.

En tant que tel, le Laser MegaJoule n'est pas un très grand équipement répertorié pour le moment dans la nomenclature des TGE de la direction de la recherche du ministère de la recherche.

S'il s'agit d'un outil qui participe au maintien de la capacité de dissuasion après la suppression des essais nucléaires, son utilisation pour la recherche civile est toutefois envisagée.

Le principe d'une utilisation du laser MegaJoule pour des recherches civiles relatives à la fusion contrôlée par confinement inertiel ainsi que les conditions de mise en place d'un tel programme sont actuellement explorés.

C'est dans cette perspective que le cas du Laser MegaJoule est traité dans la suite.

1. Le Laser MegaJoule pour l'étude de la fusion avec confinement inertiel

Le Laser MegaJoule, dont la construction a commencé au CESTA-CEA près de Bordeaux, devrait être opérationnel en 2008 et atteindre ses performances nominales en 2010.

Grâce à ses 240 faisceaux, le Laser MegaJoule pourra déposer une énergie de 1,8 MJ en quelques milliardièmes de seconde sur une cible centimétrique, recréant ainsi à une échelle réduite les conditions de pression et de température de la fusion thermonucléaire. La puissance de l'ensemble des faisceaux pourra atteindre 600 000 Gigawatts.

Le Laser MegaJoule représente l'un des trois maillons développés pour suppléer les enseignements des essais nucléaires.

Le premier autre maillon est l'appareil de radiographie éclair géant AIRIX, installé à Moronvilliers (Marne) qui sert à radiographier avec un flash de rayons X d'une durée de quelques milliardièmes de secondes, l'explosion de matériaux lourds non nucléaires servant d'amorce aux armes nucléaires.

Le deuxième maillon est l'ensemble constitué par un supercalculateur en cours d'installation au centre du CEA-DAM d'Ile-de-France de Bruyères-le-Châtel et par les logiciels de simulation numérique des armes nucléaires. Le coût total du programme de simulation s'élève à 15 milliards de francs, dont 10 milliards de francs pour les investissements matériels et 5 milliards de francs pour le développement. Un millier de chercheurs et ingénieurs de la DAM du CEA y travaillent 3 .

La construction et l'utilisation du laser MegaJoule répondent ainsi au premier chef à des objectifs militaires liés à la simulation des armes nucléaires.

Mais il est prévu dans ce cadre qu'une partie des 600 tirs annuels soient utilisés pour l'étude de la fusion par confinement inertiel.

Il s'agit là d'un domaine d'étude complémentaire de celui de la fusion contrôlée avec confinement magnétique, où l'on utilise des tokamaks (voir plus haut).

Un dispositif tel que le Laser MegaJoule peut en effet permettre de, créer pour un volume de matière très faible, de l'ordre du centimètre cube, les conditions de la fusion.

En effet, l'absorption du rayonnement laser par une cible de deutérium et de tritium conduira à des températures de plusieurs millions de degrés et des pressions de plusieurs millions de bars, d'où la compression brutale des matériaux fusibles et le déclenchement de la fusion nucléaire, le temps de réaction étant limité par le temps de dégradation de la cible, lui-même fonction de l'inertie de la matière. Le gain attendu entre l'énergie fournie, soit 2 MJ, et l'énergie de fusion, est d'un facteur 10, le tout pour des quantités de matière très réduites.

La fusion par confinement inertiel ne fait à l'heure actuelle l'objet d'aucun programme financé de recherche civile, sauf aux Etats-Unis, ce qui a pour conséquence un retard important de cette voie de recherche par rapport à la fusion par confinement magnétique, la seule explorée dans bien des cas et en particulier au CEA.

2. Le Laser MegaJoule, un équipement potentiellement fédérateur pour les recherches sur les lasers de puissance

Au delà des études sur la fusion proprement dite, une installation comme le Laser MegaJoule pourrait constituer un outil d'une grande utilité pour d'autres types de recherches.

En premier lieu, le Laser MegaJoule présente un intérêt considérable pour la physique fondamentale, au regard de questions comme la dynamique des implosions et les équations d'état, l'étude des interactions rayonnement-matière.

Pour d'autres disciplines comme l'astrophysique, un tel dispositif permet la simulation d'événements violents comme l'explosion de supernovae. Les conditions technologiques de mise en _uvre d'un tel équipement étant très complexes, les recherches correspondantes sont d'un intérêt majeur pour d'autres projets comme par exemple le projet VIRGO de détection des ondes gravitationnelles (voir plus haut).

De fait les équipes de recherche intéressées par l'utilisation du Laser MegaJoule sont très nombreuses, situées principalement à l'Ecole Polytechnique, à Orsay, au CEA ainsi qu'en Europe.

Au reste, il existe en France une communauté de plus en plus importante de chercheurs s'intéressant à la technologie et aux applications générales des lasers de puissance. Cette communauté est encore peu structurée mais elle est en croissance rapide, comme en témoigne l'exploitation de l'installation LULLI, qui est quatre fois plus demandée qu'elle ne peut offrir d'accès.

Un débat existe sur les débouchés des travaux actuels sur les lasers de puissance qui ouvrent des perspectives inattendues. Un autre débat s'est engagé sur les perspectives des lasers à rayons X et leur intérêt comparé à d'autres techniques.

Pour certains experts, les lasers à électrons libres, qui représentent la prochaine génération de synchrotrons, devraient garder la prééminence par rapport aux lasers à rayons X, tant en longueurs d'ondes qu'en puissance de crête intégrée en flux par stéradian.

Au surplus, une nouvelle voie existe par ailleurs pour les lasers à rayons X et les sources X incohérentes qui reposent sur la technologie du bombardement de cibles métalliques par des lasers ultra brefs.

En outre les développements actuels des lasers ultra brefs permettent d'envisager la mise au point de sources gamma pulsées.

Au demeurant, comme le montre le montage de sources lasers sur les lignes de lumière des synchrotrons, ces technologies sont bien davantage complémentaires que concurrentes.

Ainsi donc, le domaine des lasers de puissance " fourmille d'innovations " et se révèle très attractif pour les étudiants et les jeunes chercheurs.

Si le ministère de la Défense souhaite que les installations du Laser MegaJoule soient utiles à la recherche civile, ce qui est un atout pour un grand nombre de chercheurs intéressés par les lasers de puissance, il reste que l'organisation pratique pour l'accès aux expériences et la délimitation du périmètre classé " secret défense " s'avèrent complexes à mettre au point et souvent dissuasives pour des scientifiques de la recherche fondamentale et pour la coopération internationale.

VI - SYNCHROTRONS

Le cas du synchrotron a été traité en détail dans le premier tome du présent rapport 4 .

Afin de replacer cet outil d'analyse fine de la matière dans le contexte général des très grands équipements, les principaux points de l'analyse développée par vos Rapporteurs dans le rapport de l'Office publié le 17 mars sont rappelés dans la suite.

Les synchrotrons produisent des ondes électromagnétiques de toutes longueurs d'onde, utilisées par un nombre considérable de méthodes d'analyse de la matière.

Ces machines sont constituées d'une part d'un anneau de stockage d'une circonférence de cent à plusieurs centaines de mètres, dans lequel les électrons tournent 350 000 fois par seconde à une vitesse proche de celle de la lumière, et, d'autre part, de lignes de lumière et de postes expérimentaux périphériques qui utilisent la lumière émise par les électrons lors de passage dans des aimants de courbure ou des " chicanes " magnétiques ( " wigglers " et onduleurs) placées sur leur trajectoire, lumière dénommée rayonnement synchrotron.

Les synchrotrons, qui sont utilisés chacun par plusieurs milliers de chercheurs, constituent une avancée technologique majeure puisque le rayonnement des synchrotrons de 3 ème génération est mille milliards de fois plus brillant que les rayons émis par des équipements de laboratoire comme les tubes à rayons X.

Alors que l'on se trouve déjà à la 3 ème génération de machines, l'évolution technique des synchrotrons est loin d'être achevée, des progrès considérables étant attendus sur les onduleurs, l'optique des lignes de lumière, et l'instrumentation, et notamment les détecteurs. En outre, de nouvelles perspectives existent en termes de machines dérivées des actuels synchrotrons mais complémentaires, les lasers à électrons libres.

1. Les besoins en rayonnement synchrotron

Un synchrotron est un très grand instrument banalisé, partagé, accessible, formateur et pluridisciplinaire.

Un synchrotron, même de 3 ème génération, apparaît aujourd'hui comme une machine banalisée, au service d'une vaste communauté de chercheurs appartenant à des laboratoires multiples, répartis sur tout le territoire et venant même de l'étranger pour près du quart du total en moyenne.

Les chercheurs visiteurs de toutes disciplines, qui se relaient sur les postes expérimentaux des synchrotrons, bénéficient d'une assistance rapprochée de la part des concepteurs et des chercheurs résidents. Par ailleurs, les synchrotrons jouent un rôle important dans la formation des jeunes chercheurs.

Un synchrotron, en définitive, fournit des services de haut niveau technologique à un ensemble de communautés scientifiques relevant de différentes disciplines.

La demande de temps d'accès aux lignes de lumière des synchrotrons est en forte croissance dans tous les pays du monde, en particulier en France.

Ainsi, en 1999, la demande exprimée en (heures x instruments) adressée au LURE a représenté 155 % du temps alloué, un pourcentage à peu près stabilisé cinq ans après la mise en service des équipements (voir figure suivante).

Figure 9 : Ecart entre la demande exprimée en (heures x instruments) et l'allocation effective au LURE 5

On constate également que la demande d'accès à l'ESRF ne peut pas être satisfaite. L'écart entre la demande de temps d'accès et les durées effectivement allouées s'est élevé à 205 % pour la part française de l'ESRF 6 , cinq ans après la mise en service de l'appareil (voir figure suivante).

Figure 10 : Ecart entre la demande exprimée en heures x instruments et l'allocation effective à l'ESRF (part française)

La même insuffisance se constate pour l'ESRF considéré dans son ensemble (voir figure suivante). En 1999, la demande de (jours x instruments) a atteint 210 % de l'allocation effective.

Figure 11 : Ecart entre la demande exprimée en (jours x instruments) et l'allocation effective à l'ESRF considéré dans son ensemble

La décision de M. Roger-Gérard SCHWARTZENBERG, ministre de la recherche annoncée le 11 septembre 2000, d'autoriser la construction du synchrotron de 3 ème génération SOLEIL sur le plateau de Saclay, a donc pour but premier de répondre aux besoins de chercheurs d'accéder à cet outil d'analyse essentiel que constitue le rayonnement synchrotron.

2. Les dépenses actuelles dans le domaine du rayonnement synchrotron

Les synchrotrons sont considérés par le ministère de la recherche comme faisant partie de la catégorie des très grands équipements et les dépenses correspondantes sont répertoriées comme telles.

L'ensemble des dépenses de personnel, d'exploitation et de construction-modernisation du LURE se sont élevées à 136 millions de francs en 1999, un niveau quasiment stable depuis 1995 (voir tableau ci-dessous).

Tableau 9 : Evolution des dépenses annuelles relatives au LURE 7

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

LURE

(TGE scientifique)

personnel

65

61

65

72

73

93

91

93

93

93

104

exploitation

44

44

45

44

45

47

46

44

43

43

42

construction

6

total

109

105

110

116

118

140

143

137

136

136

146

La contribution française à l'ESRF atteint un montant du même ordre de grandeur, soit 125 millions de francs en 1999. La part des dépenses de construction a décru depuis 1990 et s'est annulée en 1998. Les dépenses d'exploitation ont pris le relais, tandis que les dépenses de personnels ont atteint un maximum de 1994 à 1996 correspondant à la mise au point de l'appareil.

Tableau 10 : Evolution des dépenses annuelles relatives à l'ESRF 8

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

ESRF

(TGE scientifique)

personnel

22

32

40

48

52

52

56

30

26

28

28

exploitation

18

40

49

82

85

97

98

construction

120

134

126

108

74

38

24

25

12

total

142

166

166

156

144

130

129

137

123

125

126

S'agissant de SOLEIL, des frais ont été comptabilisés lors de la phase active d'étude, de 1997 à 1999, aucune dépense n'ayant été prévue en 2000.

Tableau 11 : Evolution des dépenses annuelles relatives à SOLEIL 9

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

Soleil

(TGE scientifique)

personnel

5

7

1

exploitation

6

7

construction

7

total

0

0

0

0

0

0

0

11

21

1

0

Si l'on examine l'évolution au cours du temps des dépenses relatives au rayonnement synchrotron, on constate une remarquable constance au cours du temps. Il faudrait se féliciter de cette stabilité si, pendant la même période, la demande d'accès aux faisceaux n'avait pas explosé.

Figure 12 : Evolution des dépenses annuelles relative au rayonnement synchrotron

Du fait de la croissance des dépenses des autres types de très grands équipements, la stabilité des dépenses relatives aux synchrotrons se traduit par une diminution de leur part relative, qui ne représentait plus que 5,7 % du total en 1999.

Figure 13 : Evolution des dépenses relatives aux TGE Synchrotrons par rapport aux dépenses totales des TGE scientifiques et techniques

3. Les besoins prévisibles

Le premier tome du présent rapport concluait à la nécessité de construire sans attendre un synchrotron national polyvalent, pluridisciplinaire et évolutif, indispensable pour la communauté scientifique française

La décision du ministre de la recherche, dans le cadre d'un partenariat de l'Etat avec la région Ile-de-France et le département de l'Essonne, va donc dans le bon sens.

Vos Rapporteurs se sont félicités que le rapport de l'Office ait joué un rôle important dans l'information du ministre au moment où il prenait ses fonctions.

Après que la décision a été prise conformément aux recommandations de l'Office de doter la recherche française de l'outil pluridisciplinaire dont elle a un urgent besoin, il convient que la construction de SOLEIL commence sans aucun retard.

Les besoins de la communauté scientifique sont à satisfaire le plus vite possible. Les difficultés d'accès au LURE et à l'ESRF occasionnent en effet des retards préjudiciables à la compétitivité de la recherche française, dans toutes les disciplines.

Les prévisions établies par M. Yves FARGE, d'un doublement en moyenne des capacités d'accueil de projets, montrent l'urgence du problème.

Tableau 12 : Estimation des capacités annuelles souhaitables en France à 20 ans 10

nombre de projets

capacité

annuelle

actuelle

estimation de la capacité souhaitable

à 20 ans (1999)

facteur

multiplicatif

Sciences de la vie

80

240

3

Sciences de l'univers

40

80

2

Recherche appliquée (dont micro-fabrication)

320

640

2

Chimie

160

240

1,5

Physique

200

240

1,2

Total

800

1440

1,8

A terme, il s'agit bien de doter la France de capacités nationales d'accueil sur synchrotron de 3 ème génération qui représentent près des deux tiers des capacités actuelles sur des machines de 1 ère et de 2 ème génération.

Tableau 13 : Prévisions de capacités souhaitables en France à 20 ans selon la génération des synchrotrons considérés 11

nombre de projets

Capacité

annuelle

actuelle

Capacité annuelle

souhaitable

à 20 ans

facteur

multiplicatif

Expérimentations sur synchrotron de 1 ère génération

480

320

0,7

Expérimentations sur synchrotron de 2 ème génération

120

670

5,6

Expérimentations sur synchrotron de 3 ème génération

0

770

-

L'urgence concerne toutes les disciplines mais est particulièrement forte dans le domaine des sciences du vivant.

Une course de vitesse est engagée pour l'élucidation des structures des protéines. Il s'agit là d'un enjeu capital des sciences du vivant. A cet égard, le rayonnement synchrotron constitue un outil irremplaçable, comme l'indique la figure ci-après.

Figure 14 : L'importance croissante du rayonnement synchrotron pour l'élucidation des structures macromoléculaires 12

La résolution des structures des protéines qui pouvait s'effectuer avec des instruments de laboratoires, bascule, dans tous les pays, vers les synchrotrons, ainsi qu'en témoigne le graphique suivant réalisé par le laboratoire de l'EMBL (European Molecular Biology Laboratory) implanté sur le site des synchrotrons du Hasylab de Hambourg.

Un succès récent et marquant obtenu à l'ESRF est l'élucidation de la structure du prion de levure 13 .

Figure 15 : Comparaison du total mondial de publications de biologie structurale résultant de travaux conduits sur des synchrotrons ou sur des sources propriétaires 14

Il convient en conséquence de mettre en place, sans tarder davantage, la structure chargée d'engager concrètement la réalisation de SOLEIL et de lui donner les moyens de conduire sa mission à marche forcée.

Par ailleurs, il faut également signaler que la recherche sur la génération suivante de synchrotrons commence avec la réflexion et les premiers travaux exploratoires sur les lasers à électrons libres commandés par des accélérateurs linéaires.

Ces machines, dont la faisabilité semble acquise, devraient d'une part permettre d'obtenir un nouveau saut qualitatif pour la brillance et la cohérence des faisceaux de rayons X, et d'autre part, grâce à la réduction de la durée des impulsions à quelques femtosecondes, ouvrir la voie à des applications nouvelles des rayons X, comme la femtochimie.

Un mémoire en faveur d'une initiative européenne dans ce domaine 15 a récemment été discuté à la table ronde européenne sur le rayonnement synchrotron et adopté par le groupe européen de réflexion sur les méthodes d'analyse fine de la matière.

Si les perspectives de réalisation d'une machine dédiée semblent encore relativement lointaines, il convient toutefois de garder à l'esprit qu'il existe des perspectives de développement pour le rayonnement synchrotron.

1 Source : direction de la recherche, ministère de la recherche, juin 2000

2 Source : direction de la recherche, ministère de la recherche, juin 2000

3 Source : dépêche AFP 28 septembre 2000, réf : FRS1204 3 GIA 0622 FRA / AFP-TK95.

4 Christian CUVILLIEZ et René TRÉGOUËT, Les conditions d'implantation d'un nouveau synchrotron, Office parlementaire d'évaluation des choix scientifiques et technologiques, Assemblée nationale n° 2248, Sénat n° 273, Paris, 17 mars 2000.

5 Source : CNRS - audition de Mme BRECHIGNAC, directeur général, 2 février 2000.

6 Part française augmentée des accès aux lignes dites CRG réservées aux Collaborative Research Group.

7 Source : direction de la recherche, ministère de la recherche, juin 2000

8 Source : direction de la recherche, ministère de la recherche, juin 2000

9 Source : direction de la recherche, ministère de la recherche, juin 2000

10 Source : Y. FARGE, CNRS, 1999.

11 Source : Y. FARGE, CNRS, 1999.

12 Source : Review of the needs for European synchrotron and related beam-lines of biological and biomedical research, Fondation européenne de la science (ESF), novembre 1998.

13 AFP, 4 décembre 2000.

14 Source : HASYLAB - DESY Hambourg, février 2000.

15 Jochen R. SCHNEIDER, European Initiative for the Construction and Usage of Linac Driven Free Electron Laser (FEL), DESY, Hambourg, novembre 2000.

VII - NEUTRONS

Les sources de neutrons constituent un autre outil essentiel d'analyse fine de la matière, à l'instar du rayonnement synchrotron.

Du fait des propriétés particulières des neutrons, il s'agit d'un outil complémentaire du rayonnement synchrotron, plutôt qu'un moyen de substitution.

Les neutrons interagissent avec les noyaux des atomes, au contraire des photons qui interagissent avec le cortège électronique des atomes. La masse et la vitesse des neutrons utilisés en font une sonde unique pour l'étude des structures de la matière, à des échelles qui vont de l'atome au micron. Simultanément, les neutrons donnent accès à la dynamique de ces structures.

Par ailleurs, en tant que particules dotées d'un moment magnétique, les neutrons sont également une excellente sonde magnétique.

Au demeurant, étant donné l'absence de " mini-sources " de neutrons propriétaires, c'est-à-dire à la portée d'un seul laboratoire, les expériences réalisées sur les sources de neutrons ne peuvent pas être préparées en amont.

Dans le domaine de la biologie, si le rayonnement synchrotron est particulièrement performant pour l'étude des macromolécules cristallisées et en particulier des protéines, en revanche les sources de neutrons sont bien placées pour l'étude des protéines en solution ainsi que pour l'étude de parties de molécules réalisée avec des procédés de marquage.

1. Les sources de neutrons en fonctionnement sur le sol national

Après l'arrêt en décembre 1997 du réacteur SILOE de 35 MW, sont opérationnelles sur le sol français les sources de neutrons du Laboratoire Léon Brillouin (réacteur Orphée de 14 MW) et de l'Institut Laue-Langevin (réacteur de 57 MW).

Le Laboratoire Léon Brillouin (LLB) a la responsabilité d'exploiter les 25 instruments installés autour du réacteur de type piscine Orphée. Le réacteur Orphée proprement dit, qui fonctionne avec une régularité et un niveau de performances remarquables depuis plus de 20 ans, est de la responsabilité du CEA. Le laboratoire Léon Brillouin, laboratoire national financé conjointement par le CNRS et le CEA dispose de la plus grande densité d'instruments au monde pour des installations de ce type. En tout état de cause, le LLB est compétitif par rapport à l'ILL mais aussi par rapport à la source pulsée britannique ISIS du Rutherford Appleton Laboratory.

Le Laboratoire Léon Brillouin est régi par une convention entre le CEA et le CNRS.

Le budget annuel de l'ensemble constitué par le réacteur et le Laboratoire Léon Brillouin s'élève à 130 millions de francs, frais de personnel compris mais hors amortissement du réacteur.

Le budget hors salaires du LLB est de 23 millions de francs. Ce budget est financé à hauteur de 14 millions de francs par des contributions à parité du CNRS et du CEA. Le complément est assuré par des contrats avec l'industrie, par les contributions des CRG (Collaborative Research Group) et par le contrat " Access to Large Facilities " de l'Union européenne qui finance l'accès de chercheurs étrangers à ses installations. Les effectifs du laboratoire atteignent 150 postes à temps plein, à quoi il faut ajouter 57 postes pour le réacteur.

Le LLB a, en 1999, assuré 4 200 jours-instruments, ce qui correspond à 500 expériences par an. Les expériences ressortissent à hauteur de 55 % à la physique de la matière condensée, de 28 % à la chimie, de 10 % aux sciences de l'ingénieur et aux matériaux et de 7 % à la biologie.

L'écart entre la demande de temps d'accès à ses faisceaux et le temps effectivement mis à disposition est en moyenne de 30 %. Mais pour certains instruments, la demande peut excéder l'offre d'un facteur 2 voire même 3.

L'Institut Laue Langevin (ILL), situé à Grenoble, a été créé en 1967 sous la forme d'une société de droit civil français, par deux membres fondateurs associés, la France et l'Allemagne, rejoints par le Royaume-Uni en 1973, après la mise en exploitation du réacteur en 1972. Depuis lors, différents pays ont adhéré : l'Espagne (1987), la Suisse (1988), l'Autriche (1990), la Russie (1996), l'Italie (1997) et la République tchèque (1999), l'adhésion donnant droit à un temps de faisceau supérieur.

Le budget de l'ILL pour 2000 est de 355 millions de francs, la contribution française s'élevant à 104 millions de francs. Les dépenses de personnel représentent 57 % du total, le fonctionnement 19 %, l'investissement 11 %, le cycle de l'élément combustible 13 %.

En tout état de cause, en 1999, l'ILL a assuré 208 jours de fonctionnement réacteur sur ses 25 instruments et sur les 8 instruments CRG (Collaborative Research Group). Ceci correspond à 4500 jours-instruments accordés pour 8200 demandés et à 750 expériences pour 1000 demandées. Le nombre de chercheurs visiteurs atteint annuellement 1200. Ces derniers proviennent de 300 laboratoires disséminés dans toute la France et en Europe.

Les applications des neutrons à l'ILL concernent la physique pour 28 % du total, la chimie pour 20 %, la matière molle pour 14 %, les sciences des matériaux pour 12 %, la biologie pour 12 %, les liquides et les verres pour 8 % et la physique des particules pour 6 %.

En définitive, il existe une grande similitude entre les deux types de très grands instruments que constituent les synchrotrons et les sources de neutrons. Il s'agit essentiellement de super laboratoires de services mutualisés à la disposition des autres laboratoires, dans un secteur clé de la science moderne, à savoir l'analyse fine de la matière.

2. Les dépenses correspondant aux sources de neutrons

Ainsi que le montrent les tableaux suivants, fournis par la direction de la recherche du ministère de la recherche, les dépenses relatives au Laboratoire Léon Brillouin et la participation française à l'ILL sont du même ordre de grandeur, environ cent trente millions par an, et stables depuis le milieu de la décennie 1990.

En 1999, les dépenses relatives au LLB se sont élevées à 138 millions de francs (voir tableau ci-après).

Tableau 1 : Evolution des dépenses relatives au TGE Laboratoire Léon Brillouin 1

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

Laboratoire

Léon Brillouin (LLB)

(TGE scientifique)

personnel

48

48

50

53

53

57

57

49

60

60

63

exploitation

58

71

66

65

64

66

80

32

69

78

69

construction

5

total

106

119

121

118

117

123

137

81

129

138

132

La même année, la participation française à l'ILL s'est élevée à 142 millions de francs.

Tableau 2 : Evolution des dépenses relatives à l'Institut Laue-Langevin 2

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

ILL

(TGE scientifique)

personnel

57

60

60

58

64

62

62

34

41

40

41

exploitation

63

62

24

26

46

69

76

112

111

102

101

construction

40

50

total

120

122

124

134

110

131

138

146

152

142

142

On notera par ailleurs qu'un montant de 28 millions de francs a été imputé aux TGE des neutrons, en 1996. Ce montant correspond aux dépenses de retraitement du combustible de la source Siloé lors de son démantèlement.

Le total des dépenses relatives aux sources de neutrons est de l'ordre de 270 millions de francs par an en 2000. Entre 1990 et 2000, elles auront progressé de 21,2 %.

Figure 1 : Evolution des dépenses annuelles des TGE sources de neutrons

Compte tenu de la croissance des dépenses relatives aux TGE scientifiques et techniques, les sources de neutrons voient leur part dans ce total diminuer de 8 % à 6%.

Figure 2 : Evolution des dépenses relatives aux TGE sources de neutrons par rapport aux dépenses totales des TGE scientifiques et techniques

Alors que le niveau qualitatif des sources et de leurs instruments associés augmentait durant cette période, ainsi d'ailleurs que le nombre d'utilisateurs, il semble donc que la gestion conjointe par le CEA et le CNRS de la source nationale et de la participation française dans la source européenne s'avère particulièrement performante.

3. Les besoins prévisibles en sources de neutrons

La recherche européenne a un besoin croissant en faisceaux de neutrons. Le nombre d'utilisateurs connaît en effet une croissance forte. Il était de 3800 chercheurs en 1998 et devrait s'élever à 5000 en 2000. Cette croissance devrait continuer à l'avenir. Comment faire face à ces besoins croissants ?

Pour satisfaire cette demande, il existe deux types de sources de neutrons, d'une part les sources continues et d'autre part les sources pulsées.

Les Etats-Unis ont envisagé ces dernières années la construction d'un réacteur d'une puissance très supérieure à celle des machines en fonctionnement mais y ont renoncé. Les réacteurs semblent aujourd'hui avoir atteint une limite de puissance, de sorte que le progrès essentiel à attendre de leur part proviendra d'une augmentation de la brillance et de la qualité des instruments. La construction de nouveaux réacteurs n'est donc pas à l'ordre du jour.

En revanche, différents projets de sources pulsées existent pour faire face à la croissance des besoins, car cette technologie semble avoir une marge de progression sensible.

Plusieurs pays européens, l'Allemagne, la France, le Royaume-Uni et l'Italie, coopèrent actuellement pour définir une source européenne de neutrons de nouvelle génération. Il s'agit du projet européen ESS (European Spallation Source) qui consiste à construire une source pulsée de 5 MW.

Les Etats-Unis construisent pour leur part une source pulsée comparable SNS de 2 MW qui sera opérationnelle en 2006 et le Japon la source JHF/NSP de 1 MW qui entrera en service à la même date.

En tout état de cause, les objectifs du projet ESS sont d'obtenir par rapport à l'ILL, un progrès selon la longueur d'onde d'un facteur 10 à 200 pour la diffractométrie, de 2 à 20 pour la diffusion inélastique, de 1 à 20 pour la diffusion aux petits angles et un niveau identique pour la diffusion inélastique dans les trois axes. ESS devrait être 30 fois plus puissante que la source britannique ISIS.

Le coût d'ESS devrait être de l'ordre de 2 milliards d'euros, soit environ 13 milliards de francs. La construction d'ESS ne devrait pas commencer avant 2006, la machine ne délivrant ses faisceaux qu'à partir de 2015 au mieux.

Compte tenu des aléas relatifs au projet ESS et de la croissance des demandes d'utilisation des neutrons, les sources actuelles que sont le Laboratoire Léon Brillouin et l'ILL, loin d'être condamnées, ont, au contraire, une période de plusieurs années d'exploitation devant eux.

Le maintien en fonctionnement et la modernisation permanente des deux sources situées sur le territoire français ne posent pas de problème particulier.

Cette stratégie est d'autant plus pertinente que le nombre de sources de neutrons dans le monde va diminuer dans les prochaines années. Les seules autres sources assurées de perdurer dans les prochaines années, sont ISIS (Royaume-Uni), HMI (Berlin), SINQ (Suisse), le Laboratoire Léon Brillouin LLB, Saclay) ; l'Institut Laue Langevin (ILL, Grenoble) et très probablement le nouveau réacteur de Munich.

Le CEA est partie prenante aux travaux relatifs à la source pulsée européenne ESS mais privilégie un projet plus vaste de source à utilisations multiples, ou source multi-usages CONCERT servant à l'analyse de la matière mais aussi à l'étude des réacteurs sous-critiques et aux recherches sur la transmutation de déchets radioactifs (voir ci-après).

C'est en 2002 que l'on pourra décider si ce projet multi-utilisations est compatible avec ESS. Les routes d'ESS et de CONCERT risquent de converger ou de se séparer à cette date.

4. Le projet RJH (réacteur Jules Horowitz)

Afin de préparer le remplacement à l'horizon 2010 du réacteur d'irradiation OSIRIS de Saclay, seule machine de ce type en fonctionnement actuellement après l'arrêt en 1997 de SILOE à Grenoble, le CEA élabore actuellement le projet RJH (réacteur Jules Horowitz).

Les études d'irradiation sont essentielles d'une part pour les recherches sur le vieillissement des réacteurs du parc électronucléaire français, et, d'autre part, pour l'amélioration des performances du combustible nucléaire, deux paramètres clés à la fois pour la sûreté des réacteurs nucléaires et pour la compétitivité du kWh nucléaire.

Le réacteur Jules Horowitz a donc pour premier objectif le remplacement d'OSIRIS, avec toutefois des performances améliorées, des flux de neutrons augmentés et un nombre de points d'irradiation notablement accru.

L'autre objectif essentiel du RJH est de permettre le test du c_ur de nouveaux réacteurs. Les perspectives à ce sujet sont d'une part les réacteurs de 3 ème génération dits évolutifs par rapport aux réacteurs actuels, dont les meilleurs exemples sont l'EPR (European Pressurized Reactor) et le réacteur ABWR (Advanced Boiling Water Reactor) et d'autre part des réacteurs innovants de 4 ème génération du type GT-MHR (Gas Turbine - Modular Helium cooled Reactor).

Le RJH offrira précisément la possibilité de tester des c_urs de natures différentes, avec des flux de neutrons allant des neutrons thermiques aux neutrons rapides, et une simulation des conditions d'un refroidissement par un gaz comme l'hélium. Les tests d'irradiation pourront être réalisés dans des boucles à milieux différents.

Le réacteur RJH devrait avoir une puissance de 100 MW, être installé à Cadarache et devenir opérationnel en 2010.

Le coût du RJH devrait atteindre 3,7 milliards de francs, financés à parts égales par le CEA et EDF, dans le cadre d'une société en participation.

Au demeurant, aucun autre projet que le réacteur RJH pourrait être à même de satisfaire en 2010 les besoins d'irradiation et de test de c_urs de réacteurs évolutifs ou innovants.

5. Le projet CONCERT de source multi-usages du CEA

Evoquer dans la partie du rapport consacrée aux sources de neutrons, le projet CONCERT (Combined Neutron Centre for European Research and Technology) constitue presque un contresens du fait de la vocation généraliste et fédératrice de cette source multi-usages. Toutefois, d'une part l'essentiel des utilisations de cette source est bien la production de neutrons et d'autre part il s'agit d'un projet en cours de définition, dont les contours pourraient encore évoluer. Pour la commodité de l'exposé, CONCERT est inclus dans les besoins en sources de neutrons, étant précisé que sa portée est plus générale.

Le projet CONCERT résulte d'une analyse en deux points, l'un d'ordre technique, l'autre d'ordre économique et politique.

Le constat technique fondamental est que les technologies des accélérateurs de protons ont fait des progrès considérables et permettent de produire des protons de haute énergie de l'ordre de 1 GeV, qui peuvent ensuite servir, en fonction des cibles qu'ils percutent, à la production de particules différenciées, par exemple neutrons, isotopes radioactifs, antiprotons, kaons, pions, neutrinos et muons. En se servant d'un accélérateur unique à hautes performances, il devrait donc être possible de servir d'autres équipements en diminuant le coût de l'ensemble par rapport au coût cumulé d'installations distinctes.

Le deuxième constat est que d'une part, une série d'équipements vont devoir être renouvelés dans les années à venir, sources de neutrons, sources d'irradiation, sources d'ions lourds, et d'autre part que de nouveaux besoins de recherche apparaissent, en particulier pour la transmutation des déchets radioactifs à haute activité et à vie longue, ainsi que pour la physique fondamentale, par exemple pour la production de certaines particules comme les neutrinos ou les muons.

Le projet CONCERT pourrait donc apporter une réponse coordonnée et acceptable sur un plan financier à un ensemble de besoins de renouvellement et de besoins nouveaux.

5.1. Des perspectives techniques intéressantes

Le phénomène central du projet CONCERT est la propriété qu'ont des protons accélérés à une énergie de 1 GeV, en percutant des cibles de nature variée, de provoquer la formation de gerbes de faisceaux secondaires spécifiques.

La première possibilité est celle de produire une avalanche de neutrons de haute énergie, suite au phénomène de spallation qui voit les noyaux des atomes de la cible libérer des neutrons, dans un rapport de 30 neutrons pour un proton incident. Ce phénomène est à la base des sources pulsées de neutrons, dont l'intérêt grandit, comme on l'a vu précédemment, dans la mesure où la puissance des sources continues semble plafonner. Avec des protons de haute énergie, il semble possible de gagner un facteur 10 voire 100 dans les flux produits, ce qui rendrait possible une résolution accrue, favoriserait les études de dynamique et les analyses dans des conditions extrêmes de température et de pression. L'objectif est de dépasser la puissance nominale de 5 MW prévue pour la source ESS (European Spallation Source).

La deuxième application de CONCERT serait la production de faisceaux d'isotopes radioactifs rares, avec des flux supérieurs d'un facteur 1000 à ceux produits par les machines actuelles. Cette voie de recherche est unanimement considérée comme devant être la priorité numéro de la physique du noyau.

La troisième application du projet serait la production de neutrons alimentant le c_ur d'un réacteur sous-critique acceptant les actinides mineurs et les produits de fission issus des combustibles nucléaires irradiés retraités. Ainsi, CONCERT permettrait des progrès dans la recherche sur cette question importante pour l'avenir des réacteurs nucléaires civils. En tout état de cause, la construction d'un réacteur ayant pour seul objet l'étude de la transmutation ne semble pas avoir de sens économique.

La quatrième application serait bien évidemment l'irradiation de matériaux, avec l'avantage de constituer un outil d'irradiation sans combustible nucléaire, c'est-à-dire sans les contraintes de fonctionnement afférentes.

Enfin, des protons de haute énergie peuvent produire des pions, qui, eux-mêmes se désintègrent en muons et en neutrinos. La création de muons présente un grand intérêt pour la physique des particules. En effet, l'utilisation des protons présente l'inconvénient de générer un nombre trop important de particules lors des collisions, ce qui complique l'analyse des phénomènes. Les électrons, quant à eux, produisent le rayonnement synchrotron, ce qui limite les possibilités d'aller au delà d'une certaine énergie. L'utilisation des muons présente un intérêt certain, dans la mesure où ces particules possèdent la même charge que l'électron mais ont une masse deux cents fois supérieure, ce qui pose le problème des rayonnements d'une manière différente et permettrait de monter à des énergies de 100 GeV.

Il faut enfin citer un dernier type d'application, à savoir la production de tritium à des fins civiles et militaires.

Toutes ces perspectives sont bien entendu conditionnées par la possibilité effective de produire des faisceaux de protons à haute énergie. A cet égard, un gain d'un facteur 100 par rapport aux machines actuelles semble à la portée des concepteurs du projet. Les premiers calculs et les premières expériences de démonstration montrent qu'il devrait être possible avec un accélérateur de 350 mètres de longueur, pour une puissance de 100 MW, de produire des protons à 1,3 GeV avec une intensité de 100 mA en crête.

5.2. Des perspectives économiques encourageantes

La construction d'une source multi-usages n'est pas envisagée pour le moment aux Etats-Unis, qui prévoient au contraire la construction de la source de neutrons par spallation NSS et d'une source d'ions lourds à Argonne, et ont en projet la machine ATW pour l'étude de la transmutation des déchets radioactifs.

Le JAERI développe au Japon quant à lui un projet de sources multi-usages similaires dans sa conception au projet CONCERT, après avoir réussi à fédérer les projets séparés de divers instituts de recherche.

Le CEA, qui est le maître d'_uvre de CONCERT, a pour sa part la conviction que les besoins de renouvellement d'installations existantes se produiront dans le même laps de temps vers 2015. Il est donc impératif de proposer une solution coordonnée, pour répondre à des contraintes budgétaires serrées.

Une première estimation des coûts d'une source multi-usages conduit à un montant de 2,25 milliards d'euros, environ 15 milliards de francs, soit un montant inférieur de 6,5 milliards de francs à la somme des dépenses relatives à des projets séparés.

Le calendrier du projet CONCERT prévoit la présentation d'une étude approfondie sur ses coûts au début 2002, une étude technique détaillée de 2 ans, le début de la construction en 2005, l'entrée en service pour une première application en 2010, l'installation étant complètement opérationnelle en 2015.

L'intérêt pour CONCERT de comités scientifiques comme NuPECC, de groupes de travail comme celui relatif à ESS, ainsi que du groupe de conseillers ministériels TWG pour la transmutation, est déjà réuni. L'Italie, l'Allemagne, le Royaume-Uni et la Suisse ont accepté de faire partie d'un groupe de pilotage du projet.

Les disciplines concernées par les différentes applications de CONCERT, qui pourraient souhaiter à des degrés divers disposer de leurs propres installations, semblent toutefois déjà avoir pris conscience qu'une approche unifiée maximise leurs chances de se voir accorder les instruments dont elles ont un besoin vital, avec d'autre part des bénéfices secondaires, comme une interdisciplinarité accrue et la création d'une nouvelle dynamique profitable à tous.

VIII - LE MAGNÉTISME À HAUT CHAMP ET LA RMN

Les champs magnétiques intenses et la résonance magnétique nucléaire ne font pas, dans notre pays, l'objet de TGE, au sens actuel de la nomenclature du ministère de la recherche.

Néanmoins, l'importance des technologies correspondantes dans la science moderne justifie que soient examinés non seulement les besoins de la recherche fondamentale sur le magnétisme mais aussi les besoins des laboratoires en matériels utilisant les champs magnétiques intenses.

1. Le magnétisme à haut champ

Les champs magnétiques intenses sont mis en _uvre dans un nombre considérable d'instruments scientifiques. On retrouve des aimants de puissance dans les accélérateurs de particules, comme par exemple ceux du CERN ou du GANIL, dans les synchrotrons et dans les instruments de résonance magnétique nucléaire ou de résonance paramagnétique électronique (RPE).

Au surplus, la France possède un excellent niveau dans la recherche fondamentale sur le magnétisme, qui a pu conduire l'Allemagne et l'institut Max Planck à s'allier au CNRS pour participer à Grenoble au Laboratoire des champs magnétiques intenses fondé par René PAUTHENET, avec le soutien de Louis NÉEL.

La France possède également au CEA et à l'IN2P3 des équipes d'ingénierie et de fabrication d'aimants de forte puissance et d'aimants supraconducteurs qui sont parmi les meilleures du monde, comme le montrent les débouchés obtenus au CERN et à DESY en Allemagne.

Enfin, la technologie moderne multiplie le recours aux études en champs magnétiques intenses. De fait, les recherches correspondantes ont des débouchés considérables, d'une part pour le développement de matériaux à faible résistivité et forte résistance magnétique ou supraconducteurs, d'autre part pour les méthodes de croissance pour la préparation de nouveaux matériaux.

On peut également citer l'impact des études à haut champ sur les systèmes électroniques bidimensionnels qui ont donné naissance aux lasers solides, aux transistors à effet de champ et à hautes fréquences. Ces études ont également une utilité considérable pour les nanotechnologies, notamment les sciences et technologies de l'information et de la communication.

Enfin on doit souligner les applications directes des études en champs magnétiques intenses par les techniques de RMN et de RPE dans le domaine des sciences du vivant.

Tous ces éléments concourent donc à ce que la communauté scientifique française poursuive ses recherches fondamentales dans cette discipline structurante et que l'on veille à développer les capacités de réalisation possédées par les grands organismes de recherche français.

1.1. La recherche française sur les champs magnétiques intenses

L'intérêt pour les champs magnétiques intenses s'accroît de plus en plus rapidement, comme le démontre le nombre toujours plus élevé de publications relatives à ce domaine. La France dispose de deux grands laboratoires, travaillant l'un sur les champs magnétiques intenses continus, le LCMI (Laboratoire des champs magnétiques intenses) à Grenoble et l'autre sur les champs pulsés à Toulouse.

Il existe plusieurs laboratoires dans le monde travaillant sur les hauts champs magnétiques continus, le LCMI étant l'un de tous premiers d'entre eux par ses résultats (voir tableau ci-après).

Tableau 3 : Les principaux centres de recherche sur les hauts champs magnétiques continus

rang

Pays

Centre de recherche

puissance électrique continue

champ magnétique maximum avec aimants classiques

champ magnétique maximum avec aimants mixtes (classiques + supraconducteurs)

1

Japon

Tsukuba (NRIM)

15 MW

30 T dans 32 mm

34 T dans 52 mm

(40 T en construction)

2

Etats-Unis

Tallahassee (NHMFL)

40 MW

33 T dans 32 mm

45 T dans 32 mm

(en construction)

3

France-Allemagne

Grenoble (LCMI-CNRS-Max Planck)

24 MW

30 T dans 50 mm

40 T dans 34 mm

4

Japon

Sendai (IMR)

8 MW

19,5 T dans 32 mm

31,1 T dans 32 mm

5

Russie

Moscou

6 MW

18,3 T dans 28 mm

24,6 T dans 28 mm

6

Chine

Hefei

10 MW

13 T dans 32 mm

20,2 T dans 32 mm

7

Pays-Bas

Nimègue

6 MW

20 T dans 32 mm

(30,4 T dans 32 mm

en construction)

8

Pologne

Wroclaw

6 MW

19 T dans 25 mm

9

Allemagne

Braunschweig (TU) - Allemagne

6 MW

18,2 T dans 32 mm

-

10

Russie

Krasnoyarsk

8 MW

15 T dans 36 mm

-

Le Laboratoire des Champs magnétiques intenses de Grenoble a pu créer à l'automne 2000 un champ de 58 Teslas pendant 20 millisecondes, en développant une méthode originale de stockage de l'énergie.

Ayant ainsi obtenu l'une des toutes premières performances mondiales avec la production d'un champ magnétique intense de 31,4 Tesla dans un diamètre de 32 mm, le LCMI achèvera en 2001 l'aimant hybride capable de produire un champ continu de 40 Tesla, permettant de faire des expériences très raffinées en champs intenses, en particulier des expériences de RMN que l'on ne peut pas faire en champs pulsés.

Au reste, les champs pulsés, relativement plus faciles et moins coûteux à produire, sont étudiés dans un nombre plus important de laboratoires situés dans le monde entier. En tout état de cause, il est possible d'atteindre des niveaux de champ magnétique plus élevés avec cette méthode.

En effet, si la limite actuelle des champs continus est de 50 Tesla, la barrière des 100 Tesla en champs pulsés semble à la portée des chercheurs.

Le laboratoire des champs magnétiques pulsés de Toulouse vise à créer un champ de 80 Tesla pendant 300 milliseconde, soit la troisième meilleure performance mondiale.

En l'occurrence, l'objectif recherché en augmentant l'intensité du champ magnétique est l'étude des transitions de phase induites par celui-ci dans les systèmes étudiés. On espère ainsi progresser en particulier dans la connaissance de la supraconductivité, notamment pour la production de champs magnétiques plus intenses.

1.2. La pérennité du LCMI

Le LCMI, créé par le CNRS, a vu la société Max Planck s'associer à lui en 1972, en raison du potentiel prévisible de ses résultats au niveau mondial. Mais cet institut allemand a annoncé son retrait en 2004, à la fin du contrat en cours de 10 ans.

L'engagement de la société Max Planck dans un projet de recherche est d'une manière générale étroitement lié à la personnalité du directeur de celui-ci, qui doit partir en retraite en 2001. Au surplus, la subvention allemande au LCMI est versée par le seul établissement de Stuttgart de la Société Max Planck pour qui elle est devenue une charge trop lourde, eu égard à ses autres activités de recherche.

Des éléments positifs existent toutefois dans cette sombre perspective. La poursuite de l'engagement allemand jusqu'en 2004 a pu être obtenue, et, par ailleurs, la Société Max Planck serait d'accord pour aller au delà à condition qu'au moins un troisième partenaire soit partie prenante au LCMI, de façon à réduire sa charge financière.

Selon la direction du LCMI, il est urgent que la France prenne l'initiative de rechercher de nouveaux partenaires et mette à profit son influence au niveau de l'Union européenne.

Parallèlement à cette recherche, il est indispensable de préparer un changement de structure juridique pour le LCMI. Pour le moment, le LCMI est géré selon une double comptabilité, française et allemande, et dispose de personnels gérés indépendamment les uns des autres par le CNRS et la Société Max Planck.

Pour accueillir d'autres partenaires, il semble nécessaire en tout état de cause de créer une société civile et d'y fondre le LCMI. A cette occasion, il serait logique que le CEA qui ne contribue pas pour le moment au budget du LCMI, soit 50 millions de francs par an au total, intègre la société civile et participe à son financement, le magnétisme faisant partie de ses domaines de compétences.

2. La RMN (résonance magnétique nucléaire)

Les méthodes d'analyse fine de la matière revêtent une importance capitale dans la recherche moderne, tant pour les sciences physiques que pour les sciences du vivant.

Dans ce dernier cas, les méthodes les plus importantes sont d'une part le rayonnement synchrotron, d'autre part les sources de neutrons et enfin la RMN (résonance magnétique nucléaire). Parmi ces trois méthodes, c'est sans doute la RMN qui possède actuellement la plus grande marge de progression.

Certains experts estiment que l'on est à la veille d'une révolution en RMN, qui la ferait concurrencer le rayonnement synchrotron. Certains scientifiques avaient d'ailleurs argué de ce fait, pour justifier l'abandon du synchrotron de 3 ème génération SOLEIL.

D'autres au contraire, pensent d'une part que la RMN, dont les progrès sont toutefois notables, doit effectuer des progrès considérables et au demeurant difficiles, avant de devenir une méthode réellement utilisable en biologie structurale, et, d'autre part, que la RMN, même après des progrès majeurs, sera davantage complémentaire du rayonnement synchrotron et des sources de neutrons que substituables à ces deux méthodes.

2.1. Les avantages de la RMN

Un atome spécifique soumis à un champ magnétique est soumis à une résonance dont la fréquence dépend de l'intensité du champ qui lui est appliqué, de son rapport gyromagnétique spécifique, de son moment cinétique propre (spin) et de son environnement électronique et nucléaire.

La résonance magnétique nucléaire (RMN) est donc une sonde locale qui a une spécificité chimique. Avec une résolution suffisante, la méthode permet de sélectionner l'espèce chimique étudiée et de recueillir des informations structurales y compris dynamiques, sur son environnement.

En conséquence, la RMN présente un intérêt exceptionnel pour l'étude des protéines et de leurs fonctionnalités. En effet, il est fondamental de connaître non seulement la structure de la molécule mais également comment varie cette structure selon sa fonctionnalité et donc son environnement.

Or la RMN permet de résoudre les structures dans un environnement solide ou liquide, ce qui met à sa portée l'étude des protéines membranaires par exemple. Au reste, pour les protéines qui ne cristallisent pas, en particulier les protéines membranaires et les protéines hétérogènes, la RMN est la seule méthode disponible. De plus, cette méthode permet également d'étudier les mouvements moléculaires et de les corréler à la cinétique chimique favorisée ou inhibée par les protéines. La RMN peut enfin servir à caractériser des complexes binaires ou ternaires et des protéines hétérogènes.

Compte tenu de ces atouts, la RMN connaît des développements constants à la fois méthodologiques et technologiques.

En augmentant les champs magnétiques appliqués, on augmente le déplacement chimique et la largeur de raie pour chaque transition, pour une espèce particulière comme l'atome d'hydrogène. Une autre technique intitulée RMN 2D, permet d'identifier les interactions entre deux espèces chimiques différentes, par exemple la liaison carbone-hydrogène. Il est également possible de faire aujourd'hui de la RMN 3D.

En tout état de cause, la RMN semble repousser régulièrement ses limites techniques par l'invention de nouvelles méthodes, de sorte que la taille des molécules qu'elle permet d'étudier s'accroît régulièrement. A cet égard, l'augmentation des champs magnétiques appliqués ne procure que des avantages.

Le " prix à payer " dans cette évolution vers des champs d'intensité plus élevée, c'est la qualité de ceux-ci. Il ne sert en effet à rien d'augmenter le champ magnétique si l'on perd de son homogénéité.

Les meilleurs spectromètres commerciaux sont actuellement à 800 MHz, ce qui permet l'utilisation de supraconducteurs pour fournir le champ correspondant. De fait, dans ces conditions, l'utilisation de la RMN est limitée à l'étude de molécules de poids moléculaire inférieur à 40 000 Dalton 3 .

En tout état de cause, le rayonnement synchrotron ne présente pas cette limitation et bénéficie d'une meilleure précision et d'une plus grande rapidité. Mais il est limité aux molécules cristallisées.

La RMN, quant à elle, est certes limitée à des poids moléculaires relativement faibles pour des protéines. Mais hormis cette limitation de poids moléculaire, la RMN présente l'avantage non seulement de pouvoir être appliquée à des molécules non cristallisables comme les protéines membranaires et disponibles en faible quantité, mais également d'ouvrir le champ des études dynamiques.

2.2. Les perspectives d'avenir de la RMN et les besoins de financement

Les technologies actuelles permettent d'ores et déjà de faire de la RMN à 900 MHz. Plusieurs pays ont déjà commandé des machines de ce type, dont l'Allemagne qui devrait être équipée de 2 exemplaires à la fin 2000. La France n'a pas encore, quant à elle, passé de commande.

Mais en réalité, il convient d'aller plus loin et de passer à 1 GHz, de manière à pouvoir étudier des molécules de poids moléculaire égal ou inférieur à 80 000 Dalton.

Le passage à 1 GHz représente de fait un saut technologique. De nouveaux matériaux supraconducteurs sont en effet nécessaires, ainsi que des techniques nouvelles. Le prix estimé d'un tel spectromètre devrait être de 15 millions de dollars, sans compter l'infrastructure nécessaire.

Il semble nécessaire d'approfondir les recherches sur la mise au point de spectromètres à 1 GHz.

La mise au point d'un spectromètre de RMN à 1 GHz à finalité biochimique nécessiterait des recherches sur 5 ans pour un investissement cumulé de l'ordre de 200 millions de francs.

Le prototype pourrait être installé à Grenoble, l'objectif étant la réalisation de 5 centres d'excellence en Europe dotés chacun dans un premier temps de spectromètres à 900 MHz puis ultérieurement d'une machine à 1 GHz. Un tel plan rejoindrait la stratégie américaine qui prévoit, elle, la création de 10 centres d'excellence pour la RMN équipés selon ce schéma.

Il reste une autre question, celle du sous-équipement des laboratoires français en instruments de RMN modernes. Au vrai, l'Europe souffre d'un retard important sur les Etats-Unis et la France d'un retard relatif à l'intérieur de l'Europe.

Tableau 4 : Nombre de spectromètres de RMN à haut champ en 1999

600 MHz

800 MHz

Amérique du Nord

135

30

Japon

33

21

Europe

88

20

dont France

12

2

Ainsi le parc européen ne représente que les deux tiers du parc américain. Quant à la France, elle ne dispose que de 14 % du parc européen pour les spectromètres à 600 MHz et 10 % du parc européen pour les spectromètres à 800 MHz.

Un effort d'équipement est à engager pour rattraper ce retard.

Toujours en tête de la course mondiale dans ce domaine, grâce à l'excellence de l'école française développée par Louis NÉEL récemment disparu, c'est d'une action globale en faveur du magnétisme dont la France a besoin.

A cet égard, le projet de création d'un centre pluridisciplinaire de RMN à hauts champs à Grenoble va dans la bonne direction et doit être soutenu.

IX - SCIENCES ET TECHNOLOGIES DE L'INFORMATION ET DE LA COMMUNICATION

Aucun grand équipement des sciences et technologies de l'information et de la communication (STIC) n'a jamais fait partie de ce que l'on a considéré par le passé comme des très grands équipements. Cette situation est aujourd'hui inchangée.

La non prise en compte des supercalculateurs ne laisse pas d'étonner dans la mesure où, il y a encore quelques années, leur coût pouvait largement dépasser la centaine de millions de francs et entrer ainsi dans la catégorie des grands équipements, selon une pratique couramment admise. Aujourd'hui, la technologie multiprocesseurs a certes abaissé le prix des superordinateurs mais le coût d'un centre de calcul reste de cet ordre de grandeur.

Les réseaux de télécommunications à hauts débits et large bande ne participent pas non plus de la catégorie des très grands équipements. La raison majeure en est qu'il s'agit d'équipements répartis sur le territoire, dont seul le coût d'ensemble atteint l'ordre de grandeur de plusieurs centaines de millions de francs.

D'autres exemples peuvent être cités de la difficulté qu'il y a de saisir les grands investissements des STIC avec la notion habituelle d'investissement massif et unitaire qui est celle de très grand équipement scientifique ou technologique. Ceci explique que la nomenclature des TGE ne comprenne aucun élément se rapportant à ce domaine.

Pour autant, les investissements déjà réalisés et les investissements indispensables à l'avenir sont considérables non seulement pour la recherche sur les STIC mais aussi pour l'extension des services de calcul et de télécommunications mis à la disposition des chercheurs.

En tout état de cause, les STIC figurent au rang de priorité de la recherche fixée par le Comité interministériel de la recherche scientifique et technologique (CIRST) du 1 er juin 1999.

A ce titre, les STIC sont un domaine privilégié des actions de soutien conduites dans le cadre des réseaux nationaux de recherche et d'innovation.

Si l'évolution des dépenses des TGE ne peut pas être examinée dans ce domaine comme indicateur de l'investissement des pouvoirs publics, en revanche les premières réalisations de la nouvelle politique de la recherche donnent une indication sur les efforts consentis.

1. La microélectronique et les nanotechnologies

La France dispose avec le Laboratoire d'électronique, de technologie et d'instrumentation (LETI) du CEA d'un centre de recherche de tout premier plan mondial. L'un des titres de gloire du CEA-LETI est d'avoir joué un rôle capital, avec France Télécom, dans le développement de STMicroelectronics, 8 ème fabricant mondial de semi-conducteurs et l'une des toutes premières entreprises mondiales de conception et de fabrication de microprocesseurs.

Le CEA-LETI a initialement été créé à l'initiative de M. Robert GALLEY, aujourd'hui membre de l'Office, pour étudier et fabriquer des composants électroniques résistant aux rayonnements, et possédant une fiabilité et une sûreté élevée pour des applications dans le domaine du nucléaire civil et militaire. Mais les travaux du CEA-LETI se sont étendus aux applications civiles et aux technologies génériques applicables aux semi-conducteurs, aux composants et aux systèmes électroniques de toute nature.

Le CEA-LETI, qui rassemble aujourd'hui 1100 personnes, dont 750 salariés, est implanté à Grenoble, pour 80% de ses effectifs et à Saclay pour les 20 % restants. Son budget annuel est d'un milliard de francs. Il dispose de moyens technologiques très importants. Son activité est centrée sur la recherche appliquée, en liaison étroite avec les réalités industrielles. Les chercheurs y sont jugés sur les débouchés industriels de leurs travaux et non pas seulement sur leurs publications scientifiques.

Afin de relever les défis qui s'accumulent sur la recherche et l'industrie microélectronique, le CEA-LETI est aujourd'hui le pilote d'un grand projet, celui de la constitution du nouveau Pôle d'innovation en micro et nanotechnologies de Grenoble.

Un des objectifs du CEA-LETI dans ce projet est la mise en place de plates-formes technologiques ouvertes en amont aux chercheurs de différentes disciplines et en aval aux industriels. Un autre objectif est de systématiser l'approche pluridisciplinaire qui constitue l'un des atouts les plus remarquables du CEA. Il s'agit également de tisser des liens étroits avec les universités et les écoles d'ingénieur de Grenoble afin de dynamiser la formation à la microélectronique et aux nanotechnologies.

Sur un plan technique, le CEA-LETI entend se préparer au changement d'approche qu'il faudra opérer pour la fabrication des composants électroniques lorsque la frontière de la matière et les limites physiques des procédés actuels seront atteintes.

La démarche actuelle des microtechnologies consiste à accroître la finesse des technologies de gravure d'objets microscopiques et de fabrication de circuits complexes.

Il s'agira à l'avenir, selon une démarche inverse, de construire des objets microscopiques ayant les fonctions recherchées en partant des atomes et des molécules et en maîtrisant les processus de croissance atomique ou moléculaire. Ces techniques, les nanotechnologies, devront être opérationnelles en 2010-2015 et nécessitent une préparation immédiate.

Les effectifs du Pôle de Grenoble devraient atteindre à terme le chiffre de 3000 personnes, dont 1000 étudiants, 400 enseignants-chercheurs, 1000 chercheurs et plus de 600 industriels.

Il s'agit là d'un investissement lourd dont le montant initial est de l'ordre de 800 millions de francs.

Le maître d'oeuvre de la constitution du Pôle est le CEA, qui, à partir de son c_ur de métier traditionnel, entend se repositionner et accorde à cet effet une place importante aux nouvelles technologies de l'information. Les laboratoires universitaires, ceux du CNRS et les écoles d'ingénieurs de Grenoble participent au projet.

Au delà du financement du CEA, le soutien des pouvoirs publics au Pôle de Grenoble s'exprime par la mise en place d'un réseau micro et nano technologies, doté de 40 millions de francs en 1999 pour l'aide à des projets labélisés.

Tableau 5 : Moyens du réseau micro et nanotechnologies en 1999

nom du réseau et domaine

dates et organisation

remarques

Réseau Micro et nanotechnologies

- lancé en 1999

- Comité d'orientation, bureau exécutif, cellules

- 40 millions de francs d'aides publiques en 1999

Enfin, le nouveau concept de centres nationaux de recherche technologique (CNRT), créé dans le but de rapprocher les laboratoires de recherche publique et les centres de recherche industrielle, trouvera une illustration à Grenoble pour les micro et nanotechnologies.

S'agissant de microélectronique, il reste un autre projet à mettre en _uvre, celui d'une nouvelle filière fondée sur l'arséniure de gallium.

L'arséniure de gallium (AsGa) est en effet un semi-conducteur dont les performances de rapidité et de stabilité dans des conditions extrêmes présentent un grand intérêt et sont en tout état de cause supérieures à celles du silicium.

Le développement d'une telle filière est un très grand projet qui nécessiterait une préparation précise. Les investissements à consentir dépassent probablement le milliard de francs.

2. L'optoélectronique

Les applications de l'optique se diversifient et se multiplient, notamment grâce à leur combinaison avec l'électronique. Nombreux sont les observateurs des sciences et des technologies qui estiment qu'au XXI e siècle, l'importance économique de l'optoélectronique sera essentielle.

L'évolution de l'optoélectronique est d'ailleurs parallèle à celle de la microélectronique mais avec un décalage de 20 ans. En tout état de cause, il s'agit d'une technologie structurante, notamment par son intervention dans les réseaux à haut débit. Elle exige des investissements importants, qui se chiffrent en centaines de millions de francs pour la seule recherche.

Au demeurant, le développement de l'optoélectronique doit se faire en veillant à ce qu'il n'y ait aucun hiatus entre les différentes étapes, et en particulier entre la recherche amont et la recherche aval.

Il faut citer à cet égard l'association Optics Valley qui a été créée en 1999 à l'instigation d'Alcatel avec le CNRS, Thomson CSF et le groupement français des PME de haute technologie (Comité Richelieu). Son objectif est de développer les activités optiques de la région francilienne. L'association a axé ses efforts pendant l'année 2000 sur la sensibilisation aux technologies optiques de la Région Ile-de-France et du Conseil général de l'Essonne. C'est ainsi qu'une ligne budgétaire optique a été affichée dans le nouveau contrat de plan Etat-région Ile-de-France pour les laboratoires publics.

La récente création du Centre national de recherche technologique d'optoélectronique de Marcoussis a pour but d'appuyer ces efforts.

3. Les supercalculateurs et les centres de calcul

Les supercalculateurs ont longtemps été considérés comme des équipements de souveraineté. Les plans Calcul puis par le programme de filière électronique ont répondu à l'objectif de disposer d'une offre nationale de machines surpuissantes indispensables à la défense, à l'industrie et à la recherche.

L'évolution des calculateurs eux-mêmes vers une puissance accrue et celle des technologies logicielles ont fait diminuer pendant quelques années la demande de supercalculateurs.

Si cette industrie n'a pas totalement disparu dans le monde, c'est grâce à des aides publiques très fortes mises en _uvre dans les seuls pays, les Etats-Unis et le Japon, qui ont su conserver des constructeurs dans ce créneau spécifique de l'informatique.

3.1. L'augmentation fulgurante de la demande de capacités de calcul

Un constat doit être fait aujourd'hui, celui d'une augmentation considérable de la demande de temps et de puissances de calcul.

Ainsi que l'a indiqué M. Gérard ROUCAIROL, directeur de la recherche et du développement de Bull et président du réseau national des technologies logicielles, contrairement à ce que l'on pense généralement, la maîtrise de la conception et de la fabrication des ordinateurs de puissance prend une importance encore plus forte que par le passé, car des informations de tout type sont désormais numérisées dans tous les secteurs d'activité.

Au demeurant, deux facteurs complémentaires replacent les calculateurs de grande puissance au centre du jeu. Il s'agit d'une part de la constitution de bases de données géantes et d'autre part de l'apparition de nouvelles applications exigeant des réseaux à hauts débits.

Au total, les grands systèmes informatiques redeviennent des éléments stratégiques.

Autre argument capital en faveur de l'investissement en supercalculateurs, la recherche relative aux STIC nécessite elle-même des outils de puissance.

Aucun modèle des sciences et technologies de l'information et de la communication ne permet en effet de prédire les puissances de calcul nécessaires à une nouvelle application, les comportements n'étant pas linéaires dans ce domaine. Le passage à l'échelle posant de nouveaux problèmes, l'expérimentation est indispensable. Selon M. Gérard ROUCAIROL, " Le problème fondamental de la recherche dans le domaine des STIC est donc de pouvoir disposer des plates-formes permettant le passage à l'échelle qui, seul, pose le problème scientifique au bon niveau ".

En conséquence, les besoins de notre pays en grands calculateurs augmentent rapidement, en réponse à trois types de demandes.

La première catégorie de besoins correspond aux grandes plates-formes ouvertes sur les réseaux à haut débit et permettant d'expérimenter de nouveaux services.

Certaines estimations évaluent la dépense totale, à effectuer sur 5 ans, à 1,5 - 2 milliards de francs par an, à partager entre l'Etat et l'industrie.

Le deuxième type de besoins est celui de plates-formes de mutualisation et de mise en place de composants logiciels. Ces équipements sont nécessaires pour tirer parti de la révolution technologique en cours qui permet de plus en plus de forger une nouvelle application à partir de morceaux de programmes provenant de diverses origines.

Le troisième type de demande correspond aux besoins en croissance très rapide de gestion et de transmission de l'information ainsi que pour la simulation numérique.

Les calculateurs de forte puissance sont en effet indispensables pour gérer l'augmentation de débits des réseaux.

Ils sont également indispensables pour gérer les accès aux bases de données gigantesques rassemblant des données de tous types et en particulier celles qui résultent des observations réalisées avec les très grands instruments.

Enfin, les supercalculateurs sont indispensables pour effectuer les simulations numériques correspondant aux modèles de plus en plus complexes que mettent au point des disciplines comme la météorologie ou l'astrophysique.

3.2. Le retard français et européen

Face à l'explosion de la demande, deux types d'action, au demeurant complémentaires, sont envisageables.

La première consiste à mettre en réseau les capacités de calcul existantes et à répartir à tout moment les calculs sur les machines disponibles. Il s'agit dans ce cas d'une approche dite " grille de calcul ".

La deuxième solution est de renforcer l'équipement en supercalculateurs. En réalité, ces deux démarches sont complémentaires, la mise au point de la Grille ne pouvant supprimer le besoin en ressources supplémentaires.

La mise au point de la Grille de calcul représente un des défis d'avenir de l'informatique. Il s'agit d'un des projets majeurs du CERN, le GRID, qui se prépare ainsi à gérer les flots gigantesques d'informations produites par les détecteurs du futur LHC.

En recourant aux technologies du parallélisme et du calcul réparti, on espère mettre au point une grille de calcul, par exemple au niveau européen, mettant en réseau les puissances de calcul d'instituts différents. Grâce à cette grille, l'utilisateur ne se soucierait pas de savoir où se trouve le centre de calcul qui prendrait en charge ses demandes. Le réseau apparaîtrait sous une configuration nouvelle, celle d'une ressource de calcul dans laquelle il serait possible de puiser comme l'on fait pour le courant avec le réseau électrique.

S'agissant de l'équipement en supercalculateurs les comparaisons internationales ne sont à l'avantage ni de la France ni de l'Europe.

Le dispositif français de calcul pour la recherche est constitué de plusieurs échelons : d'une part les équipements de laboratoires, d'autre part une dizaine de centres intermédiaires comprenant des équipements de " méso-informatique " comme le Centre Charles Hermitte (CCH) de Nancy, le CRIHAN de Rouen, par ailleurs les ressources nationales de l'IDRIS (CNRS) et du CINES (Centre informatique national de l'enseignement supérieur), et enfin les équipements dédiés (CEA, Météo-France, par exemple).

Ce dispositif est-il capable d'absorber l'augmentation de la demande ? On peut en douter en constatant, par exemple, que la demande de temps de calcul adressée au CINES double chaque année depuis trois ans. Les augmentations les plus fortes sont, en 2000, le fait de la physique, de la mécanique des fluides et de la biologie. A titre indicatif, le budget du CINES est de l'ordre de 35 millions de francs par an, dont une vingtaine de millions de francs en investissement.

Si l'on examine le palmarès des 100 plus grands centres de calcul mondiaux, on constate que des centres français n'y sont cités que 7 fois. Certes, l'option du calcul réparti a été plus suivie en France que dans d'autres pays. Mais la situation n'est pas bonne si l'on se réfère à un autre indicateur, celui des puissances de ces centres.

En cumulant les puissances de calcul des 7 centres français cités dans le même palmarès des cent premiers centres mondiaux, la France arrive au 5 ème rang mondial avec une puissance installée de 2 Teraflops 4 , à comparer aux 5 Teraflops de la Grande-Bretagne, aux 7 Teraflops de l'Allemagne, aux 11 Teraflops du Japon et aux 67 Teraflops des Etats-Unis.

Au reste, la situation de l'Europe n'est pas sensiblement meilleure. La somme des puissances des calculateurs européens figurant dans la liste des 100 premiers atteint en effet 14,3 Teraflops, soit près de 5 fois moins que les Etats-Unis.

Encore une fois, le choix de certains pays européens, dont la France, a été celui d'avoir de nombreux de centres de calculs de moyenne puissance, ce qui minore les positions de la France et de l'Europe dans les palmarès relatifs aux supercalculateurs.

Mais il faut souligner que les Etats-Unis et le Japon se dotent actuellement de centres de calcul supplémentaires, dont des centres dédiés à la climatologie. Le projet japonais vise les 40 Teraflops à échéance de 2 à 3 ans. Les Etats-Unis mettent actuellement en place un projet de calcul massivement parallèle atteignant aussi les teraflops, à échéance de 3 à 4 ans.

En l'occurrence, il ne semble pas prudent de s'en remettre à la mise au point de la Grille de calcul qui nécessite un effort de recherche et développement dont on ne peut prévoir avec certitude à quelle date il débouchera sur des résultats opérationnels.

C'est pourquoi l'augmentation de la puissance des superordinateurs disponibles dans les centres de calcul apparaît indispensable.

Un progrès pourrait être apporté par une rationalisation des centres de calcul dédiés à la recherche.

Un autre progrès pourrait résulter de la création de centres de calcul européens et dédiés à une discipline. Des propositions ont été faites dans ce sens au Commissaire européen à la recherche, par vos Rapporteurs (voir 2 ème partie).

4. Les technologies logicielles

Pour de nombreux observateurs, les technologies logicielles pourraient subir deux évolutions capitales dans les années à venir.

La première évolution est en réalité une révolution : c'est celle des composants logiciels, qui permettent le développement de nouvelles applications à partir de parties de programmes provenant d'autres applications.

La deuxième évolution est celle des logiciels dits libres ou ouverts, qui permettent aux utilisateurs l'accès aux codes sources à condition de mettre les nouveaux développements qu'ils réalisent à disposition du reste de la communauté.

Ces deux évolutions majeures pourraient permettre à l'industrie française de reprendre pied sur le secteur des progiciels, un marché de 600 milliards de francs pour les années 2002-2003.

Les pouvoirs publics disposent dans ce secteur de trois principaux moyens d'action : d'une part l'INRIA (Institut national de recherche en informatique et en automatique) et le CNRS, d'autre part les commandes publiques et enfin le soutien à la recherche logicielle à travers le réseau national de recherche et d'innovation en technologies logicielles.

4.1. L'INRIA et le CNRS

L'INRIA est un établissement public à caractère scientifique et technologique (EPST), qui comprend 750 fonctionnaires et est doté d'un budget annuel d'environ 550 millions de francs. Avec 160 thésards et les personnels sous contrat, la force de travail de l'INRIA atteint 2000 personnes réparties en 5 centres nationaux majeurs.

Le domaine d'activité de l'INRIA est bien entendu celui des sciences et technologies de l'information et de la communication (STIC). La recherche sur les logiciels constitue l'essentiel de son activité et porte aussi bien sur les outils informatiques que sur les réseaux, en traitant de leurs applications au calcul scientifique, à la physique appliquée, à la CAO (conception assistée par ordinateur), aux télécommunications, aux réseaux, à la santé, au transport et à l'environnement.

Dans le cadre de la priorité donnée aux STIC par le CIRST du 1 er juin 1999, un contrat a été signé en juillet 2000 entre le Secrétariat d'Etat à l'industrie, le ministère de la recherche et l'INRIA, pour augmenter de 755 à 1180 personnes les effectifs de cet institut d'ici à 2003 et accroître ses crédits en conséquence. Par ailleurs, la création d'un département des STIC au CNRS a été décidée et devrait donner une nouvelle impulsion aux travaux du CNRS dans ce domaine, qui n'ont pas pour l'instant une visibilité en rapport avec leur importance.

4.2. Les commandes publiques et le Logiciel libre ou ouvert

Un autre moyen d'action des pouvoirs publics est celui des commandes de logiciels qui peuvent impulser une industrie nationale au demeurant très forte dans le domaine des logiciels mais faible dans le domaine des progiciels.

Par ailleurs, il convient d'une part de s'opposer aux tentatives américaines visant à imposer la brevetabilité des logiciels et d'autre part de favoriser la mise en commun des ressources en logiciel libre auxquelles les entreprises et les organismes publics sont disposés à donner accès.

Enfin, la création d'une Agence du Logiciel Libre serait de nature à donner une impulsion à l'essor de ces ressources ouvertes. Votre Rapporteur, M. René TRÉGOUËT , a déposé en septembre 1999, sur le Bureau du Sénat, avec le Sénateur Pierre LAFFITTE, une proposition de loi sur le logiciel libre qui comprend la création d'une telle agence du Logiciel libre.

Le Premier Vice-président de l'Office parlementaire, M. Jean-Yves LE DÉAUT, a fait une proposition voisine, déposée, elle, sur le Bureau de l'Assemblée nationale. Une initiative des pouvoirs publics en France, mais plus encore en Europe, rencontrerait certainement un large écho.

Enfin, le ministère de la recherche a lancé au début de l'année 2000 le réseau national de recherche et d'innovation en technologies logicielles avec une enveloppe de 180 millions de francs d'aides publiques pour l'année 2000 (voir tableau ci-dessous).

Tableau 6 : Principales caractéristiques du réseau des technologies logicielles

nom du réseau et domaine

dates et organisation

remarques

RNTL (réseau national de recherche et d'innovation en technologies logicielles)

- lancé en janvier 2000

- Comité d'orientation

- 1 er appel à propositions en juin 2000

- 180 millions de francs d'aide publique en 2000

5. Les télécommunications

Bien qu'ils ne soient pas pris en compte dans la nomenclature actuelle du ministère de la recherche, les grands réseaux de télécommunications à hauts débits font certainement partie des grands outils littéralement vitaux pour la recherche et en particulier pour les sciences et les technologies de l'information et de la communication. Leur importance est d'ailleurs croissante dans la vie quotidienne des chercheurs et dans la capacité à déployer des équipes de recherche sur l'ensemble du territoire national.

Si un réseau est un grand équipement indispensable, ce n'est pas seulement parce qu'il constitue un moyen de communication entre chercheurs. C'est aussi que ses fonctionnalités de communication sont transformées par l'imagination de ces derniers et par l'industrie.

Ainsi, Internet, au départ réseau pour l'échange à distance de données informatiques entre gros calculateurs, a donné naissance au World Wide Web, dont les acquis déjà considérables ont été obtenus en moins de 10 ans. A son tour, le protocole du Web devient dominant et permet l'échange d'objets multimédia. L'étape suivante de l'évolution est la possibilité de se servir d'Internet pour des usages distincts de la simple transmission de données, le réseau se transformant en réseau de communication pour la voix et l'image en temps réel.

Au reste, l'utilisation à des fins de calcul scientifique des ordinateurs connectés au réseau occasionnera une charge supplémentaire pour ce dernier du fait des transferts de données.

Il faut en conséquence non seulement des réseaux à qualité de service mais également des réseaux de recherche, pour conduire des études sur une meilleure utilisation des réseaux pour la communication mais aussi pour des applications scientifiques.

5.1. Les réseaux de service

Le réseau de service à la recherche est en France le réseau RENATER qui fait l'objet d'améliorations permanentes et assure la liaison avec les réseaux internationaux.

Le réseau RENATER (Réseau national pour l'enseignement et la recherche) est un réseau de télécommunications à haut débit auxquels sont raccordés plus de 600 sites ayant une activité dans les domaines de la recherche, de la technologie, de l'enseignement et de la culture. Il est composé d'une infrastructure nationale et de liaisons internationales. L'infrastructure nationale comprend une épine dorsale à haut débit, intitulé RENATER 2, et des réseaux de collecte régionaux.

Ce réseau national est géré dans le cadre d'un GIP (Groupement d'intérêt public) créé en 1992 et déjà renouvelé deux fois pour 3 ans, le dernier renouvellement étant intervenu en janvier 1999 et le pérennisant jusqu'en 2002.

Les principaux membres du GIP sont l'Etat, représenté par la direction de la recherche du ministère de la recherche, qui s'implique fortement et assure la moitié du financement public, et le CNRS qui contribue à hauteur de 36 % du financement total. Le CEA, le CNES et l'INRIA, pour leur part, prennent à leur charge chacun 4 à 6 % du financement total, à quoi s'ajoutent des contributions inférieures du CIRAD et de l'INRA.

Les apports des membres du GIP ne représentent toutefois que 75 % des ressources de RENATER, le complément correspondant à des recettes " commerciales " perçues auprès d'autres institutions non-membres.

Pour l'année 2000, le budget total de RENATER atteint 180 millions de francs. Le coût de location du réseau représente la quasi-totalité du budget. Les dépenses de personnel correspondant aux 20 personnes de l'équipe ne dépassent pas 4 % du budget total.

On trouvera page suivante les schémas de l'architecture actuelle et l'architecture future de Renater 2.

Si les réseaux régionaux sont directement confiés à France Télécom, le " backbone " d'interconnexion nationale fait, lui, l'objet d'une convention de service entre le GIP et France Télécom. Il faut toutefois noter que les réseaux régionaux ne se sont malheureusement pas améliorés aussi vite que le " backbone " national.

Les liaisons de l'épine dorsale sont à 155 Mbits/s et demain à 622 Mbits/s. Si le réseau tarde un peu à monter en vitesse, ce n'est pas en raison de limitations financières mais en raison d'un manque relatif de compétitivité du secteur.

Le principal problème est celui des réseaux régionaux qui sont encore pour la plupart dans leur configuration de 1992 et ont des performances insuffisantes par rapport au réseau national. A titre d'exemple, le raccordement de la plupart des universités se fait avec un débit de 2 Mbits/s, alors qu'en Allemagne et en Grande-Bretagne, il est de 155 Mbits/s. Ceci résulte d'un hiatus dans le financement de l'ensemble des infrastructures.

L'Etat finance en effet l'infrastructure nationale d'interconnexion ainsi que les réseaux à l'intérieur des universités, mais ne prend pas à sa charge la connexion des universités aux n_uds régionaux distribués dont l'Etat espérait que les régions les financeraient. Mais du fait de leur caractère récurrent, les dépenses de réseaux ne sont pas considérées comme des investissements par les régions qui donc, ne peuvent les prendre en charge.

Il est clair que le réseau de collecte est insuffisamment performant et qu'il s'agit d'un problème qui concerne la collectivité nationale tout entière.

Au demeurant, RENATER est partie prenante du réseau européen TEN 155 dont la capacité va être portée à 622 Mbits/s avant la fin 2000.

RENATER est également partie prenante du futur réseau GEANT à 2,5 Gbits/s qui reliera les pays membres de l'Union européenne et les 10 pays éligibles au 5 ème PCRD, réseau qui passera ensuite à 10 Gbits/s puis à 40 Gbits/s soit l'équivalent de son modèle américain ABILENE.

A l'évidence, RENATER constitue un équipement d'une importance vitale pour toute la recherche française.

L'ensemble des intervenants auditionnés par vos Rapporteurs estiment qu'un réseau de ce type devrait faire partie des très grands équipements si l'inscription dans cette liste avait une conséquence en termes de moyens supplémentaires.

On peut simplement souhaiter que, pour accélérer la montée en puissance de RENATER, les membres du GIP décident un accroissement des moyens de ce dernier et la création d'un fonds de réserve pour financer les modernisations du réseau et que les régions ou les départements trouvent les moyens comptables de participer au financement des réseaux de collecte locaux.

Mais il existe un autre type de réseau pour lequel un effort d'investissement serait important, c'est le réseau expérimental VTHD (vraiment à très haut débit).

2. Un exemple de réseau expérimental : le VTHD

Les objectifs des réseaux expérimentaux sont multiples : d'une part en comprendre l'économie, d'autre part effectuer des recherches sur les technologies du futur dont les paramètres essentiels sont le débit, la capillarité et l'interconnexion avec l'Europe et le monde, et, enfin de faire des recherches sur les services associés du futur.

La démarche est en conséquence de bâtir des infrastructures mais aussi d'imaginer des produits et des services nouveaux pour les utilisateurs.

Une composante du réseau expérimental français promu et exécuté sous l'égide du RNRT est le réseau VTHD (Vraiment à Très Haut Débit). Ce réseau VTHD a commencé de s'ouvrir en 2000, mettant en relation Rennes, Paris, Grenoble, Sophia Antipolis, Rouen, Nancy, Toulouse, dans un premier temps. Cette première mouture, comparable en niveau de performances avec le réseau américain ABILENE, sera accessible à des tarifs moins élevés, grâce notamment à l'aide de l'Etat.

Les coûts du VTHD s'élèvent à 40 millions de francs pour les infrastructures de base dont 10 millions de francs pour les routeurs, à quoi s'ajoutent les coûts de la recherche et ceux de la mise à disposition de chercheurs et de matériels, ce qui multiplierait par 3 ou 4 le coût global, soit environ 150 millions de francs au total.

Comme d'autres projets de réseaux en cours d'exécution, le projet VTHD est incontestablement assimilable à un TGE. Le financement par l'Etat y joue un rôle essentiel, notamment par l'intermédiaire des aides à la connexion des laboratoires.

3. La recherche sur les télécommunications

La loi de réglementation des télécommunications a confié à l'Etat la recherche publique auparavant assurée par le CNET. Une partie de la recherche amont en optoélectronique et en microélectronique a été transférée au CNRS et au CEA (LETI) et la recherche appliquée à Alcatel (GIE Opto+) et ST Microelectronics. Le CNET s'appelle désormais France Télécom R&D. France Télécom R&D emploie 3800 personnes, accueille en outre 150 thésards et dispose d'un budget global de 3 milliards de francs.

Les activités de recherche de France Télécom R&D représentent un budget de 450 millions de francs, 350 chercheurs et 150 thésards. Ses principaux domaines d'activité portent sur les réseaux, le génie logiciel, l'accès aux réseaux de mobiles, le support au réseau, les interactions homme-machine, les technologies d'accès intelligent à l'information et les usages en termes de comportement et d'acceptation des nouveaux produits par le public et les entreprises.

Comme d'autres opérateurs et d'autres systémiers-équipementiers, France Télécom R&D participe au financement de la recherche publique au travers de contrats de coopération d'un montant total de 60 millions de francs. Les universités et le CNRS sont ses partenaires principaux, à hauteur de 60 % du total, l'INRIA et les écoles des télécommunications assurant le complément, à parts égales.

France Télécom R&D participe à des recherches coopératives en Europe et est un des principaux acteurs du Réseau national de recherche en télécommunications (RNRT).

De fait, le réseau de recherche en télécommunications constitue un moyen privilégié d'intervention de l'Etat pour l'aide à la recherche. Les conditions d'éligibilité d'un projet sont de réunir plusieurs partenaires publics ou privés et les subventions représentent une partie des dépenses, inversement proportionnelle, pour simplifier, à la taille des entreprises.

Le RNRT est une réussite saluée par tous les acteurs. On en trouvera ci-après les caractéristiques sommaires.

Tableau 7 : Principales caractéristiques du réseau national de recherche en télécommunications

nom du réseau et domaine

dates et organisation

remarques

RNRT (réseau national de recherche en télécommunications) - futur d'Internet, téléphones mobiles multimédia, constellations de satellites

lancé en 1998

Comité d'orientation, bureau exécutif, 5 commissions thématiques

Interventions conjointes du Secrétariat d'Etat à l'industrie et du ministère de la recherche

- 470 millions de francs distribués en 1998-1999 dont 300 par le Secrétariat d'Etat à l'industrie et 170 par le ministère de la recherche

- 210 millions de francs en 2000

Le creuset du projet VTHD est le RNRT dans le cadre d'un programme de préparation de l'Internet du futur.

Par ailleurs, des centres nationaux de recherche technologique sont prévus pour les télécommunications, les images et le multimédia à Rennes-Lannion-Brest, les télécommunications, Internet et les nouveaux usages à Sophia Antipolis.

Au total, il existe en France un tissu compétitif de recherche dans les télécommunications, issu d'une dizaine d'années d'efforts. Mais on peut estimer que, pour passer à un nouveau stade, il faudrait des ressources supplémentaires.

6. La formation et l'emploi dans les STIC

Dans les préoccupations des acteurs de sciences et technologies de l'information et de la communication, la pénurie de main d'oeuvre formée et compétente représente un point d'une importance capitale.

Deux facteurs en sont la cause, d'une part un déficit de formation et d'autre part une fuite des cerveaux qui est patente et particulièrement intense dans le domaine des STIC.

La France n'est pas la seule à devoir faire face à cette situation. Des pays comme l'Allemagne et les Etats-Unis comptent faire jouer un rôle croissant à l'immigration d'informaticiens recrutés en Europe de l'Est, en Russie ou en Asie. L'emploi à distance est utilisé par certaines entreprises françaises dans la mesure où les réseaux de télécommunications leur permettent de confier des tâches de développement à des personnels éloignés, y compris installés dans d'autres pays. Toutefois, il ne s'agit pas là de solutions durables, car la concurrence est mondiale et les spécialistes font de plus en plus l'objet d'offres séduisantes d'expatriation.

En vérité, la recherche publique doit aussi faire face à une fuite des cerveaux, en direction du secteur privé qui offre des conditions salariales sans comparaison possible avec l'offre publique. Ce phénomène est au demeurant particulièrement développé et inquiétant dans le secteur des télécommunications.

La formation en informatique ne saurait évidemment constituer un grand équipement, non plus que la revalorisation des conditions de rémunération des ingénieurs et des techniciens des STIC dans la recherche publique.

Toutefois, il s'agit là d'une question absolument capitale et qui prendra encore plus d'importance dans les années à venir, au fur et à mesure de la montée des besoins de traitement, de stockage, de documentation et de diffusion de l'information qui s'accélère dans toutes les disciplines de la recherche.

Tous les organismes de recherche dont les représentants ont été consultés par vos Rapporteurs ont mentionné des besoins rapidement croissants en spécialistes des STIC.

Rappeler l'importance de cette question dépasse l'analyse des TGE stricto sensu mais se justifie par le fait que les besoins d'investissement dans les STIC, c'est-à-dire de préparation de l'avenir, ne se résument pas à la mise en place de grandes infrastructures. En réalité, il s'agit là d'un enjeu qui nécessite à l'évidence un grand projet, une notion que la France doit retrouver d'urgence.

1 Source : direction de la recherche, ministère de la recherche, juin 2000

2 Source : direction de la recherche, ministère de la recherche, juin 2000

3 1 Dalton = 1g/mole.

4 Teraflop : mille milliards d'opérations par seconde.

X - SCIENCES DU VIVANT

Le génome et le post-génome constituent le premier des deux thèmes relatifs aux sciences du vivant que vos Rapporteurs ont examiné dans la perspective de leur étude sur les besoins de TGE. Le second est celui des neurosciences, examiné ci-après.

Les éléments qui suivent ne décrivent donc pas la problématique de l'ensemble des sciences du vivant mais mettent en lumière deux aspects importants au regard des grands investissements à pratiquer.

La génomique s'est affirmée au cours de la dernière décennie en tant que discipline permettant d'appréhender la biologie à grande échelle et nécessitant encore le développement de nombreuses technologies.

Le nouvel âge marqué par le séquençage des génomes est d'abord celui d'une théorie unificatrice, celle de l'importance déterminante de l'information contenue dans les gènes.

Ce nouvel âge est aussi celui de la nécessité d'emprunter la voie nouvelle des études systématiques, qui doivent être conduites avec des outils de taille quasiment industrielle et qui supposent des niveaux d'investissements en moyens matériels et en ressources humaines entièrement nouveaux.

C'est probablement avec les sciences du vivant que la notion de TGE dans son acception actuelle rencontre le plus de difficultés. La biologie met en effet en _uvre des plates-formes technologiques et des équipements en réseau qui n'entrent pas dans la nomenclature actuelle des TGE.

Toutefois, la nécessité de passer à l'échelle industrielle dans un certain nombre de recherches en biologie, et l'impératif d'accélérer les efforts faits dans les sciences du vivant sont incontestables et multiplient de fait les besoins d'investissement pour les années à venir.

1. Les équipements lourds des sciences du vivant actuellement recensés

Selon la nomenclature des TGE du ministère de la recherche, les sciences du vivant ne comprennent pour le moment que deux TGE, à savoir d'une part la contribution française à l'EMBL (European Molecular Biology Laboratory) qui est versée par le ministère des affaires étrangères et d'autre part, un poste intitulé " sciences de la vie dans l'espace " . Mais il faut également tenir compte des investissements du programme de génomique.

1.1. La contribution française à l'EMBL

La contribution annuelle de la France à l'EMBL représente un montant de 46 millions de francs pour 2000, montant qui a connu une augmentation moyenne de 4,8 % par an depuis 10 ans (voir tableau ci-dessous).

Tableau 1 : Evolution des dépenses relatives au TGE EMBL 1

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

EMBL

(TGE scientifique)

personnel

18

20

20

21

22

22

25

25

25

27

28

exploitation

13

14

14

16

16

11

12

12

13

13

13

construction

6

4

4

5

5

5

total

31

34

34

37

38

39

41

41

43

45

46

L'EMBL est une organisation intergouvernementale européenne fondée en 1974, modelée sur l'exemple du CERN et qui rassemble 15 pays et Israël.

L'EMBL possède 5 implantations. La première, décidée en 1974, est opérationnelle à Heidelberg depuis 1978. En 1975, la décision a été prise de créer une antenne de l'EMBL à Hambourg, dans l'enceinte de DESY (Deutsche Elektronen Synchrotron). En 1976, la construction est décidée d'une autre antenne à proximité de l'ILL (Institut Laue Langevin) à Grenoble.

En 1993, la bibliothèque de données de l'EMBL, la première au monde à rassembler systématiquement des séquences de nucléotides, a été transférée d'Allemagne à Cambridge où elle deviendra en 1997 l'EBI (European Bioinformatics Institute) sur le campus du génome du Wellcome Trust.

Enfin, un nouveau programme de génétique de la souris a été lancé en 1999 à Monterotondo, à proximité de Rome.

1.2. Les sciences de la vie dans l'espace

La nomenclature des TGE du ministère de la recherche comprend actuellement une ligne intitulée " sciences de la vie dans l'espace " , pour un montant de 155 millions de francs en 2000

Tableau 2 : Evolution des dépenses relatives au TGE " sciences de la vie dans l'espace " 2

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

Sciences de la vie

dans l'espace

(TGE scientifique)

personnel

exploitation

15

17

19

21

28

construction

86

119

139

149

140

276

213

186

188

179

155

total

101

136

158

170

168

276

213

186

188

179

155

Les informations communiquées à vos Rapporteurs ne permettent pas de se faire une idée précise de ce que recouvre ce poste de dépenses.

1.3. La structuration de la recherche génomique

Il paraît important de souligner que les investissements du programme Génomique, pourtant fondamentaux pour l'avenir des sciences du vivant, échappent au recensement des TGE dans sa version actuelle.

Ce programme pour la coordination et le développement des recherches sur les génomes comprend :

- la mise en place et le développement d'infrastructures à dimensions nationale et internationale : le centre national de séquençage (CNS-Génoscope), le centre national de génotypage (CNG) et le centre de ressources Infobiogen

- la mise en place du réseau national de génopoles

- les réseaux de recherche et d'innovation technologique : Genoplante et GenHomme.

Le réseau de génopoles, décidé lors du Comité Interministériel de la Recherche Scientifique et Technologique (CIRST) du 1 er juin 1999, permet de renforcer la recherche en génomique sur tout le territoire national en assurant une complémentarité des recherches pour la génomique fonctionnelle.

Le génopole d'Evry a reçu les investissements lourds que sont le Centre national de séquençage et le Centre national de génotypage. Ces deux centres nationaux bénéficient d'un financement garanti pendant 10 ans.

On trouvera ci-dessous la répartition des crédits publics à ces programmes en 1999.

Tableau 3 : Actions incitatives en faveur des sciences du vivant en 1999

Action prioritaire

financement 1999

millions de francs

type d'action

Centre de génotypage

50

Centre de séquençage

80

Infobiogen

15

-

Génoplante

60

RT

Pour mémoire

Technologies appliquées à la médecine

60

ACI

Microbiologie médicale

35

ACI

Prions

15

ACI

Sida et paludisme

30

ACI

Réseau de génopoles

40

RT

Impact possible des OGM sur l'environnement

10

ACI

Total

395

1.4. L'évolution des crédits des TGE des sciences du vivant, un indicateur peu significatif

Les efforts des pouvoirs publics en faveur du programme Génomique n'étant pas inclus dans la nomenclature des TGE, l'évolution des dépenses annuelles des TGE des sciences du vivant, telle qu'elle est indiquée par le ministère de la recherche, n'a évidemment pas grand sens.

Figure 1 : Evolution des dépenses annuelles des TGE des sciences du vivant

Il en est de même de l'évolution de la part de TGE des sciences du vivant dans les dépenses totales.

Figure 2 : Evolution des dépenses relatives aux TGE des Sciences du vivant par rapport aux dépenses totales des TGE scientifiques et techniques

Au demeurant, il faut remarquer au plan scientifique que la contribution française au décryptage du génome humain n'atteindra au final en termes quantitatifs que quelques pour cents, alors que ses équipes de chercheurs avaient été parmi les pionniers des premières étapes du séquençage, avec les travaux précurseurs du Centre d'étude du polymorphisme humain.

Mais les crédits nécessaires à l'accélération de leurs travaux n'ont pas ultérieurement été dégagés au niveau requis, au contraire de ce qu'ont su faire d'autres pays, en particuliers les Etats-Unis mais aussi le Royaume-Uni.

2. Des besoins croissants à l'avenir en grands investissements

La post-génomique correspond à l'étape à venir de la compréhension et de l'utilisation systématique des données acquises sur le génome. Cette nouvelle étape de la recherche présente des difficultés scientifiques considérables, difficultés en tout état de cause beaucoup plus importantes que celles rencontrées au cours de l'étape précédente pour le séquençage du génome.

Pour simplifier, les recherches à venir appartiennent à trois grands domaines : l'approche structurale, l'approche génétique et l'approche biochimique.

Il est symptomatique que ces différentes étapes fassent appel à une instrumentation de plus en plus sophistiquée et à des équipements dont le poids financier est de plus en plus lourd.

2.1. L'approche structurale

La biologie structurale vient en complément direct de la mise en évidence des gènes. L'action d'un gène se faisant par l'intermédiaire d'une ou plusieurs protéines, la première étape consiste en " l'expression " du gène considéré. Celui-ci est inséré dans une bactérie adéquate, qui est ensuite cultivée de manière que la protéine étudiée soit produite en quantité suffisante. La deuxième étape est celle de la purification en vue d'isoler la protéine. La troisième étape est celle de la cristallisation, toujours difficile et quelquefois impossible dans le cas des protéines membranaires.

La structure des protéines cristallisées est déterminée le plus souvent en recourant au rayonnement synchrotron qui constitue le moyen d'investigation le plus performant à l'heure actuelle. Lorsque la protéine n'est pas cristallisable, l'on recourt alors à la résonance magnétique nucléaire ou bien aux sources de neutrons. Pour autant, la résonance magnétique nucléaire est limitée pour le moment à des poids moléculaires relativement faibles. Quant aux sources de neutrons, leurs faisceaux devront gagner en brillance pour apporter un service optimal.

L'étude des structures des protéines est en tout état de cause un des enjeux majeurs du post-génome.

Des études de deux types seront conduites, d'une part les études systématiques sur un nombre de protéines considérables résultant d'une approche quasi-industrielle et, d'autre part, des études longues et plus spécialisées sur des questions complexes comme la structure du ribosome.

L'élucidation à l'échelle industrielle des structures d'un nombre très important de protéines constitue une approche lourde et consommatrice de crédits. Certains chercheurs considèrent qu'à bien des égards, il s'agit d'une mode. Cette approche est en tout état de cause critiquée parce qu'elle aura une rentabilité réduite, puisqu'on peut s'attendre que de très nombreuses protéines dont on aura déterminé la structure se révéleront ultérieurement sans intérêt.

Mais les partisans de la démarche systématique font valoir plusieurs arguments. Cette approche entraînera en premier lieu des progrès importants dans un ensemble de technologies. En second lieu la connaissance des structures ensemencera toute la biologie, car la fonction d'une protéine est souvent liée à sa structure. Enfin, à condition de diffuser très largement les structures élucidées, la valorisation des résultats obtenus pourrait bien être supérieure aux attentes.

En tout état de cause, la course à la détermination en masse des structures des protéines a d'ores et déjà débuté. Les Etats-Unis se sont fixé comme objectif la détermination de la structure de 10 000 protéines dans les dix prochaines années. Un programme de 150 millions de dollars est déjà lancé pour les 5 ans à venir, bénéficiant à 9 sites de recherche.

La France est loin d'être inactive dans ce domaine.

La décision de construire le synchrotron de 3 ème génération SOLEIL va, à un horizon que l'on espère le plus proche possible, permettre aux biologistes français de disposer des ressources nécessaires en temps d'accès à des faisceaux de rayons X - X durs, avec des brillances d'un excellent niveau.

Mais les analyses de structure devront être automatisées pour être plus rapides.

Par ailleurs, il est indispensable de développer les techniques d'expression des gènes, de purification et de cristallisation des protéines.

Ces axes de recherche et développement sont au c_ur du programme américain. L'ESRF et l'antenne grenobloise de l'EMBL y travaillent également de concert.

La coopération entre ces deux organismes au sein du Joint Structural Biology Group, a déjà permis de réaliser un microgoniomètre automatique fort utile pour le positionnement des microcristaux, et a désormais pour objectif la mise au point d'une chaîne entièrement automatisée d'installation et d'alignement optique des cristaux, d'analyse des mesures et de détermination des structures.

Au delà de cet important développement, le groupe travaille aussi à la création à Grenoble d'un laboratoire d'expression des gènes et de cristallisation de protéines dans le cadre d'un consortium associant l'ESRF, l'EMBL et dix entreprises pharmaceutiques.

Ce projet correspond à un investissement initial de 43 millions de francs et à un budget de fonctionnement, personnel compris, de 25 millions de francs. Le laboratoire, qui inclurait 30 personnes, dans un bâtiment de 1200 m², aurait pour mission la préparation des cristaux de protéines dans la perspective de leur analyse sur les lignes de lumière de l'ESRF qui serait doté d'une ligne de lumière supplémentaire à l'usage exclusif du consortium.

Formulé trop tard pour faire partie du plan stratégique de l'EMBL pour la période 2001-2005, ce projet intéresse le Wellcome Trust. Celui-ci pourrait créer un " charity trust " qui serait alimenté par les entreprises intéressées et financerait l'EMBL et l'ESRF, à qui il incomberait de réaliser et de gérer le laboratoire.

Une autre solution pourrait être la création d'une société civile rassemblant tous les protagonistes, ce qui semble préférable à l'EMBL qui tient à sauvegarder son principe de fonctionnement, à savoir des équipes peu nombreuses et mobiles dans leur activité.

Il est vraisemblable que les investissements décidés en faveur des génopoles ne suffiront pas au développement d'un tel programme dans notre pays.

Dès lors, l'aide de l'Union européenne apparaît indispensable. Elle serait d'autant plus justifiée que de nombreux observateurs estiment qu'elle devrait être répartie entre plusieurs centres européens. Or l'EMBL offre un cadre préexistant et approprié.

2.2. L'approche génétique

La deuxième catégorie d'études relatives au post-génome est celle qui a pour but l'intégration au niveau des organes ou des organismes des connaissances acquises avec la biologie structurale et la génomique fonctionnelle.

La méthode consiste à provoquer des mutations génétiques et à examiner leurs conséquences, de manière à identifier la responsabilité des gènes dans le fonctionnement des organes et des organismes.

Pour cette branche de la recherche post-génomique, les animaleries représentent un outil indispensable. Un exemple d'animalerie actuellement en fonctionnement est la " Mutant Mouse Bank " italienne, implantée près de Rome, un équipement lancé par l'Italie et au financement duquel l'Union européenne participe désormais. La souris présente l'avantage de pouvoir être mutée facilement, d'avoir une période de gestation très courte et de donner naissance à un nombre important de descendants, ce qui permet de tester les conséquences des mutations sur un grand nombre d'individus appartenant à des générations différentes.

La France a décidé et commencé la construction d'une animalerie de souris transgéniques de 4000 m² environ à Strasbourg. L'investissement correspondant est important, tant pour l'animalerie proprement dite que pour les instruments d'examen physiologique des souris. Un autre poste de dépenses conséquent est celui des personnels qualifiés de laboratoires, formés aux techniques de la physiologie, qui devront être nombreux pour examiner les animaux transgéniques.

En tout état de cause, cette animalerie de souris transgéniques devrait être complétée ultérieurement par une animalerie de primates, dont le coût serait, selon toute vraisemblance, beaucoup plus élevé.

2.3. L'approche biochimique

Le principe de l'approche biochimique est d'examiner avec quelles molécules les protéines interagissent. Ces interactions et leurs modifications explicitent la fonction biochimique des protéines.

Les techniques utilisées sont essentiellement celles de la biochimie.

Parmi les grands instruments utilisés figurent principalement ceux qui permettent les études de structures en solution et les études de dynamique, c'est-à-dire la résonance magnétique nucléaire et les sources de neutrons. Les sources de neutrons sont en particulier utilisées pour l'étude de la dynamique de réactions, pour l'étude des liaisons entre protéines et molécules d'eau ou pour celle des agrégats de protéines ou des complexes lipo-protéïques.

Ce secteur de recherche est jugé d'un intérêt stratégique par l'industrie pharmaceutique.

Les protéines sont en effet des sortes de micromachines dont la structure détermine souvent le fonctionnement. A cet égard, grâce à la greffe de molécules adéquates sur une partie précise de la protéine, il est possible de bloquer leur fonctionnement.

D'où l'intérêt de l'industrie pharmaceutique pour la connaissance non seulement de la structure des protéines mais également de leurs fonctions.

En tout état de cause, l'approche biochimique est placée dans les deux premières priorités de l'EMBL pour la période 2001-2005.

2.4. La bioinformatique

D'autres types d'investissements lourds sont requis par les sciences du vivant.

Il s'agit en premier lieu de la bioinformatique. Il s'agit des capacités de traitement, de stockage et de transmission de l'information pour gérer et exploiter la quantité gigantesque de données issues du séquençage du génome, des études de structures des protéines et de la biochimie.

Mais, à cet égard, les moyens physiques ne sont qu'un élément de solution au problème.

Il faut en réalité développer d'urgence dans notre pays des compétences humaines en bioinformatique et former des personnels compétents.

2.5. La conservation des souches

Le deuxième type d'équipements lourds est celui des bibliothèques du vivant. Les sciences de la vie exigent la mise à disposition d'infrastructures pour stocker les cellules souches. Il est également indispensable de disposer de serres de grande taille ainsi que de centres de ressources biologiques assurant le stockage de cellules et de matières biologiques indispensables pour les biotechnologies.

Les collections biologiques constituent un enjeu stratégique majeur, pour le développement des biotechnologies de la santé et du secteur agro-alimentaire.

La mise à disposition d'échantillons biologiques avec des garanties de qualité et de traçabilité est indispensable pour valider et étendre les acquis de la génomique.

Ces besoins doivent se traduisent par des investissements lourds à réaliser le plus rapidement possible. Le coût de mise en place d'une grande biothèque du vivant est évalué à 500 millions de francs, avec un budget de fonctionnement estimé à 15 millions de francs par an.

3. Le modèle d'organisation des sciences du vivant

Certains biologistes estiment que la centralisation des chercheurs dans des équipes de grande taille, ainsi qu'une coordination très étroite de celles-ci dans le cadre de grands organismes ne sont pas adaptées à la nature des recherches en biologie.

Au contraire, la répartition des efforts en de nombreuses équipes de petite taille et jouissant d'une liberté d'action importante garantit une créativité et des résultats supérieurs.

Pourtant, on peut légitimement se demander si cette forme d'organisation répartie n'a pas vécu alors que le post-génome nécessite des recherches systématiques et des moyens quasi industriels.

Certains biologistes considèrent que, si des unités de recherche de taille plus importante devront nécessairement être mises sur pied, en réalité, non seulement il faudra veiller à conserver la dissémination et l'autonomie des chercheurs dans des équipes de petite taille, mais il sera également nécessaire de limiter au maximum la taille des équipements et de les répartir au sein de réseaux maillés.

Selon cette orientation, il serait contre productif de confier à un seul laboratoire européen et même national, la responsabilité de la biologie structurale.

A titre d'exemple, dans le domaine de la biologie structurale, une fois l'expression des gènes et la purification des protéines réalisée, il serait préférable de disséminer la résolution des structures dans plusieurs centres pour atteindre une meilleure efficacité.

S'agissant de l'approche génétique, il pourrait être dangereux de construire des animaleries géantes, du seul fait des risques accrus d'épidémies dans les populations animales.

Au final, comme l'atteste la création en France du réseau de génopoles, c'est un modèle réparti que semblent appeler de leurs v_ux ces biologistes. Ceci va évidemment à l'encontre de la création de TGE au sens classique d'équipements centralisés mais ne supprime en rien les besoins d'investissements lourds de la discipline.

4. Un effort vital

Selon de nombreux observateurs qualifiés des sciences du vivant, l'Europe dispose d'une fenêtre d'opportunité de 2 à 3 ans pour rattraper son retard dans le domaine des sciences du vivant et prendre place dans la compétition mondiale en tant qu'acteur de premier plan doté d'une puissance suffisante.

Faute de relever ce défi en temps utile, l'on assistera dans le domaine de la biologie à la formation d'un monopole scientifique et industriel des Etats-Unis voire à celle d'un duopole Etats-Unis - Japon.

Dans cette compétition, l'Europe n'est pas démunie d'atouts, bien au contraire, avec une capacité d'innovation très importante. Ainsi, la première base de données de grande ampleur sur les séquences de nucléotides a été créée par l'EMBL, un an avant le NIH américain. Mais, après un démarrage très lent, le budget de la base de données américaine est trois fois et demi supérieur à celui de la base de données de l'EMBL. De même, selon toute probabilité ce n'est qu'en raison d'investissements insuffisants que la France a perdu son leadership dans le séquençage du génome.

La question financière est donc d'une importance critique. La France possède des équipes de pointe dans chacun des grands domaines de la biologie. Son retard sur le Royaume-Uni dans les sciences du vivant est d'ordre quantitatif et non pas qualitatif.

Dans ces conditions, des investissements accrus sont indispensables. Mais ils doivent s'accompagner d'efforts de formation et de recrutement considérables, pour combler des écarts d'effectifs majeurs avec les pays jouant les premiers rôles au plan mondial et pour anticiper les effets d'une vague de départs à la retraite qui s'accéléreront dans quatre à cinq ans.

XI - L'IMAGERIE MÉDICALE

L'importance de la génomique dans la biologie et la nécessité de pratiquer des investissements lourds dans ce domaine ne doivent pas occulter d'autres enjeux scientifiques majeurs, comme celui des neurosciences, qui requièrent elles aussi des efforts budgétaires considérables en faveur des techniques d'imagerie médicale qui leur sont propres

1. Les neurosciences et l'imagerie médicale, un enjeu scientifique majeur

Le premier enjeu des neurosciences est bien évidemment celui de la santé, avec la mise au point de traitements des maladies neurologiques, le développement de la neurochirurgie et les progrès de la psychiatrie.

L'actualité récente sur le nouveau variant de la maladie de Creutzfeldt Jacob souligne avec cruauté l'importance de la recherche dans ce domaine.

Son importance est également marquée par la révélation croissante, sinon le développement, des maladies neuro-dégénératives.

Mais un autre enjeu considérable est également la lutte contre le vieillissement cérébral et le développement des techniques de rééducation. Il s'agit là d'un enjeu de santé publique essentiel, avec l'allongement de l'âge de la vie.

La recherche en neurosciences peut également contribuer à améliorer la connaissance du développement de l'enfant ainsi qu'à approfondir les sciences cognitives dont les applications sont nombreuses dans le domaine de l'acquisition des connaissances et des modes de communication.

Or l'imagerie est une technique irremplaçable pour les neurosciences. En effet, il existe une relation entre la localisation anatomique et la fonction des aires corticales. Par ailleurs l'imagerie est un moyen non invasif qui permet l'étude non seulement de patients mais aussi de sujets normaux, voire d'enfants. De surcroît, l'imagerie contribue à une meilleure compréhension des données électrophysiologiques, à l'étude de l'expression des gènes chez l'animal et au développement des médicaments.

Il est à noter que les Etats-Unis ont reconnu l'importance des neurosciences en lançant un programme national intitulé " The Human Brain Project " .

2. Les équipements d'imagerie cérébrale

En matière " d'imageurs " , on distingue classiquement les équipements lourds des moyens mi-lourds.

Les équipements mi-lourds comprennent les " imageurs " mi-lourds au nombre desquels on compte les équipements d'imagerie gamma ou infrarouge.

Les équipements lourds comprennent les caméras à positons, les machines de magnéto-encéphalographie et les imageurs et les spectroscopes RMN (résonance magnétique nucléaire).

Les caméras à positons permettent de mettre en évidence les phénomènes de neurotransmission ainsi que l'expression génétique. D'un coût d'environ 10 millions de francs, les caméras à positons supposent la production sur place d'isotopes, l'utilisation d'un cyclotron et la présence d'un laboratoire de radiochimie.

Les machines de magnéto-encéphalographie donnent des informations fines sur les localisations. Les machines actuelles valent environ 12 millions de francs. Le coût des machines de nouvelle génération qui comportent un grand nombre de capteurs, devrait doubler pour atteindre 24 millions de francs.

L'imagerie et la spectroscopie par RMN (résonance magnétique nucléaire), comprennent deux familles d'équipements, d'une part les imageurs pour l'homme et d'autre part les machines pour les animaux.

Les imageurs pour l'homme comprennent les " imageurs " à 1,5 Tesla dont le coût est de 12 millions de francs et qui sont des machines destinées en priorité aux examens cliniques.

Les " imageurs " à 3-4 Tesla d'un coût de 24 à 25 millions de francs sont considérés comme des équipements de pointe en France pour l'étude du fonctionnement cérébral, alors qu'ils se banalisent aux Etats-Unis pour les applications cliniques. Des machines à très hauts champs, c'est-à-dire à 7-10 Tesla, d'un prix de 60 millions de francs, commencent à être installées aux Etats-Unis.

Les imageurs pour les petits animaux et les primates mettent en _uvre des champs de 4 à 17 Tesla. Leurs coûts vont de 10 à 25 millions de francs.

A tous ces équipements doivent être rajoutés les matériels d'informatique et de télécommunications indispensables à l'exploitation des résultats obtenus.

3. Les efforts à engager

Un plan national est recommandé par certains experts. Ce plan devrait comporter deux axes, le premier concernant la mise à niveau du parc existant en terme de compétitivité et le deuxième visant à prendre de l'avance en anticipant les évolutions technologiques.

S'agissant de l'augmentation de compétitivité du parc existant, la mise à jour des équipements anciens représente une enveloppe budgétaire de 100 millions de francs environ.

La France possède déjà deux pôles techniques où l'on trouve des moyens lourds, l'Ile-de-France avec Orsay (CEA) et l'hôpital de la Salpêtrière, et, Rhône-Alpes avec l'ensemble constitué par Lyon et Grenoble. Ces deux pôles, dont les masses critiques sont insuffisantes, constituent toutefois des bases de départ incontournables.

Ces deux pôles nationaux sont complétés par des centres régionaux, qui ne disposent pas chacun de tous les instruments mais détiennent des plateaux techniques respectables. Ainsi l'Est de la France est doté en instruments de magnéto-encéphalographie, en caméra à positons et en IRM, de même que Marseille, l'ensemble Toulouse-Bordeaux, l'Ouest avec l'ensemble Rennes-Caen.

Un autre effort est à consentir pour les dépenses de fonctionnement, qui représentent annuellement de 5 à 10 % de l'investissement.

Les personnels desservant ou utilisant ces machines doivent être renforcés. L'on constate trop souvent en effet que les financements, notamment ceux des collectivités locales, ne prévoient rien au delà de l'achat des matériels. Il faut donc une politique de ressources humaines coordonnée.

Au delà, une coordination nationale est indispensable, en incluant dans les prévisions des budgets de fonctionnement et de personnel suffisants.

En outre, il est indispensable de doter la recherche française de centres d'imagerie animale compétitifs, tant pour les primates que pour les souris. A cet égard, il faut remarquer que douze centres d'imagerie cérébrale appliquée aux petits animaux dotés de plusieurs types d'équipements ont été créés récemment aux Etats-Unis, le total devant atteindre la vingtaine dans les prochaines années.

L'autre volet du plan national concernerait l'innovation technologique.

L'un des objectifs technologiques de ce programme devrait être la mise au point dans les dix ans à venir au plus, de nouveaux systèmes d'imagerie permettant l'étude de l'activité de quelques dizaines de neurones avec une résolution temporelle passant de 1000 à 100, voire 10 millisecondes, afin de mieux comprendre le cerveau humain. La France, qui possède des spécialistes très performants en physique et en traitement d'image est capable de mener à bien un tel projet.

La création d'un Centre national ou européen d'imagerie cérébrale est à recommander.

L'investissement correspondant représente 150 millions de francs par an sur au moins 5 années.

Il s'agit en l'occurrence d'investir pour mettre au point l'IRM (imagerie par résonance magnétique) à très haut champ, c'est-à-dire 10 Tesla pour l'homme et 14 à 17 Tesla pour l'animal.

Un tel investissement représenterait-il une dépense exceptionnelle ? A titre d'exemple, la seule université d'Harvard a récemment décidé la création d'un institut comprenant 2 " imageurs " de 3 Tesla, une machine de 7 Tesla et deux machines de 14 Tesla pour la souris. D'autres institutions américaines ont une démarche similaire. Par ailleurs, un pôle du même type a été financé à Londres par le Wellcome Trust.

Un plan national relatif à l'imagerie cérébrale se justifie par les nécessités de la recherche dont les progrès sont particulièrement importants et urgents, en raison des défis considérables de santé publique à relever dans les prochaines années.

XII - GÉOLOGIE

Sur la période 1990-2000, la géologie a enregistré la fin des deux programmes nationaux Géologie profonde de la France et de GéoFrance 3D mais a pu continuer à bénéficier d'une participation au programme international ODP (Ocean Drilling Programme) qui est désormais le seul équipement à faire partie des TGE selon la nomenclature du ministère de la recherche.

Alors que les résultats d'ODP apparaissent comme très positifs, c'est à un redoublement de ses efforts que la France est invitée, à l'occasion du renouvellement et de l'approfondissement du programme ODP qui prendra la nouvelle dénomination d'IODP (International Ocean Drilling Programme).

1. Le programme ODP

Le programme ODP portant sur la période 1983-2003 représente le principal effort mondial actuel de forage scientifique des fonds océaniques et s'inscrit dans la ligne des travaux effectués depuis le milieu des années 1960.

Au total, ce sont plus de 2000 forages qui ont déjà été réalisés dans les fonds sous-marins.

Le navire actuellement en service pour ce programme, le JOIDES RESOLUTION, permet de procéder à des forages jusqu'à 2000 mètres sous le plancher océanique.

Parmi les recherches conduites avec ce navire de forage, on peut citer l'échantillonnage des sédiments sous-marins à différentes profondeurs, l'étude des interfaces noyau-manteau ou croûte-manteau ou la mise en place de bouchons instrumentés au fond de la mer, servant à l'enregistrement de données sismologiques.

Le budget annuel du programme ODP atteint 45 millions de dollars. La France, le Japon, l'Allemagne et le Royaume-Uni contribuent chacun pour 3 millions de dollars, à quoi il faut ajouter un montant identique fourni par un consortium d'autres pays européens.

Les Etats-Unis financent pour leur part 60 % du total du budget.

2. L'évolution des crédits des TGE de la géologie

Le programme ODP représente pour la France, de 1990 à 2000 une dépense cumulée de 209 millions de francs.

Par comparaison, les deux autres programmes, GéoFrance 3D et GPF (Géologie profonde de la France) correspondent à une dépense de 96 millions de francs sur la même période.

Tableau 4 : Evolution des dépenses relatives au TGE ODP 3

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

ODP

(TGE scientifique)

personnel

2

1

1

1

1

6

6

1

1

exploitation

20

17

18

16

17

18

16

16

20

12

12

construction

1

1

1

1

1

1

1

total

23

19

20

18

19

25

23

17

21

12

12

Tableau 5 : Evolution des dépenses des autres TGE de la géologie 4

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

GéoFrance 3D

(TGE scientifique)

personnel

exploitation

9

13

13

construction

total

0

0

0

0

9

13

13

0

0

0

0

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

GPF (Géologie profonde de la France)

(TGE scientifique)

personnel

6

6

exploitation

11

10

14

14

construction

total

11

10

14

14

0

6

6

0

0

0

0

Les dépenses des TGE de la géologie ont enregistré une baisse de près d'un tiers de 1990 à 2000, avec une brève période de croissance en 1995 et 1996.

Figure 3 : Evolution des dépenses des TGE de la Géologie

Au total, les TGE de la géologie ne représentent plus que 0,3 % du total des dépenses totales des TGE scientifiques et techniques, contre 1,2 % en 1990.

Figure 4 : Evolution des dépenses relatives aux TGE de la Géologie par rapport aux dépenses totales des TGE scientifiques et techniques

3. Les besoins prévisibles

Si le but essentiel d'ODP est l'étude de la tectonique des plaques, les perspectives de la géologie sous-marine sont désormais plus étendues.

Un nouveau programme international, intitulé IODP (Integrated Ocean Drilling Programme) est en cours de définition à cet effet et devrait prendre le relais d'ODP à partir de 2003.

Il s'agira certes d'apporter des explications à des questions fondamentales de la géologie, comme les transferts de chaleur et de matière, les transects terre-mer, la déformation de la lithosphère, la dynamique du manteau et du noyau.

Mais le programme contribuera aussi à l'étude des grands problèmes environnementaux comme l'évolution climatique, celle-ci étant enregistrée naturellement dans les sédiments ou dans les coraux pour le niveau des océans. Un autre objectif sera de mieux connaître la biosphère cachée dans les sédiments, ainsi que les ressources en hydrates de gaz.

Le programme IODP mettra en _uvre un nouveau navire foreur japonais, capable de forer dans 5 000 mètres de sédiments, et d'un coût de 500 millions de dollars et le navire américain actuel entièrement modernisé pour un investissement de 100 millions de dollars.

Si l'Europe veut pouvoir accéder à ces nouveaux navires, il lui faudra vraisemblablement faire elle-même un effort d'investissement.

La participation européenne pourrait prendre la forme de moyens d'investigation complémentaires, comme des plates-formes de forage pour forer en eau peu profonde, des instruments robotisés ou par la mise à disposition du Marion Dufresne, navire océanographique polyvalent français.

En outre, le coût d'exploitation du nouveau programme IODP devrait s'accroître sensiblement par rapport à celui d'ODP.

Le coût d'exploitation du navire actuel s'élève à 45 millions de dollars. La participation européenne représente environ le quart du total.

Le coût estimé pour les deux navires devrait atteindre 140 millions de dollars.

La participation européenne devrait être multipliée par trois si l'Europe voulait garder sa position actuelle dans le programme, la contribution française devant elle aussi être accrue, toutes choses égales par ailleurs.

En tout état de cause, la Commission européenne semble prête à participer au financement d'IODP en tant que réseau intégré au 6 ème PCRD, ce qui permettrait de diminuer les contributions nationales.

1 Source : direction de la recherche, ministère de la recherche, juin 2000

2 Source : direction de la recherche, ministère de la recherche, juin 2000

3 Source : direction de la recherche, ministère de la recherche, juin 2000

4 Source : direction de la recherche, ministère de la recherche, juin 2000

XIII - OCÉANOGRAPHIE

L'océanographie est sans doute l'une des disciplines scientifiques qui, depuis quelques années, connaît le développement le plus rapide, avec un élargissement considérable de ses centres d'intérêt et un rôle majeur à jouer dans la compréhension de l'un des défis majeurs de notre temps, le changement climatique.

Des difficultés existent certes dans le recensement des moyens indispensables de la discipline et dans la mise en place de financements pérennes.

Mais de nouveaux besoins d'investissement apparaissent dans la perspective de constituer une chaîne complète d'observations, composée de bouées de mesure, de navires de toutes tailles, de satellites et de centres de calculs.

La satisfaction de ces besoins est essentielle pour franchir un palier dans la connaissance des océans, éléments clés pour l'avenir de la planète.

1. Les équipements lourds de l'océanographie

Les moyens d'observation lourds jouent un rôle capital en océanographie et se composent de la flotte hauturière, de satellites, de la flotte côtière, de bassins d'essai et de réseaux de bouées d'observation.

La flotte française hauturière de l'IFREMER comprend actuellement l'Atalante, le Suroît, le Thalassa et le Nadir, tous navires de plus de 50 mètres, auxquels il faut rajouter le navire polaire polyvalent Marion Dufresne de l'IFRTP, le plus grand du monde.

La flotte océanographique hauturière représente un investissement cumulé de 500 millions de francs par navire. La plus grande partie de ce montant est à financer sur une période de 5 ans correspondant à la durée de construction du navire, le reliquat correspondant à la modernisation dont la date ne peut être déterminée à l'avance avec précision.

Le coût annuel d'opération d'un navire hauturier est de l'ordre de 30 à 50 millions de francs, à quoi il faut ajouter les coûts scientifiques.

Le coût d'investissement des satellites s'étage de 50 millions à 2 milliards de francs, selon leur complexité et selon qu'ils appartiennent ou non à une série de même nature. Leur durée de vie moyenne est de 5 ans. Le coût d'opération d'un satellite revient à 30 millions de francs par an.

Les réseaux d'observation, principalement les bouées dont chaque exemplaire représente un investissement de 300 000 francs environ, peuvent atteindre un total de 300 millions de francs, comme dans le cas des 3000 bouées du système ARGO, dont le coût annuel d'opération s'élève à 30 millions de francs.

Autre infrastructure indispensable, les moyens de calcul se chiffrent à 30 millions de francs environ pour les investissements et à 20 millions de francs par an en exploitation, si l'on estime les besoins de calcul de l'océanographie au tiers de ceux de l'IDRIS.

A ces très grands équipements, il faut bien entendu ajouter d'autres grands outils, comme les bassins d'essais ou d'élevage, la flotte côtière avec ses navires de 20 à 40 mètres, dont 3 appartiennent à l'IFREMER, 4 à l'INSU, 2 à l'IRD (Institut de recherche pour le développement), 1 à l'IFRTP.

2. Les équipements océanographiques de la nomenclature actuelle des TGE

Dans la nomenclature des TGE, on retient pour l'océanographie la flotte et les satellites TOPEX-POSEIDON, PROTEUS-JASON, POLDER et ERS1 et ERS2.

S'agissant de la flotte, les données communiquées par le ministère de la recherche montrent que les dépenses d'exploitation représentent la plus grande part de la dépense totale.

On constate une diminution tendancielle des dépenses de construction, depuis 1992. Le point bas de cette évolution a été atteint en 1999. Toutefois, les autorisations de programme retrouvent un niveau de 60 millions de francs dans le projet de loi de finances pour 2001 et devraient se maintenir à ce niveau en 2002, selon les indications données à vos Rapporteurs.

Tableau 1 : Evolution des dépenses relatives à la flotte océanographique TGE 1

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999*

2000*

Flotte

(TGE scientifique)

personnel

5

4

4

5

6

6

8

7

5

6

6

exploitation

147

151

159

182

180

175

178

178

187

174

185

construction

46

37

93

60

50

49

54

34

11

10

20

total

198

192

256

247

236

230

240

219

203

190

211

Ces chiffres doivent être rapprochés de ceux fournis par l'IFREMER quant à la flotte qu'il gère.

Tableau 2 : Plan de renouvellement de la flotte de l'IFREMER de 1995 à 2000 2

millions de francs

1995

1996

1997

1998

1999

2000

Total

AP financées par le BCRD

15

35,2

199,95

48,00

0

0

118,15

AP financées par les recettes propres

7,56

7,56

Total AP capitalisées

125,71

Les autres TGE océanographiques sont des satellites.

TOPEX-POSEIDON, satellite de topographie des océans, lancé en 1992 en coopération avec les Etats-Unis, a représenté une dépense de construction pour la France de 700 millions de francs et fonctionne toujours.

Tableau 3 : Evolution des dépenses relatives au satellite TOPEX-POSEIDON 3

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

TOPEX-POSEIDON

(TGE scientifique)

personnel

12

12

exploitation

6

15

11

18

21

20

15

11

17

construction

189

216

142

89

68

total

189

216

148

104

79

30

33

20

15

11

17

Son successeur, PROTEUS-JASON, qui sera lancé au printemps 2001, représente une dépense de construction cumulée de près 600 millions de francs, intégrant le coût de développement de la plate-forme multi-usages PROTEUS qui sera amorti sur d'autres programmes.

Tableau 4 : Evolution des dépenses relatives au satellite PROTEUS-JASON 4

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

PROTEUS-JASON

(TGE scientifique)

personnel

exploitation

construction

37

52

150

78

180

98

total

37

52

150

78

180

98

Autres TGE apportant une contribution à l'océanographie, les satellites ERS-1, lancé en 1991, et ERS-2, lancé en 1995, ont pour objet la surveillance permanente et tout temps des océans, des terres émergées et des glaces polaires, grâce à l'utilisation de techniques radars. Leur coût total de construction atteint 795 millions de francs.

Tableau 5 : Evolution des dépenses relatives aux satellites ERS1 et ERS2 5

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

ERS1 et ERS2

(TGE scientifique)

personnel

12

12

exploitation

23

23

43

42

46

53

48

48

42

43

16

construction

86

105

161

185

175

76

7

total

109

128

204

227

221

141

67

48

42

43

16

On citera pour mémoire le programme POLDER intégré aux TGE pour la seule année 1996, et qui correspond à un instrument de surveillance du phytoplancton embarqué par le satellite japonais ADEOS-2, lancé à la mi-2001.

Tableau 6 : Evolution des dépenses relatives à l'équipement POLDER 6

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

POLDER

(TGE scientifique)

personnel

8

exploitation

construction

total

8

On citera également pour mémoire les dépenses relatives à WOCE (World Ocean Circulation Experiment).

Tableau 7 : Dépenses relatives au TGE océanographique WOCE 7

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

WOCE

(TGE scientifique)

personnel

4

4

4

4

7

55

exploitation

2

2

7

4

8

9

construction

5

4

8

7

7

3

total

11

10

19

15

22

67

Ces très grands équipements ont représenté en 1999 une dépense de 424 millions de francs, dépense qui connaît une diminution tendancielle depuis 1992 (voir graphique suivant).

Figure 1 : Evolution des dépenses annuelles relatives aux TGE océanographiques

Avec l'augmentation des dépenses relatives à l'ensemble des TGE techniques, qui elle-même est la principale cause de celle des TGE scientifiques et techniques, la baisse en valeur absolue des dépenses des TGE de l'océanographie se retrouve en valeur relative.

Figure 2 : Evolution des dépenses relatives aux TGE de l'océanographie, par rapport aux dépenses totales des TGE scientifiques et techniques

Ainsi, en 1999, les dépenses relatives aux TGE de l'océanographie ont représenté 9,3 % du total, contre 17,8 % en 1990.

3. Les besoins prévisibles

La France a engagé depuis 1995 un effort de modernisation de sa flotte hauturière, effort qui est sans équivalent en Europe.

Mais la suppression des autorisations de programme dans les lois de finances pour 1999 et 2000 pour la flotte hauturière est venue interrompre un processus de capitalisation essentiel pour la continuation de son plan de modernisation. Les 70 millions de francs prévus pour 2001 et 2002 ne constituent pas un rattrapage suffisant, puisqu'un processus continu de modernisation et de renouvellement régulier de la flotte hauturière exige à lui seul des autorisations de programme annuelles de ce montant. Par ailleurs, le financement du renouvellement de l'un des navires de façade doit être prévu.

Différentes critiques ont pu être émises dans le passé sur l'incapacité de l'océanographie en tant que discipline de prévoir et planifier le renouvellement de sa flotte hauturière, voire côtière.

Mais les années récentes témoignent d'un bel effort de prévision et d'élargissement des perspectives, avec la participation de l'Espagne au financement du Thalassa, navire spécialisé dans la recherche halieutique.

En réalité, la difficulté essentielle constatée pour l'océanographie provient de l'absence de capitalisation des autorisations de programme, qui seule pourrait garantir un financement régulier de grands équipements comme les navires océanographiques.

Par ailleurs, la France dispose avec le navire polaire Marion Dufresne d'un navire à bien des égards unique au monde. Or il lui revient deux missions, l'une de souveraineté et de soutien logistique dans les Territoires des Terres australes et antarctiques françaises (Taaf) et l'autre de recherche scientifique.

Ces deux missions entrent régulièrement en conflit. En tout état de cause, il semble que le Marion Dufresne puisse être rentabilisé d'une manière plus satisfaisante qu'actuellement en étant déchargé de certaines de ses rotations logistiques. Ceci impliquerait soit la construction d'un nouveau bâtiment spécialisé dans la logistique soit des dépenses récurrentes d'affrètement.

Enfin, les stations marines constituent un réseau d'équipements lourds dont la rénovation et la modernisation trop longtemps différée s'imposent d'urgence. La flotte côtière et le réseau de bouées de l'INSU nécessitent également une modernisation urgente.

L'INSU estime au total le besoin d'investissement à 100 millions de francs par an sur 4 ans.

Compte tenu des atouts de la position géographique de la France, de la qualité de sa recherche, et de l'importance de l'océanographie pour l'étude du changement climatique, les besoins de l'océanographie ne sauraient être sous-estimés mais au contraire placés au premier rang des très grands projets de la Nation.

XIV - MÉTÉOROLOGIE

La prévision et ses débouchés opérationnels sont bien sûr le premier moteur des recherches conduites dans le domaine de la météorologie.

Parallèlement, l'étude du changement climatique et donc de l'environnement planétaire prend une importance accrue. Enfin, la recherche atmosphérique doit aussi répondre aux interrogations sur l'évolution de la couche d'ozone, sur la qualité de l'air et doit contribuer à la prévention des risques naturels.

Au plan scientifique, la météorologie est une discipline où les interactions entre la recherche et l'opérationnel sont fortes et permanentes.

La dualité recherche - opérationnel se retrouve dans les équipements lourds de la météorologie.

Certains délivrent un service continu à destination d'un grand nombre d'utilisateurs. D'autres produisent des mesures à destination de la seule communauté scientifique.

Toutes les informations recueillies par les différents outils contribuent au demeurant à perfectionner la connaissance de l'atmosphère.

1. Les équipements lourds de la météorologie

Il existe quatre types de grands équipements pour la recherche atmosphérique : la flotte aérienne, les satellites, les réseaux d'observation et les calculateurs.

La flotte aérienne a pour fonctions l'observation et l'échantillonnage.

Les avions représentent la première composante de la flotte aérienne. L'investissement correspondant s'élève à 150 millions de francs, pour des équipements dont la durée de vie est de 10 ans en moyenne. Les dépenses de fonctionnement s'élèvent à 15 millions de francs par an, en budget consolidé. Au total, sur une période de 10 ans, la dépense consolidée s'élève à 300-400 millions de francs.

Les ballons atmosphériques, seconde composante aérienne, entraînent une dépense de fonctionnement de 80 millions de francs par an, dont la moitié correspond aux activités de test des équipements satellitaires du CNES.

Deuxième type de très grands équipements de la météorologie, les satellites météorologiques répondent au double objectif de l'observation globale et de la mise en cohérence des données et jouent à ce double titre un rôle désormais fondamental.

Les dépenses d'investissement par satellite varient de 50 millions à 3 milliards de francs, pour une durée de vie moyenne de 5 ans, qui va de 3 à 10 ans. L'intervalle de coût rend compte des différences de nombre et de complexité des fonctions des satellites.

Le coût annuel consolidé d'opération d'un engin de ce type est de l'ordre de 30 millions de francs.

Les réseaux d'observation ont pour objet la surveillance et la validation des modèles.

Leur intérêt est de pouvoir fournir des séries longues, indispensables par exemple pour distinguer les parts respectives de la variabilité naturelle et de la variabilité anthropique du climat et approfondir la compréhension des systèmes incluant l'atmosphère.

En réalité, il est impossible de découpler l'approche par les observations au sol et l'approche satellitaire.

L'investissement total qu'il est nécessaire de faire dans les réseaux d'observation au sol atteint 100 millions de francs pour avoir des installations pérennes sur une dizaine d'années. Le coût annuel de fonctionnement de ces réseaux représente quant à lui une dépense de 25 millions de francs en budget consolidé. Bien évidemment, les réseaux d'observation n'ont d'intérêt que s'ils sont insérés dans une coopération européenne et internationale.

Les calculateurs de puissance sont le quatrième type d'équipements lourds indispensables aux recherches atmosphériques.

Leur fonction est de prendre en charge les modèles de simulation météorologique et de produire les prévisions correspondantes à court ou à long terme. S'il est difficile d'attribuer à la seule recherche atmosphérique l'usage d'ordinateurs employés par ailleurs pour des études liées au couplage de l'atmosphère avec les océans et la biosphère par exemple, on peut néanmoins estimer le coût d'investissement cumulé à 40 millions de francs pour disposer, sur une durée de 5 ans, des ressources de calcul suffisantes, correspondant à une seule machine dédiée ou à du temps de calcul fourni par plusieurs ordinateurs distincts, comme c'est plutôt le cas actuellement. Du fait de l'explosion des besoins en temps de calcul et de l'évolution rapide de ce type d'équipement, la durée de vie de cet investissement semble être de l'ordre de 3 à 4 ans.

Les grands équipements de la recherche atmosphérique ont une fonction d'intégration fondamentale. Mais ils ne sauraient dispenser du développement d'outils de plus petite dimension.

Les capteurs de télédétection sont omniprésents dans les satellites et la flotte aérienne, mais aussi dans les réseaux d'observation terrestre. L'augmentation de sensibilité de ces dispositifs est un objectif permanent, de même que l'élargissement de la gamme des mesures qu'ils peuvent effectuer. Les algorithmes de restitution des variables géophysiques à partir des mesures doivent aussi faire l'objet de développements constants, ce qui peut avoir des débouchés pour les services à forte valeur ajoutée dans le domaine de l'informatique. Enfin, l'évolution technique doit être permanente pour une automatisation et une miniaturisation accrues des composants et une accélération de la transmission de données. Ces développements innovants trouvent un cadre optimal dans une coopération européenne et internationale, qui permet des progrès plus rapides et compatibles.

2. Les équipements de la nomenclature actuelle des TGE

La nomenclature actuelle des TGE comprend quatre équipements relatifs à la météorologie, dont un seul appartenant à la catégorie des TGE scientifiques et trois appartenant à la catégorie des TGE techniques.

Le seul TGE scientifique de la météorologie est le satellite ENVISAT, développé dans le cadre de l'Agence spatiale européenne (ESA). Ce satellite de très grande taille, doté d'un grand nombre d'instruments, qui sera lancé en juillet 2001, a pour objectif l'étude de la surface des océans et l'analyse des composants de l'atmosphère.

ENVISAT représente un investissement total de 2,5 milliards d'euros, soit 16,4 milliards de francs, dont près de 2,5 milliards de francs à la charge de la France.

A la fin de l'année 2000, le total des sommes versées par la France depuis 1993 approchera un montant de 2 milliards de francs.

Tableau 8 : Dépenses de la France pour ENVISAT 8

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999*

2000*

ENVISAT

personnel

8

8

(TGE scientifique)

exploitation

construction

143

256

279

351

291

241

257

169

total

143

256

287

359

291

241

257

169

Le coût d'ENVISAT est reconnu comme rédhibitoire. Il est au demeurant assorti d'un risque énorme en cas d'échec du lancement.

C'est pour mettre fin à de tels aléas que l'ESA a développé les concepts de plates-formes communes, de mini-satellites et de micro-satellites pour diminuer les coûts. Par ailleurs, les programmes facultatifs, qui ne rassemblent pas obligatoirement tous les partenaires de l'ESA, ont été développés et peuvent être d'une ambition limitée au contraire des premiers programmes obligatoires qui devaient rassembler une participation de tous les membres.

Considéré comme un TGE technique, EUMETSAT correspond à la participation française à cette organisation internationale de 17 Etats européens qui a pris le relais de l'ESA en 1986 pour l'exploitation des trois satellites géostationnaires de météorologie Meteosat.

Le coût cumulé de la construction des satellites Meteosat s'établit pour la France à 989 millions de francs, le coût annuel d'exploitation étant de 220 millions de francs pour 2000. En réalité, la distinction entre les coûts de construction et les coûts d'exploitation, qui est faite dans les comptes du ministère de la recherche, ne correspond pas au renouvellement auquel il a été procédé pour les satellites Meteosat.

Tableau 9 : Dépenses correspondant aux satellites METEOSAT et à la participation française à EUMETSAT 9

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999*

2000*

EUMETSAT

personnel

(TGE technique)

exploitation

200

214

214

220

construction

92

93

139

197

217

225

223

total

92

93

139

197

217

225

223

200

214

214

220

Les deux autres TGE techniques relatifs à la météorologie correspondent à la préparation de la nouvelle génération de satellites de recherche sur l'atmosphère.

Le programme MSG (Meteosat Seconde Generation) prendra la suite des satellites Meteosat 5, 6 et 7, à partir de 2002.

Tableau 10 : Dépenses relatives aux programmes Meteosat Seconde Génération (MSG) et METOP 10

millions de francs

dépenses

1995

1996

1997

1998

1999*

2000*

MSG

personnel

(TGE technique)

exploitation

construction

212

195

182

total

212

195

182

METOP

personnel

(TGE technique)

exploitation

construction

37

75

210

total

37

75

210

Le programme METOP correspond aux premiers satellites météorologiques défilants sur orbite polaire que l'ESA lancera en 2003. Ces satellites auront une exploitation couplée et un partage des tâches avec ceux de mêmes caractéristiques de la NOAA américaine.

Figure 3 : Evolution des dépenses annuelles relatives aux TGE de la météorologie

On trouvera ci-après l'évolution depuis 1990 des dépenses relatives aux TGE de la météorologie, telles qu'elles sont consignées par le ministère de la recherche, en pourcentage des dépenses totales consacrées aux TGE.

Figure 4 : Evolution des dépenses relatives aux TGE de la météorologie, par rapport au total des dépenses des TGE scientifiques et techniques

3. Les besoins prévisibles

L'importance croissante de la météorologie résulte d'une série de facteurs qui semblent incontournables.

La demande de prévisions émane tant de secteurs économiques que de la population. La protection de l'environnement et l'étude du changement climatique obligent tout à la fois à un effort de recherche considérable et au respect d'obligations internationales passant par une surveillance accrue de l'atmosphère.

Les efforts d'investissement à faire à l'avenir pour la météorologie présentent la caractéristique de devoir couvrir toute la chaîne des moyens de mesure et de traitement des données.

S'agissant des satellites de météorologie, tant le dispositif de révélation et de formulation des besoins de la communauté scientifique que le programme des années à venir paraissent satisfaisants.

Les programmes MSG et METOP permettront une avancée significative dans le domaine de la météorologie. Dans le domaine de la recherche sur l'atmosphère, la rationalisation de la démarche effectuée après ENVISAT permettra, semble-t-il, des avancées importantes avec l'instrument complexe IASI sur EPS1-METOP, et les projets ADEOS2, ODIN (satellite franco-suédois d'étude des composants de l'atmosphère), PICASSO-CENA (satellite franco-américain d'étude des nuages élevés), AEOLUS (satellite de l'ESA d'étude des vents en air clair), SMOS (étude de l'humidité des sols et de la biosphère).

La situation paraît en revanche défavorable pour la flotte aérienne et en particulier pour les avions météorologiques. La dépense cumulée d'investissement et de fonctionnement de la flotte aérienne météorologique s'élève à 300-400 millions de francs sur une période de 10 ans, montant auquel il faut ajouter les dépenses relatives aux ballons atmosphériques.

On peut s'interroger sur les raisons pour lesquelles cet équipement ne figure pas dans la catégorie des TGE.

En tout état de cause, les avions doivent être renouvelés tous les 10-15 ans mais il n'existe pas pour autant de financement récurrent pour prendre en charge cette opération.

Météo-France se heurte à l'heure actuelle à des difficultés considérables pour financer l'achat de deux avions de taille moyenne, au demeurant d'occasion.

Deuxième insuffisance, la France dispose d'un parc d'avions météorologiques trop réduit par rapport aux autres grands pays mais aussi par rapport aux recherches à conduire, qui exigeraient par exemple un gros porteur pour l'étude des phénomènes atmosphériques turbulents comme les cyclones.

Un autre maillon essentiel de la recherche sur l'atmosphère est constitué par les réseaux d'observation et de surveillance. Ces réseaux nécessitent un renouvellement et un perfectionnement continus, correspondant à une dépense de 100 millions de francs pour une période de 5 à 10 ans.

Le besoin existe donc d'un financement pluriannuel identifié. En outre, un renforcement des effectifs des personnels qui les desservent est indispensable, le corps du CNAP pouvant être élargi à cette fin.

Enfin, il faut citer les besoins relatifs au traitement des données. Les transmissions de données toujours plus nombreuses doivent pouvoir être accélérées grâce à des réseaux à haut débit.

Il s'agit également de disposer des facilités de stockage correspondantes, avec des compétences pour la mise en forme et la restitution des données aux usagers. Il faut enfin des calculateurs de puissance pour la simulation numérique.

A cet égard, tout indique que la génération actuelle des ordinateurs d'une puissance de l'ordre de quelques dizaines de gigaflops (milliard d'opérations par seconde) devra être remplacée dans les trois ans à venir par des calculateurs d'une puissance mille fois supérieure (teraflops)si l'on veut rester compétitif par rapport aux moyens mis en _uvre aux Etats-Unis et au Japon.

Plus sans doute que toute autre discipline, la météorologie nécessite une régularité de fonctionnement et donc de financements, puisque aussi bien, la constitution de séries longues de mesures de tous types est une contrainte absolue de cette discipline.

XV - ASTRONOMIE AU SOL

Dans le budget annuel consolidé de l'astronomie au sens large, qui s'est élevé à environ 1,5 milliard de francs en 1998, la part des TGE représente 770 millions de francs.

Les TGE au sol comptent pour 200 millions de francs par an, dont 130 millions de francs de contribution à l'ESO (European Southern Observatory).

Au vrai, les TGE constituent un élément clé de la visibilité internationale de l'astronomie française. 70 à 75 % des publications scientifiques les plus citées de la discipline sont issues de travaux conduits dans leur cadre.

1. Les TGE actuels de l'astronomie au sol

Les très grands équipements au sol de l'astronomie et de l'astrophysique, comprennent d'une part la participation française à l'ESO (European Southern Observatory), d'autre part les instruments de l'INSU-CNRS que sont l'IRAM (Institut de radioastronomie millimétrique), le CFHT (télescope Canada-France-Hawaii) et enfin les projets VIRGO et AUGER, qui ne relèvent toutefois pas directement de l'INSU.

La participation française à l'ESO, organisation intergouvernementale créée en 1962 et rassemblant 8 pays européens, lui permet d'accéder, moyennant une contribution de 26,2 % au budget de l'organisation, au plus grand observatoire du monde situé au Chili.

Les 14 télescopes optiques et le radiotélescope de La Silla sont désormais complétés par le VLT (Very Large Telescope) situé sur le mont Paranal dans le désert d'Atacama, au Nord du Chili. Le VLT est un ensemble de 4 télescopes couplés de 8,2 m de diamètre chacun, récemment entrés en fonction.

La France a joué un rôle clé pour la fabrication des télescopes du VLT et des instruments focaux. Elle est un des leaders pour la réalisation et la mise au point du VLTI, mode interférométrique du VLT, une technique qui associe les 4 télescopes de 8,2 m et 3 petits télescopes mobiles additionnels afin d'obtenir une très haute résolution angulaire.

Les objectifs à court terme de l'astronomie française à l'ESO sont d'une part l'exploitation du VLT et d'autre part la finition du VLTI qui devrait être mis en service en 2002-2003.

Autre poste de dépenses de l'astronomie au sol, l'IRAM (Institut de radio-astronomie millimétrique) est un institut plurinational, fondé en 1974 par le CNRS et la Max Planck Gesellschaft, rejoints ensuite par l'IGN espagnol en 1990.

L'IRAM dispose de deux installations, d'une part une antenne de 30 m en Espagne dans la Sierra Nevada et d'autre part l'interféromètre du plateau de Bure situé près de Grenoble.

L'expérience acquise par l'IRAM en interférométrie, notamment dans le traitement des données, constitue un atout majeur pour la participation de la France au projet ALMA (Atacama Large Millimeter Array). Au reste, des liens très étroits entre ALMA et l'IRAM, d'une part, et l'ESO, d'autre part, sont envisagés, qui permettront de donner une dimension européenne à ce projet.

Le CFHT (télescope Canada-France-Hawaii) en service depuis 1979 à Hawaii, est constitué d'un télescope de 3,6 m de diamètre.

Le CFHT connaît depuis quelques années une spécialisation progressive dans l'imagerie à grand champ, avec la caméra dans le visible MEGAPRIME. Il est envisagé de réaliser une caméra grand champ infrarouge WIRCAM en coopération internationale.

2. L'évolution et le niveau actuel des dépenses pour l'astronomie au sol

La participation française à l'ESO constitue le premier et le principal des très grands équipements de l'astronomie au sol. La dépense correspondante a doublé entre 1990 et 1996, pendant la période de construction du télescope VLT.

Tableau 11 : Evolution des dépenses annuelles relatives au TGE ESO 11

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

ESO

(TGE scientifique)

personnel

24

28

29

29

40

48

46

37

46

46

46

exploitation

23

25

25

44

20

23

30

25

33

33

33

construction

15

34

41

46

42

48

55

66

45

45

45

total

62

87

95

119

102

119

131

128

124

124

124

La part de la France dans la construction des équipements additionnels permettant au VLT de fonctionner en mode interférométrique a représenté au total un montant de 51 millions de francs, essentiellement en dépenses de personnel.

Tableau 12 : Evolution des dépenses annuelles relatives au TGE VLTI 12

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

VLTI

(TGE scientifique)

personnel

10

9

16

14

exploitation

1

construction

1

total

0

0

0

10

9

17

15

0

0

0

0

La dépense annuelle relative au télescope Canada-France-Hawaii ne représente plus qu'un montant de 20 millions de francs par an environ.

Tableau 13 : Evolution des dépenses annuelles relatives au TGE CFH 13

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

CFH

(TGE scientifique)

personnel

7

9

9

10

10

9

10

2

2

2

2

exploitation

10

10

12

10

10

11

10

18

19

19

18

construction

total

17

19

21

20

20

20

20

20

21

21

20

Les dépenses relatives à l'Institut de radioastronomie millimétrique (IRAM) sont d'un peu moins de 40 millions de francs par an.

Tableau 14 : Evolution des dépenses annuelles relatives au TGE IRAM 14

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

IRAM

(TGE scientifique)

personnel

17

19

19

17

18

19

19

1

exploitation

13

11

12

16

16

16

16

34

36

36

37

construction

3

4

3

4

total

30

30

31

33

37

39

38

38

36

36

38

Depuis 1997, les dépenses annuelles relatives aux TGE de l'astronomie au sol sont stabilisées à 180 millions de francs par an.

Figure 5 : Evolution des dépenses annuelles relatives aux TGE de l'Astronomie au sol

Compte tenu de l'augmentation des dépenses de l'ensemble des TGE scientifiques et techniques, les TGE de l'astronomie au sol ressortissent à 4 % du total, après avoir atteint un maximum de 5,5 % pendant la construction du VLT.

Figure 6 : Evolution des dépenses relatives aux TGE de l'Astronomie au sol par rapport aux dépenses totales des TGE scientifiques et techniques

3. Les besoins prévisibles de l'astronomie au sol

Le programme scientifique du CFHT est assuré jusqu'en 2008. Mais la réflexion est ouverte sur son avenir, qui ne peut toutefois s'envisager que sur un plan international.

Par ailleurs, le moyen terme de l'ESO et de l'IRAM est la réalisation du projet ALMA constitué d'un réseau de 64 antennes de 12 mètres de diamètre chacune, fonctionnant en mode interférométrique dans le domaine millimétrique et submillimétrique, réseau implanté dans le désert d'Atacama.

Ce projet est envisagé en partenariat avec l'ESO et les Etats-Unis, le Japon négociant actuellement sa participation. Son coût total atteindrait 550 millions de dollars, dont la moitié à la charge de l'Europe. Ses objectifs scientifiques concernent pratiquement toutes les thématiques de l'astronomie et de l'astrophysique, à l'exception de l'étude du Soleil, en particulier la cosmologie, l'étude des grandes structures de l'Univers, la structure et la dynamique des galaxies, la planétologie.

Le projet ALMA fait actuellement l'objet d'une pré-étude qui sera finalisée au début 2001, l'éventuelle approbation du projet devant être donnée avant la fin de l'année 2001. En tout état de cause, l'ESO souhaite élargir le nombre de pays membres, notamment au Royaume-Uni, sa participation étant indispensable, afin de diminuer la charge financière pour les 9 membres actuels de l'ESO.

Dans la configuration actuelle de l'ESO, la charge financière cumulée pour la France du projet ALMA pourrait approcher un demi-milliard de francs sur 10 ans.

L'Observatoire Pierre Auger représente un autre projet à moyen terme de l'astronomie au sol.

Il s'agit d'un projet de détecteur de rayons cosmiques de très haute énergie pour explorer un domaine de l'astrophysique qui représente encore une énigme. Bien qu'elles aient été observées, on ne connaît aujourd'hui aucun mécanisme astrophysique capable de produire et d'accélérer des particules à des énergies de l'ordre de 10 19 eV. Le projet AUGER a pour ambition de répondre à cette question.

Concrètement, l'Observatoire comprendra deux implantations, l'une dans l'hémisphère Nord en Utah et l'autre dans l'hémisphère Sud en Argentine. Chaque site possédera 1600 stations détectrices constituées d'une cuve remplie de 12 tonnes d'eau, et réparties sur une superficie de 3000 km².

Le coût prévu pour ce projet, qui n'est pas au demeurant formellement décidé, est d'environ 100 millions de dollars, qui pourraient être répartis entre les Etats-Unis, le Japon, l'Australie, l'Amérique latine et l'Europe.

1 Source : direction de la recherche, ministère de la recherche, juin 2000.

2 Source : IFREMER, audition du 18 octobre 2000.

3 Source : direction de la recherche, ministère de la recherche, juin 2000.

4 Source : direction de la recherche, ministère de la recherche, juin 2000

5 Source : direction de la recherche, ministère de la recherche, juin 2000

6 Source : direction de la recherche, ministère de la recherche, juin 2000

7 Source : direction de la recherche, ministère de la recherche, juin 2000

8 Source : direction de la recherche, ministère de la recherche, juin 2000

9 Source : direction de la recherche, ministère de la recherche, juin 2000

10 Source : direction de la recherche, ministère de la recherche, juin 2000

11 Source : direction de la recherche, ministère de la recherche, juin 2000

12 Source : direction de la recherche, ministère de la recherche, juin 2000

13 Source : direction de la recherche, ministère de la recherche, juin 2000

14 Source : direction de la recherche, ministère de la recherche, juin 2000

XVI- ASTROPHYSIQUE SPATIALE

L'astrophysique spatiale connaît un développement rapide depuis quelques décennies, grâce à d'importantes évolutions technologiques et théoriques.

Grâce aux satellites et à la mise au point de nouveaux capteurs, les observations peuvent s'affranchir de l'écran que constitue l'atmosphère et porter sur l'ensemble de la gamme des longueurs d'ondes, ce qui ouvre à la connaissance des domaines entièrement nouveaux jusqu'ici seulement imaginés par les théoriciens.

Par ailleurs, l'astrophysique bénéfice de la convergence de cette discipline avec la physique des particules ou la physique des hautes énergies, ainsi que de la mise en _uvre de nouvelles techniques de modélisation numérique des événements ayant pu survenir ou survenant encore dans l'Univers.

Les TGE spatiaux sont donc désormais absolument indispensables au développement de l'astrophysique. Ils comptent pour 570 millions de francs par an, dont 400 millions de contribution à l'ESA (European Space Agency - Agence spatiale européenne).

Pour autant, leur utilisation est complémentaire de celle des TGE au sol décrits précédemment, la frontière entre l'astronomie et l'astrophysique étant au demeurant fort ténue et n'étant reprise ici qu'en prolongement de ce qui est pratiqué par le ministère de la recherche.

1. Les moyens lourds de l'astrophysique spatiale

Selon le modèle actuel de formation de l'univers, après le Big Bang, une inflation de l'univers est intervenue avec une phase de nucléosynthèse, puis de recombinaison des noyaux et de réionisation. Ensuite se sont produites successivement la formation de galaxies, de systèmes planétaires et enfin l'apparition de matériaux biologiques puis d'une vie intelligente.

Les questions clés de l'astronomie peuvent être situées le long de ce trajet évolutif.

Le point de départ est constitué par l'étude du corps noir cosmologique et la formation des grandes structures. Les autres sujets essentiels sont l'étude de la formation et de l'évolution des galaxies, des étoiles, des systèmes planétaires et enfin la compréhension de l'environnement spatial et la prévision.

S'agissant des moyens d'observation indispensables à l'astronomie, il faut disposer d'une panoplie d'instruments recouvrant la plus large gamme possible de longueurs d'ondes.

La nécessité de combiner des observations faites sur un large spectre et donc, le plus souvent, par un ensemble d'instruments distincts, a puissamment poussé l'astronomie à développer ses TGE sur une base internationale. S'il y a coopération globale, il reste une compétition au niveau des instruments eux-mêmes et de l'exploitation scientifique des données recueillies.

On trouvera ci-dessous un tableau simplifié regroupant les différents équipements spatiaux de l'astrophysique par grand domaine d'observation.

Tableau 40 : TGE de l'astrophysique spatiale en fonctionnement ou arrêtés

Astronomie infrarouge

ISO : mission arrêtée en 1998

Astronomie IR lointain et submillimétrique

FIRST/PLANCK : lancement prévu en 2007

Astronomie des hautes énergies

XMM-Newton : lancé en 1999

INTEGRAL : lancement prévu en 2002

Observation du Soleil

SOHO : mission en cours, arrêt prévu en 2003

Astrométrie spatiale

HIPPARCOS : mission arrêtée en 1995

2. Les TGE de l'astrophysique dans la nomenclature actuelle

On trouvera ci-dessous les dépenses correspondant aux TGE de l'astrophysique spatiale tels qu'ils sont répertoriés dans la nomenclature du ministère de la recherche.

Tableau 41 : Evolution des dépenses relatives à ISO 1

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

ISO

(TGE scientifique)

personnel

7

7

4

5

4

11

11

exploitation

3

4

2

1

1

1

construction

130

93

56

60

59

48

25

20

12

7

5

total

137

100

60

65

63

62

40

22

13

8

6

A titre indicatif, la participation française cumulée de 1990 à 2000 aux dépenses de construction d'ISO, un programme de l'ESA, représente une dépense de 515 millions de francs, pour un satellite ayant fonctionné de 1995 à 1998.

Compte tenu des délais d'étude, les investissements dans les missions FIRST et PLANCK ont commencé dès 1998, pour un lancement prévu en 2007.

Tableau 42 : Evolution des dépenses relatives à First/Planck 2

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

First/Planck

(TGE scientifique)

personnel

0

4

7

exploitation

construction

4

10

40

total

0

0

0

0

0

0

0

0

4

14

47

S'agissant de l'astronomie des hautes énergies, la dépense cumulée relative au satellite XMM de spectroscopie en rayons X lancé en 1999, s'établit à 818 millions de francs, dont 787 correspondant à la construction.

Tableau 43 : Evolution des dépenses relatives à XMM 3

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

XMM

(TGE scientifique)

personnel

5

4

4

8

7

exploitation

1

2

construction

5

17

65

123

159

171

98

100

49

total

0

0

10

21

69

131

166

171

99

100

51

Le satellite INTEGRAL d'observation en rayonnement gamma dont le lancement est prévu en 2002, correspond aujourd'hui à une dépense cumulée de 624 millions de francs.

Tableau 44 : Evolution des dépenses relatives à INTEGRAL 4

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

INTEGRAL

(TGE scientifique)

personnel

1

2

11

7

16

17

19

15

exploitation

construction

7

28

54

123

142

111

71

total

0

0

0

1

9

39

61

139

159

130

86

La dépense cumulée pour le satellite SOHO d'observation du Soleil opérationnel de 1995 à 2003, atteint 1,17 milliard de francs sur la période 1990-2000.

Tableau 45 : Evolution des dépenses relatives à SOHO 5

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

SOHO

(TGE scientifique)

personnel

6

9

5

2

18

12

exploitation

21

construction

81

157

235

213

176

142

64

27

2

total

81

163

244

218

178

160

76

27

2

0

21

On citera pour mémoire les missions SIGMA d'astronomie gamma et HIPPARCOS, d'astrométrie spatiale.

Tableau 46 : Evolution des dépenses relatives à HIPPARCOS 6

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

HIPPARCOS

(TGE scientifique)

personnel

2

4

exploitation

21

1

3

3

construction

2

5

total

21

1

5

8

2

4

0

0

0

0

0

Tableau 47 : Evolution des dépenses relatives à SIGMA 7

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

SIGMA

(TGE scientifique)

personnel

4

5

4

4

2

4

2

exploitation

5

6

6

4

3

construction

total

9

11

10

8

5

4

2

0

0

0

0

Enfin, le programme Mission à coût réduit correspond à des micro-satellites, avec des coûts annuels de l'ordre de 60 millions de francs.

Tableau 48 : Evolution des dépenses relatives à la Mission à coût réduit 8

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

Mission coût réduit

(TGE scientifique)

personnel

exploitation

construction

11

50

69

total

0

0

0

0

0

0

0

0

11

50

69

Au total, en retenant les missions ci-dessus, la dépense annuelle relative aux TGE de l'astrophysique spatiale a été relativement constante au cours de la période, à l'exception des trois années 1995, 1996 et 1997 correspondant à un pic de dépenses pour SOHO et XMM.

Figure 28 : Evolution des dépenses annuelles dans les TGE de l'astrophysique spatiale

Il reste que la part des TGE spatiaux de l'astrophysique dans le total des TGE scientifiques et techniques enregistre une diminution constante qui l'a conduit à 6,1 % du total en 2000.

Figure 29 : Evolution des dépenses relatives aux TGE de l'astrophysique spatiale par rapport aux dépenses totales des TGE scientifiques et techniques

On peut citer enfin pour mémoire le Hubble Space Telescope (HST) au financement duquel la France participe, par l'intermédiaire de sa contribution à l'ESA.

3. Les besoins prévisibles en TGE de l'astrophysique

Le télescope spatial NGST (New Generation Space Telescope) qui succédera au Hubble Space Telescope , fournira des relevés dans le proche infrarouge avec une sensibilité de 100 fois à 10 000 fois plus grandes que l'instrumentation actuelle. Complémentaire du projet au sol ALMA, il devrait permettre d'observer les premières étoiles qui se sont formées à la fin de la phase de découplage de la matière et de la lumière après le Big Bang.

Le satellite FIRST, observatoire en infrarouge lointain et en submillimétrique, permettra aussi bien l'étude de la formation des galaxies que celle des étoiles et de leurs systèmes planétaires. PLANCK sera consacré à l'étude du fond cosmologique émis 300 000 ans après le Big Bang et de ses anisotropies.

Le projet GAIA devrait permettre de décrire les structures de notre galaxie et leur distribution, avec une précision semblable à celle d'HIPPARCOS pour celles du voisinage du Soleil.

Le projet INTEGRAL d'observation de l'univers en rayonnement gamma, dont le lancement est prévu en avril 2002, permettra l'observation des sources cosmiques les plus énergétiques, des galaxies actives aux objets non identifiés de rayonnement gamma par exemple.

On trouvera ci-après le programme Horizons 2000 de l'ESA pour ce qui concerne l'astrophysique.

Origine, évolution et structure de l'Univers

Lois de la physique fondamentale

Origine et évolution des étoiles et des systèmes planétaires et détection des planètes telluriques

2002 : AGILE - le rayonnement gamma dans l'univers

2004 : STEP - vérification des théories fondamentales de la relativité

2007 : PLANCK - étude de la texture de l'Univers à partir du Big Bang

2007 : FIRST - étude de l'évolution des étoiles et des galaxies

2009 : NGST - étude de l'origine et de l'évolution des premières galaxies

2009 : HST/NGST - étude des toutes premières galaxies, des étoiles et des systèmes planétaires

2009 ( ?) : HYPER - Interférométrie de très haute précision par senseurs à atomes froids

2009 : GAIA - pointage précis des étoiles, de leurs déplacements et de leurs distances dans notre galaxie et détection de planètes extra-solaires

2009 : LISA - détection des ondes gravitationnelles des trous noirs massifs et des systèmes binaires

? : XEUS - caractérisation des premiers objets chauds dans l'Univers

? : IRSI-DARWIN : identification et caractérisation d'exoplanètes telluriques et recherche de signes de vie possibles

L'astrophysique est sans aucun doute une discipline en pleine expansion grâce à un recours aux satellites qui s'avèrent extrêmement précieux.

La contrepartie de ce développement est de requérir des investissements considérables, compte tenu du coût des missions spatiales.

Sans doute des arbitrages pourront-ils s'avérer nécessaires avec d'autres projets spatiaux.

Ces arbitrages entre des projets de recherche fondamentale à long terme et d'autres projets d'utilité plus immédiate comme les projets de satellites météorologiques, pourraient en réalité s'avérer délicats.

XVII - PLANÉTOLOGIE

Si l'astrophysique spatiale a connu des développements théoriques et technologiques importants, la planétologie est elle aussi une discipline en plein essor du fait de la conception et de la réalisation concrète de missions d'exploration du système solaire de plus en plus ambitieuses.

C'est pourquoi les TGE spatiaux de la planétologie connaissent, principalement, depuis 1998, une augmentation importante de leurs crédits.

1. Les équipements lourds de la planétologie

Le programme de planétologie prend depuis quelques années un essor remarquable, avec des missions toutes internationales qui témoignent d'une ambition considérable et représentent souvent un défi scientifique historique.

Le tableau ci-après résume brièvement le calendrier des programmes en cours ou déjà lancés.

Tableau 49 : Programmes de planétologie spatiale en cours

Sujets d'études

Missions

Interactions Terre-Soleil

CLUSTER 2 : 4 satellites lancés en 2000

Cartographie de Mars et recherche d'eau

MARS EXPRESS Orbiter

Etude de Saturne et de son satellite Titan

CASSINI-HUYGENS : lancement en 1997, arrivée en 2004

Etude de la comète Wirtanen

ROSETTA : lancement prévu en 2003

Le premier programme concerne les interactions entre le Soleil et la Terre. Les quatre satellites Cluster 2 ont été lancés à la mi-2000 dans le cadre d'une collaboration ESA-NASA. Leur objectif est d'étudier les interactions entre les vents solaires et la magnétosphère de la Terre, deux points qui pourraient jouer un rôle important dans la variabilité du climat.

MARS EXPRESS Orbiter, autre programme de l'ESA, devrait être lancé en 2003 par une fusée russe en vue de compléter la cartographie de Mars et de rechercher la présence d'eau sur cette planète.

En 2004, c'est Saturne et Titan, sa principale lune, qui seront atteints par la mission CASSINI-HUYGENS, lancée en 1997.

Enfin, en 2003 la mission ROSETTA partira pour un rendez-vous avec la comète Wirtanen en 2011, suivi d'une mise en orbite autour de la comète et du largage d'un atterrisseur.

2. Les TGE de la planétologie selon la nomenclature actuelle

La dépense cumulée pour le programme de l'ESA CLUSTER 2 atteint 216 millions de francs pour la période 1998-2000 9 .

Tableau 50 : Evolution des dépenses annuelles relatives à CLUSTER 2 10

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

CLUSTER 2

(TGE scientifique)

personnel

exploitation

construction

96

55

65

total

0

0

0

0

0

0

0

0

96

55

65

L'exploration de Mars est jugée comme prioritaire par l'ensemble de la communauté de la planétologie. Au vrai, la France a participé à de nombreux programmes, depuis le début des années 1990. La dépense cumulée, correspondant à MARS EXPRESS Orbiter et aux programmes d'exploration s'élève à 440 millions de francs sur la période 1990-2000.

Tableau 51 : Evolution des dépenses annuelles relatives à MARS Express Orbiter 11

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

MARS EXPRESS

(TGE scientifique)

personnel

exploitation

construction

24

64

total

0

0

0

0

0

0

0

0

0

24

64

Tableau 52 : Evolution des dépenses relatives à l'Exploration de MARS 12

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

EXPLORATION MARS

(TGE scientifique)

personnel

10

10

exploitation

construction

25

36

50

55

43

20

28

5

19

51

total

25

36

50

55

43

30

38

5

0

19

51

Les missions CASSINI-HUYGENS (Saturne) et ROSETTA (Comète Wirtanen) représentent quant à elles une dépense cumulée de 977 millions de francs sur la période 1990-2000.

Tableau 53 : Evolution des dépenses annuelles relatives à CASSINI-HUYGENS 13

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

CASSINI

(TGE scientifique)

personnel

1

4

6

4

6

4

exploitation

construction

25

52

90

93

59

49

29

8

9

4

total

0

26

56

96

97

65

53

29

8

9

4

Tableau 54 : Evolution des dépenses relatives à ROSETTA 14

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

ROSETTA

(TGE scientifique)

personnel

7

14

exploitation

construction

63

42

106

154

148

total

0

0

0

0

0

7

77

42

106

154

148

Au total, les dépenses relatives à la planétologie sont passées de 0,9 % du total des dépenses relatives aux TGE scientifiques et techniques en 1990, à 7,2 % en 2000.

Figure 30 : Evolution des dépenses annuelles relatives aux TGE de la planétologie

Figure 31 : Evolution des dépenses relatives aux TGE de la Planétologie par rapport aux dépenses totales des TGE scientifiques et techniques

Compte tenu des liens forts entre l'astrophysique et la planétologie, on peut être tenté de faire la somme des dépenses des TGE les concernant.

En définitive, l'astrophysique spatiale et la planétologie spatiale rassemblées enregistrent une augmentation d'un facteur 2,2 de 1990 à 2000.

Figure 32 : Evolution des dépenses annuelles pour l'astrophysique spatiale et la planétologie

Le total des dépenses correspondantes s'élève à 563 millions de francs en 1999, soit 12,3 % des dépenses totales relatives aux TGE.

Figure 33 : Evolution des dépenses relatives aux TGE de l'astrophysique et de la planétologie par rapport aux dépenses totales des TGE scientifiques et techniques

3. Les besoins prévisibles en TGE de la planétologie

Parmi les objectifs à 10 ans de la planétologie, il semble que le programme d'exploration de Mars soit le principal.

Le programme du CNES d'exploration de Mars, programme intitulé PREMIER, tel qu'il a été présenté à vos Rapporteurs, comprend trois volets.

Au demeurant, ce programme correspond à la recommandation des scientifiques français spécialisés en planétologie. Il faut à cet égard noter l'effet fédératif de ce projet pour les sciences du vivant et les sciences de la Terre.

Le premier volet est la mission MARS EXPRESS Orbiter de l'ESA, prévu pour 2003, focalisée sur la cartographie et la recherche d'eau de la planète Mars. La contribution française sera de quelques dizaines de millions de francs, s'ajoutant à sa participation à ce programme obligatoire de l'ESA. Le coût réduit de cette mission s'explique par le fait qu'elle recourt à des instruments déjà développés pour la mission Mars 96.

Le deuxième volet est le programme multilatéral NETLANDER, regroupant 11 pays européens avec une participation américaine de faible ampleur, dont l'objectif est de déployer 4 atterrisseurs Netlanders sur Mars pour installer un réseau de mesures géophysiques. Le coût de ce programme est de 600 millions de francs, que la France prend à sa charge à hauteur des 2/3.

Le troisième volet est le retour d'échantillons, dans le cadre d'une coopération NASA-CNES.

Sur la période 2001-2012, les Etats-Unis allouent un budget annuel de 450 millions de dollars à ce programme. Le coût de la participation française avait été estimé au départ à 2,7 milliards de francs. On estime aujourd'hui qu'il atteindra 3 milliards de francs pour la période 2000-2012, avec un échéancier au demeurant encore très imprécis.

En définitive, le programme PREMIER devra tenir compte de la réévaluation faite par les Etats-Unis de leur propre programme.

La méthode retenue par la NASA est en effet de procéder par étape afin de valider chacune des opérations nécessaires au retour d'échantillons. Des missions auront lieu en conséquence en 2005, 2007 et 2009, avant la mission retour d'échantillon proprement dite, repoussée à 2011.

L'ordre de grandeur de la dépense cumulée pour une participation au programme d'exploration de la planète Mars sur la période 2000-2012 pourrait atteindre 4 milliards de francs dans la configuration actuelle, soit une charge annuelle supplémentaire d'environ 334 millions de francs pour le budget de la recherche.

On trouvera par ailleurs dans le tableau ci-après, une présentation résumée des autres programmes à 10 ans de l'ESA dont les coûts estimatifs ne semblent pas encore publiés.

Tableau 55 : Programme Horizons 2000 pour l'exploration du système solaire

Exploration du système solaire

Etude du Soleil et des relations Soleil-Terre

2001 : SMART-1 - propulsion ionique et science de la Lune

? : SOLAR ORBITER - observation à très haute résolution de la surface du Soleil et de l'héliosphère proche

2007-2009 : BEPICOLOMBO - exploration de Mercure

En cas de participation de la France à ces programmes, une dépense supplémentaire serait à ajouter aux montants précédents.

En tout état de cause, les estimations tant de coûts que de calendrier sont sujettes à des aléas importants, tant les défis technologiques à relever sont importants. Toutefois, s'il est vraisemblable que l'échéancier pourrait être décalé vers un horizon plus lointain, il est peu probable que les coûts soient révisés à la baisse.

Cette forte augmentation explique qu'un débat puisse exister entre d'une part les partisans d'une recherche fondamentale accélérant son rythme de progression dès lors que des opportunités techniques nouvelles existent et, d'autre part, les partisans d'une priorité à donner aux très grands équipements ayant une utilité immédiate. La question de " l'Espace utile " renvoie en tout état de cause à des arbitrages à rendre dans la plus grande transparence.

1 Source : direction de la recherche, ministère de la recherche, juin 2000

2 Source : direction de la recherche, ministère de la recherche, juin 2000

3 Source : direction de la recherche, ministère de la recherche, juin 2000

4 Source : direction de la recherche, ministère de la recherche, juin 2000

5 Source : direction de la recherche, ministère de la recherche, juin 2000

6 Source : direction de la recherche, ministère de la recherche, juin 2000

7 Source : direction de la recherche, ministère de la recherche, juin 2000

8 Source : direction de la recherche, ministère de la recherche, juin 2000

9 Cette présentation ne prend pas en compte le financement des satellites perdus lors du premier lancement d'Ariane 5.

10 Source : direction de la recherche, ministère de la recherche, juin 2000

11 Source : direction de la recherche, ministère de la recherche, juin 2000

12 Source : direction de la recherche, ministère de la recherche, juin 2000

13 Source : direction de la recherche, ministère de la recherche, juin 2000

14 Source : direction de la recherche, ministère de la recherche, juin 2000

XVIII - STATION SPATIALE INTERNATIONALE

La Station spatiale internationale (SSI) résulte d'une initiative prise par le Président REAGAN en avril 1983. Il s'agit de l'un des tous premiers projets de coopération technologique mondiale de par son importance stratégique mais aussi son coût.

Les parties prenantes de ce projet sont la NASA (Etats-Unis), ROSAVIACOSMOS (Russie), la NASDA (Japon), l'ESA (Europe), le CSA (Canada), le Brésil et l'Ukraine.

La France est impliquée dans la Station spatiale européenne par l'intermédiaire de sa participation à l'ESA 1 (European Space Agency - Agence spatiale européenne).

Cette participation est répertoriée dans la nomenclature des très grands équipements dits techniques. La charge financière annuelle, d'ores et déjà supérieure à 600 millions de francs, devrait rapidement passer à 900 millions de francs, sans compter le coût des expériences scientifiques conduites dans la station.

Il s'agit donc d'une charge importante pour le budget de la recherche alors que ce très grand équipement est principalement à vocation politique, stratégique voire industrielle.

1. La Station spatiale internationale, un équipement lourd d'importance politique et stratégique

Pour l'Europe, l'histoire de sa participation à la Station spatiale internationale a commencé en 1985, dans le prolongement de la coopération de l'ESA avec la NASA pour le programme SPACELAB.

L'apport de l'ESA concerne le laboratoire COLUMBUS, ses installations scientifiques dites " charges utiles " et le véhicule de transfert automatisé ATV (Automated Transfert Vehicule). La décision a été prise par un Conseil ministériel de l'ESA, sur la base d'un programme facultatif. Le montage de SSI a commencé à la fin 1998. Un équipage est à son bord depuis le 2 novembre 2000.

Le financement de la Station spatiale internationale incombe à 75 % aux Etats-Unis. La part de l'ESA est de 6 % du total, soit 3 milliards d'euros pour la période 1995-2004 - près de 20 milliards de francs, et de 700 millions d'euros pour l'exploitation préliminaire de 2001 à 2004, près de 4,6 milliards de francs.

La participation de l'ESA à la Station spatiale internationale s'effectue dans le cadre d'un programme facultatif, qui, comme son nom l'indique, ne s'impose pas aux pays membres mais constitue un engagement irrévocable pour les pays qui y ont initialement adhéré.

La participation française au programme Station spatiale internationale de l'ESA n'a pas été demandée par la communauté scientifique française. En l'occurrence, à l'inverse de la plupart des autres très grands équipements, on se trouve plutôt dans la situation d'une décision " top down " prise pour des raisons politiques et géostratégiques, que dans la situation habituelle d'une décision " bottom up " répondant à un besoin exprimé par la communauté scientifique.

Il s'agit donc désormais de valoriser la contribution financière à ce programme sur le plan scientifique. C'est à quoi s'emploie l'ESA, qui, avec son centre ERASMUS, informe les communautés scientifiques sur les possibilités offertes par la Station spatiale internationale et les moyens d'y accéder. Par ailleurs, des appels à proposition d'expériences sur les applications de la microgravité et sur les sciences du vivant ont été lancés et ont donné lieu à un nombre de réponses satisfaisant. La sélection a été faite par des comités d'experts de tous les pays membres représentant toutes les disciplines. Un processus de sélection complémentaire intervient en outre au niveau national, avec l'aide du CNES, les projets devant au final recevoir un double aval.

En outre, le CNRS, dont 22 laboratoires sont intéressés par les recherches sur les sciences du vivant dans l'espace, s'applique désormais à sélectionner les meilleurs projets d'expérimentations dans la Station spatiale internationale.

2. Les dépenses déjà effectuées dans la Station spatiale internationale

La contribution financière de la France à la Station spatiale internationale, via l'ESA, a commencé en 1996. Le total versé, sur la période 1996-2000 atteint 2,515 milliards de francs.

Tableau 56 : Evolution des dépenses de la Station spatiale internationale 2

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

Station spatiale internationale

(TGE scientifique)

personnel

exploitation

construction

297

389

545

624

660

total

0

0

0

0

0

0

297

389

545

624

660

Il s'agit d'une dépense en forte croissance, dont il faut toutefois observer qu'elle n'est pas propre à la France. S'agissant du programme de développement, si la contribution française est de 27,6 % du total du programme de l'ESA, celle de l'Allemagne est de 41 %.

Figure 34 : Evolution des dépenses annuelles relatives à la Station spatiale internationale

Il convient de rappeler à cet égard que le précédent ministre de la recherche avait cherché, à diminuer cette participation mais que les obstacles juridiques sont rapidement apparus insurmontables.

On citera pour mémoire le TGE EURECA (European Retrievable Carrier).

Tableau 57 : Dépenses relatives au TGE Eureca 3

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

Eureca

(TGE scientifique)

personnel

exploitation

construction

45

16

39

19

5

total

45

16

39

19

5

0

0

0

On trouvera également pour mémoire les dépenses correspondant à ETW (European Transsonic Windtunnel).

Tableau 58 : Evolution des dépenses relatives à ETW 4

millions de francs

dépenses

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

2000

ETW

(TGE scientifique)

personnel

exploitation

20

12

construction

58

64

67

37

18

total

58

64

67

37

18

20

12

0

0

0

0

Le graphique suivant présente l'évolution des dépenses relatives à la station spatiale internationale. Si l'on doit garder en mémoire le fait qu'il s'agit d'un engagement irrévocable, il faut également prendre la mesure de la croissance rapide de ces dépenses et de leur part dans les dépenses relatives aux TGE.

Figure 35 : Evolution des dépenses relatives à la Station spatiale internationale, par rapport aux dépenses totales des TGE scientifiques et techniques

La part prise par la Station spatiale internationale dans les dépenses relatives aux TGE atteint en effet 14,3 % en 2000.

3. Les charges prévisibles à l'avenir

Les coûts de construction de la Station spatiale internationale, à la charge de l'ESA sont de 3 milliards d'euros.

Or la contribution française est de 26,9 %. La dépense atteindra donc au total 5,4 milliards de francs pour la période 1995-2004.

Par ailleurs, s'agissant des coûts d'exploitation, la France prendra à sa charge 27 % des coûts fixes et 17 % des coûts variables de la contribution européenne. La charge correspondante s'élèvera en conséquence à 1,15 milliard de francs pour la période 2001-2004.

En supposant constante la répartition des charges au cours du temps, on peut donc établir le tableau suivant pour les quatre années à venir.

Tableau 59 : Prévisions de dépenses pour la Station spatiale internationale

1995

1996

1997

1998

1999

2000

2001

2002

2003

2004

développement

600

600

600

600

600

600

600

600

600

600

exploitation

288

288

288

288

total

600

600

600

600

600

600

888

888

888

888

Pour autant, la charge pour les années à venir pourrait bien être supérieure aux chiffres ci-dessus, dans la mesure où la France semble avoir bénéficié d'un décalage de trésorerie favorable. Il s'agirait alors de rattraper le retard de versement dans les quatre prochaines années.

Enfin, il ne semble pas non plus que les dépenses d'exploitation indiquées ci-dessus couvrent le coût des expérimentations scientifiques prévues dans la Station spatiale internationale.

On trouvera ci-après un programme prévisionnel d'activité scientifique dans la Station spatiale internationale, tel qu'il a été communiqué par l'ESA.

Tableau 60 : Programme Horizons 2000 pour la science dans la Station spatiale internationale

2005 : ACES - métrologie temporelle

SPORT - étude de la polarisation du rayonnement cosmologique

SOVIM/SOLSPEC/SOLACES - contrôle continu de la constante solaire

2010 : EUSO - détection des rayons cosmiques à très hautes énergies et des neutrinos

LOBSTER - cartographie et variabilité du ciel en rayons X

MOSS - oscillateurs micro-ondes et supraconducteurs

? : XEUS - observatoire international pour l'astronomie X

Il est donc probable que les dépenses de mise au point et d'exploitation des instruments correspondants soient à rajouter aux dépenses déjà répertoriées.

En tout état de cause, ces dépenses sont indispensables pour rentabiliser les investissements déjà faits.

Mais on peut se demander s'il ne s'agit pas là des seules dépenses à imputer au budget de la recherche.

Dans la mesure où la Station spatiale internationale répond à des objectifs essentiellement politiques et géostratégiques, il peut sembler logique que d'autres budgets, notamment celui de l'économie, des finances et de l'industrie, et de la défense, soient mis à contribution pour la construction et l'exploitation de cet outil.

XIX - LE SYSTÈME GALILEO DE POSITIONNEMENT PAR SATELLITE

Le système de radionavigation ou de positionnement GPS, développé pour les besoins de l'armée américaine, apparaît aujourd'hui comme une infrastructure stratégique, dont l'importance s'accroît de mois en mois avec la multiplication de ses applications.

En raison des performances insuffisantes du système russe GLONASS équivalent, il s'est établi de fait un monopole mondial américain auquel de nombreux pays européens et la Commission elle-même souhaitent mettre fin par la construction du système GALILEO.

Les dépenses engagées jusqu'à aujourd'hui pour la définition de GALILEO ne représentent qu'un montant modeste. Mais il n'en sera pas de même à l'avenir si une décision positive est prise, comme on peut l'espérer, dans les prochains mois.

1. Un équipement stratégique non encore pris en compte

Les applications principales d'un système de positionnement comme GPS ou GALILEO sont bien sûr la navigation aérienne, la navigation maritime, le transport routier ou ferroviaire. Mais il en existe bien d'autres, par exemple la géodésie, l'exploration off shore mais aussi l'utilisation de références de temps précises pour les applications bancaires et la synchronisation des réseaux de transmission de données. De plus les applications scientifiques d'un système de positionnement sont considérables dans la mesure où la précision peut atteindre le millimètre et ouvrir le champ de nombreuses applications en sismologie, en climatologie et en géophysique.

En tout état de cause, les économies générées par un système GALILEO autonome sur la période 2008-2020 ont été évaluées par la Commission européenne à 158 milliards d'euros pour la réduction des temps de transport routier ou aérien, à 50 milliards d'euros en terme d'indépendance économique, à 25 milliards d'euros d'économies d'énergie dans le transport routier, à 12 milliards d'euros pour la diminution de la mortalité due aux accidents de la route, à 1,5 % d'économies d'émissions de CO2 et à 170 millions d'euros en termes de rationalisation de certaines infrastructures pour l'aviation.

La démarche de l'ESA pour la mise en place d'un système de radionavigation par satellite comprend deux volets.

Le premier volet, qui s'étale sur la période 1995-2003, correspond à la définition, au développement et la validation du système EGNOS (European Geostationary Navigation Overlay System), outil complémentaire au système américain GPS améliorant sensiblement les performances de ce dernier.

Le deuxième volet, qui porte sur la période 1999-2008, correspond au développement et au déploiement d'une constellation complète de 30 satellites, intitulée GALILEO, offrant un service de radionavigation au moins aussi performant que le système américain GPS dans sa version améliorée.

C'est en mai 1999 que les Conseils ministériels de l'ESA et de l'Union européenne ont autorisé l'évaluation du système, évaluation qui sera achevée fin 2000 et qui devra être suivie d'une autorisation pour la suite des opérations, le développement proprement dit devant se dérouler entre 2001 et 2005.

Au vrai, il existe un consensus au sein de la Commission européenne sur la nécessité de réaliser le système GALILEO et un accord pour prendre la moitié de la charge financière du projet, à égalité avec l'ESA. Il reste que ce sont les ministres des transports de l'Union européenne qui devront voter le lancement définitif du projet. Les pays membres de l'Union sont favorables au projet, à l'exception du Royaume-Uni et des Pays-Bas, qui pourraient refuser leur participation dans un premier temps mais rejoindre peut-être le projet ultérieurement.

2. Les dépenses prévisibles

La dépense de développement, de validation et de déploiement du système GALILEO a été évaluée à 3,25 milliards d'euros, soit plus de 21 milliards de francs, partagés à égalité par l'ESA et l'Union européenne. On trouvera ci-après les estimations de coût et de financement établies par l'ESA.

Tableau 61 : Estimation des coûts de GALILEO 5 et hypothèses de financement

étape

période

coût

(millions

d'euros)

Financements (millions d'euros)

Union européenne

ESA

Secteur

privé

Définition

1999-2000

80

40

40

Développement et validation

2001-2005

1 100

550

550

Déploiement

2006-2007

2 150

à déterminer

à déterminer

1 500

Exploitation

2008 -

220/ an

non

communiqué

non

communiqué

non communiqué

Un vote de principe sur l'engagement de la phase de développement et de validation devait intervenir à l'ESA en décembre 2000. Le calcul précis des coûts devait ensuite être effectué de décembre 2000 à novembre 2001. Un nouveau vote sur les coûts valant autorisation définitive devrait intervenir à l'ESA en novembre 2001.

Si l'on prend pour hypothèse que la contribution française atteindra 30 % du total, soit un peu plus que sa contribution moyenne en raison de l'intérêt limité de certains pays membres pour ce projet, la charge financière devrait représenter un peu plus de 3 milliards de francs sur une période de 7 années, soit 420 millions de francs par an.

La question de la répartition du financement correspondant est là encore posée. Les applications scientifiques d'un tel système devraient être importantes, surtout si les demandes de la communauté des chercheurs sont prises en compte, au niveau de la définition de la forme des satellites, du choix de trois fréquences et d'un réseau au sol de qualité.

Mais les utilisations scientifiques ne seront pas majoritaires, ce qui pose le problème de la répartition des charges entre ministères.

Par ailleurs, des services commerciaux pourront être développés, ce qui suggère une participation privée au financement du système.

Il reste que ces questions pourraient recevoir une réponse, avec un engagement fort de l'Union européenne, dans le cadre éventuel de structures internationales comme EUTELSAT ou EUMETSAT qui gèrent avec succès des systèmes spatiaux de télécommunications ou de météorologie, et dont l'on envisage même la privatisation.

XX - ECOSYSTÈMES TERRESTRES

La surveillance et l'étude de l'environnement correspondent à des préoccupations montantes de la société dans les années récentes. De nombreuses actions sont conduites, on l'a vu, par les organismes de recherche dans le domaine de l'océanographie, de la météorologie et de la recherche atmosphérique, actions qui nécessitent la mise en oeuvre de moyens matériels considérables.

La surveillance et l'étude des écosystèmes terrestres représentent un nouveau défi pour les années à venir, non qu'aucun dispositif n'existe mais parce qu'un effort de systématisation des mesures et d'extension des recherches est requis pour répondre à des questions fondamentales pour la société, comme la protection des eaux, des sols et des forêts ou bien encore la conservation de la biodiversité.

La poursuite de tels objectifs nécessite la mise en réseau des dispositifs existants et futurs et l'intégration de l'ensemble des recherches dans une approche plus globale qu'actuellement.

Aucun dispositif d'observation et d'expérimentation des écosystèmes terrestres n'est actuellement recensé parmi les très grands équipements.

L'INRA, qui depuis quelques années a ajouté la recherche environnementale à son activité traditionnelle de recherche agronomique, pourrait faire partie d'un réseau avec d'autres organismes.

L'investissement financier correspondant et les frais de fonctionnement de ce réseau sont de l'ordre de grandeur d'autres très grands équipements.

1. Les efforts actuels de l'INRA

Les missions de l'INRA, établissement public à caractère scientifique et technologique, sont de contribuer au développement d'une agriculture performante et durable, à l'essor d'activités et d'industries agroalimentaires compétitives et respectueuses de la santé, et à la surveillance et aux recherches sur l'environnement et les écosystèmes terrestres.

Le budget de l'INRA en 1999 s'est élevé à 3,46 milliards de francs. Les dépenses de personnel ont représenté 72,8 % du total, les dépenses de fonctionnement 24,3 % et l'investissement 2,9 %.

Les effectifs de l'INRA comprennent environ 8700 permanents, chercheurs, ingénieurs et collaborateurs, auxquels s'ajoutent environ 2000 personnes en accueil temporaire. Les trois quarts des effectifs de l'INRA sont implantés en dehors de la région parisienne.

Comme un certain nombre de grands organismes de recherche français, l'INRA va connaître dans les années prochaines, une vague de départ à la retraite considérable, encore que son personnel soit en moyenne plus jeune que celui des autres organismes de recherche. D'ici à 2010, ce sont malgré tout 45 % de ses personnels qui seront à renouveler pour cause de départs à la retraite, avec les risques correspondant de perte d'expertise si la transition n'est pas planifiée en détail.

L'INRA comprend 21 centres de recherche régionaux, 256 unités de recherche et 85 unités expérimentales, dont 50 exploitations agricoles représentant 12 000 hectares. La recherche à l'INRA est conduite dans 17 départements, appartenant à quatre grandes catégories : végétal, animal, alimentation-nutrition, sciences sociales.

Le financement du budget de l'INRA est assuré à 84,4 % par des subventions du ministère de l'éducation nationale et du ministère de la recherche et à hauteur de 0,5 % du ministère de l'agriculture.

Les contrats de recherche qui ont représenté une recette de 278,4 millions de francs en 1998, proviennent à 25 % de l'Union européenne et de 23,9 % des collectivités territoriales.

L'INRA comprend plusieurs animaleries couvrant les bovins, les porcins, les ovins, la volaille, les poissons d'eau douce et les rongeurs. Ces animaleries sont accessibles aux équipes de recherche des autres organismes. Récemment, l'INRA a proposé d'utiliser dans un cadre de la réglementation des laboratoires confinés P3, son animalerie de gros bovins de Nouzilly près de Tours, pour les pathologies bovines et en particulier pour les recherches sur l'ESB (encéphalopathie spongiforme bovine).

Ces animaleries ne sont pas répertoriées dans les très grands équipements de la direction de la recherche du ministère de la recherche. Cette situation pourrait être modifiée à l'avenir.

Au demeurant, avec un montant de 99 millions de francs HT en budget prévisionnel pour 1999, les capacités d'investissement propres de l'INRA en matériels lourds et en immobilier apparaissent limitées.

Ceci justifie que l'INRA fasse émerger en tant que très grand investissement à doter d'un soutien spécial, un projet de " réseau d'observation et d'expérimentation agri-environnementales " dont il serait l'un des principaux partenaires.

2. Les besoins à l'avenir

Le projet de réseau agri-environnemental vise essentiellement trois objectifs.

Le premier objectif est la surveillance et le suivi de l'environnement, afin de détecter les évolutions, progressives ou brutales affectant les ressources physiques (eaux, sol, air) et les écosystèmes. Le deuxième objectif est d'analyser les processus d'évolution de ces derniers. Le troisième objectif est d'expérimenter des techniques et des systèmes d'agriculture et de sylviculture durables.

S'agissant du premier objectif de surveillance et de suivi de l'environnement, si la France possède d'ores et déjà des réseaux de surveillance de la qualité des eaux, il est nécessaire de mieux les articuler les uns avec les autres. Il s'agit par ailleurs, de rattraper un retard spécifiquement français pour la surveillance de la qualité des sols, domaine dans lequel la France possède 11 sites seulement, contre 5000 au Royaume-Uni.

L'objectif est donc de fédérer les éléments existants et d'aller plus loin en tirant parti des implantations locales de l'INRA.

A cet égard, le schéma idéal pour l'observation des sols correspond, d'une part à quelques milliers de sites légers pour la surveillance et le suivi, et, d'autre part, à une cinquantaine de sites plus lourds jouant le rôle de centres de coordination et d'exploitation des données. Les dépenses d'investissement correspondantes sont évaluées à 150 millions de francs, avec un coût de fonctionnement de 5 millions de francs par an.

Pour le deuxième objectif d'analyse des processus d'évolution des milieux et des écosystèmes, l'INRA évalue l'enveloppe financière à 5 à 10 sites-ateliers dotés de moyens lourds.

Pour le troisième objectif d'expérimentation agricole, plusieurs dizaines de sites d'un coût unitaire d'installation de 2 à 3 millions de francs seraient nécessaires, avec des coûts de fonctionnement de 0,5 à 1 million de francs par an.

Le réseau proposé reste à définir avec précision à plusieurs niveaux. En premier lieu, il s'agit de détailler les nombres de sites et les moyens expérimentaux nécessaires et de déterminer en quoi les sites et les équipements actuels de l'INRA sont utilisables. En deuxième lieu, l'articulation avec les partenaires naturels que sont l'INSU-CNRS, le CEMAGREF, l'IRD, le CIRAD mais aussi le CEA et l'INERIS reste à définir. Enfin, la place du réseau dans un ensemble européen et l'évolution des financements, notamment les politiques européennes mises à contribution, sont à déterminer.

XXI - SCIENCES DE L'HOMME ET DE LA SOCIÉTÉ

Des changements considérables sont d'ores et déjà intervenus dans les méthodes de travail des sciences de l'homme et de la société. L'interdisciplinarité et l'usage croissant des nouvelles technologies de l'information et de la communication ont commencé de bouleverser ces disciplines.

La mise en place des Maisons des Sciences de l'Homme et le rôle des Instituts à l'étranger assurent déjà une nouvelle structuration de la recherche. Ces nouveaux outils jouent un rôle capital dans la programmation des recherches à grande échelle, le développement des échanges interdisciplinaires, la généralisation du traitement de données quantitatives et le recours aux méthodes de la modélisation et de la simulation.

Par ailleurs, les bibliothèques numérisées et les bases de données commencent à apporter des solutions aux problèmes d'archivage et d'accès aux données.

Pour amplifier ces premières évolutions, les Sciences de l'Homme et de la société ont besoin d'une politique cohérente, coordonnée et pérenne. D'où le souhait des responsables de ces disciplines de voir les équipements correspondants appartenir à la catégorie des très grands équipements, contrairement à la situation actuelle.

1. Les Maisons des Sciences de l'Homme

La première Maison des Sciences de l'Homme (MSH), installée boulevard Raspail à Paris, a été créée à la fin des années 1960. Si le concept n'a essaimé en région qu'au début des années 1990, il s'agit d'une orientation fondamentale de la structuration de la recherche dans les sciences de l'homme et de la société. En 2000, les MSH sont au nombre de douze, trois unités supplémentaires étant en projet.

L'installation dans un même lieu d'au moins une dizaine de laboratoires comprenant plusieurs centaines de chercheurs a pour premier avantage de favoriser les échanges entre disciplines et les approches pluridisciplinaires. Ce regroupement produit également un effet de masse qui améliore la visibilité des travaux scientifiques, la capacité de négociation avec les collectivités territoriales et plus généralement les contacts avec le monde socio-économique. Enfin, une rationalisation des choix budgétaires peut être trouvée dans cette nouvelle organisation, en particulier pour les investissements en équipements de traitement de l'information.

Le CNRS a mis en place une contractualisation avec les Maisons des Sciences de l'Homme afin de leur garantir une pérennité, le département des sciences de l'Homme et de la société y consacrant environ un tiers de son budget annuel.

Le réseau des Maisons des Sciences de l'Homme bénéficie d'un concours supplémentaire du Fonds national de la science (FNS) à hauteur de 27 millions de francs en 1999, notamment pour la réalisation des projets retenus à Lille, Strasbourg et Paris-Nord.

2. Les Instituts à l'étranger

Les recherches sur les cultures et les pays étrangers dans le domaine des sciences de l'Homme et de la société sont conduites soit par le canal de coopérations internationales directes entre laboratoires français et laboratoires étrangers, ce qui n'exige pas d'équipement spécifique, soit par des travaux sur le terrain, dont les Instituts à l'étranger, un réseau représentant un grand investissement, assurent le support.

Les Instituts à l'étranger sont sous la responsabilité soit des ministères chargés de l'éducation nationale et de la recherche, comme la Casa Velazquez, l'Ecole française de Rome, soit du ministère des affaires étrangères, soit de ce dernier et du CNRS conjointement. Les instituts à l'étranger sont au nombre d'environ trente, répartis sur tous les continents. Les objectifs sont à l'avenir de regrouper des implantations dans certaines zones géographiques et d'élargir les champs disciplinaires de la plupart des instituts.

Ce dispositif, d'une importance capitale pour la recherche, pour la formation et pour le rayonnement de la France, doit faire face à une insuffisance de moyens humains et matériels et à des barrières institutionnelles diverses qui limitent le rôle des instituts dans la formation, ainsi que les possibilités de circulation des chercheurs et qui, donc, nuisent à leur efficacité.

Une réforme, élaborée afin de remédier à ces problèmes, est en cours d'adoption par les ministères concernés.

L'importance des instituts à l'étranger pour la recherche en sciences de l'Homme et de la société, pour la connaissance des sociétés étrangères et, partant, pour l'influence culturelle et économique de la France est mise en avant par les responsables de ce réseau pour solliciter des efforts accrus en sa faveur.

3. Les bibliothèques, les réseaux de documentation et les bases de données

La numérisation constitue un chantier d'une exceptionnelle importance pour les sciences de l'Homme et de la société.

Outre son intérêt essentiel de permettre un accès décentralisé aux ouvrages et aux documents de base, la numérisation limite les conséquences d'une disparition physique des originaux, renforce l'autonomie des laboratoires tout en opérant une unification des bibliothèques, des archives et même des collections d'objets, et a aussi pour effet de développer la coopération entre les disciplines et les institutions.

En réalité, les difficultés de cette entreprise sont considérables. Les laboratoires doivent être à la source des initiatives, tout en adhérant à des méthodologies compatibles sinon communes. La coopération des laboratoires avec la Bibliothèque nationale de France ou le ministère de la culture nécessitent que des problèmes institutionnels nombreux soient surmontés.

Au reste, différentes difficultés matérielles et d'organisation doivent recevoir d'urgence des solutions. Les nouvelles technologies de l'information révolutionnent les méthodes de classement, permettent l'accès décentralisé aux représentations numérisées des objets originaux mais ne suppriment pas les besoins d'archivage des collections d'objets, de cartes, de sons et donc de fonds physiques d'archivage scientifique.

Par ailleurs, l'accès aux bibliothèques universitaires ou aux bibliothèques des laboratoires, limité aux heures ouvrables traditionnelles, est une question fondamentale qui traduit un retard français insupportable pour les étudiants et les chercheurs et doit trouver une solution rapide.

Un autre problème technique et un blocage juridique sont à traiter en urgence.

Le problème technique est celui de la lenteur des méthodes utilisées actuellement pour la numérisation. Les chaînes de traitement actuellement utilisées sont trop lentes et exigent sans doute d'être externalisées, en particulier pour les fonds documentaires de grande taille. Ainsi, la Bibliothèque nationale de France n'a numérisé pour le moment que 70 000 ouvrages sur plusieurs millions.

Par ailleurs, le verrou juridique des droits des éditeurs empêche la numérisation des publications ayant moins de soixante dix ans d'antériorité. Des accords particuliers avec les éditeurs doivent être trouvés pour un paiement des droits en fonction des usages informatiques. Au reste, les bibliothèques constituent des moyens économiques d'accès à l'information, à condition de voir leurs collections et leurs plages horaires d'ouverture considérablement élargies.

La question des bases de données en sciences humaines et sociales représente un autre point fondamental pour l'avenir.

Les données d'enquêtes constituent les observations des sciences sociales et sont la base des interprétations et de la théorisation. La France a eu un rôle pionnier dans ce domaine, avec des institutions comme l'INSEE et l'INED. Aujourd'hui, son retard est considérable dans la constitution de bases de données informatisées. Ainsi, les premières bases de données d'enquêtes ont été constituées en 1961 à l'université de Michigan aux Etats-Unis, en 1962 à Cologne en Allemagne, en 1964 au Royaume-Uni et seulement en 1981 en France à Grenoble et ce pour les seules sciences politiques. Or les données produites par les administrations publiques, comme les ministères des affaires sociales, de la culture, de l'agriculture, de l'économie et des finances ou de l'équipement, ne sont pas accessibles aux chercheurs, de même d'ailleurs que les données des instituts de sondage. Une conséquence déplorable de cet état de fait est que la France, n'ayant pas de données à échanger, est en situation très délicate pour participer aux grandes enquêtes internationales menées sur la base de contributions nationales équivalentes.

Un récent rapport pour les ministères chargés de l'éducation nationale et de la recherche a défini des axes de progrès, bientôt traduits dans un arrêté ministériel, pour créer un dispositif d'archivage et de documentation des données produites par les administrations publiques, pour organiser la présence française dans les enquêtes internationales en prévoyant un comité de décision, une organisation et des financements, et, enfin, pour assurer la formation de chercheurs capables d'utiliser et de produire des données d'enquête.

Les coûts de fonctionnement d'un tel dispositif, en dehors des investissements en bâtiments et en moyens matériels, sont actuellement estimés à un million de francs par an pour les missions d'archivage et de formation et à sept millions de francs par an pour la participation aux enquêtes internationales.

Comme dans d'autres disciplines, la pérennité des résultats d'observation apparaît comme cruciale. Le manque d'ouverture des administrations et l'absence de moyens de traitement automatisés de l'information expliquent dans une certaine mesure les difficultés rencontrées jusqu'alors pour la conservation et la documentation des données. Leur intérêt apparaissant désormais clairement ainsi que les moyens de les valoriser, il importe de faire sauter les verrous administratifs, de mettre en place les moyens humains et techniques de récupération de l'existant, de prévoir des processus réguliers d'archivage et de documentation pour les données produites et surtout d'organiser à long terme la pérennité des mesures prises.

Au total, les sciences de l'Homme et de la société suivent la voie des sciences exactes, en requérant des moyens matériels plus importants que ceux dont ils disposent actuellement et en particulier des grands équipements.

Ces grands équipements sont nécessaires aux sciences de l'Homme et de la société, pour approfondir leurs méthodes de travail notamment dans le domaine quantitatif, pour structurer les recherches et accroître les échanges interdisciplinaires et la pluridisciplinarité, et en définitive pour renforcer leur visibilité et la reconnaissance de leur rôle par la communauté nationale.

1 Les pays membres de l'ESA sont ceux de l'Union européenne, à l'exception du Luxembourg, de la Grèce et du Portugal, auxquels s'ajoutent la Norvège et la Suisse. Le Canada est par ailleurs un Etat coopérant.

2 Source : direction de la recherche, ministère de la recherche, juin 2000

3 Source : direction de la recherche, ministère de la recherche, juin 2000

4 Source : direction de la recherche, ministère de la recherche, juin 2000

5 Principales hypothèses : prix moyen de marché des lanceurs de la gamme Ariane 5 ou du lanceur Proton ; coûts d'EGNOS intégrés ; non prise en compte du coût de développement des applications et des récepteurs.

DEUXIÈME PARTIE - LE RÔLE MOTEUR DES TRÈS GRANDS ÉQUIPEMENTS ET L'IMPORTANCE D'EN TIRER LE MEILLEUR PARTI

Introduction

Les entretiens que vos Rapporteurs ont eus avec les responsables des principaux organismes de recherche et des laboratoires de toutes disciplines font clairement ressortir l'importance des très grands équipements scientifiques.

A ce stade de l'analyse, il convient de déterminer s'il s'agit là d'une évolution déterminante et durable de la science moderne.

Par ailleurs, alors qu'une démarche offensive a longtemps prévalu dans le domaine des très grands équipements, les années récentes ont vu monter les réticences vis-à-vis de cette évolution, notamment en raison de leur coût.

Le poids budgétaire croissant des très équipements est incontestable. Il est donc fondamental d'identifier de quels types d'outils provient cette augmentation et d'autre part d'établir quels sont les bénéfices tirés des très grands équipements.

Ceux-ci se justifient par leur impact scientifique mais également par des effets d'entraînement considérables, qui s'exercent sur les régions d'implantation mais également sur l'industrie et l'économie nationale.

Dans ces conditions, il a paru fondamental d'analyser en profondeur la diversité des très grands équipements, repérés par le seul fait qu'ils dépassent l'autonomie de décision et de financement des grands organismes de recherche, et d'identifier leurs spécificités, leurs apports, leurs bénéficiaires, les enjeux et les problèmes rencontrés.

En tout état de cause, la pratique actuelle n'est plus tenable. Elle confond en une catégorie unique des très grands équipements dont les finalités, les enjeux et les critères de choix sont très différents. Il en résulte une représentation confuse du domaine, une opacité apparente des choix, des attributions budgétaires difficilement compréhensibles et, au final, une grande difficulté pour l'exercice du contrôle parlementaire.

En réalité, il est devenu indispensable de faire une distinction entre catégories de TGE qui donne une représentation intelligible de leur diversité et qui soit opérationnelle pour les choix et leur suivi.

Enfin, dans un souci de bonne gestion, il convient de porter la plus grande attention à la valorisation maximale des investissements réalisés dans les grands équipements.

A cet égard, un ensemble de nouvelles conditions sont à réunir, au plan technique mais aussi aux plans de l'organisation et de la gestion des ressources humaines.

I - UNE NOUVELLE DIMENSION DE LA SCIENCE INDISSOCIABLE DES TRÈS GRANDS ÉQUIPEMENTS

L'une des évolutions fondamentales de la science moderne, mais ce n'est pas la seule, c'est d'avoir besoin d'équipements de grande envergure, qui peuvent certes avoir des finalités différentes mais qui représentent tous des investissements considérables, la plupart du temps hors de la portée d'un seul grand organisme de recherche.

Mais ce recours indispensable à ces grandes installations exerce un effet en retour sur la manière dont la recherche est organisée.

On constate en effet une structuration de la recherche autour des grands équipements, quelle que soit leur nature. Bien évidemment, il ne s'agit pas là du seul élément d'organisation de la recherche scientifique ou technologique, mais il s'agit d'un facteur dont le rôle est capital.

1. La nouvelle dimension de la science moderne

Ainsi que l'a décrit le Conseil Supérieur de la Recherche et de la Technologie dans son rapport d'étape sur les très grands équipements scientifiques, rapport intitulé " Les TGE : vers une évolution des concepts et des moyens ", le processus d'évolution de la recherche scientifique et technologique conduit à l'utilisation d'un nombre de moyens d'investigation de plus en plus important.

Les sciences physiques ont été les premières à mettre en jeu des méthodes d'investigation à la fois plus diversifiées et toujours plus précises. Progressivement d'autres disciplines ont, elles aussi, élargi la gamme de leurs observations et de mesures et appelé à la construction d'outils toujours plus performants.

Trois mouvements de fait apparaissent comme des mouvements de fond, d'un part la sophistication croissante des instruments de mesure et d'observation, d'autre part la mutualisation des grands équipements corrélative pour un meilleur partage des ressources et des coûts, et enfin l'interdisciplinarité qui s'exprime à plusieurs niveaux et en particulier autour des grands équipements.

1.1. La sophistication croissante des instruments d'observation et de mesure

L'extension des capacités d'observation est un mouvement indissociable de l'évolution scientifique, que ce mouvement se produise vers l'infiniment petit, vers l'infiniment grand ou l'infiniment complexe. En réalité, la notion d'observation est également associée à celle de mesure, qui est source de nombreuses découvertes et qui est à la base de la théorisation.

L'un des buts de la recherche technologique est donc de repousser les limites des observations.

De nombreux exemples récents existent à cet égard, en particulier avec l'utilisation de l'espace pour l'observation de l'Univers.

Ainsi, de larges domaines de longueurs d'onde sont devenus accessibles pour l'observation de l'Univers. L'observation dans le visible est complétée par des observations dans la gamme de rayons X par exemple avec le satellite XMM Newton, dans la gamme des rayonnements gamma avec le projet INTEGRAL ou encore dans l'infrarouge avec ISO.

Figure 1 : L'observation de l'Univers et les ondes électromagnétiques 1

Le rayonnement synchrotron offre un autre exemple d'avancée continue vers une amélioration des performances des appareillages.

Dès la première génération de synchrotrons, les performances obtenues ont dépassé très largement les sources habituelles comme les tubes à rayons X de première génération et les tubes à anode tournante. Ainsi, la brillance du synchrotron DCI du LURE est 100 000 fois supérieure à celle d'un tube à rayons X de laboratoire.

Ce progrès dans les performances a continué avec la deuxième génération puis avec la troisième génération de synchrotrons dont les faisceaux atteignent une brillance mille milliards de fois supérieure à celle des tubes à anode tournante (voir figure suivante).

Figure 2 : L'augmentation des performances des synchrotrons au cours du temps mesurée par leur brillance 2

Une autre évolution fondamentale qui explique dans une large mesure pourquoi les grands instruments nécessitent des infrastructures d'importance croissante, c'est la complexité croissante des modèles proposés pour rendre compte de la réalité.

Une tendance fondamentale à cet égard est la réalisation de modèles de plus en plus extensifs des phénomènes étudiés. Grâce aux capacités de calcul offertes par les supercalculateurs, des interactions de plus en plus nombreuses peuvent être prises en compte de même que les modèles peuvent retracer des phénomènes de plus en plus étendus ou complexes.

Un exemple particulièrement significatif est celui des modèles météorologiques. L'extension des mesures se fait sur un plan géographique avec des réseaux mondiaux au sol ou dans l'espace réalisant des relevés en temps réel. Elle se fait également par le nombre de paramètres étudiés.

Ainsi que M. Gilles COHEN-TANNOUDJI l'a souligné à plusieurs reprises lors des auditions, le développement de la science met en _uvre un processus d'expérimentation et de théorisation dans lequel l'instrumentation joue un rôle de plus en plus important.

L'on a pu parler à cet égard d'une dynamique de développement à trois composantes se renforçant mutuellement (voir figure suivante).

Figure 3 : Le triptyque de la science selon M. Gilles COHEN-TANNOUDJI

Sur un plan pratique, on constate que les progrès théoriques et les enseignements de l'expérimentation permettent d'améliorer l'instrumentation et donc l'observation expérimentale. Mais les avancées technologiques elles-mêmes permettent d'améliorer l'observation et l'analyse des phénomènes en un cercle vertueux profitable à la science. La condition en est bien sûr que les technologies de l'instrumentation fassent l'objet d'investissements utiles au progrès scientifique. Une autre condition est que les investissements dans l'instrumentation rencontrent le succès espéré. Force est de constater, à cet égard, que c'est toujours le cas, à court ou à moyen terme. Il n'est pas d'exemple en France de très grand équipement qui ait été un échec.

De plus, un nouvel équipement aux performances exceptionnelles sert souvent de prototype pour des matériels aux performances légèrement en retrait mais plus faciles d'utilisation et susceptibles d'être produits industriellement. Ces équipements adaptés à une exploitation courante peuvent faire l'objet d'un accès élargi à un plus grand nombre de chercheurs.

Au plan général, ce qui limite la dynamique du cercle théorie/instrumentation/expérimentation, c'est le plus souvent l'instrumentation, la capacité d'imaginer de nouveaux instruments et de les exploiter, et non pas le potentiel intellectuel pour la théorisation ou l'imagination expérimentale.

Au total, il n'est aucune des évolutions de la science moderne qui ne se traduise pas par la multiplication des très grands équipements et par l'accroissement de leur rôle.

Les querelles contre le poids croissant de l'instrumentation sont donc vaines.

1.2. La mutualisation des équipements

La mutualisation est également un mouvement inéluctable compte tenu du coût croissant des outils les plus performants. Tout se passe comme si les laboratoires de recherche mettaient de facto leurs moyens en commun pour bénéficier des meilleures performances technologiques.

L'organisation du travail des laboratoires en subit des modifications considérables.

Dans de nombreux cas, l'appareillage de laboratoire sert à préparer des expériences qui sont réalisées sur des très grands instruments au faîte de la technologie. Dans d'autres cas, la préparation de l'accès aux grands instruments n'est pas possible, quand les moyens utilisés n'ont pas d'équivalent à échelle réduite, ainsi en ce qui concerne les sources de neutrons.

Afin d'attirer les meilleurs chercheurs mondiaux, de maximiser les rencontres entre spécialités différentes et de valoriser le gisement de créativité que constitue une approche interdisciplinaire, nombreux sont les pays qui cherchent à créer des parcs de très grands instruments.

Ainsi, la France est parvenue à créer à Grenoble une concentration de très grands instruments qui rend ce site particulièrement attractif, avec l'ESRF, synchrotron de 3 ème génération, l'ILL, source de neutrons, le LCMI avec ses aimants à hauts champs, le LETI pour la microélectronique, l'IRAM pour l'observation de l'espace dans le domaine millimétrique.

On doit citer également le plateau de Saclay et Orsay avec le réacteur Orphée du LLB, le LURE et bientôt SOLEIL.

De même, le Royaume-Uni a entrepris de créer au Rutherford Appleton Laboratory de Didcot une plate-forme de haut niveau qui rassemble déjà des lasers de forte puissance et une source de neutrons et devrait être complétée par le synchrotron de 3 ème génération DIAMOND.

Par ailleurs, les tâches de traitement des informations collectées par les très grands équipements et les travaux de modélisation prennent une importance considérable dans le travail des chercheurs.

La mutualisation s'effectue enfin au niveau des compétences d'ingénierie et de technologie.

La réalisation d'un très grand instrument exige en effet la mise en commun des meilleures compétences de tous les grands organismes de recherche. Ainsi, en France, il n'est pas imaginable que le CEA, le CNRS et le CNES, par exemple, ne travaillent pas de concert pour la conception et la réalisation des très grands instruments.

La constitution d'un réservoir de compétences en instrumentation a pu même pousser le Royaume-Uni à créer un organisme spécialement en charge de la conception, de la construction et de la gestion des très grands instruments, le Central Laboratory for Research Councils. En France, ces compétences sont rassemblées au CEA et à l'IN2P3, par exemple pour la physique des particules.

1.3. L'interdisciplinarité

La complexité des très grands instruments pousse à la coopération des équipes de recherche appartenant à des laboratoires ou des organismes de recherche différents.

Cette coopération traverse au demeurant le champ propre des disciplines scientifiques prises isolément.

Les très grands instruments, du fait de la complexité de leur mise en _uvre, favorisent la multidisciplinarité. Dans la quasi-totalité des cas, les utilisateurs doivent être assistés par des spécialistes résidents pour accéder à la machine, ce qui favorise les échanges intellectuels.

Par ailleurs, nombreux sont les très grands équipements à être utilisés par des chercheurs visiteurs appartenant à des disciplines différentes, qui, lors de leur séjour dans les installations, sont conduits à se côtoyer et à échanger des idées, voire à élaborer des projets communs. De même, l'utilisation des TGE renforce l'aptitude des chercheurs à la mobilité.

Dans le même ordre d'idée, les très grands équipements sont souvent le lieu où s'imagine l'application à d'autres secteurs de techniques de mesure initialement réservées à un champ de recherche particulier.

Enfin la valorisation maximale du volume gigantesque des données recueillies peut conduire à une coopération avec des chercheurs d'autres disciplines.

Une fois ce constat fait, il reste, pour permettre d'avancer des propositions sur la politique à suivre, à approfondir l'analyse en tentant de caractériser les différents types de grands investissements de la recherche.

2. Les définitions successives des très grands équipements

La réalité des très grands équipements s'avère difficile à caractériser. Depuis que leur importance a été détectée au début des années 1980 par les responsables de la recherche, au premier rang desquels il faut citer M. Pierre AIGRAIN et M. Jacques FRIEDEL, et que le Conseil des grands équipements a apporté ses soins à introduire une continuité et une visibilité dans leur gestion, la diversité des TGE s'est accrue, tandis que l'on semblait perdre de vue leur finalité, à savoir le progrès scientifique.

Les travaux intervenus récemment pour mieux cerner leur réalité sont décrits dans la suite, avant que les résultats des efforts du groupe de travail soient exposés à leur tour.

2.1. La définition du Conseil des grands équipements

Dans son dernier rapport en date de mars 1996, le Conseil des grands équipements scientifiques a donné une définition de ces instruments dans les termes indiqués dans l'encadré suivant.

Tableau 1 : Définition des TGE par le Conseil des grands équipements scientifiques 3

" les grands équipements scientifiques sont des instruments dont l' importance pour la communauté scientifique et le coû t de construction et d'exploitation justifient un processus de décision et de financement concerté au niveau national et une programmation pluriannuelle du financement. "

Les corollaires de cette définition sont les suivants :

- l'impact scientifique du grand équipement doit être de niveau international

- le centre de recherches qui se développe autour de l'instrument doit être un pôle, qui attire une fraction importante des chercheurs français de la discipline et un certain nombre de chercheurs étrangers

- un TGE doit être un élément de coopération internationale , même lorsque son statut est national

- la construction nécessite sinon un accroissement temporaire ou définitif du budget de l'organisme responsable, un réaménagement de sa répartition interne

- le financement doit être assuré par tous les organismes impliqués dans la discipline

- le coût de construction consolidé, incluant les dépenses de personnel, s'élève à plusieurs centaines de millions de francs

- il existe entre les équipements mi-lourds, dont le coût ne dépasse que rarement 10 à 15 millions de francs, et les TGE, des équipements lourds dont la programmation budgétaire doit apparaître explicitement au niveau des organismes, sans pour autant exiger une intervention du Conseil des grands équipements.

Tableau 2 : Liste des très grands équipements scientifiques en 1996 4

Domaine

Sous-domaine

Grand Equipement

Physique dite lourde

Physique des particules élémentaires

CERN

Physique nucléaire

GANIL, Laboratoire national Saturne, Vivitron 5

Fusion contrôlée

Tore Supra, JET

Sciences de l'univers

Astronomie

ESO, CFH, IRAM

Astrophysique spatiale

ISO, SOHO, CLUSTER, INTEGRAL, FIRST, XMM

Planétologie

sondes d'exploration planétaire Mars 96-98 (France-Russie), HUYGENS (ESA-Etats-Unis), ROSETTA

Physique gravitationnelle

VIRGO, projets STEP et PHARAO/T3L3

Océanologie, Observation de la Terre et Climatologie

grands navires de l'Ifremer et de l'Institut polaire et leurs équipements scientifiques, TOPEX-POSEIDON (France-Etats-Unis), TOPEX-POSEIDON Follow on (France-Etats-Unis), ENVISAT (ESA), ERS-1 et ERS-2 (ESA), SCARAB et POLDER

Géologie et géophysique interne

ODP, GéoFrance 3D

Grands instruments de caractérisation et d'étude de la matière condensée

structures atomiques, structures électroniques, propriétés magnétiques de la matière

ILL, LLB, ESRF, LURE, SOLEIL

Biologie

EMBL, vols spatiaux habités

Grands équipements techniques ou opérationnels

ETW (grande soufflerie transsonique européenne), EUMETSAT, ITER, Station spatiale internationale

Comme il est naturel, une fluctuation à la marge des grandes catégories retenues par le Conseil des grands équipements s'est produite. Ainsi en 1994, une catégorie de grands projets " interdisciplinaires " a pu être créée, comprenant VIRGO et les vols spatiaux habités. Ces derniers ont intégré la biologie en 1996, tandis que VIRGO rejoignait la catégorie des sciences de l'univers et de la physique gravitationnelle.

Si le Conseil des grands équipements a été mis en sommeil en 1996 puis n'a pas été réactivé après les élections législatives et le nouveau Gouvernement en 1997, on doit toutefois constater que la définition et la liste des TGE qu'il a données est encore utilisée par le ministère de la recherche.

Il faut aussi remarquer que c'est le Conseil des grands équipements qui a procédé à l'introduction d'une nouvelle catégorie de grandes installations, ceux-là techniques ou opérationnels, et non pas scientifiques.

2.2. Les réflexions du ministère de la recherche à la mi-2000

Selon le ministère de la recherche représenté par M. Vincent COURTILLOT, directeur de la recherche, et Mme Geneviève BERGER, directrice de la technologie, auditionnés le 17 mai 2000, il n'existe pas de définition des TGE. La notion de TGE est essentiellement une définition historique. Au reste, cette notion diffère d'un pays à l'autre, ce qui constitue une difficulté supplémentaire.

L'analyse du ministère de la recherche est la suivante. A l'origine de cette notion, les TGE étaient constitués des très grands appareils de la physique, dont la finalité était l'étude des objets de cette discipline. Leur échelle de financement et de fonctionnement, ainsi que leur degré de sensibilité les plaçaient au delà de l'échelle des laboratoires et même des organismes de recherche eux-mêmes. Avec ces équipements, on est à l'échelle nationale, dans un contexte pluri-organismes et pluri-utilisateurs, voire même à l'échelle européenne. A cet égard, cette question fait partie des propositions de la France en matière de politique européenne de la recherche au cours de sa présidence de l'Union.

Selon la direction de la recherche, la notion de TGE a connu ensuite un élargissement progressif. C'est ainsi qu'au cours du temps, ont été inclus successivement les grands instruments de l'astronomie au sol, les grands appareils de la physique au service des autres disciplines comme le synchrotron, la flotte océanographique, les expériences spatiales avec les sondes, les satellites et les expériences dont l'objet principal est scientifique, et enfin les grands équipements des sciences de la vie comme l'EMBL.

Aujourd'hui, il existe près de 40 très grands équipements répertoriés, avec une définition qui est la même depuis 10 ans. Les bases de comparaison dans le temps existent donc pour la France sur cette période.

Au demeurant, pour mesurer l'effort national dans le domaine des TGE, une extension de la notion est étudiée par la Direction de la recherche dans trois directions.

2.2.1 Une extension aux super-calculateurs et aux réseaux

La première direction est celle des sciences et technologies de l'information et de la communication (STIC).

La direction de la recherche s'interroge sur l'opportunité d'inclure les 3 grands centres de calcul nationaux que sont l'IDRIS (Institut du développement et des ressources en informatique scientifique) du CNRS, le CINES (Centre informatique national de l'enseignement supérieur) de Montpellier et le Centre de calcul du CEA à Grenoble.

La même interrogation a lieu pour le réseau RENATER, réseau de télécommunications à hauts débits.

2.2.2. Les sciences du vivant

La deuxième extension examinée par la direction de la recherche est celle des sciences de la vie. L'inclusion de la contribution française à l'EMBL peut sembler avoir pour conséquence de prendre en compte dans l'enveloppe TGE les équipements de la biologie requérant un financement de grande ampleur.

Selon la direction de la recherche, il serait ainsi logique de prendre en considération la future aide de l'Etat au laboratoire P4 de Mérieux à Lyon lancé sur fonds privés mais qui ne peut perdurer dans ce cadre.

Au premier rang des TGE des sciences de la vie, figureraient, dans cette hypothèse, le programme national de génomique, avec, notamment, le réseau des génopoles, le programme Genhomme et les centres de séquençage, CNS (Centre National de Séquençage) et le CNG (Centre national du génotypage), à quoi il faudrait joindre les animaleries (souris et primates) et les collections biologiques. Seraient également à inclure dans les TGE des sciences du vivant, les plateaux techniques lourds d'imagerie, dont les coûts d'acquisition et d'exploitation dépassent de loin les budgets habituels de la biologie.

2.2.3. Les sciences humaines et sociales

La direction de la recherche réfléchit également à l'intégration dans sa nomenclature des TGE des grands équipements des sciences humaines et sociales, qui constituent au demeurant une des priorités du ministère de la recherche.

A cet égard, le réseau des Maisons des Sciences de l'Homme, souligné comme un engagement fort du ministère, représente un investissement onéreux, lourd et structurant, qui pourrait être considéré comme un très grand équipement. Le débat porte également sur les musées, en particulier pour le futur musée du quai Branly sur les Arts premiers et pour le Muséum d'Histoire naturelle.

La direction de la recherche remarque toutefois que, plus la notion de TGE sera vaste, plus elle sera difficile à gérer.

Pour éviter une telle dérive, le ministère de la recherche s'est récemment opposé à des propositions visant à considérer comme des TGE les équipements mi-lourds des laboratoires, réexaminés dans le cadre de la mise en _uvre du plan U3M. La liste des 40 TGE qui sert de base au ministère de la recherche, doit donc être considérée pour le moment comme exhaustive.

Pour la direction de la technologie au ministère de la recherche 6 , il existe toutefois des très grands équipements qui ne se composent pas d'une installation unique. Leur intégration à la catégorie des TGE serait alors conditionnée à leur éventuel caractère structurant.

2.2.4. Une nomenclature qui présente un intérêt exclusivement comptable et ex post

Selon un document remis à vos Rapporteurs, le 19 juin 2000, après son audition en date du 17 mai 2000, document qu'il a demandé à joindre en annexe au compte rendu de cette réunion, le Directeur de la recherche a indiqué que la notion de TGE a un intérêt essentiellement comptable permettant d'apprécier si l'allocation des crédits entre les grands équipements et les autres moyens de soutien aux laboratoires correspond aux besoins de la discipline.

Tableau 3 : L'intérêt de la notion de TGE selon la direction de la recherche 7

" La notion de TGE, variable selon les pays, comme nous l'avons vu, a principalement un intérêt comptable , comme agrégat regroupant l'ensemble des dépenses liées aux très grands équipements, quelles que soient les disciplines concernées. Du point de vue scientifique, le plus important est, dès lors que les contraintes budgétaires ont été arrêtées, que l'on puisse dans chaque discipline ou organisme établir la part optimale de ces grands équipements par rapport au soutien de base et autres aspects du financement des laboratoires et des équipes .

C'est précisément pour avoir dans le passé trop souvent raisonné en sens inverse , en partant des TGE et non de l'équilibre des divers types de soutien à la recherche au sein des disciplines, que nous nous sommes trouvés liés par des budgets contraints sans possibilité de choix ni d'évolution et que nous avons découvert que les postes qui avaient le plus augmenté n'étaient pas ceux qui correspondaient aux affichages prioritaires retenus par les gouvernements successifs (par exemple croissance des satellites opérationnels de météorologie, peu liés à la recherche, alors que les sciences du vivant restent très minoritaires).

Dans ce sens, il me semble qu'un aspect essentiel de vos travaux (et des nôtres, aussi bien au ministère de la recherche qu'au niveau européen, auquel nous sommes très actifs) est de préciser et d' élargir la notion de très grands équipements et de très grandes infrastructures. C'est même un préalable à leur aboutissement ".

Dans cette approche, la notion de TGE n'a d'utilité que pour l'analyse des dépenses et que pour vérifier que la répartition des crédits est effectuée d'une manière acceptable entre tous les types de besoins.

2.2.5. Des référents insuffisants selon vos Rapporteurs

Les analyses précédentes nécessitent un examen critique approfondi.

Le classement ex post des investissements entre très grands équipements, soutien de base et autres aspects du financement des laboratoires est à l'évidence d'une importance déterminante dans l'analyse de la direction de la recherche pour apprécier l'équilibre investissement - fonctionnement.

On doit donc se demander si elle a un sens. En réalité, il semble bien que ce ne soit pas le cas.

En effet, les très grands équipements constituent un moyen de soutien aux laboratoires, parce qu'ils sont à leur service. Dès lors, il n'y a pas lieu de les opposer au soutien des laboratoires mais de veiller essentiellement à en étendre et à en faciliter l'utilisation.

Un très grand équipement de service comme un synchrotron ou une source de neutrons est en effet utilisé par plusieurs centaines de laboratoires appartenant à des disciplines aussi différentes que la physique, la chimie, la biologie structurale, qui y dépêchent des chercheurs pour réaliser des expériences qu'ils ne peuvent conduire avec leurs matériels propres. L'accès à ces machines surpuissantes représente à l'évidence un soutien aux laboratoires qui, sans elle, connaîtraient une régression de leurs moyens techniques.

De même, un très grand équipement servant une seule discipline, comme par exemple un satellite pour l'astrophysique, est un outil de travail essentiel, en quelques sortes les yeux des chercheurs, et donc l'accès aux données recueillies par le satellite, un élément essentiel du soutien accordé à un laboratoire spécialisé dans ce domaine. Certains très grands instruments à l'usage d'une seule discipline conditionnent l'existence même de celle-ci et donc des laboratoires spécialisés.

Certes dans tous les cas, les très grands équipements représentent des moyens excentrés et mutualisés.

Mais la notion de localisation et de propriété en propre d'un matériel perd de son importance dans la recherche moderne, notamment du fait de l'importance du travail en réseau et de l'utilisation des télécommunications.

Au total, l'opposition de la notion de soutien aux laboratoires par rapport aux très grands équipements n'est pas opératoire.

Par ailleurs, la dimension essentiellement ex post de cette acception des TGE présente l'inconvénient de n'apporter aucune possibilité d'appréciation dynamique de l'utilité des TGE.

Sans qu'on puisse justifier en quoi que ce soit la construction d'un TGE sans une appréciation de son utilité, il est évident qu'il existe une dynamique du développement technologique qui pousse à toujours plus de précision et de capacité dans les instruments dont on peut disposer.

Il n'est donc pas étonnant de constater qu'une dynamique des très grands équipements existe et pousse à la construction de nouvelles machines faisant reculer les limites de l'observation.

Une vision strictement comptable et ex post est très insuffisante pour apprécier ces phénomènes et permettre de trouver un équilibre dans le temps entre les différents types de besoin des chercheurs.

Ainsi, si la fonction des TGE n'était pas prise en compte, il ne servirait pas à grand chose d'en mieux définir le contour.

2.3. La notion d'infrastructure de recherche pour la Commission européenne

Dans sa communication au Conseil et au Parlement européen intitulée " Vers un espace européen de la recherche " , en date du 18 janvier 2000, la Commission européenne, par la voix du Commissaire à la recherche, M. Philippe BUSQUIN, propose, entre autres objectifs, de définir une approche européenne en matière d'infrastructures de recherche.

Que sont les infrastructures de recherche pour la Commission européenne ?

Bien que la Commission n'ait pas donné dans ce texte de définition précise, on peut toutefois relever qu'une définition sous-jacente est utilisée, à savoir une définition fonctionnelle. Les infrastructures de recherche sont celles qui jouent un rôle central dans le progrès et l'application des connaissances en Europe.

Une série d'exemples aide à cerner le contenu de cette définition : les sources de rayonnement, les centres de calcul, les bases de données en biologie moléculaire, les réseaux de télécommunications à large bande et très haut débit . Lors du Colloque européen sur les infrastructures de recherche, organisé à Strasbourg, du 18 au 20 septembre 2000, d'autres exemples ont été cités : les grands instruments, les collections systématiques de spécimens naturels, les animaleries, les serres, les archives des sciences sociales.

Afin de déterminer dans quelle mesure les infrastructures pourraient être éligibles à un financement par l'Union européenne, une batterie de critères a été élaborée, qui permet de mieux préciser la notion d'infrastructure et tout spécialement d'infrastructure européenne :

- un niveau scientifique d'excellence

- un impact mesurable sur la qualité de la recherche conduite avec ces infrastructures

- une évaluation périodique par des experts internationaux

- un accès ouvert aux chercheurs nationaux et internationaux et conditionné par des règles de sélection par les pairs

- une dimension européenne évidente

- une valeur ajoutée pour l'Union européenne.

Au final, les TGE apparaissent comme un enjeu d'une nouvelle dimension européenne de la recherche dans les propositions de la Commission européenne.

2.4. Le rapport de l'Inspection générale des Finances et de l'Inspection générale de l'administration de l'Education nationale et de la Recherche

Les conclusions du rapport commun de l'Inspection générale des Finances et de l'Inspection générale de l'administration de l'éducation nationale et de la recherche, publié en juin 2000 8 , sont à la fois sans fard et quelque peu désespérantes.

Selon les auteurs de ce rapport 9 , " il n'y a pas de définition administrative ex ante des grands équipements " . On ne dispose que d'une " simple liste, classée par domaine scientifique, reprise par le ministère de tutelle et les différents organismes successifs qui ont eu à en traiter ".

En définitive, pour repérer un TGE, on peut retenir un faisceau d'indices présentés dans le tableau ci-après.

Tableau 4 : Les indices d'existence d'un TGE

- un budget autonome et généralement très important

- un service mis à la disposition de l'ensemble des chercheurs des laboratoires publics

- l'implication forte d'une communauté scientifique et sa structuration autour du TGE

Le rapport relève " la très grande diversité des TGE, de leur stade de développement, de leurs missions, des champs disciplinaires concernés, de leur statut et plus largement, du cadre institutionnel de leur fonctionnement " .

Au reste, le constat fait par le rapport est quelque peu sombre. En effet, " les TGE dans leur grande diversité ont en commun une problématique lourde et complexe, dont chaque volet renforce les autres " .

Les auteurs de cette analyse administrative se sont interdit de dresser en face de la colonne des coûts pour le budget de l'Etat et des lacunes de la gestion publique, la colonne des apports des très grands équipements à la science moderne.

Au reste, le rapport présente, d'une part, des propositions en matière de procédures pour l'émergence, le choix d'un projet de TGE, avec des arbitrages politiques dans lesquels doit figurer au premier rang le ministère de la recherche dans le cadre d'une procédure clairement organisée, et, d'autre part, des conditions à réunir pour optimiser la mise en place, le fonctionnement et la fermeture des TGE.

2.5. Le rapport du CSRT (Conseil Supérieur de la Recherche et de la Technologie)

Le Conseil supérieur de la recherche scientifique et technologique (CSRT) a entamé en 2000 une réflexion approfondie sur les très grands équipements. Un premier rapport d'étape intitulé " Les très grands équipements scientifiques : vers une évolution des concepts et des moyens " , adopté fin octobre, présente un état des lieux. 10

Le CSRT note que l'évolution de la recherche, quelle que soit la discipline considérée, nécessite des moyens d'investigations de plus en plus complexes, performants et lourds. Ce mouvement a commencé avec la physique et s'est rapidement étendu à la chimie. Plus récemment, la biologie et les sciences de l'environnement ont eu recours à un ensemble d'instruments pour répondre à un ensemble de questions. Ce mouvement général vers une instrumentation plus complexe s'accompagne d'un recours général et croissant à l'informatique et aux transmissions de données.

Pour le CSRT, " la liste des TGE apparaît aujourd'hui surannée " . Elle est le résultat de l'histoire. " Une révision, voire une redéfinition, apparaît souhaitable " .

Le CSRT souligne que la création d'un TGE peut répondre non seulement à un objectif scientifique mais également à des enjeux stratégiques ou économiques et prendre en compte des impératifs d'aménagement du territoire.

S'agissant de la définition des TGE, le CSRT reprend celle du Conseil des grands équipements scientifiques mais lui ajoute un chiffrage du coût d'investissement initial supérieur à 100 millions de francs et de la durée de vie, en général plus de 20 ans.

Le CSRT note une forte croissance des investissements dans des grands équipements techniques, avec une augmentation de 748 % entre 1990 et 2000.

Au demeurant, le CSRT souligne les lacunes de la liste actuelle des TGE qui devrait sans aucun doute comprendre le réseau des génopoles, les grands moyens de calcul et de transfert de l'information, le laboratoire biologique P4 de confinement, un réseau de stations pour la recherche environnementale, des moyens aériens pour la météorologie.

Au reste, les TGE d'aujourd'hui sont multiformes et le parc actuel est constitué de grands instruments en tant que tels, de plateaux scientifiques et techniques, d'infrastructures fixes ou mobiles, de plateaux en réseau. Au final, les facteurs communs de ces équipements sont les suivants :

- le besoin exprimé par la communauté scientifique

- leur intérêt collectif

- leur pouvoir structurant de communautés ou de disciplines

- leurs coûts initiaux, de fonctionnement et leur durée de vie

- l'innovation technologique qu'ils nécessitent.

Ces caractéristiques justifient que le choix et la réalisation des très grands équipements relèvent en premier lieu d'une politique nationale.

Ainsi donc, le CSRT apparaît favorable à un élargissement de la liste actuelle des TGE qui tienne compte de leurs formes diverses, élargissement dont les limites sont commandées par une vision fonctionnelle de leur rôle.

3. la classification fonctionnelle proposée

Malgré tous les efforts correspondant aux approches décrites ci-dessus, il semble toujours aussi nécessaire de mettre au point une nouvelle représentation des très grands équipements, qui permette effectivement d'en sérier les différentes catégories et qui soit opérationnelle, c'est-à-dire utile pour l'analyse décisionnelle et le suivi de l'efficacité des choix effectués.

L'intérêt d'une classification se juge en effet à son utilité au regard des questions examinées.

Ces questions sont au nombre de quatre : l'intérêt de chaque très grand équipement considéré, la décision d'en construire un, l'origine du financement à adopter et enfin le suivi de son efficacité.

Avant de détailler les différents types de très grands équipements, il convient de délimiter leur champ.

3.1. Le champ des très grands équipements

L'ancien Conseil des grands équipements scientifiques a clairement défini le champ des très grands équipements.

Selon le Conseil, un outil de recherche est un très grand équipement dès lors qu'il a une importance telle pour la communauté scientifique et un coût de construction et d'exploitation tel qu'il justifie un processus de décision et de financement concerté au niveau national et une programmation pluriannuelle de son financement.

Ainsi l'importance pour la communauté scientifique concernée et le coût sont des facteurs d'éligibilité à une procédure particulière.

Si cette définition du champ a sa valeur, il semble toutefois nécessaire de la compléter par deux notions essentielles, certes sous-jacentes dans les analyses, mais qu'il convient d'expliciter.

La première notion additionnelle est le contenu en haute technologie du très grand équipement, qui, dans tous les cas, est majeur, sinon essentiel.

La plupart des très grands instruments ayant pour objectif de progresser de plusieurs ordres de grandeur dans les mesures, des avancées technologiques sont indispensables pour leur mise au point.

La deuxième notion additionnelle est celle de l'innovation. Si leur construction nécessite généralement des prouesses technologiques, elle nécessite aussi des innovations conceptuelles, au plan théorique ou au plan de l'ingéniérie.

C'est pourquoi, en prenant appui sur le socle des travaux réalisés dans différentes enceintes ou par différents auteurs 11 , le champ des très grands équipements pourra être délimité selon la définition ci-après.

Tableau 5 : Le champ des très grands équipements

" Les très grands équipements sont des outils de haute technologie dont le caractère novateur au plan scientifique, l 'importance pour la communauté scientifique et les coûts de construction et d' exploitation sont tels qu'ils nécessitent des engagements à long terme déterminés selon un processus de décision et de financement concerté à l'échelle nationale ou internationale ".

Les très grands équipements présentent par ailleurs la double caractéristique d'être insécables, même quand ils sont répartis ou en réseau et d'être construits et gérés avec une unicité de direction.

Figure 4 : Les quatre critères constitutifs des très grands équipements

Cette définition appelle une remarque de fond.

C'est le cumul de critères qualitatifs - innovation scientifique et technique, importance pour la communauté scientifique, coûts de construction et d'exploitation élevés - qui sort l'instruction d'un projet des procédures standards et déclenche un traitement spécial qui ne met plus en jeu un seul organisme de recherche mais plusieurs d'entre eux et éventuellement le ministère de la recherche.

Les quatre critères ainsi que la procédure s'appliquent tant à un projet de très grand équipement qu'à un très grand équipement en fonctionnement.

3.1.1. Un fort contenu technologique

La dimension d'un très grand équipement est par essence matérielle.

C'est ainsi que l'on ne peut pas qualifier de très grand équipement un grand laboratoire ou un réseau de laboratoires.

Les très grands équipements sont non seulement des outils matériels mais ils ont également un fort contenu en hautes technologies. L'acception de l'expression "  hautes technologies " est l'acception courante, à savoir des technologies en pointe chacune dans leur domaine.

Un très grand équipement de recherche a toujours pour but de permettre une avancée scientifique et technique. En réalité, compte tenu de l'ampleur de l'investissement, un projet de très grand équipement incorpore non seulement des technologies de pointe mais suppose un assemblage novateur de technologies jusque là non reliées et le plus souvent une avancée dans certaines d'entre elles.

3.1.2. Un caractère novateur au plan scientifique

De surcroît, le très grand équipement ne se réduit pas à une addition de technologies de pointe mais constitue une novation au plan scientifique et technique.

Le très grand équipement permet dans tous les cas une percée dans une discipline ou dans un ensemble de disciplines. Il est au service de la science. La nécessité de le construire est avérée par les scientifiques eux-mêmes, qui, seuls, sont à même de déterminer s'il convient de privilégier un grand équipement plutôt qu'un ensemble de petites machines.

Le caractère novateur constitue sans nul doute un trait distinctif des très grands équipements.

A titre d'exemple, il apparaît légitime que le projet de réacteur Jules Horowitz d'irradiation et de test de c_urs de réacteurs, soit considéré comme un projet interne au CEA, dans la mesure où il ne comprend pas de percée technologique majeure et vise principalement à tester des conceptions et des objets technologiques préindustriels.

A l'inverse le projet VIRGO de détection des ondes gravitationnelles est classé à juste titre dans les très grands équipements, car il s'attaque à une question théorique majeure et suppose des progrès technologiques importants, par exemple dans la fabrication de miroirs à très haut pouvoir réflecteur.

Un projet de très grand équipement est nécessairement une novation. L'outil une fois réalisé doit garder cette spécificité tout au long de son existence pour garder son statut.

Dans la mesure où un très grand équipement en fonctionnement n'apparaît plus comme étant un outil d'excellence et où son intérêt décline par rapport à une nouvelle génération d'outil à créer, il doit être fermé si son coût d'exploitation n'est plus justifié ou être banalisé dans son fonctionnement et son financement, ce qui lui fait perdre sa spécificité de TGE.

3.1.3. Une importance clé pour la communauté scientifique

Le critère de " l'importance pour la communauté scientifique " est fondamental.

Le niveau d'importance est jugé par la communauté scientifique, ce qui implique que celle-ci dispose des moyens de s'exprimer et d'être entendue tant par les organismes de recherche que par le ministère de la recherche. On sait que les obstacles rencontrés par le projet SOLEIL ont précisément révélé de nombreuses imperfections à tous ces niveaux.

Dans la formulation retenue, le diagnostic sur le niveau d'importance est porté par la communauté scientifique.

Il peut s'agir de la communauté scientifique dans son ensemble ou bien de la communauté scientifique relative à une discipline scientifique.

Il est en effet souhaitable qu'une discipline spécifique puisse juger de l'opportunité d'un très grand équipement et communiquer son attachement à un projet ou à une réalisation, en prenant en compte les conséquences structurelles qui en résultent.

Il est également indispensable que la communauté scientifique dans son ensemble puisse, sur la base d'une réflexion approfondie, déclarer qu'un très grand équipement à usage pluridisciplinaire est essentiel pour son avenir.

La prise en compte effective de ce critère oblige à concevoir des procédures efficaces et ouvertes de révélation et d'expression des besoins. Il faut également une procédure d'instruction contradictoire et pluraliste des projets. Il convient enfin de prévoir une procédure d'appel en cas de décision contraire aux vues de la communauté scientifique.

L'analyse critique des procédures actuelles est présentée dans le chapitre suivant, qui s'attache également à proposer des solutions à partir des fonctionnalités que ces procédures doivent assurer.

3.1.4. Un coût de construction et d'exploitation hors normes

Le coût de construction et d'exploitation d'un TGE est hors normes par rapport aux ressources habituelles d'un grand organisme de recherche. En outre, son coût de fonctionnement présente une rigidité particulière.

Dans la définition du champ des TGE donnée précédemment, aucun seuil financier n'est indiqué pour caractériser le très grand équipement pour une raison pratique mais également pour une raison de fond.

La raison pratique est la suivante. Un seuil de déclenchement devrait être réévalué périodiquement en fonction du progrès technologique et de l'évolution des coûts.

La raison de fond est plus importante. En l'espèce, un critère financier doit être considéré non pas en valeur absolue mais en valeur relative.

Il convient en effet de comparer le devis de construction et le coût d'exploitation avec les ressources récurrentes de chacun des organismes de recherche, sinon avec celles des différents départements scientifiques. Un dépassement significatif est un indice qu'il s'agit d'un très grand équipement.

Au reste, la mise en jeu des trois autres critères permet de déterminer définitivement si l'on est en présence d'un très grand équipement.

3.1.5. Des procédures concertées de décision et de financement conduisant à des engagements à long terme

Compte tenu de leur importance critique pour la recherche, les très grands équipements ainsi définis doivent faire l'objet de procédures concertées pour la décision et le financement.

Après la phase de révélation et d'expression de ses besoins, la communauté scientifique doit être étroitement associée à la préparation de la décision. La concertation doit s'exercer également entre disciplines et entre grands organismes de recherche.

Par ailleurs, une concertation doit également avoir lieu au plan européen ou international, ce qui est d'ores et déjà le cas, comme on le verra plus loin, puisque la recherche est par essence internationale.

Au demeurant, ces procédures doivent déboucher sur des engagements à long terme, seuls à même de rentabiliser les très grands équipements.

On touche là les limites des possibilités offertes par les règles des finances publiques, ce qui oblige les organismes responsables des très grands équipements à une gestion du long terme par trop complexe, qu'il convient en tout état de cause de simplifier.

Les voies de progrès pour l'intégration du long terme dans la gestion des très grands équipements sont également analysées dans la troisième partie du rapport.

En tout état de cause, il convient que la décision relative au lancement d'un TGE, prise au demeurant selon des procédures contradictoires et transparentes, corresponde à un contrat spécifique liant l'ensemble des parties et comprenant des engagements réciproques.

3.2. Les différentes fonctions des très grands équipements

Les très grands équipements rencontrés dans les différentes disciplines, tels qu'ils ont été esquissés dans la première partie du rapport, répondent à trois types de finalité ou bien ont trois types de fonctions, qui permettent d'établir trois catégories de grands équipements.

La première catégorie correspond aux TGE conçus pour une percée thématique, c'est-à-dire la conquête de nouvelles connaissances dans une discipline ou dans un petit nombre d'entre elles. Il s'agit d'un grand instrument novateur qui se propose de repousser les limites de la connaissance et d'améliorer de plusieurs ordres de grandeur les limites de l'observation et de la mesure. Ce type d'équipement peut même répondre dans certains cas à un seul type de questionnement, comme par exemple la mise en évidence des ondes gravitationnelles. Selon la terminologie nord-américaine, la recherche correspondante est du type " Understanding Driven Research " ou bien encore " Ground Breaking Research " .

La deuxième catégorie correspond aux TGE nécessaires à de larges secteurs de la recherche pour continuer à exister au meilleur niveau dans la concurrence internationale, compte tenu des progrès continus de l'expérimentation. Il s'agit en réalité d'un équipement d'infrastructure utilisé par de nombreuses disciplines. Un tel outil incorpore généralement les dernières technologies mais est conçu pour une prestation de service continue et fiable au plus haut niveau technologique du moment . Appartiennent à cette catégorie les sources de rayonnement comme les synchrotrons, les sources de neutrons, les lasers de puissance ou encore les outils de calcul, les réseaux de télécommunications, certaines animaleries, certaines banques biologiques, différentes bibliothèques numérisées.

La troisième catégorie correspond aux équipements de recherche dédiés au développement d'un domaine d'activité ou à un projet d'utilité sociale qui n'est pas encore en mesure d'être pris en charge par des entreprises. Il s'agit d'outils conçus pour l'acquisition de connaissances fondamentales mais d'abord pour l'exploration technologique ou pour le développement technique. Font partie de cette catégorie les très grands équipements comme les tokamaks pour la fusion, les satellites météorologiques ou les satellites de positionnement et une grande part du programme post-génome.

Les deux premiers types de fonction -percée thématique, service de haut niveau technologique à la recherche - correspondent à une demande interne à la communauté scientifique qui les exprime pour progresser dans ses recherches et qui peut être gérée par le seul ministère de la recherche. La troisième catégorie de fonction correspond à des recherches commandées par plusieurs ministères.

Figure 5 : Les différents types de TGE selon leur finalité

TGE

de percée thématique

TGE d'infrastructure

TGE de grand programme

disciplines

3.3. Les trois catégories des TGE

La différenciation des très grands équipements selon leurs fonctions permet au final de proposer trois catégories :

- les très grands équipements de percée thématique

- les très grands équipements d' infrastructure utilisés par plusieurs disciplines

- les très grands équipements de programmes d'utilité sociale

Mais au reste, qu'est-ce qu'un très grand équipement de percée thématique ?

- Les grands équipements de percée thématique sont la plupart du temps des grands instruments, c'est-à-dire des prototypes technologiques, unitaires et localisés qui ont pour but l' observation et la mesure , au delà des limites des savoir-faire opérationnels du moment, avec comme objectif le gain de plusieurs ordres de grandeur en efficacité

- Les TGE de percée thématique ont donc pour but la conquête d'un nouveau territoire de connaissances dans un domaine particulier

- Les TGE de percée thématique exigent des investissements hors des normes habituelles des appareils en service et supérieurs aux possibilités de financement récurrent d'un organisme ou d'une discipline.

- Les procédures spécifiques concernent la décision , la construction et l' exploitation tant aux plans technique, administratif que financier

- Compte tenu des aléas, le financement est typiquement de la responsabilité des pouvoirs publics

Le deuxième type d'équipements lourds de la recherche est constitué par les très grands équipements d' infrastructure :

- un très grand équipement d'infrastructure est un ensemble de moyens matériels, localisés ou répartis ayant une fonction de service de pointe à la recherche

- dans le cas où il s'agit d'une infrastructure répartie, celle-ci est insécable

- les réseaux matériels ou instrumentaux dotés d'une cohérence technique et participant d'une même finalité sont des infrastructures ; les réseaux de laboratoires n'en sont pas

- l' investissement correspondant est supérieur à un seuil de déclenchement qui, comme pour les très grands instruments, implique des procédures particulières

- de par la fonction de service rendu, le financement d'un très grand équipement d'infrastructure peut être d'origine publique et privée.

A titre d'illustration, on peut rappeler que, comme on l'a vu dans la première partie du présent rapport, 3000 chercheurs appartenant à plusieurs centaines de laboratoires utilisent le rayonnement synchrotron, que la source de neutrons de l'ILL est utilisée par 700 chercheurs et que les installations du GANIL sont utilisées par plus de 600 chercheurs.

Une remarque importante doit être faite en ce qui concerne la distinction TGE de percée thématique - TGE d'infrastructure.

L'accélération des processus de recherche, leur faculté à délivrer rapidement des applications, ainsi que le développement des moyens de calcul et de télécommunications font qu'un TGE de percée thématique a besoin de TGE d'infrastructure complémentaire.

Toutefois, un TGE d'infrastructure ne comprend pas nécessairement un TGE de percée thématique.

Les TGE de grand programme correspondent au troisième type d'investissements lourds :

- un TGE de programme a pour objectif de répondre à une demande de la société pour un nouveau service global

- un tel TGE peut nécessiter la mise en _uvre de très grandes infrastructures et/ou de très grands instruments, mais pas nécessairement

- par nature, un TGE de grand programme exige à la fois une décision , un financement et une gestion impliquant d' autres secteurs que la recherche.

On trouvera dans le tableau suivant une classification des TGE d'aujourd'hui entre TGE de percée thématique, TGE d'infrastructure et TGE de grand programme.

Tableau 6 : Les différents types de TGE d'aujourd'hui

type / initiative

finalité dominante

exemples

remarques

TGE de percée thématique

" Bottom Up "

conquête d'un nouveau territoire de connaissances (plusieurs ordres de grandeur)

dans une spécialité

• LEP, LHC

• GANIL

• CHFT, ESO, IRAM, VLTI

• FIRST / PLANCK, INTEGRAL, ISO, Mission coûts réduits, SOHO, XMM

• CASSINI, CLUSTER 2, Exploration Mars, Mars Express, ROSETTA

• ENVISAT,

• TOPEX POSEIDON, PROTEUS-JASON

• EMBL

• VIRGO

• prototype

• la plupart du temps dédié à une discipline spécifique

• existence d'un aléas technique et financier lors de la conception

• financement plutôt international

TGE d'infrastructure

" Bottom Up "

service à la recherche

• ILL, LLB

• LURE, ESRF, SOLEIL

• flotte océanographique

• financement à dominante nationale

• un TGE de percée thématique peut se transformer en TGE d'infrastructure si son utilisation s'ouvre et se banalise

TGE de grand programme

" Top Down "

service à la

société

(avec retombées scientifiques et techniques significatives)

• JET, TORE SUPRA

(approvisionnement énergétique)

• METEOSAT, MSG, METOP, ERS1 et 2, (prévision météorologique)

• Station spatiale orbitale,

sciences de la vie dans l'espace (souveraineté)

• financement combinant crédits de recherche et subventions d'autres secteurs ministériels

On reprendra dans la suite du présent rapport ces trois catégories. Dans certains cas, on regroupera pour la simplicité de l'exposé dès lors que ce n'est pas dommageable à la clarté de l'analyse, les TGE de percée thématique et les TGE d'infrastructure.

3.4. Les recouvrements entre les trois catégories

La répartition des TGE actuellement recensés par la direction de la recherche, dans les différentes catégories établies précédemment, pose la question de la fonction du TGE considéré et fournit une réponse pour déterminer le type du financement qui doit être mis en place.

Le fait qu'un TGE ait le plus souvent plusieurs fonctions et que les catégories proposées reposent sur des archétypes limite-t-il l'intérêt de la méthode proposée ?

En réalité, il n'en est rien. Pour résoudre ce problème, il suffit de déterminer la part de chacun des types de mission et de calculer les financements correspondants au prorata de ces dernières.

De fait, un TGE de percée thématique peut rapidement s'avérer comme un TGE d'infrastructure utilisé par un ensemble de disciplines.

Ainsi le LURE a joué un rôle pionnier pour le développement des synchrotrons dans notre pays, tout en fournissant des accès à ses lignes de lumière pour les besoins de l'analyse fine de la matière.

Il est donc légitime qu'un TGE de percée thématique ne soit pas dans ce cas mis à la seule charge d'une discipline particulière. Inversement, un TGE d'infrastructure peut, grâce à des équipements additionnels spéciaux ou en fonctionnement aux limites, faire avancer les connaissances dans une discipline particulière, ce qui peut inviter à augmenter sa quote part dans le financement.

Par ailleurs, un TGE de grand programme qui doit être financé par plusieurs ministères avec une contribution éventuelle du secteur privé, apporte toutefois des connaissances utiles à la recherche fondamentale dans une discipline. C'est le cas notamment pour les satellites de météorologie qui recueillent des données dont l'utilité sociale est immédiate et dont l'importance scientifique est très grande pour la climatologie.

Il est donc logique que les crédits de la recherche participent à leur financement, mais il est injustifiable de mettre la totalité de celui-ci à sa charge.

En réalité, le processus de classement d'un TGE pose bien la question de ses fonctions. Cette démarche permet de juger de la répartition de son financement, que le TGE considéré corresponde à l'un des archétypes proposés ou bien qu'il possède les traits de deux ou trois de ces derniers.

II - DES EFFETS D'ENTRAÎNEMENT MULTIPLES QUI RENTABILISENT LES DÉPENSES CONSENTIES

L'un des étonnements les plus grands que l'on peut éprouver en consultant la littérature française de ces dernières années sur les très grands équipements est la prise en compte insuffisante de leurs retombées.

Cette situation est d'autant plus inexplicable que ces retombées sont multiples.

En outre, la France a tiré de nombreux avantages de la politique audacieuse et couronnée de succès qui a consisté à accueillir sur son sol des très grands instruments construits et gérés dans un cadre international, donc en minimisant les coûts et en maximisant les avantages nationaux.

1. Les bénéfices scientifiques secondaires tirés des TGE

Les très grands instruments, en prenant en charge une recherche aux frontières de la connaissance, exercent une influence majeure sur leur discipline, au point souvent d'induire sa structuration ou sa restructuration.

Par ailleurs, les très grandes infrastructures tirent vers le haut l'ensemble des disciplines qui y recourent mais sont aussi le creuset d'échanges entre les chercheurs résidents et les chercheurs visiteurs et aussi entre ces derniers.

Enfin, ces outils à la pointe de la technologie, loin d'être réservés aux chercheurs confirmés, constituent d'incomparables outils de formation de haut niveau.

1.1. La structuration des différents secteurs de la recherche

La physique des particules fournit un excellent exemple de la structuration d'une discipline autour d'un très grand instrument comme le LEP du CERN.

Au vrai, le CERN focalise toute la physique mondiale des particules.

Un autre exemple en cours de développement est particulièrement important, dont il sera question plus loin au sujet de la recherche duale. C'est celui du Laser MegaJoule, une installation à vocation militaire qui sera toutefois ouverte à la recherche civile. Ce très grand instrument devrait permettre une structuration de la recherche sur les lasers de puissance qui est en plein développement.

Au demeurant, l'émergence et la réalisation d'un TGE à l'initiative d'une discipline nécessitent que deux conditions soient remplies. La première condition est que les recherches dans ce domaine nécessitent de recourir aux méthodes d'observation et d'analyse utilisant les technologies les plus en pointe. La deuxième condition est que la discipline soit en mesure de faire émerger un projet grâce à l'initiative d'une équipe entreprenante et crédible et grâce à un soutien suffisant de la discipline.

L'absence de TGE en biologie résulte sans doute d'une évolution technique plus récente que la physique vers la sophistication des équipements et d'une certaine dispersion des équipes de biologie.

1.2. La coopération entre disciplines

La physique et les physiciens ont été mis en cause, à plusieurs reprises, au cours des auditions organisées par vos Rapporteurs, à raison de l'influence qu'auraient exercé leurs représentants dans les sphères de décision, ce qui leur aurait permis d'avoir un accès privilégié aux crédits de la recherche.

Il n'y a pas lieu de rentrer dans ce type de querelles.

Mais on doit toutefois observer que la physique est à la base de l'instrumentation et que ses progrès sont en tout état de cause indispensables au progrès de toutes les sciences dites exactes.

Au reste, les TGE, en rassemblant sur le même site des chercheurs de toutes disciplines, et de toutes nationalités étant donné leur ouverture traditionnelle, participent à l'enrichissement mutuel des chercheurs, par les discussions impromptues survenant sur les postes expérimentaux ou dans les maisons d'hôte qui existent souvent à proximité.

Les conditions inhabituelles que créent le travail de nuit ou de week-end autour des TGE, ainsi que les effets " cafetaria " aident incontestablement à la circulation des idées, voire à la naissance de nouveaux projets en commun.

1.3. La formation au contact de la science de pointe

Enfin, les très grands instruments sont des lieux privilégiés de formation.

Les compétences acquises dans les très grands instruments par un étudiant concernent à l'évidence sa propre discipline, mais également le travail en équipe, la rigueur dans la planification des tâches, le traitement des données et la modélisation.

A titre d'exemple, le LURE assume un rôle important dans la formation universitaire. Il est le siège de 2 DEA et le laboratoire d'accueil de 6 écoles doctorales. Le LURE accueille en outre chaque année, une quarantaine de stagiaires de niveau licence, maîtrise ou DEA. Chaque année, le LURE reçoit les 60 doctorants de la formation doctorale européenne HERCULES. Un effectif moyen d'une quarantaine de chercheurs préparent leur thèse de doctorat au LURE. En 1999, 386 doctorants ont utilisé les faisceaux du LURE en tant que chercheurs visiteurs.

La même observation peut être faite aux Etats-Unis où, selon le rapport Birgeneau 12 , 100 doctorats (Ph.D.) par an ont pour base des recherches conduites sur les synchrotrons SSRL 13 de Stanford University (Stanford, Californie) et NSLS 14 du Brookhaven National Laboratory (Upton, New York).

L'exemple de l'Allemagne est encore plus significatif. Les étudiants présents au laboratoire Deutsches Elektronen-Synchrotron (DESY) de Hambourg qui possède un ensemble d'accélérateurs et de synchrotrons, sont au nombre de 1130 personnes, en maîtrise, en doctorat ou en contrat de " post-doc " .

Le CERN joue également un rôle de formation. Sur dix années, le LEP, avec ses quatre expériences ALEPH, DELPHI, L3 et OPAL, aura donné lieu à 885 thèses de doctorat.

A cet égard, il est important que les conditions d'accès à l'instrument et son mode de fonctionnement reconnaissent d'entrée une place aux activités de formation.

2. Les effets d'entraînement technologiques, industriels et économiques

Dans le bilan financier des TGE, la variable du coût budgétaire ne saurait être la seule à considérer.

Une analyse strictement budgétaire, si elle était correctement faite, doit évidemment inclure les rentrées fiscales et les recettes sociales générées par la construction des TGE. Chacun sait que la comptabilité publique rencontre dans ce cas ses limites. Mais il convient de dépasser ce strict cadre, les retombées fiscales et sociales ne représentant qu'une part des retombées. En l'occurrence, il faut aussi inclure les retombées générales, économiques et industrielles.

2.1. Les retombées économiques et industrielles locales

L'impact des TGE sur leur région d'accueil est une réalité mesurable et fondamentale. Cet impact est évidemment à la base de la décision du Conseil général de l'Essonne et de la Région Ile-de-France de contribuer ensemble à hauteur de 1,2 milliard de francs, au financement du synchrotron SOLEIL à installer sur le plateau de Saclay. C'est également une évidence pour les autres régions qui ont présenté leur candidature pour accueillir le synchrotron national de 3 ème génération.

L'intérêt qualitatif et l'importance quantitative de ces retombées entraîneront d'ailleurs une implication croissante des collectivités territoriales.

2.1.1. Les retombées directes

Les études relatives à l'impact local des TGE sont en effet nombreuses, même si l'évidence de cette question n'en fait pas un sujet de recherche passionnant.

En France, la direction de l'ESRF évalue à 30 à 40 % la part de son budget global de 420 millions de francs qui est réinjectée dans l'économie, du fait des commandes de matériels ou de prestation de services et des salaires des personnels 15 . La région grenobloise concentre évidemment une part importante de cette manne.

Par ailleurs, sur la base de l'expérience acquise avec l'ILL et l'ESRF, la mairie de Grenoble estime qu'un emploi dans un grand équipement génère la création d'un autre emploi dans un laboratoire du site 16 .

Le cas du CERN illustre également à loisir l'impact positif d'un très grand instrument.

Une étude détaillée a été réalisée par des chercheurs de l'Université Jean Moulin-Lyon III.

Les salaires injectés dans l'économie locale française, représentaient 340 millions de francs suisses en 1993 (près de 1 milliard de FF).

Les commandes du CERN à des entreprises de la région Rhône-Alpes s'élevaient la même année à 120,6 millions de francs suisses, avec des retombées salariales supplémentaires dans la même aire géographique de 45 millions de francs suisses. Les auteurs de l'étude écrivent finalement que " on peut ainsi estimer raisonnablement que, par la prise en compte de la totalité des effets induits et des achats effectués, le nombre d'emplois générés par le CERN est compris entre 8770 et 12700 emplois " , qui s'ajoutent aux 7180 personnes directement liées au CERN.

L'étude réalisée dans l'Oxfordshire sur l'impact du JET montre que le nombre d'emplois locaux directement liés à ce très grand projet est le double de celui de ses effectifs nominaux, près de 450 personnes en 1993.

Par ailleurs, sur des dépenses de fonctionnement annuelles, hors salaires, de 30 millions de livres, près d'un cinquième était dépensé dans l'Oxfordshire.

2.1.2. Les retombées locales indirectes

Dans les décisions de localisation de leurs laboratoires de recherche, les entreprises de taille internationale accordent la plus grande importance au niveau du tissu scientifique et industriel de la zone d'accueil.

Quelques semaines après l'annonce du choix de l'Ile-de-France pour l'implantation du synchrotron SOLEIL, le groupe Danone annonçait l'implantation de son centre de recherche mondial en Essonne.

Autre exemple récent : Sun Microsystèmes a annoncé la création de son premier centre de recherches en dehors des Etats-Unis, à Grenoble, en expliquant le choix de Grenoble par sa volonté de tisser des liens très forts avec les universités, de trouver les meilleurs chercheurs européens et de les attirer chez Sun, la culture technologique et l'environnement de la ville de Grenoble facilitant leur embauche 17 .

Ces annonces illustrent l'intérêt pour la recherche privée de se trouver au contact direct de grands équipements et de laboratoires publics.

Les grandes entreprises françaises ou d'origine française, comme Saint Gobain ou Aventis, ont le souhait de conserver leur recherche d'intérêt stratégique sur le sol national. On observe toutefois chez ces mêmes entreprises une facilité extrême à délocaliser rapidement des pans entiers de leur activité.

C'est pourquoi la qualité de la formation des salariés et la richesse du tissu de la recherche scientifique sont des critères essentiels pour l'implantation des centres de recherche des entreprises.

L'exemple de l'implantation volontariste du Grand accélérateur national d'ions lourds à Caen montre par ailleurs que ce très grand instrument a déclenché une spirale vertueuse, en accélérant le développement universitaire de la région Basse Normandie.

De fait, l'installation du GANIL à Caen a d'abord été une grande réussite qui a dynamisé tout le pôle scientifique existant à Caen avec l'UFR de sciences, les écoles d'ingénieurs et de travaux publics, et qui a favorisé de nouveaux développements comme le centre Cyceron d'imagerie médicale ainsi que la technopole d'entreprises.

2.2. Les retombées économiques et industrielles nationales

Au plan national, les retombées d'un très grand instrument sont également considérables, tout en empruntant des canaux très divers.

Elles sont d'ailleurs tellement importantes que, dans certaines organisations internationales des mécanismes de compensation sont parfois mis en place pour rééquilibrer les taux de retour des pays participants.

Les retombées du JET sont considérables pour le Royaume-Uni. L'ensemble des contrats passés entre 1984 et 1999 sous le JET Joint Undertaking, a représenté 1,2 milliard d'euros. Le Royaume-Uni a bénéficié de 59 % du total, l'Allemagne de 15,8 % et la France de 8 %. S'agissant des seuls contrats de haute technologie, qui ont représenté 540 millions d'euros, soit 45 % du total, le Royaume-Uni a bénéficié de 29 % du total, l'Allemagne de 27 % et la France de 15 %.

Le cas du CERN est particulièrement éclairant.

L'implantation de cet ensemble unique au monde d'accélérateurs à cheval sur le pays de Gex et le canton de Genève, a été un véritable coup de génie scientifique mais aussi économique.

Qu'on en juge.

Avec un montant de 148 millions de francs suisses, soit 638 millions de francs français en 1999, la France a pris à sa charge 16,22 % du budget total du CERN, soit une part comparable à celle de la Grande-Bretagne, mais inférieure à celle de l'Allemagne. Les personnels français employés au CERN représentaient à la même date 1184 personnes, soit 43 % du total, dont 247 physiciens, ingénieurs et cadres administratifs. Rappelons à cet égard que les salaires injectés dans l'économie française représentaient environ 1 milliard de francs en 1993.

Par ailleurs, les ordres passés à l'industrie française par le CERN représentaient en 1998 un montant de 49,5 millions de francs suisses (environ 210 millions de FF) pour les approvisionnements et de 45,5 millions de francs suisses (environ 195 millions de FF) pour les services. De surcroît, la construction du LHC s'accompagnera de commandes de services d'ingénierie et de matériels de haute technologie, auxquelles la France pourra sans nul doute accéder compte tenu des bonnes positions de son industrie.

Au total, la France est un pays " suréquilibré " , ce qui signifie que les retombées en sa faveur dépassent sensiblement sa contribution. C'est pour tenir compte de cette situation particulière que la France apporte à la construction du LHC une contribution spéciale de 64,5 millions de francs suisses (environ 280 millions de FF) et verra sa contribution annuelle indexée de 1 % par an, de même d'ailleurs que la Suisse.

Au plan qualitatif, il faut souligner également qu'un très grand équipement, en ouvrant des marchés aux entreprises de haute technologie, tire vers le haut le niveau technique des entreprises nationales. La coopération avec les concepteurs, la prise en compte de leurs exigences ainsi que la pression de la concurrence exercent un effet incitatif puissant sur la R & D et l'offre de produits de l'industrie nationale.

Il faut remarquer à cet égard que la France a su avoir une attitude de pionnier dans nombre de projets internationaux de très grands équipements. Son attitude offensive pour les TGE de la physique et plus récemment pour les TGE spatiaux, ont eu des retombées positives considérables sur l'économie et l'industrie françaises.

*

Ainsi, s'il ne fallait avoir qu'une approche strictement comptable des investissements de la recherche, ce qui ne peut se justifier en aucun cas, il conviendrait au moins de prendre en compte les retombées scientifiques, technologiques, industrielles, économiques des très grands instruments et des très grandes infrastructures de la recherche.

En définitive, la vision souvent polémique qui a prévalu ces dernières années ne raconte qu'une partie de l'histoire des TGE.

Faut-il, à cet égard, souligner que cette histoire est présentée sous des formes beaucoup plus positives et dynamiques dans de multiples autres pays comme l'Allemagne, le Royaume-Uni et les Etats-Unis ?

III - L'importance d'une valorisation maximale des très grands équipements

La bonne gestion des très grands équipements est une obligation largement souscrite par les grands organismes de recherche français.

C'est ainsi que ceux-ci ont systématiquement recherché des coopérations internationales, avec une vision très claire de leur opportunité selon les cas de figure et ont remporté des succès considérables, comme pour le CERN et l'ESRF. A cet égard, cette coopération a revêtu la forme de coopérations multilatérales dans le cadre d'accords intergouvernementaux.

Il ne semble pas probable que l'Union européenne puisse prendre rang d'acteur essentiel dans ce domaine dans la mesure où la plupart des pays membres ne le souhaitent pas. Toutefois, une augmentation raisonnable des contributions européennes semble possible.

Pour valoriser les TGE, il faut par ailleurs que des conditions techniques soient mieux remplies. L'une des plus importantes conditions techniques est celle des ressources en calcul et en transmission de l'information qui doivent être attachées aux TGE. L'évolution des sciences et des techniques de l'information et de la communication offre en effet des possibilités considérables de modélisation et de traitement à distance des énormes volumes de données générées par les TGE.

Mais d'autres conditions sont essentielles pour tirer le meilleur parti des TGE. Les conditions d'organisation sont évidemment importantes. On constate à cet égard une variété de structures qui répond à des situations différentes et dont on ne voit pas pour quelles raisons il faudrait la réduire à un seul modèle, aussi intéressant soit-il. Mais une gestion améliorée des ressources humaines doit également être mise en place.

1. Une coopération européenne et internationale souhaitable mais ne dispensant en rien d'un effort national

La coopération internationale constitue sans aucun doute un moyen privilégié de valorisation des efforts d'investissement dans les TGE.

Au plan financier, la conjonction des efforts permet de diminuer l'engagement de chacun des partenaires. Au plan scientifique, la coopération permet sans aucun doute une fertilisation croisée des compétences nationales. A l'inverse, des rigidités de fonctionnement peuvent résulter de structures inadaptées au problème.

Mais la question essentielle est bien celle du point d'application de la coopération internationale au type d'investissement envisagé.

1.1. Le partage optimal entre effort national et effort international

L'opportunité d'une coopération internationale a longuement été évoquée par vos Rapporteurs, lors de l'examen auquel ils ont procédé des conditions d'installation d'un nouveau synchrotron.

Pour résumer, la construction du synchrotron SOLEIL s'est imposée en raison de la demande très importante de temps d'accès à des lignes de lumière formulée par la communauté scientifique française, demande qui ne pouvait être satisfaite par une machine partagée avec tout autre pays.

En intégrant le nombre d'utilisateurs sur la vingtaine d'années de durée de vie de la machine, le coût par utilisateur apparaît en dernière analyse comme compatible avec l'effort national.

Au surplus, la technologie des synchrotrons de 3 ème génération a déjà reçu des applications notamment à l'ESRF et ailleurs en Europe. On ne peut donc pas considérer comme rédhibitoires les aléas technologiques.

Au total, la construction de SOLEIL apparaît comme celle d'une très grande infrastructure de service, dont on peut légitimement penser qu'elle revient à la communauté nationale.

Figure 6 : Les domaines privilégiés de la coopération internationale 18

L'analyse conduite pour SOLEIL a en réalité une portée générale.

Dans le cas de très grands équipements de percée thématique, les deux variables qui semblent intervenir pour déterminer l'intérêt éventuel d'une coopération internationale sont d'une part, la difficulté de maîtrise des technologies et d'autre part le coût de l'installation par utilisateur. Le schéma ci-dessus dégage les deux zones optimales qui existent probablement en fonction de ces deux critères, pour déterminer si la coopération internationale s'impose ou non.

Dans le cas des TGE d'infrastructure, des paramètres supplémentaires doivent être pris en considération. Le taux d'occupation de la machine et la facilité d'accès sont alors d'une importance critique. On peut donc dire que souvent, la coopération internationale s'impose alors avec moins de force pour un très grand équipement d'infrastructure que pour un très grand équipement de percée thématique.

Une fois ceci posé, il faut toutefois aller plus loin dans l'analyse en ce qui concerne les TGE.

La rapidité des retombées scientifiques et technologiques est un facteur de négociation essentiel.

A cet égard, on doit constater que les Etats-Unis multiplient à bon escient les coopérations internationales pour faire baisser les coûts des projets dont les retombées ne sont pas immédiates, comme par exemple pour le grand projet de Retour d'échantillon de Mars.

En revanche, pour les projets à impact technologique immédiat, les Etats-Unis ne s'ouvrent pas volontiers au partenariat international.

Figure 7 : Retombées des TGE et coopération internationale

On peut souhaiter à cet égard un meilleur équilibre entre les divers projets dans lesquels la France est engagée.

A ce titre, il semble que, dans le cadre de sa coopération avec les Etats-Unis, la France devrait lier sa participation à des projets à retombées à très long terme comme le programme Retour d'échantillon de Mars à son admission à d'autres programmes à retombées plus rapides.

La négociation par blocs de programmes spatiaux à retombées bien réparties dans le temps, pourrait être une démarche à amplifier, compte tenu du danger d'accords par programme, en termes de rentabilité. Elle serait envisageable compte tenu du nombre réduit d'interlocuteurs, NASA, Russie, CNES et ESA.

1.2. Les marges limitées d'évolution de la politique de recherche communautaire

Le programme cadre de recherche et développement (PCRD) en cours est le 5 ème du nom et couvre la période 1998-2002. Son budget total est de 15 milliards d'euros, soit 98,131 milliards de francs, pour les 5 années du programme.

Sans être considérable, le soutien du 5 ème PCRD aux TGE est loin d'être négligeable.

Il est mis en oeuvre non seulement par le programme " Access to Research Infrastructures " mais également par le soutien de différentes actions thématiques, notamment l'action thématique relative à la Société de l'information, ainsi que par l'aide d'EURATOM à la fusion contrôlée.

Les positions exprimées par les différents pays membres de l'Union européenne vis-à-vis d'un renforcement de l'aide aux TGE sont relativement éloignées les unes des autres, ce qui offre peu de perspectives pour une implication beaucoup plus élevée du PCRD dans ce domaine. Toutefois des marges de progression existent.

M. Roger-Gérard SCHWARTZENBERG, ministre de la recherche, en tant que président du Conseil recherche, a proposé une extension de l'aide de l'Union européenne aux études de faisabilité relatives aux très grandes infrastructures, proposition qui devrait être prise en compte lors des discussions préalables à l'établissement du 6 ème PCRD, dont la préparation commencera en février-mars 2001.

Lors d'un entretien avec le Commissaire à la Recherche, M. Philippe BUSQUIN, à Bruxelles, le 29 novembre 2000, vos Rapporteurs ont fait deux propositions pour aller plus loin, propositions qui ont été bien reçues.

1.2.1. Le soutien aux TGE dans le 5 ème PCRD

Le 5 ème PCRD comporte quatre actions thématiques et trois programmes horizontaux dont les dotations sont présentées ci-après. Il faut ajouter à ces dépenses, le soutien à la recherche accordé dans le cadre d'EURATOM.

Le plus connu des soutiens aux TGE est un soutien indirect qui provient de l'action horizontale " Développement de la recherche et des connaissances sur les processus socio-économiques " , d'un montant total de 1281 millions d'euros.

Sous le nom de programme " Access to Research Infrastructures " , le remboursement aux chercheurs des pays membres n'ayant pas participé à la construction de l'installation, de leurs frais de mission pour accéder aux TGE est prévu à hauteur d'un total de 182 millions d'euros . Ce programme prend également à sa charge les frais de fonctionnement des machines utilisées pour la durée correspondante.

Le programme ACCESS ne résume pas toutefois l'aide apportée par le 5 ème PCRD.

D'autres possibilités sont offertes par diverses actions thématiques ou horizontales

Un autre des principaux soutiens de l'Union européenne aux TGE est assuré par l'action thématique " Société de l'information " , dont le montant total atteint 3,6 milliards d'euros.

En effet le sous-programme intitulé " Soutien aux infrastructures de recherche : implantation et interopérabilité des supercalculateurs et des réseaux à hauts débits " comprend un budget de 161 millions d'euros.

C'est notamment dans le cadre de ce sous-programme qu'est développé le réseau GEANT (Gigabit European Academic Network) d'interconnexion à très haut débit des réseaux européens de recherche et d'éducation auquel sera raccordé RENATER. Le financement de ce réseau d'interconnexion est assuré à hauteur de 80 millions d'euros par la Commission dans le cadre du 5 ème PCRD et à hauteur de 160 millions d'euros par les Etats membres.

Par ailleurs, l'action thématique " Croissance durable et compétitive " comprend une rubrique de soutien aux infrastructures de recherche travaillant sur ce domaine, à hauteur de 37 millions d'euros. Il en est de même pour l'action " Energie, environnement et développement durable " pour un budget de soutien aux infrastructures de recherche de 119 millions d'euros.

Enfin, le programme " Excellence scientifique " de l'action horizontale " Développement de la recherche et des connaissances sur les processus socio-économiques " prévoit une ligne de 50 millions d'euros.

Le LURE d'Orsay confirme qu'effectivement les frais de mission de ses visiteurs européens sont pris en charge par le programme ACCESS mais aussi les frais de fonctionnement de la machine pour les heures d'utilisation correspondantes. Par ailleurs, le financement de l'utilisation des très grands instruments et des très grandes infrastructures peut être abondé par les aides obtenues dans le cadre des quatre actions thématiques.

Ainsi que l'a indiqué M. Philippe BUSQUIN à vos Rapporteurs, l'aide cumulée directe et indirecte de l'Union européenne au fonctionnement de certaines très grandes infrastructures de recherche peut atteindre dans certains cas 15 % du budget annuel de celles-ci . C'est le cas dans certaines installations, où en cumulant les remboursements de frais de mission et les participations aux frais de fonctionnement, ainsi que les autres formes de soutien, l'on atteint effectivement ce montant, au demeurant supérieur à l'aide de certains pays membres du conseil d'administration de ces très grands équipements.

Il est clair toutefois que pour accéder aux différents types d'aide, mes chercheurs doivent avoir une information parfaite, le réflexe de se tourner vers la Commission et le temps d'effectuer les démarches nécessaires.

Il faut signaler enfin une autre implication de l'Union européenne dans les investissements lourds, celui-là relatif à l'énergie.

Un soutien direct de grande ampleur est en effet assuré par EURATOM aux recherches sur la fusion, avec un budget de 788 millions d'euros sur la période 1998-2002, soit 5,17 milliards de francs.

Par ailleurs, EURATOM fournit un soutien de 10 millions d'euros aux infrastructures de recherche.

1.2.2 Les premiers pas de la négociation sur le 6 ème PCRD

Le 5 ème PCRD a marqué par rapport au 4 ème PCRD un recul du soutien de l'Union européenne aux TGE.

C'est un des axes de la politique française de la recherche, dans les années récentes que de chercher à renverser cette tendance et à impliquer davantage l'Union européenne dans ce domaine.

Cette orientation s'intègre parfaitement dans la politique de la recherche souhaitée pour l'Union européenne par le Commissaire européen, M. Philippe BUSQUIN.

Le Commissaire européen, comme il l'a indiqué dans son document d'orientation adopté par le Conseil " Vers un espace européen de la recherche " entend développer les actions de la Commission dans ce domaine selon trois principes directeurs.

Le premier principe est celui de la subsidiarité, qui, dans le domaine des TGE, se traduit par une focalisation sur les projets que les pays membres ne peuvent conduire par eux-mêmes.

Le deuxième principe est un principe d'égalité, qui a pour but de favoriser l'accès des chercheurs européens à ces installations.

Le troisième principe est un principe d'efficacité, conforme aux Traités, et qui consiste à aider l'Union européenne à combler ses retards par rapport aux Etats-Unis et au Japon dans différents domaines.

Sur un plan très concret, un premier travail est en cours pour identifier les besoins de l'Union en grandes infrastructures. Des groupes européens d'experts à géométrie variable ont été mis en place pour examiner quels sont les besoins à venir. Le rôle de ces groupes est de conseiller les gouvernements et l'Union sur les grandes options stratégiques à l'échelle de l'Europe, sur les outils d'analyse fine de la matière, la flotte océanographique, puis sur de nouveaux sujets, comme l'astronomie ou les sciences du vivant.

En réalité, il semble que différents pays soient réticents à voir l'Union s'impliquer dans les TGE, pour deux types de raisons.

La première catégorie de raisons est celle des lourdeurs bureaucratiques qui risquent de résulter de l'implication de l'Union. Ainsi, l'Allemagne et le Royaume-Uni souhaitent éviter d'éventuelles complications administratives que pourrait entraîner l'intervention de la Commission européenne. Ces pays souhaitent éviter également qu'un financement important par la Commission conduise à restreindre leur autonomie de décision.

La deuxième catégorie de raisons a trait à la ponction possible sur le soutien direct à la recherche. Les petits pays de l'Union, non capables de construire par eux-mêmes des TGE, redoutent une diminution des crédits européens de recherche qui soutiennent leurs laboratoires.

M. Roger-Gérard SCHWARTZENBERG a déclaré le 20 septembre 2000 à Strasbourg lors de la Conférence sur les grandes infrastructures de recherche européennes : " je serai plus réservé sur l'utilité de centraliser les décisions sur les grandes infrastructures à l'échelle de l'Union européenne ".

La démarche du ministre de la recherche est, de fait, une démarche graduelle : " L'aide européenne est actuellement limitée à faciliter l'accès des chercheurs aux grands équipements. Ainsi le programme ACCESS, composante des PCRD successifs, finance l'accès transnational à ces infrastructures des scientifiques des pays membres n'ayant pas participé à la construction de l'infrastructure et accorde des crédits pour favoriser le fonctionnement en réseau de ces infrastructures. Je souhaite qu'à terme on aille au delà et que l'aide européenne concerne aussi la réflexion, l'harmonisation, l'investissement et l'aide au fonctionnement des très grandes machines. A titre de première étape vers cet objectif, je souhaite que l'aide européenne finance une large partie des études et de la conception des projets. "

Tableau 7 : Le 5 ème PCRD (1998-2002)

Domaine

budget

(millions d'euros)

Remarques

I - Actions thématiques

Qualité de la vie et gestion du vivant

2 413

Actions clés :

- alimentation, nutrition et santé [290 Meuros]

- lutte contre les maladies infectieuses [300 Meuros]

- la machinerie cellulaire [400 Meuros]

- environnement et santé [160 Meuros]

- agriculture durable et développement rural intégré [520 Meuros]

- le vieillissement de la population et les handicaps [190 Meuros]

Société de l'information

3 600

Actions clés :

- systèmes et services aux citoyens [646 Meuros]

- télétravail et commerce électronique [547 Meuros]

- contenus et outils du multimédia [564 Meuros]

- technologies de base et infrastructures [1 363 Meuros]

Technologies émergentes ou du futur [319 Meuros]

Soutien aux infrastructures de recherche : implantation et interopérabilité des supercalculateurs et réseaux à hauts débits [161 Meuros]

Croissance durable et compétitivité

2 705

Actions clés :

- produits, processus et organisations innovants [731 Meuros]

- mobilité et intermodalité durables [371 Meuros]

- transport terrestre et technologies maritimes [310 Meuros]

- nouvelles perspectives de l'aéronautique [700 Meuros]

Recherche et développement générique [546 Meuros]

Soutien aux infrastructures de recherche [37 Meuros]

Energie, environnement et développement durable

2 125

• Environnement et développement durable - Actions clés :

- gestion durable de l'eau [254 Meuros]

- changement climatique, biodiversité [301 Meuros]

- écosystèmes marins [170 Meuros]

- la cité de demain [170 Meuros]

R&D générique [119 Meuros]

Soutien aux infrastructures de recherche [119 Meuros]

• Energie :

- énergies propres dont renouvelables [479 Meuros]

- efficacité énergétique [547 Meuros]

- R&D générique [16 Meuros]

II - Actions horizontales

Promotion du rôle international de la recherche européenne

475

- coopération avec les pays en développement [408 Meuros]

- formation des chercheurs [15 Meuros]

- coordination avec les autres programmes européens [52 Meuros]

Promotion de l'innovation et aide aux PME

363

- promotion de l'innovation [119 Meuros]

- encouragement à la participation des PME au processus d'innovation [44 Meuros]

- aide à la coopération des PME dans le domaine de l'innovation [200 Meuros]

Développement de la recherche et des connaissances sur les processus socio-économiques

1 280

- développement du potentiel de recherche (mobilité des chercheurs [858 Meuros], accès aux TGE [182 Meuros] , excellence scientifique [50 Meuros])

- Action clé : augmentation des connaissances socio-économiques sur les processus de développement [165 Meuros]

- soutien aux politiques de développement scientifique et technologique [25 Meuros]

Action directe

738

Centre commun de recherche européen

EURATOM

1 260

Actions clés :

- fusion contrôlée [788 Meuros]

- fission nucléaire [142 Meuros]

R&D générique [39 Meuros]

Soutien aux infrastructures de recherche [10 Meuros]

Total

14 960

(soit 98 131 millions de francs sur 5 ans)

Une évolution en cours, importante et positive, doit toutefois être mentionnée.

Un document sur la stratégie spatiale européenne a en effet été demandé par les ministres des Quinze à la fois à la Commission européenne et à l'ESA. Ce document commun a été approuvé en novembre 2000 par le Conseil Recherche de l'Union européenne et par un Conseil ministériel exceptionnel de l'ESA.

Le partage des rôles reviendrait à donner un rôle accru à l'ESA en tant qu'agence de service et à assigner à l'Union européenne la charge d'assurer le développement technologique et la compétitivité économique de l'Europe spatiale.

Dès lors, l'Union européenne assurerait le soutien de base correspondant en mettant en place, dans le cadre du 6 ème PCRD, des contrats de recherche pour les activités au sol, le développement de charges utiles et des instruments, ainsi que pour les technologies de base relatives aux détecteurs, aux capteurs et aux nouveaux instruments.

Ainsi une complémentarité sera définie entre l'ESA et l'Union européenne, avec toutefois une complexité supplémentaire due au partage des tâches dont on aurait pu imaginer qu'elles seraient toutes confiées à l'ESA moyennant une contribution budgétaire globale.

La participation de l'Union européenne à des programmes spatiaux devrait en priorité se porter sur l'infrastructure non scientifique Galileo, dans la mesure où il s'agit d'un enjeu de souveraineté et de compétitivité.

En complément à cette intervention indispensable, la contribution du PCRD est essentielle pour que l'Europe ait une force de proposition au delà des 12-15 ans qui viennent, grâce à des avancées technologiques pour la résolution des détecteurs et la propulsion.

Au delà de l'opportunité incontestable de cette évolution, on peut se demander au regard des définitions respectives des TGE de percée thématique, d'infrastructure ou de grand programme s'il est justifiable qu'un programme spatial européen, même dans sa composante amont, soit financé par le seul Programme cadre de recherche et développement.

Au contraire, la présence de l'Union européenne dans l'espace, son utilisation des technologies spatiales pour l'observation de la Terre, correspondent à de grands projets, le premier politique et l'autre à la fois scientifique, industriel et environnemental.

On pourrait donc légitimement soutenir qu'en conséquence, les autres politiques communes soient sollicitées de participer à un tel projet.

1.2.3. Les propositions de vos Rapporteurs

Lors de leur entretien avec le Commissaire européen, M. Philippe BUSQUIN, le 29 novembre 2000 à Bruxelles, vos Rapporteurs ont fait deux propositions concernant l'action TGE grandes infrastructures de recherche.

La première proposition porte sur une extension de l'aide fournie par le programme ACCESS. Ainsi qu'il a été dit plus haut, ce programme permet la prise en charge par le PCRD des frais de mission des chercheurs visiteurs et des frais de fonctionnement des TGE pendant la durée d'utilisation par ces derniers.

Il conviendrait en tout état de cause que ces prises en charge intègrent également l'amortissement des installations au prorata de la durée d'utilisation.

C'est en effet le coût complet qui est représentatif du coût réel d'usage. En procédant ainsi, on se rapprocherait d'ailleurs des normes de la comptabilité d'entreprise conçue et imposée pour une représentation économique conforme à la réalité.

Par ailleurs, grâce à un tel mécanisme, les TGE pourraient se constituer les réserves financières indispensables au renouvellement de matériels soumis à usure ou à obsolescence, ce qui favoriserait leur maintien au niveau technique le plus élevé.

Une telle mesure serait au demeurant une puissante incitation pour les structures gérant les TGE à rationaliser leurs méthodes sinon leur statut, en adoptant des structures juridiques modernes et en mettant en place une comptabilité analytique répondant aux standards des entreprises.

Cette proposition a reçu un très bon accueil du Commissaire européen qui a noté que le soutien actuel aux TGE est " faible " et en tout cas " pas assez ambitieux " .

La deuxième proposition est relative aux supercalculateurs scientifiques. Le 5 ème PCRD accorde, on l'a vu, un soutien important au développement de réseaux d'interconnexion à hauts débits des réseaux de recherche nationaux.

Cette action est d'une très grande utilité pour les TGE, dont on a vu à de nombreuses reprises qu'ils doivent être valorisés par la transmission la plus rapide possible des données qu'ils permettent de collecter.

Toutefois, il apparaît que l'Union européenne souffre d'un retard important en centres de calcul dotés de supercalculateurs. Les réseaux à haut débit rendent quasiment indifférente la localisation de ces centres de calcul et permettraient aux chercheurs de tous les pays membres de bénéficier des capacités de calcul additionnelles dont toutes les disciplines scientifiques ont un besoin en croissance exponentielle.

Le 5 ème PCRD prévoit un soutien aux capacités de calcul.

Si la Commission s'intéresse au concept de GRID, ou grille de calcul développé par le CERN, celui-ci est toutefois un concept à moyen terme et le Commissaire européen a pris bonne note du souhait de vos Rapporteurs d'accélérer dans le 6 ème PCRD la montée en puissance de l'Europe dans le domaine stratégique du calcul scientifique.

1.3. La coopération bilatérale puis multilatérale, un modèle qui a fait ses preuves

Une brève histoire des TGE aujourd'hui montre que ceux d'entre eux qui ont été réalisés en Europe avec la participation de la France ont été lancés par un noyau de deux ou trois pays qui ont joué un rôle d'initiateur, et qui ont ensuite été progressivement rejoints dans les structures créées à cette occasion par une série d'autres pays.

En Europe, la France et l'Allemagne ont joué un rôle pilote, sous les auspices des responsables politiques _uvrant pour le rapprochement franco-allemand, ainsi dans le cas de l'ILL.

La France et l'Italie ont également joué un rôle important dans la réalisation du CERN, après que Louis de BROGLIE eut proposé en 1949 la création d'un laboratoire scientifique et que l'UNESCO eut été autorisé à fournir une assistance à cet effet.

De même la France et l'Italie jouent à l'heure actuelle un rôle phare avec VIRGO dans le domaine de la physique gravitationnelle.

Tableau 8 : Exemples de coopérations multilatérales

TGI

domaine

Nb de pays membres

Liste des pays membres

CERN

Accélérateurs de particules

initiative franco-italienne ; 12 pays fondateurs,

19 membres

Allemagne, Autriche, Belgique, Bulgarie, Danemark, Espagne, Finlande, France, Grèce, Hongrie, Italie, Norvège, Pays-Bas, Pologne, Portugal, République tchèque, Royaume-Uni, Suède, Suisse

EMBL

Biologie moléculaire

16 pays

Allemagne, Autriche, Belgique, Danemark, Espagne, Finlande, France, Grèce, Israël, Italie, Norvège, Portugal, Pays-Bas, Royaume-Uni, Suède, Suisse

ESA

Agence spatiale européenne (European Space Agency)

14 pays

Union européenne moins le Luxembourg, la Grèce et le Portugal, plus la Norvège et la Suisse (Canada observateur)

ESO

European Southern Observatory

9 pays, organisation internationale

Allemagne, Belgique, Danemark, France, Italie, Pays-Bas, Portugal, Suède, Suisse ; demande d'adhésion du Royaume-Uni en cours d'examen

ESRF

Synchrotron de 3 ème génération

Convention internationale, société civile à but non lucratif

Allemagne, Espagne, France, Italie, Royaume-Uni, Suisse, Benesync (Belgique, Pays-Bas), Nordsync (Danemark, Finlande, Norvège, Suède).

ILL

Source de neutrons

initiative franco-allemande (1967); adhésion ultérieure (1974) du 3 ème partenaire

Allemagne, France, Royaume-Uni.

Pays associés : Espagne, Suisse, Autriche, Russie, Italie, République tchèque

VIRGO

Ondes gravitationnelles

2 pays fondateurs

France, Italie ; négociations en cours avec l'Allemagne et le Royaume Uni pour des participations croisées

Au final, les initiatives qui ont été prises par ces couples de pays ont vu leur succès reconnu par les autres, qui ont souhaité bénéficier des installations créées en rejoignant le noyau initial.

La création de TGE est longtemps apparue comme un investissement sur l'avenir réalisé par deux partenaires ayant une vision prospective, un comportement entrepreneurial et une confiance mutuelle et construisant à l'horizon de 10 ou 20 ans pour le progrès scientifique et le développement économique.

A cet égard, au delà de la recherche d'une meilleure prise en compte des besoins de financement des TGE par l'Union européenne, la voie d'une coopération bilatérale renforcée peut apparaître comme un préalable dans une multilatéralisation ultérieure.

Comme l'ont constaté à plusieurs reprises vos Rapporteurs, l'Allemagne reconnaît à la France une excellence scientifique et une avance technologique dans de nombreux domaines.

En revanche, l'organisation complexe sinon archaïque des processus de décision dans la recherche française et notre prédisposition aux querelles de disciplines sinon de clocher ne laissent pas d'inquiéter les responsables d'outre-Rhin.

Mais, en dépit de tout, avec une volonté politique forte, la voie de la coopération scientifique franco-allemande est toujours une voie d'avenir.

1.4. Un effort national indispensable et à la portée de la France

Une série de mauvaises interprétations des données statistiques, sinon de méprises, ont contribué à faire, en France, le procès des très grands investissements de la recherche.

En réalité, la croissance des dépenses au cours des dernières années résulte largement de grands projets à impact géostratégique ou sociétal tels que le spatial, mis à la charge du seul budget de la recherche.

De surcroît, les TGE français ont été accusés de peser d'un poids plus lourd qu'à l'étranger, alors que la France est plutôt en retrait à ce niveau par rapport aux grands pays.

Ceci s'est produit en dépit du fait que notre pays a été reconnu comme un pionnier ou un chef de file dont les autres pays ont emboîté le pas, comme on vient de le voir.

1.4.1. Une croissance des coûts due à l'émergence de grands projets mis à la charge du seul budget de la recherche

Si l'on considère les statistiques communiquées à vos Rapporteurs par la direction de la recherche, il apparaît clairement que la croissance des dépenses consolidées des TGE selon la nomenclature employée est due non pas aux TGE scientifiques, en décroissance ou stables depuis 1995, mais aux TGE techniques dont la masse des dépenses a été multipliée par 5 dans le même intervalle 1995-2000.

Figure 8 : Evolution des dépenses relatives respectivement aux TGE scientifiques et aux TGE techniques

Or que sont les TGE techniques au sens de la direction de la recherche ? Ce sont :

- la station spatiale internationale

- la contribution à EUMETSAT qui gère les satellites Meteosat

- la préparation des satellites météorologiques géostationnaires Meteosat de seconde génération

- la préparation du programme des satellites météorologiques défilants à orbite polaire METOP.

Tous ces programmes correspondent évidemment à des grands projets qui dépassent de simples objectifs de recherche scientifique, laquelle trouve peu de substance, en particulier, à la station spatiale internationale.

A ce titre, il convient de bien réaliser qu'il ne s'agit pas là des TGE tournés vers la recherche, mais de très grands projets techniques contribuant à des grands projets de société, comme la prévision météorologique ou l'affirmation de la présence spatiale française dans l'espace.

On trouvera ci-après un tableau récapitulatif des évolutions des dépenses relatives aux différents TGE, pour les années 1990, 1999 et 2000.

Tableau 9 : Evolutions des dépenses (millions de francs) relatives aux différents TGE

catégorie direction de la recherche

TGE

1990

1999

2000

physique des particules

Accélérateur d'électrons

45

0

0

physique des particules

CERN

604

654

665

physique des particules

LHC

0

219

229

nucléaire

GANIL

136

156

146

nucléaire

SATURNE

124

10

13

fusion

JET

21

11

11

fusion

TORE SUPRA

188

142

144

astronomie au sol

CFHT

17

21

20

astronomie au sol

ESO

62

124

124

astronomie au sol

IRAM

30

36

38

astronomie au sol

VLTI

0

0

0

astrophysique spatiale

FIRST/PLANCK

0

14

47

astrophysique spatiale

HIPPARCOS

21

0

0

astrophysique spatiale

INTEGRAL

0

130

86

astrophysique spatiale

ISO

137

8

6

astrophysique spatiale

Mission coût réduit

0

50

69

astrophysique spatiale

SIGMA

9

0

0

astrophysique spatiale

SOHO

81

0

21

astrophysique spatiale

XMM

0

100

51

planétologie

CASSINI

0

9

4

planétologie

CLUSTER 2

0

55

65

planétologie

Exploration Mars

25

19

51

planétologie

Mars Express

0

24

64

planétologie

ROSETTA

0

154

148

observation de la Terre

ENVISAT

0

257

169

observation de la Terre

ERS 1-2

109

43

16

observation de la Terre

EURECA

45

0

0

observation de la Terre

POLDER

observation de la Terre

PROTEUS-JASON

0

180

98

observation de la Terre

SCARAB

observation de la Terre

TOPEX-POSEIDON

189

11

17

géologie

Géo France 3D

géologie

GPF

11

0

0

géologie

ODP

23

12

12

océanologie

Flotte

198

190

211

océanologie

WOCE

11

0

0

neutrons

ILL

120

142

142

neutrons

LLB

106

138

132

neutrons

SILOE

rayonnement synchrotron

ESRF

142

125

126

rayonnement synchrotron

LURE

109

136

146

rayonnement synchrotron

SOLEIL

0

1

0

sciences de la vie

EMBL

31

45

46

sciences de la vie

Sciences vie espace

101

179

155

physique gravitationnelle

VIRGO

0

68

60

TGE techniques

ETW

58

0

0

TGE techniques

METEOSAT/EUMETSAT

92

214

220

TGE techniques

MSG/METOP

0

270

392

TGE techniques

SSI

0

624

660

total

2845

4571

4604

En définitive, l'évolution récente démontre que, la physique des particules mises à part, ce sont les TGE de grands programmes qui ont pris le pas sur les TGE à finalité scientifique traditionnelle de conquête de connaissances.

Tableau 10 : Palmarès des dépenses relatives aux très grands équipements selon la nomenclature de direction de la recherche, par grand domaine - estimations pour 2000 - dépenses de personnel incluses

2000 (estimations)

millions de francs

%

TGE

TGE techniques

1272

27,6

ETW, EUMETSAT, MSG, METOP, Station spatiale internationale

physique des particules

894

19,4

Accélérateur d'électrons, CERN, LHC

planétologie

332

7,2

CASSINI, CLUSTER 2, Exploration Mars, Mars Express, ROSETTA

observation de la Terre

300

6,5

ENVISAT, ERS 1-2, EURECA, POLDER, PROTEUS-JASON, SCARAB, TOPEX-POSEIDON

astrophysique spatiale

280

6,1

HIPPARCOS, INTEGRAL, ISO, Mission coût réduit, SIGMA, SOHO, XMM

neutrons

274

6,0

ILL, LLB, SILOE

rayonnement synchrotron

272

5,9

ESRF, LURE, SOLEIL

océanologie

211

4,6

Flotte, WOCE

sciences de la vie

201

4,4

EMBL, Sciences de la vie dans l'espace

astronomie au sol

182

4,0

CFHT, ESO, IRAM, VLTI

nucléaire

159

3,5

Ganil, Saturne

fusion

155

3,4

JET, TORE SUPRA

physique gravitationnelle

60

1,3

VIRGO

géologie

12

0,3

GéoFrance 3D, GPF, ODP

total

4604

100,0

L'analyse complémentaire que l'on peut faire à l'aide de la typologie définie plus haut, qui distingue TGE de percée thématique, TGE d'infrastructure et TGE de grands programmes apporte un éclairage nouveau et intéressant sur la politique suivie globalement par la France sur cette question.

On trouvera page suivante un tableau présentant les dépenses effectuées en 1990 et celles effectuées en 1999 et 2000 pour chacune des trois catégories de TGE. Les dépenses pour 1999 et 2000 sont des estimations.

Tableau 11 : Evolution des dépenses (millions de francs) pour chacune des catégories de TGE 19

discipline / objectif

TGE de percée thématique

1990

1999*

2000*

physique des particules

Accélérateur d'électrons

45

0

0

CERN

604

654

665

LHC

0

219

229

physique du noyau

GANIL

136

156

146

SATURNE

124

10

13

astronomie au sol

CFHT

17

21

20

ESO

62

124

124

IRAM

30

36

38

VLTI

0

0

0

astrophysique spatiale

FIRST/PLANCK

0

14

47

HIPPARCOS

21

0

0

INTEGRAL

0

130

86

ISO

137

8

6

Mission coût réduit

0

50

69

SIGMA

9

0

0

SOHO

81

0

21

XMM

0

100

51

planétologie

CASSINI

0

9

4

CLUSTER 2

0

55

65

Exploration Mars

25

19

51

Mars Express

0

24

64

ROSETTA

0

154

148

observation de la Terre - océanographie

ENVISAT

0

257

169

géologie

GPF

11

0

0

ODP

23

12

12

océanographie-observation de la Terre

WOCE

11

0

0

PROTEUS-JASON

0

180

98

TOPEX-POSEIDON

189

11

17

sciences du vivant

EMBL

31

45

46

physique gravitationnelle

VIRGO

0

68

60

total TGE de percée thématique

1556

2356

2249

discipline / objectif

TGE d'infrastructure

1990

1999*

2000*

source de neutrons

ILL

120

142

142

LLB

106

138

132

rayonnement synchrotron

ESRF

142

125

126

LURE

109

136

146

SOLEIL

0

1

0

océanographie

Flotte

198

190

211

total TGE d'infrastructure

675

732

757

discipline / objectif

TGE de grand programme

1990

1999*

2000*

fusion

JET

21

11

11

TORE SUPRA

188

142

144

météorologie

METEOSAT/EUMETSAT

92

214

220

MSG/METOP

0

270

392

océanographie-observation de la Terre

ERS 1-2

109

43

16

sciences du vivant dans l'espace

Sciences vie espace

101

179

155

présence dans l'espace

ETW

58

0

0

Eureca

45

0

0

SSI

0

624

660

total TGE de grand programme

614

1483

1598

Ensemble des TGE

total général

2845

4571

4604*

On trouvera ci-après la répartition des dépenses estimées pour 2000 entre les TGE de percée thématique, d'infrastructure et de grand programme.

Tableau 12 : Répartition des dépenses de 2000 (estimations) pour les trois catégories de TGE

Sur la base des estimations pour 2000, on constate que les dépenses relatives aux TGE d'infrastructure ne représentent que 16,4 % du total. Les dépenses des TGE de percée thématique représentent, pour leur part, 48,9 % du total et celles des TGE de grand programme 34,7 % du total, dans les mêmes conditions.

Quelles ont été les évolutions des dépenses relatives aux trois catégories depuis 1990 ?

Ces évolutions sont représentées sur le graphique suivant.

Tableau 13 : Evolution des dépenses relatives aux trois catégories de TGE

On trouvera par ailleurs ci-après les évolutions de ces dépenses en pourcentage, entre 1990 et 1999 et entre 1990 et 2000, ainsi que de 1999 à 2000.

Tableau 14 : Evolution en pourcentage des dépenses relatives aux trois catégories de TGE

augmentation en %

1999 par rapport à 1990

2000 par rapport à 1990

2000 par rapport à 1999

TGE de percée thématique

51,4

44,5

-4,5

TGE d'infrastructure

8,4

12,1

3,4

TGE de grand programme

141,5

160,3

7,8

Sur la période 1990-1999, les dépenses relatives aux TGE de percée thématique pour une discipline sont passées de 1556 à 2356 millions de francs, soit une augmentation de 51,4 %.

Pendant le même temps, les dépenses relatives aux TGE d'infrastructure passaient, quant à elles, de 675 à 732 millions de francs, en augmentation de 8,4 %.

Sur la même période 1990-1999, les dépenses relatives aux TGE de grands programmes passaient de 614 à 1483 millions de francs, soit une augmentation de 141,5 %.

De 1999 à 2000, sur la base des prévisions tant de 1999 et de 2000 disponibles en juillet 2000, on devrait enregistrer une diminution de 4,5 % pour les dépenses des TGE de percée thématique, une augmentation de 3,4 % pour les dépenses relatives aux TGE d'infrastructure et une augmentation de 7,8 % pour les TGE de grand programme.

D'importantes conclusions sont à tirer de ces chiffres.

On doit avant tout noter le faible niveau relatif des dépenses relatives aux TGE d'infrastructure, qui ne représentent que 16 % environ des dépenses totales.

A cet égard, la valorisation des investissements réalisés pour la réalisation de percée thématique et pour la réalisation de grands programmes est selon toute probabilité insuffisante en France.

Il faut encore une fois souligner que les TGE nécessitent impérativement des moyens de valorisation. Ces moyens sont les très grandes infrastructures.

Faute de moyens d'analyse de la matière puissants et comme tels partagés par les chercheurs de toutes disciplines, les sciences physiques et les sciences du vivant sont aveugles.

Faute de réseaux informatiques, de supercalculateurs et de bases de données, les informations conquises à grand prix ne sont pas exploitées comme elles le devraient et tous les enseignements possibles ne sont pas tirés des observations.

Ces très grands moyens de valorisation apparaîtraient peut-être dans les dépenses d'infrastructures si elles étaient aux normes de performance requises.

Les conclusions tirées des chiffres sont en tout état de cause confirmées par les nombreuses observations recueillies au cours des auditions.

Enfin, comment ne pas revenir sur la question du synchrotron national de 3 ème génération dont le projet de construction s'est heurté de 1996 à 1999 à des obstacles de tous ordres pour connaître finalement un refus peu justifié ?

S'il devait y avoir des économies à réaliser pour pouvoir mettre l'accent sur des disciplines nouvelles, ce qui reste à démontrer, les dépenses relatives aux TGE d'infrastructure devaient être les dernières à être réduites.

1.4.2. Un effort au plus égal, le plus souvent inférieur à celui des autres pays

La comparaison internationale des dépenses effectuées pour les TGE est difficile, d'une part en raison de définitions différentes de ces investissements, et d'autre part du fait de circuits de financement complexes qui rendent difficiles la totalisation des crédits les concernant.

Au demeurant, la direction de la recherche a fait état de statistiques établies par le CNRS et présentées en 1999.

Ainsi, selon le CNRS, sur la période 1997-1998, si la part des TGE atteignait en France 7,9 % du BCRD, le même ratio était de 9,1 % aux Etats-Unis, hors station spatiale et hors satellites de météorologie.

Des statistiques équivalentes pour la même période ne sont pas disponibles pour le Royaume-Uni et l'Allemagne. Mais la direction de la recherche a réalisé un recoupement entre les chiffres français et ceux du Royaume-Uni et de l'Allemagne.

Selon toute vraisemblance, la part des TGE dans le BCRD oscille dans ces trois pays entre 8 et 9 %, avec probablement des dépenses plus fortes en Allemagne qu'en France, et plus fortes en France qu'au Royaume-Uni 20 .

En ajoutant les grands équipements de la biologie et de l'informatique, cette part atteindrait probablement 15 %. En tout état de cause, les ordres de grandeur sont peu différents d'un pays à l'autre.

La même hiérarchie se retrouve dans l'effort global de recherche, tel qu'il apparaît de la comparaison des ratios DIRD / PIB (voir annexes). La France, avec un ratio de 2,18 % en 1998, est dépassée par l'Allemagne avec un ratio de 2,29% et précède le Royaume-Uni dont le ratio atteint 1,83 % la même année.

Il semble donc établi que la France ne connaît pas un penchant national particulier pour les TGE.

Ce constat renforce à l'évidence l'observation faite précédemment selon laquelle le développement des TGE correspond à un mouvement général de la science et de la technologie et s'effectue en parallèle aux investissements de recherche.

Ainsi, il n'est pas contraire à la vérité de dire que moins de TGE rime avec moins de crédits.

2. Les conditions techniques

Le développement de la science moderne porte à recourir à des moyens de plus en plus sophistiqués d'acquisition de l'information, mais aussi à l'utilisation de plus en plus forte de moyens de traitement de l'information en aval de l'observation.

Les conditions techniques de valorisation des TGE sont donc d'une importance capitale. Quelques exemples sont donnés dans la suite.

2.1. L'automatisation des processus expérimentaux

Un des enjeux de l'avenir pour les TGE est celui de l'accroissement de leurs rendements, grâce à une automatisation accrue et même grâce à un pilotage à distance.

On donnera dans la suite l'exemple de la détermination de la structure des protéines sur les lignes de lumière des synchrotrons.

L'un des projets essentiels pour la biologie structurale de l'avenir est l'automatisation des processus de cristallographie des protéines sur les lignes de lumière des synchrotrons, afin de réduire les temps d'immobilisation des lignes de lumière et augmenter le nombre de structures élucidées.

L'ESRF et l'EMBL-Grenoble travaillent ensemble dans ce sens, après la mise au point d'un microgoniomètre entièrement automatique, pour automatiser la mise en place de l'échantillon et la chaîne d'acquisition et d'analyse des données et la détermination des structures.

L'automatisation des mesures est en tout état de cause un enjeu particulièrement important pour l'ensemble des TGE d'infrastructure.

2.2. Le traitement et la transmission des données

Les TGE génèrent des données expérimentales considérables. De nouveaux TGE d'infrastructure doivent être mis en place pour faire face à ce gigantisme croissant de l'information numérisée.

2.2.1. Les supercalculateurs

Cette question a été abordée dans la première partie du rapport à propos des sciences et des techniques de l'information et de la communication.

A la lumière des statistiques disponibles sur les plus grands centres de calcul mondiaux, il apparaît clairement que les capacités de calcul de notre pays doivent être accrues notablement.

Certes la France a opté davantage que d'autres pays pour le calcul réparti, ce qui diminue les besoins en machines de grande taille. Mais ce choix technique est la plupart du temps synonyme d'une charge de travail accrue pour les chercheurs, qui les distrait de leur tâche fondamentale de recherche.

La situation en matière de calcul scientifique est donc loin d'être optimale dans notre pays.

L'équipement en centres de calcul est actuellement décidé par les organismes de recherche eux-mêmes. Une meilleure coordination est souhaitée par tous les chercheurs.

Au reste une question fondamentale est posée aujourd'hui, à savoir la création de centres de calcul disciplinaires. Cette question est particulièrement importante pour certaines disciplines, comme la météorologie, dont les modèles nécessitent des puissances de calcul considérables.

A cet égard, on peut estimer qu'il conviendrait à l'avenir de créer un centre de calcul dédié à la recherche sur le climat, une démarche entamée par les Etats-Unis et le Japon dont les industries respectives développent au demeurant des calculateurs surpuissants pour ce type d'application.

Un tel projet qui pourrait figurer dans le 6 ème PCRD, dans le prolongement des programmes actuels relatifs à la société de l'information et à l'environnement, a été proposé par vos Rapporteurs au Commissaire européen à la recherche, M. Philippe BUSQUIN.

2.2.2. Les réseaux de transmission à hauts débits

Les réseaux de transmission semblent devoir constituer également une priorité dans les choix des TGE.

Le GIP RENATER conduit dans ce domaine des réalisations remarquables. On a vu toutefois que l'offre de services n'a pas été à la hauteur des attentes, les vitesses pour le " backbone " national ayant été limitées à 155 Mbits/s pour une période trop longue, faute de capacités techniques suffisantes de l'industrie nationale.

Par ailleurs les réseaux de raccordement des universités constituent de véritables goulots d'étranglement.

Il s'agit là de paramètres clés qui peuvent renforcer les TGE ou au contraire les desservir dans la concurrence internationale qui va s'accentuer, dans ce domaine comme dans d'autres.

Ainsi, la transmission vers l'Allemagne de données produites par un TGE d'infrastructure comme l'ILL à Grenoble n'est pas aussi rapide qu'elle devrait l'être avec des réseaux à haut débit, une situation regrettée par les chercheurs allemands.

Au reste, si les réseaux à haut débit sont essentiels pour l'utilisation des données par les expérimentateurs, ils jouent également un rôle capital pour l'accès d'une communauté scientifique plus étendue que celle des seuls expérimentateurs, après une période d'usage exclusif par ces derniers.

Les réseaux participent donc à la transmission des connaissances et à leur valorisation maximale.

2.2.3. L'archivage et la conservation des données

Le stockage des données nécessite également des capacités d'archivage à grande échelle et d'accès rapide.

Sans doute existe-t-il aujourd'hui, à l'instar de la nouvelle économie, une nouvelle science, totalement irriguée par les technologies de l'information. Il est indispensable que la recherche française accélère ses progrès dans cette voie.

Les cas de l'astronomie et de l'astrophysique sont exemplaires à cet égard.

Le traitement des données d'observation astronomique s'effectue soit dans les instituts de recherche utilisateurs des TGE soit d'une manière coordonnée dans le cadre d'une expérience particulière.

L'archivage des données s'effectue ensuite dans des centres spécialisés comme le centre MEDOC pour l'expérience SOHO. La France enregistre toutefois un important retard par rapport aux Etats-Unis dans ce domaine.

Les observations sont mises à disposition de la communauté astronomique après une période dite " propriétaire " d'un an généralement, pendant laquelle un usage exclusif est réservé aux concepteurs et aux réalisateurs des observations. La diffusion élargie des données, conforme à la tradition de la recherche, s'avère ultérieurement positive en augmentant le retour scientifique des très grands instruments.

La NASA joue un rôle pionnier avec ses centres de données généralistes qui permettent de valoriser à faible coût les résultats de ses travaux. De son côté, la France a également mis en place le CDS (Centre de données stellaires), centre d'aiguillage, une référence pour la communauté scientifique internationale qui permet une forte valorisation pour un coût consolidé modeste de l'ordre de 1,5 % du budget total de l'astronomie pour la part française.

Or d'une part l'arrivée d'observations sur de objets célestes de plus en plus nombreux et variés, d'autre part la réalisation de très grands relevés, et enfin la couverture du ciel dans l'ensemble des longueurs d'onde, du domaine radio au domaine des rayons X et des rayons gamma, changent les dimensions du problème et des besoins.

L'idée s'impose donc en Europe et aux Etats-Unis de réaliser un Observatoire virtuel, c'est-à-dire une gigantesque base de données répartie, permettant d'accéder à l'ensemble des données d'observations, avec des formats intégrés de données et des dispositifs efficaces de navigation d'un centre à un autre. Le volume des données correspondant aux plusieurs milliards d'objets de l'Observatoire virtuel est de l'ordre du Petaoctet (10 15 octets). Doté en outre d'outils d'analyse et d'interprétation, un tel Observatoire virtuel serait un instrument original et puissant de valorisation des investissements faits dans l'astronomie au sol ou dans l'espace.

La France a des atouts importants pour participer à la réalisation de l'Observatoire virtuel, du fait de son rôle moteur au niveau international pour les bases de données, pour l'intégration de données hétérogènes, et du fait de l'originalité de ses archives de données et de ses outils d'analyse mondialement reconnus.

La notion d'observatoire virtuel peut représenter à certains égards un cas extrême.

Mais en réalité, le problème est très voisin pour les sciences du vivant et la constitution des bases de données sur les génomes.

On a vu, à propos des sciences du vivant, que la bioinformatique est une discipline naissante, à renforcer d'urgence.

La constitution de bases de données organisées, documentées et la mise au point d'algorithmes de recherche et de comparaison de gènes est sans aucun doute une condition de valorisation des travaux de séquençage des génomes et une clé essentielle de la post-génomique.

Enfin, un nouveau type de besoins apparaît dans les sciences du vivant, comme on l'a vu dans la première partie. Il s'agit des conservatoires du vivant, biotopes ou bibliothèques de souches, indispensables pour les biotechnologies.

Il s'agit là d'assurer la pérennité des résultats de recherche. A vrai dire, il convient aussi d'assurer la pérennité des observations sur de longues périodes de temps.

2.3. La continuité des mesures

L'étude du changement climatique est très probablement un des très grands défis scientifiques de notre temps.

La première partie a exposé rapidement quels sont les TGE dans le domaine de la paléoclimatologie. La connaissance du passé lointain de l'évolution climatique de la Terre est essentielle à l'interprétation des phénomènes actuels et à la prévision.

Les stations au sol et les satellites de météorologie ou d'étude de l'atmosphère enregistrent à leur tour depuis quelques années des données relatives à des paramètres extrêmement nombreux, et ceci pour des volumes considérables.

La continuité de ces mesures est une nécessité absolue pour l'utilisation que l'on peut en faire.

A cet égard, des efforts considérables doivent être réalisés pour veiller à la continuité non seulement des mesures mais également de leur stockage sous des formes documentées et compatibles dans le temps.

La météorologie satellitaire veille avec beaucoup de soin à ce que les satellites d'observation se succèdent dans le temps sans solution de continuité.

Les satellites scientifiques de mesure des paramètres physiques ou chimiques de l'atmosphère obéissent quant à eux à des programmes de recherche, dont la pérennité n'est pas assurée au départ. La raison en est qu'il est nécessaire de s'assurer que la qualité de leurs résultats est suffisante.

Mais ceci entraîne le risque de voir des séries d'observations intéressantes être faites sur une période réduite de 2 à 5 ans sans poursuite au delà de la durée de vie d'un satellite.

L'organisation internationale EUMETSAT est saisie de cette question fondamentale pour la recherche en climatologie.

Au vrai, la distinction entre TGE de percée thématique, TGE d'infrastructure et TGE de grand programme trouve encore une fois son utilité.

En effet, un très grand instrument au sol a une durée de vie de plusieurs décennies. Si l'on veut reconnaître au spatial un rôle identique, il convient de prévoir d'entrée dans les programmes spatiaux scientifiques la pérennisation des moyens, de même qu'on a su le faire pour les satellites météorologiques Meteosat, auxquels succéderont les satellites MSG, Meteosat Seconde Génération.

Il faut donc prévoir une procédure pour faire passer un grand outil de la catégorie des TGE de percée thématique à celle des TGE d'infrastructure.

Par ailleurs, un TGE de grand programme doit avoir l'intérêt de mobiliser des crédits venant d'autres horizons que ceux de la recherche.

Il faut toutefois qu'une pérennité dans le temps soit assurée alors que par nature, les grands programmes peuvent subir des aléas de nature politique, encore plus grands que des programmes de recherche pure à l'écart des projecteurs de la politique.

2.4. La recherche duale

La qualité de la recherche technologique militaire assurée en France sous la responsabilité de la Direction générale de l'armement est largement sous-estimée. Les difficultés techniques de mise au point de certains programmes ne résument en rien les capacités d'innovation technologique et de conduite de grands chantiers de la recherche militaire.

L'ouverture de l'appareil de recherche militaire à des objectifs de recherche civile est en cours en France. Il convient de l'accélérer de toute urgence, dans un processus qui sera bénéfique pour les deux domaines.

2.4.1. L'importance de la recherche et de la technologie militaires dans le monde

La part des efforts publics de R & D allouée au secteur militaire est plus forte en France que dans les autres pays européens, et prend ainsi place au deuxième rang des pays de l'OCDE, après les Etats-Unis. En 1996, les financements publics militaires représentaient 0,32 % du PIB, contre 0,51 % aux Etats-Unis mais 0,10 % en Allemagne (voir tableau suivant).

Tableau 15 : Les financements publics civils et militaires dans le PIB en 1996 21

répartition de l'effort de R & D selon l'origine du financement non public / public

répartition du financement public en crédits civils et militaires

1996

effort de R&D en % du PIB

financements non publics

financements publics

crédits publics civils

crédits publics militaires

Etats-Unis

2,62

1,69

0,93

0,42

0,51

France

2,32

1,23

1,09

0,77

0,32

Royaume-Uni

1,94

1,15

0,79

0,49

0,30

Allemagne

2,28

1,36

0,92

0,82

0,10

Japon

2,83

2,27

0,56

0,53

0,03

Cependant, il faut noter entre 1990 et 1998, une diminution de près de 30 % de l'effort de recherche et développement du ministère de la défense, passant de près de 30 milliards de francs en 1990 à 21 milliards en 1998

Tableau 16 : Effort budgétaire de recherche et développement du ministère de la défense 22

milliards de francs

1995

1996

1997

1998

Dépense budgétaire de recherche-développement militaire (DBRDM)

25,9

25,5

23,8

20,8

S'il existe une diminution des crédits publics pour la R & D militaire, ainsi que l'indique le rapport du Commissariat général du Plan, " Recherche et Innovation : la France dans la compétition mondiale " , " cette évolution ne doit pas masquer la question de l'impact des dépenses de défense sur la croissance et souligne la nécessité d'articuler désormais les initiatives civiles et militaires aussi bien au niveau français qu'européen " .

Au vrai, le Comité national d'évaluation de la recherche, dans son rapport d'activité au Président de la République en date de mai 2000 23 , plaide lui aussi en faveur d'une " stratégie faisant une part plus importante aux recherches et aux technologies duales, dont les retombées incluent des applications civiles et favorisant la synergie entre le secteur civil d'une part, les opérations contractuelles de la défense, les industries de l'armement et les établissements de recherche sous tutelle de la défense, d'autre part ".

Il n'y a pas de disproportion marquée entre l'Europe et les Etats-Unis pour les dépenses de recherche et technologie civiles.

En revanche, pour la recherche et la technologie militaire, les dépenses américaines sont 4 fois supérieures aux dépenses européennes (voir tableau suivant).

Tableau 17 : Comparaison des dépenses américaines et européennes en recherche et technologie civiles ou militaires 24

PIB

dépenses R & T civiles

dépenses R & T militaires

total

R&D

Etats-Unis

(milliards de dollars - 2000)

9425

59,7

42,6

102,3

Europe des 15

(milliards d'euros - 1998)

8413

48,0

9,2

57,2

Institutions de l'Union européenne

(milliards d'euros - 2000)

3,6

0

3,6

Cette problématique est particulièrement sensible dans le domaine spatial.

Tableau 18 : Comparaison des budgets spatiaux 25 américains et européens 26

1 ers budgets 1998

budgets spatiaux civils

budgets spatiaux militaires

total

Etats-Unis

(milliards de dollars)

13,5

12,5

26,0

Europe y compris ESA (milliards d'euros)

4,02

< 0,8

5,3

ESA

(milliards d'euros)

2,9

0

2,9

Dans le but de diminuer cette disparité, on peut estimer que l'Union européenne devrait soit augmenter ses financements de recherche et de technologie civiles soit se lancer dans des programmes militaires.

Le CNER estime, pour sa part, nécessaire de donner à la stratégie duale une dimension européenne, même si le développement lent de la politique de sécurité et de défense commune laisse penser que de telles initiatives mettront du temps à être prises en considération dans le cadre communautaire.

2.4.2. Des initiatives à multiplier au niveau national

Le CEA procède actuellement à l'installation d'un supercalculateur au centre d'Ile-de-France de la DAM. La puissance de calcul de cette machine dépassera 5 téraflops (5000 milliards d'opérations par seconde) en 2001, 30 téraflops en 2005 et 100 téraflops en 2009.

Le CEA prévoit d'ouvrir l'accès de ce calculateur à la recherche civile. Il convient qu'après avoir résolu les inévitables difficultés de cloisonnement entre les applications militaires et civiles, cette machine soit dans toute la mesure du possible mise à disposition de tous les chercheurs, en particulier ceux du CEA.

Un autre exemple d'approfondissement des synergies entre la recherche militaire et la recherche civile est donné par le laser MegaJoule.

La construction et l'utilisation du laser MegaJoule répondent à des objectifs militaires liés à la simulation des armes nucléaires. Il s'agit d'un investissement dépassant dix milliards de francs. L'équivalent américain de cette installation est le NIF (National Ignition Facility).

Grâce à ses 240 faisceaux, le Laser MegaJoule, qui sera opérationnel en 2008, pourra déposer une énergie de 1,8 MJ en quelques milliardièmes de seconde sur une cible centimétrique, recréant ainsi à une échelle réduite les conditions de pression et de température de la fusion.

Il est prévu dans ce cadre qu'une partie des 600 tirs annuels soient utilisés pour l'étude de la fusion par confinement inertiel.

Au delà des études sur la fusion proprement dite, une installation comme le Laser MegaJoule présente un intérêt considérable pour la physique fondamentale, au regard de questions comme la dynamique des implosions et les équations d'état ou l'étude des interactions rayonnement-matière. Pour d'autres disciplines comme l'astrophysique, un tel dispositif permet la simulation d'événements violents comme l'explosion de supernovae. Les conditions technologiques de mise en _uvre d'un tel équipement étant très complexes, les recherches correspondantes sont d'un intérêt majeur pour d'autres projets comme par exemple le projet VIRGO de détection des ondes gravitationnelles.

De fait les équipes de recherche intéressées par l'utilisation du Laser MegaJoule sont très nombreuses, situées principalement à l'Ecole Polytechnique, à Orsay, au CEA ainsi qu'en Europe.

Si le ministère de la Défense souhaite que les installations du Laser MegaJoule soient utiles à la recherche civile, ce qui est un atout pour un grand nombre de chercheurs intéressés par les lasers de puissance, il reste que l'organisation pratique pour l'accès aux expériences et la délimitation du périmètre classé " secret défense " s'avère complexe à mettre au point.

Le nombre de chercheurs, dans le domaine civil, concernés par les applications du Laser MegaJoule à la fusion avec confinement inertiel s'élève à environ 150 personnes.

En définitive, le domaine des lasers de puissance " fourmille d'innovations " et se révèle très attractif pour les étudiants et les jeunes chercheurs.

La proportion des tirs réservées aux applications civiles n'a encore fait l'objet d'aucune décision. Mais elle pourrait atteindre 20 % du total si l'on se base sur l'exemple de l'installation Phébus pendant ses deux dernières années d'existence.

D'autres coopérations sont en cours dans le domaine de l'océanographie, entre l'IFREMER et la Défense pour rationaliser le renouvellement des flottes océanographiques civiles et militaires.

On peut à cet égard souhaiter voir étendu au domaine militaire le principe de coopération entre la recherche et les compagnies aériennes du programme franco-allemand MOZAIC de mesure de la concentration de l'ozone troposphérique grâce à des capteurs installés sur 5 Airbus A-340 appartenant à quatre compagnies aériennes différentes.

En particulier, la météorologie nationale éprouve des difficultés considérables pour renouveler sa flotte aérienne et ne pourra pas en tout état de cause se doter des avions gros-porteurs indispensables pour l'étude des phénomènes atmosphériques violents.

Une coopération systématique entre l'armée de l'air, Météo-France et le CNRS est donc hautement souhaitable.

Les pouvoirs publics ont toute latitude d'action pour développer la coopération entre les armées et la recherche civile. Si des initiatives sont d'ores et déjà conduites, il convient d'en accélérer le développement et de les multiplier.

3. Les conditions humaines

D'autres conditions sont fondamentales pour une valorisation maximale des TGE. Elles ressortissent d'une gestion des ressources humaines trouvant un juste équilibre entre les nécessités du fonctionnement des ces outils et l'état d'esprit des chercheurs.

3.1. Le projet d'équipes restreintes de haut niveau et motivées

La plupart des TGE ont été créés ou gérés par une équipe ayant à sa tête un scientifique reconnu par ses pairs et doté de capacités de conviction et d'entraînement hors du commun.

Lors de la création du CERN, Pierre AUGER, directeur scientifique de l'UNESCO a joué un rôle essentiel, après que deux chercheurs de grand renom, américains mais européens d'origine, Robert OPPENHEIMER et Isidore RABI, ont recommandé immédiatement après la fin de la deuxième guerre mondiale la création d'un centre de haut niveau en Europe afin d'éviter un face-à-face stérile entre les Etats-Unis et l'URSS, estimant qu'il serait dramatique que la recherche se fasse uniquement dans ces deux pays.

Par ailleurs, si la décision de créer l'ILL découle de l'approfondissement de l'amitié franco-allemande réalisée par le Général de GAULLE et le Chancelier ADENAUER, deux scientifiques éminents, Louis NÉEL et Heinz MAIER-LEIBNITZ, ont été les pères fondateurs de l'institut, jouant un rôle clé pour sa réussite.

Dans la phase de décollage d'une installation ou de transition difficile, l'importance du dirigeant est également fondamentale.

On connaît l'importance des rôles joués par M. Hubert CURIEN, par M. Yves FARGE lors du lancement de l'ESRF et, plus récemment par M. Yves PETROFF dans la mise au point définitive de l'ESRF, le développement de ses performances techniques et son exploitation quasi-industrielle.

Pour l'heure, le CERN est dirigé par M. Luciano MAIANI, un physicien de haut niveau, spécialiste de la force électro-faible et reconnu par ses pairs comme le " primus inter pares " . La culture directoriale au CERN, si elle fait appel à des réseaux nombreux et planétaires, avec la consultation systématique d'un grand nombre d'instances, reconnaît au directeur général une autorité pleine et entière, qui est, selon de nombreux observateurs, à la base de ses réussites.

Le rôle d'entraînement d'un promoteur de projet de TGE s'observe dans les autres pays, notamment en Allemagne, où le projet Tesla de super-collisionneur linéaire comportant un laser à électrons libres intégré pour la production de rayons X est emmené par M. Albrecht WAGNER, directeur de DESY et M. Jochen SCHNEIDER, directeur du HASYLAB (Hambourg).

Il semble important que les grands organismes de recherche s'appliquent à détecter et à valoriser en leur sein les chercheurs entrepreneurs qui seront à même de prendre la tête des projets de TGE de percée thématique, d'infrastructure ou de grand programme.

3.2. Une nécessaire autonomie de gestion pour la construction et l'exploitation

Il serait vain et contreproductif que les plus hautes autorités de la recherche assurent le pilotage direct du lancement des TGE, car la direction d'un tel projet exige une expérience de scientifique et de management et au surplus une liberté de man_uvre sinon d'action.

En tout état de cause, la création d'une structure dotée d'une autonomie réelle s'impose pour le lancement des TGE. Il y faut un leader ayant la liberté du choix des membres d'une équipe qui doit bien sûr être de haut niveau.

Pour assurer le succès de cette phase délicate, un groupe de projet doit être créé, en extrayant les équipes responsables de leurs organismes d'appartenance et en les dotant de capacités de décision, comme c'est la pratique dans l'industrie et aux Etats-Unis. Avec une équipe autonome et motivée aux commandes de chaque projet de TGE, la réalisation de ceux-ci s'effectuera à une vitesse maximale.

En l'occurrence, tout dérapage dans le calendrier de construction d'un TGE peut se traduire par des surcoûts financiers considérables, les charges salariales pendant la période de construction représentant une part importante du budget total.

3.3. De nouveaux métiers et de nouvelles perspectives de carrière

La science moderne crée de nouveaux besoins et de nouvelles fonctions autour des TGE.

Il s'agit en premier des fonctions d'assistance aux chercheurs visiteurs. Or les chercheurs résidents qui les assurent ne voient pas leurs efforts valorisés à hauteur de l'importance de leur rôle dans le déroulement de leur carrière. Il est indispensable de prendre en compte correctement ce type de fonctions.

Il s'agit en deuxième lieu des fonctions nouvelles relatives à la valorisation des données.

Il n'existe pas pour le moment de perspectives de carrière intéressantes pour les spécialistes du traitement, de l'archivage et de la distribution des données, dont le rôle est pourtant fondamental pour la rentabilisation des investissements opérés.

Une piste de solution existe à cet égard.

Les réseaux de surveillance de l'activité sismique ou volcanique bénéficient du concours d'un corps dédié de physiciens spécialisés, le CNAP, également ouvert à l'astronomie.

Il convient sans doute d'étendre les attributions de ce corps à d'autres disciplines ou de le prendre comme modèle pour la création de corps analogues de personnels spécialisés dans le traitement de l'information.

3.4. Des solutions d'urgence à apporter aux conditions de recrutement des jeunes chercheurs et des ingénieurs et techniciens de pointe

D'une manière générale, les principaux organismes de recherche français ne parviennent pas à proposer des postes de " post-docs " en rapport avec la qualification des candidats. Les conséquences en sont graves pour la recherche et tout particulièrement pour les TGE.

Les post-docs sont, en effet, dans la plupart des pays, les piliers des laboratoires et des TGE. Après avoir soutenu leur thèse, les post-docs possèdent des compétences élevées, une capacité d'encadrement et une motivation puissante pour valoriser leur parcours universitaire dans la perspective d'une recherche d'emploi ultérieure.

Le recrutement d'un " post-doc " par les grands organismes de recherche ne peut se faire d'une manière satisfaisante aux niveaux de rémunération actuels qui sont insuffisamment attractifs pour de jeunes chercheurs talentueux et expérimentés. Par ailleurs, le recrutement de " post-docs " sur des financements communautaires met en _uvre des procédures d'une lourdeur excessive.

En tout état de cause, la question du recrutement de jeunes chercheurs est d'une importance capitale pour les TGE. En effet, ce sont près de la moitié des chercheurs et enseignants du supérieur qui vont partir en retraite dans les dix à quinze années qui viennent. Il faut donc anticiper ce phénomène de très grande ampleur et commencer à recruter dès maintenant.

Le problème de l'insuffisance de la rémunération des ingénieurs et techniciens se pose également.

L'exemple du LCMI où travaillent des personnels français et allemands, gérés les uns par le CNRS et les autres par l'institut Max Planck, montre que ce dernier peut davantage prendre en compte les réalités du marché du travail.

Or le départ d'ingénieurs et techniciens spécialisés peut occasionner des retards considérables et très coûteux dans la réalisation ou la modernisation des TGE.

4. Les conditions organisationnelles

Plusieurs débats existent sur les conditions organisationnelles de réussite et de rentabilisation des TGE. Le premier concerne les relations entre les grands organismes de recherche commanditaires. Le deuxième est relatif au recours à la sous-traitance. Le troisième a trait à la structure juridique optimale.

4.1. Les relations entre les grands organismes de recherche commanditaires

Un organe essentiel de coordination des grands organismes de recherche existe depuis peu. Il s'agit du groupe RIO, qui réunit les directeurs généraux de ces organismes.

Ce groupe qui réunit les dirigeants du CNRS, du CEA, de l'INSERM, de l'INRA, en particulier, a évidemment une importance stratégique pour la recherche française.

Deux développements semblent s'imposer à cet égard dans le domaine des TGE.

Au plan général, il semble indispensable que ce groupe prenne une vitesse de croisière avec des réunions régulières et publie un compte rendu de ses travaux.

Il importe également que ce groupe accélère ses travaux sur la question des TGE pour établir des perspectives et dégager les voies de l'avenir. A ce titre, le groupe pourrait constituer un premier niveau de recensement et d'instruction des projets.

Au demeurant, le groupe RIO en traitant ce sujet, contribuerait efficacement à sortir la question des TGE de l'enfer dans lequel on a voulu la mettre. Il rendra également une légitimité à la conception de projets et incitera les chercheurs à la créativité dans cette part fondamentale de la recherche.

Mais il reste à mettre au point ses procédures d'instruction des dossiers, de décision et d'appel.

4.2. Les règles de la gestion publique

Dans le décours de la construction et de la vie de nombreux très grands instruments et des très grandes infrastructures, il est des cauchemars récurrents, qui proviennent de l'application de règles de gestion publique totalement inadaptée à ces activités.

4.2.1. Les règles des marchés publics

En premier lieu, la règle obligeant à passer des marchés publics pour les commandes supérieures à 300 000 francs, constitue un tel facteur de lourdeur et de ralentissement que les chefs de projet sont nombreux à devoir consacrer, au détriment de leurs autres tâches, une part importante de leur énergie au respect des règles afférentes.

Une augmentation du plafond est certes en cours d'examen, ce qui va dans le bon sens. Mais il faut également réviser l'obligation des appels d'offre dans le cas de produits de haute technologie.

En effet le nombre d'entreprises susceptibles de répondre est extrêmement limité et un temps précieux est perdu dans les procédures lourdes correspondantes. Il est d'ailleurs souvent impossible d'établir a priori un cahier des charges.

A cet égard une négociation de gré à gré, y compris du cahier des charges, se révèle plus efficace au plan technique.

Enfin, effet pervers des procédures bureaucratiques, le coût des offres obtenues par la procédure de l'appel d'offres s'avère souvent supérieur à celui résultant d'une négociation en face à face.

4.2.2. Les difficultés de préparation du remplacement des TGE

L'impossibilité pour les établissements publics autres que les EPIC de procéder à des amortissements fait peser sur le renouvellement des TGE des menaces permanentes, puisque la décision doit remonter du très grand organisme vers la direction de la recherche, puis être, dans les faits, prise à un haut niveau de responsabilité politique.

A cet égard, la notion d'amortissement doit être explicitée. Pour une entreprise, l'amortissement a comme fonction essentielle de préparer le renouvellement d'une capacité de production. Ce faisant, l'entreprise s'ouvre une déductibilité fiscale dans des proportions diverses selon l'équipement considéré, sa durée de vie et le régime d'amortissement. L'aspect fiscal est ici bien évidemment secondaire.

S'agissant de l'impossibilité d'amortissement des équipements, certains experts y voient un avantage, celui de reposer la question de l'opportunité de l'investissement, ce qui serait un gage d'efficacité.

On peut estimer à l'inverse que ce processus n'induit pas les effets positifs attendus. En effet, de multiples interférences et de nombreux retards interviennent dans la décision, dont le coût ne peut être négligé.

Si l'amortissement se révélait impossible, ce qui reste à démontrer, une solution souvent mise en avant pourrait être adoptée, celle de la constitution de fonds de réserves afin de garantir un financement régulier du renouvellement des TGE.

4.2.3. Les règles de gestion du personnel

Les demandes d'accès aux TGE dépassent le plus souvent d'un facteur 2 leurs capacités d'accueil de chercheurs visiteurs. Les TGE ont un rythme de fonctionnement qui se rapproche le plus possible d'un service continu ouvert 24 h sur 24, 7 jours sur 7, en dehors des inévitables périodes de maintenance.

Lorsque les règles actuelles de la fonction publique doivent être appliquées aux chercheurs et aux personnels ingénieurs, techniciens et administratifs des TGE, la gestion des rémunérations pour astreinte ou pour travail de nuit ou de fin de semaine peut devenir d'une grande complexité, pour ne pas dire inutilement compliquée.

Les statuts de droit privé sont en conséquence mis en avant pour leur plus grande souplesse.

A l'inverse, des responsables de TGE estiment que des solutions existent dans le cadre du statut de la fonction publique pour faire face à ce type de situation.

Il est clair en tout état de cause qu'une meilleure diffusion par le ministère de l'économie, des finances et de l'industrie des solutions qu'offre le statut de la fonction publique, aiderait les responsables de TGE à résoudre ce type de problèmes.

4.2.4. L'indispensable consolidation des coûts

Il semble enfin que les méthodes de suivi des projets utilisées pour les très grands instruments puissent être améliorées.

Le récent rapport de l'Inspection générale des Finances et de l'Inspection générale de l'administration de l'éducation nationale et de la recherche dresse notamment une liste des conditions à respecter pour une saine gestion des projets de TGE.

On insistera ici seulement sur l'importance de raisonner en coûts complets pour le suivi de l'investissement et de l'exploitation. Ceci fournit la garantie de pouvoir détecter les retards éventuels d'un projet sur lequel les personnels travailleraient plus longtemps que prévu et d'autre part d'éviter les réalisations qui seraient effectuées en interne à des coûts supérieurs à ceux qui pourraient résulter de commandes à l'industrie.

4.3. Les avantages et les inconvénients du recours à la sous-traitance

Dans les débats sur les grands organismes de recherche, le sujet du recours à la sous-traitance ou bien aux capacités internes de conception, d'ingénierie et de fabrication est l'un des plus importants.

Pour certains observateurs, le recours à la sous-traitance serait moins onéreux que les travaux réalisés en interne par les grands organismes de recherche et permettrait d'abaisser significativement le coût des TGE.

Pour d'autres observateurs, le CNRS dispose au contraire dans certains de ses laboratoires, comme ceux de l'INSU ou de l'IN2P3, d'équipes de haut niveau pour la conception et même la réalisation d'équipements de haute technologie, de même, bien sûr, que le CEA.

Au delà de ce débat qui a d'incontestables connotations polémiques, la réalité concrète du marché est que pour la réalisation d'équipements de pointe, à l'extrême limite de ce qui est réalisable, les compétences et les capacités de production nécessaires n'existent pas toujours dans l'industrie. De multiples exemples existent à cet égard. On n'en citera que deux.

C'est ainsi que le LCMI de Grenoble a été obligé de se doter de machines outils et de personnels de réalisation pour fabriquer certains dispositifs utilisés dans la production du champ magnétique, faute d'entreprises capables ou désireuses de les prendre en charge.

Au demeurant, un organisme comme le CEA a acquis une compétence unique pour la conception et la fabrication d'aimants supraconducteurs, et fournit au CERN ou à DESY des matériels que l'industrie ne produit pas.

En définitive, il semble acquis que des compétences propres aux grands organismes de recherche sont indispensables et doivent être entretenues. Elles sont à l'évidence complémentaires d'un recours au marché pour les dispositifs que celui-ci peut fournir à des coûts inférieurs en faisant jouer des économies d'échelle.

4.4. La diversité des structures juridiques possibles

La structure juridique souhaitable pour les TGE est un point important de la réflexion.

Du fait des impératifs d'autonomie de réalisation et de fonctionnement des TGE et des rigidités résultant des règles de fonctionnement des établissements publics, le statut de la société civile peut apparaître à certains observateurs comme le mieux adapté au lancement, à la construction et même à l'exploitation d'un TGE.

S'agissant du projet de synchrotron SOLEIL, vos Rapporteurs écrivaient ceci dans le premier tome du présent rapport : " A cet égard 27 , on peut estimer que le statut de société civile, adopté par l'ESRF, et prévu par l'avant projet SOLEIL doit être étudié plus avant " .

En tout état de cause, vos Rapporteurs mettaient l'accent sur les conditions de fonctionnement à respecter plutôt que sur une structure juridique particulière.

Pour la préparation de la deuxième partie de l'étude qui leur a été confiée, vos Rapporteurs ont analysé les structures de différentes installations françaises.

Force est de constater une diversité très grande de formes juridiques, qui correspondent à des histoires, des partenariats et des contraintes de fonctionnement différentes.

Quelles observations peut-on faire sur les avantages et les inconvénients des différents types de statuts ?

4.4.1. La gestion déléguée

Le LURE (Laboratoire pour l'utilisation du rayonnement électromagnétique) est géré dans le cadre d'une gestion déléguée par le CEA et le CNRS qui définissent les grandes orientations de son activité dans le cadre du conseil d'administration, du conseil scientifique et des comités de programme du LURE. Le LURE n'a pas la personnalité juridique. Les personnels du LURE appartiennent soit au CNRS soit au CEA.

Le Laboratoire national Léon Brillouin donne l'exemple d'une répartition des rôles très précise entre les deux partenaires CNRS et CEA. Le CNRS a vocation à piloter les programmes mixtes CNRS - universités. Quant au CEA, outre ses propres programmes scientifiques, sa vocation est d'assurer le fonctionnement du réacteur Orphée et plus généralement des sources nationales de neutrons.

Le LCMI de Grenoble (Laboratoire des champs magnétiques intenses) donne un exemple d'administration déléguée plurinationale. Le laboratoire est en effet un laboratoire CNRS, à la vie duquel la société Max Planck de Stuttgart est étroitement associée. Non seulement les personnels y gardent leur statut d'origine, mais une double comptabilité française et allemande est tenue pour la gestion du laboratoire.

La solution d'une coopération étroite entre les grands organismes de recherche peut sembler la plus adaptée dans la mesure où elle assure une grande fluidité d'accès pour les chercheurs des deux institutions.

En outre, les très grands équipements sont des coopératives au service des laboratoires. Il convient en conséquence que les coopérateurs soient en liaison étroite avec ces derniers, pour avoir une capacité de réaction rapide. Tout organisme de gestion interdirait d'aller aussi vite.

4.4.2. Le GIE (Groupement d'intérêt économique)

Le Groupement d'intérêt économique (GIE) est une autre structure envisageable.

Le GANIL est un GIE, constitué à parité par la direction des sciences de la matière (DSM) du CEA et l'IN2P3 du CNRS. Ce GIE a été créé en 1976 pour une durée de 30 ans. Les personnels continuent d'être gérés par la DSM et l'IN2P3.

La direction du GANIL estime que ce statut présente l'avantage de permettre à la fois une rigueur budgétaire et une souplesse de gestion supérieures à celles d'une UMR.

A l'inverse, un inconvénient de ce statut est de ne pas se prêter facilement à une ouverture à des partenaires étrangers. En outre, l'application de la loi sur les 35 heures risque de compliquer sérieusement la situation si elle ne se faisait pas rapidement au CNRS, alors que le CEA l'a déjà faite.

4.4.3. Le GIP (Groupement d'intérêt public)

Créé par la loi d'orientation et de programmation pour la recherche et le développement technologique du 15 juillet 1982, le GIP (Groupement d'intérêt public) a explicitement pour but d'apporter un nouveau cadre juridique pour la recherche.

Le GIP est doté de la personnalité morale et de l'autonomie financière. Il est constitué entre des établissements publics ayant une activité de recherche et de développement technologique, entre l'un ou plusieurs d'entre eux et une ou plusieurs personnes morales de droit public ou de droit privé.

Les collectivités locales peuvent y être partie prenante, ce qui veut dire qu'un département ou une région peut participer à un GIP.

La création d'un GIP nécessite une convention constitutive qui détermine les membres, l'objet, le siège, la durée et les responsabilités des membres du GIP et qui est soumise à approbation gouvernementale. La présence d'un commissaire du gouvernement est requise dans l'organe dirigeant du GIP, qui en outre est soumis au contrôle de la Cour des Comptes 28 .

Le GIP dispose d'une comptabilité publique s'il est constitué uniquement par des personnes morales de droit public. Dans le cas contraire, sa comptabilité est de droit privé.

Le GIP est la structure adoptée pour le réseau RENATER.

En tout état de cause, ce type de statut semble handicapé par les fortes contraintes qui pèsent sur sa création et son contrôle.

En l'occurrence, le GIP n'apparaît pas à certains commentateurs comme une forme juridique qui apporte des avantages déterminants par rapport aux établissements publics et aux procédés informels de collaboration ou bien encore aux solutions de droit privé qui s'offrent aux responsables de la gestion publique.

On pourrait imaginer qu'au terme d'une réflexion approfondie, une forme de GIP " allégé " soit créée par la loi, dans laquelle seraient corrigées les différentes lourdeurs et les autres inconvénients mis en évidence par l'expérience.

4.4.4. La société civile

La société civile est un statut juridique utilisé pour différents très grands équipements. C'est celle qui donne lieu à la controverse la plus sérieuse.

L'ILL (Institut Laue Langevin) est une société de droit civil français fondée en 1967 fonctionnant sur fonds publics. Les membres fondateurs sont l'Allemagne et la France, qui ont ensuite ouvert la société civile au Royaume-Uni. L'ILL comprend également 6 membres associés.

L'ESRF a été établi en 1988 par une convention internationale, sous la forme d'une société civile de droit français.

Le projet VIRGO sera à son démarrage en 2001 assorti de la création d'un consortium franco-italien sous la forme d'une société civile de droit italien.

A de nombreux égards, l'ESRF ou l'ILL ont démontré l'intérêt de la structure de la société civile.

La société civile permet l'autonomie de fonctionnement, la responsabilisation de la direction, la rapidité de réaction et l'ouverture à de nouveaux partenaires. L'autonomie de recrutement est également possible, ce qui permet des embauches rapides de personnels choisis intuitu personae en toute responsabilité, éventuellement sur des durées limitées correspondant aux besoins réels. Enfin, le cadre de la société civile semble bien adaptée au cas de TGE internationaux.

Quels sont les inconvénients d'une telle structure ? Ils semblent résider principalement dans le cadre d'activité imposé aux personnels.

Un TGE sous la forme juridique de la société civile comprend généralement des emplois propres permanents pour l'exploitation technique et la gestion administrative. Il comprend également des personnels sous contrat à durée déterminée et des personnels détachés. Ce sont pour ces catégories de personnel qu'il convient d'être attentif.

Les contrats à durée déterminée de 5 ans ne sont pas possibles dans le cadre d'une société civile. Ils le sont à l'ESRF ou à l'ILL parce qu'ils sont prévus dans l'accord intergouvernemental. Ils correspondent généralement à des postes de post-docs, qui espèrent capitaliser sur leur expérience acquise dans le TGE pour trouver ensuite un emploi permanent. Dès lors, toute la question est celle de la valorisation effective de leur expérience, et de l'aide qui peut leur être fournie pour trouver un emploi.

Les personnels détachés nécessitent également une gestion attentive.

L'exploitation optimale d'un TGE exige en effet une mobilisation extraordinaire des personnels, en terme de travail de nuit et de fin de semaine et une disponibilité au service des utilisateurs qui peut nuire à la poursuite de travaux de recherche personnels. C'est pourquoi le temps de séjour de personnels détachés dans un TGE par des organismes de recherche n'excède pas 5 à 6 années.

La contrepartie à ce détachement doit être que les organismes d'origine apportent le plus grand soin au retour de leurs chercheurs en leur sein.

Les observations faites sur le terrain par vos Rapporteurs montrent que ce n'est pas toujours le cas.

Les difficultés de reclassement ont pu contraindre des chercheurs détachés à prolonger leur séjour dans l'installation même ou à s'employer dans des laboratoires situés à proximité, au détriment d'une bonne continuité de carrière et d'une bonne diffusion des connaissances acquises.

La mise à disposition est par ailleurs présentée comme une solution préférable par certains observateurs, en ce qu'elle permet au personnel de conserver son statut et facilite donc les retours.

Il reste que la gestion du personnel par les organismes de recherche est la variable critique en la matière.

4.4.5. Une question qui mérite des études complémentaires

Les formes juridiques utilisées pour administrer les TGE sont variées et correspondent à des contextes et des contraintes différentes. La brève revue ci-dessus n'est d'ailleurs pas exhaustive.

Par ailleurs certains auteurs constatent que les collectivités locales recourent à d'autres formules de droit privé que celles évoquées ci-dessus, notamment en recourant à des associations et à des sociétés d'économie mixte locale. Si ces structures présentent des avantages en terme de souplesse de gestion, la Cour des comptes en critique la multiplication, en notant qu'il s'agit d'un démembrement de l'administration locale.

Une réflexion plus avancée sur la forme juridique optimale pour les TGE semble ainsi nécessaire.

Par ailleurs, sans minimiser l'importance de rigidités résultant du statut de la fonction publique, de nombreux responsables de TGE estiment qu'il existe dans ce cadre des solutions aux principaux problèmes de gestion qui se posent aux TGE.

L'uniformisation des statuts des personnels ne semble pas être un impératif pour aucune des structures existantes. La diversité ne semble pas mal vécue, car chacun des statuts comporte ses avantages et ses inconvénients.

En réalité, le problème le plus important, plutôt que celui de la forme juridique des TGE, semble bien être celui de la gestion des ressources humaines par les TGE eux-mêmes et par les grands organismes de recherche.

La mise à disposition et le détachement doivent en tout état de cause s'assortir de procédures efficaces pour la valorisation des temps de services dans ces installations ainsi que pour le retour dans l'organisme d'appartenance.

4.5. L'impératif d'un suivi continu et d'une évaluation permanente

Pour maximiser sa valeur ajoutée, la création d'un TGE doit nécessairement s'accompagner de la mise en place d'un suivi attentif non seulement de sa construction mais également de son activité, afin de permettre son évaluation permanente.

L'entrée en service d'un TGE, quelle que soit sa catégorie, nécessite une continuation du contrôle de gestion qui a surveillé le bon déroulement de la construction.

Mais la nécessité d'un contrôle de gestion financier ne résume évidemment pas l'obligation d'évaluation. Une évaluation scientifique permanente doit être conduite selon une batterie de critères dont certains sont d'ores et déjà utilisés mais qu'il convient sans aucun doute de systématiser.

Lors des auditions de responsables de TGE et lors les visites effectuées, vos Rapporteurs ont constaté avec satisfaction que le recensement des publications scientifiques issues de travaux conduits avec l'équipement considéré tend à se généraliser. Néanmoins, les titres de revues scientifiques retenues ne semblent pas arrêtés d'une manière coordonnée. On peut se demander d'ailleurs si d'autres indicateurs d'efficacité scientifique, par rapport aux objectifs de départ, ne pourraient pas être mis au point.

Par ailleurs, les TGE ayant une mission importante de formation, il est indispensable qu'un suivi du placement des anciens doctorants ou post docs présents sur l'installation soit disponible, selon des bases stables dans le temps et vérifiables.

Enfin, des statistiques systématiques devraient être mis en place pour jauger la compétitivité du TGE en valeur absolue et en valeur relative. A cet égard, le Central Laboratory for Research Councils (CRLC) procède à des audits réguliers de ses centres et fait lui-même l'objet d'évaluations périodiques dont les enseignements pourraient être utiles.

Un TGE n'ayant pas vocation à perdurer au delà de sa période de pleine compétitivité, il semble important, non pas de décider dès sa création de sa durée de vie, mais de prévoir le plus tôt possible un système d'aide à la décision pour prévoir et décider sa fermeture. En France, le CEA a su procéder à des réorganisations impliquant des fermetures d'installation notamment dans le domaine de la physique du noyau. Il convient sans nul doute de tirer des enseignements des procédures qu'il a mises au point en ces occasions.

Conclusion

Les investissements lourds de la recherche scientifique ont connu depuis le début des années 1990 une singulière contestation.

Alors qu'ils étaient vus auparavant comme des éléments clés de l'aventure de la science et comme des outils indispensables au progrès des connaissances, ces équipements lourds ne sont le plus souvent considérés aujourd'hui que sous l'angle de leurs coûts, dont la masse a été d'autant plus facilement jugée excessive qu'en parallèle, la mesure de leurs retombées n'a pas été faite avec rigueur.

Ce discrédit a été également renforcé par la confusion croissante entourant la notion de très grand équipement.

La nomenclature actuelle des très grands équipements utilisée par la direction de la recherche du ministère de la recherche place en effet dans une seule et même catégorie des outils qui n'ont absolument pas la même fonction et pas la même finalité.

C'est pourquoi il est urgent de faire la distinction que proposent vos Rapporteurs, entre les TGE de percée thématique, les TGE d'infrastructure et les TGE de grands programmes au service direct de la société.

Si l'on fait cette distinction, alors l'analyse du passé et la conception de l'avenir se trouvent facilités dans le domaine des investissements lourds que nécessite la recherche scientifique de notre temps.

L'analyse du passé montre que la France ne connaît pas un penchant particulier pour les TGE. Ses efforts dans ce domaine sont identiques sinon inférieurs à ceux des autres pays.

Par ailleurs, la croissance des dépenses s'explique essentiellement par l'implication croissante de la recherche dans des grands programmes, qui, dépassant de très loin le seul objet de la science et répondant à des objectifs stratégiques ou à des préoccupations de société, doivent bénéficier du soutien budgétaire d'autres ministères que celui chargé de la recherche.

En réalité, l'on ne saurait se dissimuler que la science moderne connaît une évolution irréversible et générale à toutes les disciplines vers la mise en _uvre de moyens toujours plus performants et toujours plus complexes.

Il convient dans ces conditions d'apporter un grand soin à la maximisation des effets d'entraînement des TGE.

A cet égard, l'on a insisté ces derniers mois sur une plus grande implication de l'Union européenne dans le financement de ces outils. Cette implication est indispensable pour réduire la charge globale des TGE pour l'Europe et pour mettre en synergie des compétences nationales souvent très élevées où la France occupe souvent le premier rang.

Mais l'on ne saurait oublier le fait que l'internationalisation des TGE est déjà réalisée, la communauté scientifique ayant d'ores et déjà mis en place tous les moyens de coopération nécessaires.

L'on ne saurait oublier non plus que l'Union européenne accorde déjà un soutien qui est loin d'être négligeable aux TGE, en favorisant l'accès de tous les chercheurs européens à ces outils et en soutenant la construction des réseaux à haut débit et les recherches sur la fusion contrôlée.

Des possibilités existent néanmoins d'accentuer l'aide de l'Union européenne.

Vos Rapporteurs ont fait des propositions dans ce sens au Commissaire européen de la recherche.

Mais, en définitive, la France ne peut s'en remettre aux aides européennes ou aux initiatives des autres pays membres pour le développement des TGE mais doit au contraire continuer à consentir des efforts importants dans ce domaine

En contrepartie, il existe des possibilités d'accroître la rentabilité des investissements engagés.

Ces conditions sont d'abord techniques. Il apparaît urgent et indispensable de développer les moyens de valorisation des observations et des mesures réalisées avec les TGE. Un effort tout particulier doit être effectué pour les réseaux à hauts débits, les supercalculateurs et les banques de données de toute nature.

Mais il est essentiel également d'améliorer les conditions d'organisation des TGE.

Les conditions de gestion doivent être assouplies et rendues plus réactives. La gestion des ressources humaines doit être également plus performante, avec une gestion des carrières plus respectueuse des impératifs des chercheurs et plus motivante.

En réalité, l'on rencontre avec la question des TGE, des enjeux qui concernent l'ensemble de la recherche française : l'accroissement des efforts financiers, l'amélioration des mécanismes de décision et l'approfondissement de la volonté politique de replacer la recherche scientifique au premier rang des priorités de notre pays.

1 Source : LURE (Laboratoire pour l'utilisation du rayonnement électromagnétique).

2 La brillance caractérise l'intensité du faisceau, sa focalisation ainsi que sa cohérence en longueur d'onde et s'exprime en photons / s / mm 2 / mrad 2 / 0,1% __/_.

3 Rapport annuel du Conseil des grands équipements scientifiques à M. le ministre de l'éducation nationale, de l'enseignement supérieur et de la recherche et à M. le secrétaire d'Etat à la recherche, mars 1996.

4 Rapport du Conseil des grands équipements, op.cit.

5 Vivitron : accélérateur électrostatique situé à Strasbourg

6 Audition de Mme Geneviève BERGER, directrice de la technologie au ministère de la recherche, 17 mai 2000.

7 Note de M. Vincent COURTILLOT, directeur de la recherche à l'attention des Rapporteurs, 19 juin 2000.

8 Rapport sur les grands équipements scientifiques, n°2000-M-024-01 (IGF) et n° 00-0034 (IGAENR), juin 2000.

9 Henri GUILLAUME, Guillaume DUREAU, Pierre HANOTAUX, Michel HEON, Nicole LEBEL, Pierre BLANC, André ROT, avec la collaboration de Philippe BASSINET.

10 Alain PAVÉ, Claudine LAURENT, Les Très Grands Equipements scientifiques : vers une évolution des concepts et des moyens, Rapport d'étape, rédacteurs : Alain PAVE, Claudine LAURENT, octobre 2000.

11 G. GONCALVES, Université Paris Panthéon-Sorbonne, 1995.

12 Report of the Basic Energy Sciences Advisory Panel on DOE Synchrotron Radiation Sources and Science, Pr. R. Birgeneau, novembre 1997.

13 SSRL : Stanford Synchrotron Radiation Laboratory.

14 NSLS : National Synchrotron Light Source.

15 Les Echos, 24 octobre 2000.

16 Les Echos, 24 octobre 2000.

17 AFP, 7 novembre 2000.

18 Christian CUVILLIEZ et René TRÉGOUËT, rapport sur les conditions d'implantation d'un nouveau synchrotron, Office parlementaire d'évaluation des choix scientifiques et technologiques, tome I, Assemblée nationale n° 2258, Sénat n° 273, mars 2000.

19 Source : direction de la recherche, ministère de la recherche, juin 2000.

20 Audition du 17 mai 2000 ; compte rendu dans le volume 2 du présent rapport.

21 Recherche et innovation : la France dans la compétition mondiale, Rapport du groupe présidé par Bernard MAJOIE, Commissariat général du Plan, La Documentation française.

22 L'exécution des lois de finances pour l'année 1999, Rapport de la Cour des Comptes, juin 2000.

23 L'évaluation, la marque d'une stratégie, rapport d'activité au Président de la République, avril 2000.

24 R-M BONNET, Directeur des programmes scientifiques de l'ESA, audition du 8 novembre 2000.

25 " premiers " budgets spatiaux

26 R-M BONNET, op. cit.

27 Le paragraphe précédent traitait de l'importance du rôle d'un directeur de TGE.

28 O. GOHIN, Institutions administratives, LGDJ, 1998.

TROISIÈME PARTIE - LA NÉCESSITÉ D'AMÉLIORER LES DÉCISIONS SUR LES TGE ET DE PROGRAMMER À LONG TERME LE FINANCEMENT DE LA RECHERCHE

Introduction

Ainsi que l'ont montré les auditions et les visites réalisées par vos Rapporteurs, les TGE actuellement en service sont à l'évidence nombreux et mobilisent des ressources financières importantes.

Vos Rapporteurs ont également constaté qu'il existe un foisonnement de projets de nouveaux TGE, tels qu'ils ont pu être formulés librement par les chercheurs auditionnés.

Loin d'être inquiétant, ce foisonnement de projets, dont certains viendraient renouveler les équipements existants arrivés en fin de vie mais dont d'autres pourraient, une fois validés, s'ajouter aux installations actuelles, démontre la créativité et l'ambition des chercheurs français mais pose aussi la question des choix à effectuer et celle de leur financement à long terme.

Pour les deux dimensions du problème, à savoir la prise de décision et le financement, la classification élaborée au chapitre précédent facilite considérablement l'analyse et c'est évidemment son objet.

L'identification des finalités des TGE apporte des indications précieuses sur les circuits de décision et les procédures à suivre, ainsi que sur la logique à adopter pour les financements.

Pour autant, les besoins de financement des TGE sont loin de résumer la totalité des besoins financiers de la recherche de notre pays.

S'agissant des équipements matériels, il faut en effet prendre en compte les équipements lourds et les équipements mi-lourds des laboratoires, dont l'importance ne peut être sous-estimée, même si la mutualisation des instruments dans de grands centres à la pointe de la technologie comme les TGE est une des caractéristiques fondamentales de la science moderne.

Par ailleurs, la question des effectifs de la recherche se pose aujourd'hui avec une acuité qui ne fera qu'augmenter dans les dix prochaines années, compte tenu des pyramides des âges des organismes de recherche et de la recherche universitaire.

Une question centrale doit être posée à cet égard.

Cette accumulation de défis se produit-elle à un moment où la France serait à l'extrême limite des efforts qu'elle peut fournir et où elle devancerait les autres pays de niveau comparable dans ses efforts de recherche ?

La réponse à cette question suppose évidemment que soit pris en compte le rôle de la science dans le développement économique et plus généralement la réponse qu'elle apporte aux nombreuses questions que se pose la société.

Enfin, il convient d'examiner quels sont les moyens utilisables au plan financier et en particulier budgétaire pour engager un effort supplémentaire de plusieurs années et notamment de tirer les enseignements de précédentes expériences de programmation de la recherche.

I - DES PROCESSUS DE DÉCISION SUR LES TRÈS GRANDS ÉQUIPEMENTS À FAIRE ÉVOLUER VERS UNE PLUS GRANDE OUVERTURE ET UNE PLUS GRANDE RESPONSABILISATION

Lors des auditions qu'ils ont réalisées, vos Rapporteurs ont cherché à déterminer la nature du traitement budgétaire des très grands équipements.

Il a également été procédé à un historique rapide du rôle et des travaux du Conseil des très grands équipements durant sa période de fonctionnement, c'est-à-dire entre 1988 et 1996.

Il a paru par ailleurs intéressant d'examiner, à titre d'information, les processus de décision relatifs au projet SOLEIL de synchrotron de 3 ème génération.

Une analyse a par ailleurs été faite des processus de décision que compte employer à l'avenir la direction de la recherche, et dont les éléments commencent à se mettre en place.

Enfin, vos Rapporteurs se sont attachés à indiquer quelles fonctionnalités doivent être remplies par tout système de décision sur les TGE ou les impliquant.

1. Les lacunes actuelles du traitement budgétaire des TGE et de l'information du Parlement sur ce sujet

L'approche budgétaire des TGE souffre de lacunes évidentes, de même d'ailleurs que l'information du Parlement sur cette importante question.

1.1. L'approche budgétaire des TGE

Vos Rapporteurs se sont interrogés sur l'approche budgétaire de la notion de très grands équipements, compte tenu de l'importance de ces outils de recherche et de leur poids souvent souligné sur le budget civil de recherche et développement.

Une audition de la Direction du Budget du ministère de l'économie, des finances, et de l'industrie a donc été organisée le 17 mai 2000 afin d'obtenir des informations sur le traitement budgétaire de cette catégorie de dépenses.

Des renseignements communiqués à vos Rapporteurs et à leur groupe de travail, il appert qu'il n'existe pas de définition budgétaire des très grands équipements et qu'il n'existe pas de traitement spécifique des très grands équipements dans le cadre de la procédure budgétaire.

Par ailleurs, il n'existe pas non plus de processus budgétaire spécifique concernant les très grands équipements.

Enfin, il n'existe pas non plus de procédure de décision interministérielle formalisée relative aux TGE .

En tout état de cause, la procédure budgétaire appliquée au Budget civil de la recherche et développement (BCRD) est globale.

La dotation de l'Etat aux différents organismes de recherche publics est globalisée. De surcroît, à la diversité des statuts juridiques de ces derniers répond une variété de canaux budgétaires.

Au reste, la Direction du budget a estimé qu'une définition des très grands équipements est nécessaire, du fait de l'importance des enjeux et parce qu'il faut un processus de décision fiable et efficace. Ce dernier devrait intégrer les différentes facettes à prendre en compte, à savoir les choix de TGE concurrents, les plans de financement et la recherche de coopérations internationales.

Un seuil financier aurait une pertinence, à condition de ne pas considérer le seul coût de l'investissement mais au contraire de faire référence au coût complet comprenant non seulement les dépenses d'investissement mais aussi les coûts de fonctionnement.

En définitive, les crédits correspondants aux TGE sont inclus dans la dotation globalisée aux organismes de recherche. Ceux-ci appliquent des processus budgétaires internes pour l'allocation aux TGE.

Ce n'est que grâce aux données collectées par la direction de la recherche du ministère de la recherche que s'effectue une consolidation extra-budgétaire et ex post relative aux TGE.

Au demeurant, selon l'appréciation de la Direction du Budget, le poids des dépenses relatives au TGE en France est cohérent avec ce qu'il est dans d'autres pays.

1.2. L'insuffisance des documents de base fournis au Parlement

L'information active sur les TGE donnée au Parlement lors de la discussion du projet de loi de finances est présenté dans le rapport sur l'état de la recherche et du développement technologique prévu par la loi n° 82-610 du 15 juillet 1982.

Une page est généralement consacrée à ce sujet (voir exemple ci-après).

Figure 1 : Fac simile de la page du " Jaune " budgétaire consacré aux TGE [rapport sur l'état de la recherche et du développement technologique annexé au projet de loi de finances pour 2001 (article 4 de la loi n° 82-610 du 15 juillet 1982)]

Au demeurant, les informations données sont plus qualitatives que quantitatives, et ne permettent pas d'avoir une idée du montant consolidé des dépenses, incluant les frais de personnel, de fonctionnement et d'investissement.

Par ailleurs, le fascicule budgétaire sur la recherche, souvent décrit comme le " Bleu " budgétaire présente les autorisations de programme des organismes de recherche. Mais l'affectation des autorisations de programme des organismes de recherche n'est pas détaillée, ce qui rend impossible le suivi d'un TGE particulier.

En conséquence, les Rapporteurs spéciaux des commissions des finances et les Rapporteurs pour avis des autres commissions de l'Assemblée nationale et du Sénat, adressent des questions à la Direction du Budget parmi un nombre important d'autres sujets et reçoivent les informations demandées, qu'ils incorporent ou non à leur rapport.

Les impératifs de l'actualité budgétaire et les choix des Rapporteurs font que les TGE ne sont pas toujours analysés avec le même degré de détail, ce qui peut compliquer une démarche de suivi régulier.

Telles sont les limites de l'information donnée à la représentation nationale sur les très grands équipements.

L'insuffisance de cette information empêche bien entendu tout avis ex ante sur les choix à effectuer.

La responsabilité du Parlement n'est évidemment pas de choisir entre tel ou tel projet de TGE ou de décider d'un lancement de TGE.

Mais le fait de le consulter apporterait sans aucun doute un éclairage complémentaire intéressant.

L'insuffisance de l'information communiquée spontanément complique par ailleurs le contrôle ex post sur la pertinence des choix opérés.

Au vrai, une instance rattachée au ministère de la recherche, le Conseil des grands équipements, a, de 1988 à 1996, été chargé de conseiller le ministère chargé de la recherche, et ce faisant, contribuait à la transparence et à la connaissance des projets de TGE.

L'importance de son rôle à cet égard puis sa suppression invitent à examiner son fonctionnement.

2. Le rôle important mais périlleux de l'ancien Conseil des grands équipements

L'idée que les très grands équipements scientifiques nécessitent un suivi particulier et que les décisions les concernant nécessitent un examen particulier remonte au début des années 1980.

Un groupe présidé par Jean TEILLAC s'est réuni en 1981 et 1982, avant de se dissoudre en 1983. Néanmoins, la nécessité réapparaît rapidement d'une réflexion spécifique sur ces investissements d'une nature particulière, en raison de leur ampleur et de leur horizon de temps à plusieurs années.

En réalité, la procédure de création du Conseil des très grands équipements est lancée par le ministre délégué chargé de la recherche et de l'enseignement supérieur, M. Jacques VALADE, le 7 avril 1988.

Selon les termes de la lettre adressée par le ministre au Professeur Claude FREJACQUES, pour lui en confier la présidence et l'appeler à lui faire des propositions sur sa composition, la mission du futur " Conseil des grands équipements " est " d'examiner les projets relatifs aux grands équipements souhaités par la communauté scientifique tant en ce qui concerne leur intérêt et leur cohérence à l'égard d'autres projets nationaux ou internationaux. Il devra également confirmer les évaluations financières et déterminer le rapport coût/intérêt scientifique des différentes propositions ".

Suite au changement de majorité parlementaire, c'est M. Hubert CURIEN, ministre de la recherche et de la technologie, qui crée un " Conseil des très grands équipements " , par arrêté du 25 juin 1988.

2.1. Historique du Conseil

Le Conseil des très grands équipements, selon son arrêté de création, a pour mission de " donner un avis sur les nouveaux projets dans le domaine des très grands équipements scientifiques dont le coût et l'importance nécessitent une coordination et une programmation pluriannuelle du financement " .

Le Conseil " apprécie leur degré de maturation et leur pertinence à l'égard des autres projets développés au plan international. Il étudie les propositions de financement relatives à ces projets, en vue de leur inscription au budget des organismes de recherche ou administrations concernées, au titre du BCRD " .

En outre, " le Conseil fait toute proposition tendant à la mise en _uvre d'une planification des très grands équipements scientifiques dans le cadre de l'effort national de recherche. Il effectue régulièrement un examen de la compétitivité des équipements existants et de leur utilisation en prenant en compte l'environnement international et les perspectives de valorisation ".

Le Conseil comprend 11 membres, dont son Président, choisis pour leur compétence dans les domaines ou les disciplines dont le développement est lié à l'utilisation des TGE.

Le Conseil connaît un premier renouvellement de ses membres en 1991, puis en 1994. Le mandat des membres et du Président nommés en 1994 est prorogé jusqu'au 30 juin 1996.

Le Conseil, dont le secrétariat est assuré par la direction générale de la recherche et de la technologie, a établi un rapport annuel remis au ministre, de 1989 à 1996.

2.2. Une mission utile mais impossible

Souvent décriée, l'action du Conseil des très grands équipements appelle un examen impartial, dont il ressort qu'il a joué un rôle d'une utilité manifeste.

2.2.1. L'intérêt de ses méthodes et de son rôle

Le Conseil a, de par sa mission, efficacement éclairé les instances de décision gouvernementales sur les TGE à raison du rôle structurant de ces derniers, grâce à la mise en perspective intégrée sur le long terme de l'ensemble des TGE.

Mais le Conseil ne s'est pas contenté de ce rôle de conseil et a joué un rôle de filtre actif ou passif vis-à-vis des projets de TGE 1 . En tant que filtre actif, le Conseil a contribué à la révélation des besoins en rayonnement synchrotron 2 . En tant que filtre passif, le Conseil s'est contenté de prendre note des décisions intervenues dans le spatial, compte tenu de la structuration très en avance de ce secteur, mais a pu requérir des études complémentaires pour d'autres projets non encore arrivés à maturité.

Au demeurant, le Conseil a assumé la lourde charge de recueillir sur le long terme des données chiffrées selon des méthodes stables, en dépit de difficultés techniques considérables tenant à la variabilité des présentations budgétaires ou comptables.

2.2.2. Les limites de la structure

Les limites des résultats obtenus par le Conseil tiennent essentiellement à l'insuffisance de ses moyens, à la définition restrictive de son rôle et à la place floue qu'il a occupée dans le processus d'élaboration des décisions.

Le rapport du Conseil était adressé en direct à près de 180 grands responsables, qui eux-mêmes pouvaient le diffuser, de telle sorte que la plupart des responsables de laboratoires pouvaient en prendre connaissance.

Le rapport n'était toutefois pas imprimé à destination du public.

Le rattachement direct du Conseil au ministre de la recherche a par ailleurs représenté une limite évidente à son activité, ainsi qu'une contrainte difficile à gérer.

C'est ainsi qu'à la suite d'un désaccord du Conseil avec des membres du cabinet, le logo du secrétariat d'Etat a été retiré au document imprimé en 1996. Autre difficulté rencontrée par le Conseil, c'est de devoir aider, à différentes reprises, à la mise en _uvre de réduction de crédits de TGE, ce qui excédait largement ses attributions.

Par ailleurs, l'absence de moyens propres l'a rendu tributaire d'un ministère qui a souvent eu des difficultés à en définir le mode d'emploi.

L'étude des rapports successifs qu'il a établis montre que le Conseil des grands équipements a sans aucun doute effectué un travail utile pour instruire et programmer les projets de TGE.

Son travail a contribué à ce que la politique des TGE soit une réussite, du fait des succès scientifiques et techniques obtenus et des coopérations internationales nouées, dans le respect de contraintes budgétaires fortes.

C'est pourquoi il apparaît fondé de dire que le Conseil a sans aucun doute contribué positivement à la politique de recherche française, dans la limite du rôle qui lui a été confié et des moyens qui lui ont été données.

Malgré l'utilité de son travail, le Conseil a été mis en sommeil en 1996.

3. Le schéma de décision adopté par la direction de la recherche pour les TGE

Après cette mise en sommeil en 1996 et finalement la suppression du Conseil des grands équipements, quelle est la procédure qui a été utilisée pour les très grands équipements ?

Il est difficile d'établir sur le début de la période suivante un schéma de décision. On peut toutefois examiner le cas du projet de synchrotron SOLEIL qui traverse toute la période allant de 1989 à 2000 et qui constitue un test en vraie grandeur des anciennes procédures et des prémisses du système actuel.

Au delà de cet exemple, il convient surtout d'examiner les premiers pas et les projets des nouveaux processus de décision adoptés par la direction de la recherche.

3.1. Rappel : l'instruction du dossier SOLEIL et la décision sur le projet

Un retour sur les mécanismes administratifs et politiques relatifs aux avatars du projet SOLEIL doit être fait pour déterminer si la collectivité a bénéficié d'un processus de décision optimal.

Le calendrier des travaux scientifiques et administratifs est indiqué dans le tableau suivant.

Tableau 1 : Chronologie du projet SOLEIL - Avis et Décisions des différentes instances compétentes

1989

rapport annuel

- rapport du Conseil des grands équipements : " la communauté scientifique des utilisateurs devrait mener une réflexion approfondie sur ses besoins lorsque l'ESRF [alors en construction] fonctionnera de manière régulière et avec son niveau d'équipement définitif "

1990

rapport annuel

- rapport du Conseil des grands équipements : " le Conseil a pris bonne note qu'un Comité de prospective est en cours de constitution pour examiner la pertinence du maintien d'une source nationale de rayons X et les mesures à prendre en conséquence "

1992

rapport annuel

- rapport du Conseil des grands équipements : " l'amplification des recherches utilisant le rayonnement synchrotron [se produit] à un rythme tel qu'il faut prévoir un doublement des projets et d'utilisateurs environ tous les 5 ans alors que les possibilités expérimentales du LURE seront dépassées avant la fin du siècle et qu'une part importante de la communauté français ne sera pas servie par l'ESRF "

1993

rapport annuel

- rapport du Conseil des grands équipements : " L'intérêt pour la communauté scientifique française d'avoir accès à une machine comme SOLEIL ne semble guère faire de doute. Le problème très difficile est celui du financement. Le Conseil attend donc des organismes concernés des propositions précises explorant toutes les possibilités ".

1994

rapport annuel

- rapport annuel du Conseil des grands équipements : " Le Conseil confirme l'intérêt scientifique du projet examiné par le précédent Conseil et en conséquence recommande la création d'un comité de pilotage " .

19 octobre

- diagnostic de Pierre AIGRAIN, Président du Conseil des grands équipements, adressé en son nom propre au ministre de la recherche : " il m'apparaît que la décision de construire SOLEIL devra intervenir un jour mais que ce jour, sauf résultats défavorables de l'audit technique de l'injecteur [du Lure] se situe dans la fourchette de deux à cinq ans " .

26 octobre

- demande par le ministre de la recherche d'une étude plus poussée de la durée de vie des installations actuelles

1995

rapport annuel

- rapport du Conseil des grands équipements : " le Conseil confirme l'intérêt scientifique du projet. Le dossier technique d'avant projet sommaire apparaît suffisamment avancé aujourd'hui pour pouvoir lancer un avant projet détaillé "

1996

20 février

- demande adressée par le secrétaire d'Etat à la recherche au CEA et au CNRS de faire procéder à l'étude détaillée du projet SOLEIL

Tableau 2 : Chronologie du projet SOLEIL - Avis et Décisions des différentes instances compétentes (suite et fin)

1996

mars

- avis favorable du Conseil des très grands équipements au lancement de SOLEIL : " Le Conseil approuve sans réserve le plan présenté conjointement par le CNRS et le CEA "

2 mai

- signature par le CEA et le CNRS d'une convention de 3 ans en vue de la réalisation de l'Avant Projet Détaillé de SOLEIL

30 juin

- non-renouvellement et mise en sommeil du Conseil des grands équipements

1997

3 mars

- rapport favorable du comité stratégique formé par le Secrétaire d'Etat à la recherche pour préciser divers points relatifs au projet SOLEIL.

30 mai

- Note du Secrétaire d'Etat à la recherche au Directeur général de la recherche et de la technologie - objet : procédure de lancement du projet SOLEIL : " en avril dernier, le dossier a été transmis au Premier ministre avec avis favorable du Secrétariat d'Etat à la Recherche quant à la faisabilité du projet et ses conditions de financement. La décision prise n'a pu être rendue publique sur-le-champ, du fait de la campagne électorale qui débutait. Celle-ci s'achevant aujourd'hui , je puis vous confirmer officiellement la décision du Premier Ministre, qui vaut accord de principe pour la construction du synchrotron SOLEIL pour un coût total n'excédant pas 1,350 milliard de francs HT, avec une participation de moitié des collectivités locales. Après cette première étape, il convient désormais d'instruire le dossier de la sélection du site. "

novembre

- remise au ministre chargé de la recherche d'un dossier justifiant l'APD et en donnant les grandes lignes

1998

mars

- rapport du Conseil supérieur de la recherche et de la technologie (CIRST) : " parmi les TGE scientifiques, le projet SOLEIL doit être considéré, dans l'état actuel du dossier, comme hautement prioritaire "

1999

juin

- remise de l'avant projet détaillé de SOLEIL

- 2 août

- annonce par le ministre de l'éducation nationale, de la recherche et de la technologie, de l'abandon du projet SOLEIL, au profit d'une participation dans le projet d'origine britannique DIAMOND

17 novembre

- saisine du Bureau de l'Assemblée nationale par le groupe communiste en vue de faire réaliser par l'Office parlementaire d'évaluation des choix scientifiques et technologiques une étude sur les conditions techniques d'implantation du projet SOLEIL

2000

15 mars

- rapport de MM. Christian CUVILLIEZ, Député de Seine-Maritime et de M. René TREGOUET, Sénateur du Rhône , au nom de l'Office parlementaire d'évaluation des choix scientifiques et technologiques indiquant que " il est indispensable de décider clairement et sans délai la construction d'un synchrotron national "

3 avril

- annonce de la réouverture du dossier SOLEIL par le ministre de la recherche

11 septembre

- décision de construction d'un synchrotron de 3 ème génération en France, sur le plateau de Saclay (Essonne).

Ainsi donc, il se sera écoulé 11 ans entre la détection d'un besoin potentiel de la recherche française et la décision de construire le synchrotron de 3 ème génération SOLEIL.

La période d'émergence puis de mise au point du projet SOLEIL s'étend de 1989 à mai 1997. Cette période est entrecoupée par le changement de majorité parlementaire de 1993.

Mais le projet continue sa définition et un avant-projet détaillé (APD) est mis au point 3 .

Le processus aboutit à une décision positive de construction le 30 mai 1997.

Suite au changement de majorité parlementaire, s'étend ensuite une période de non-décision, de juin 1997 à juillet 1999.

Le 2 août 1999, l'abandon du projet est annoncé, sur la base de rapports et d'avis non intégralement rendus publics et sans qu'un processus de réévaluation de l'APD n'ait été conduit.

Une période de lutte contre la décision ministérielle débute alors.

Les critiques de la communauté scientifique contre cette décision apparaissent suffisamment fondées au groupe communiste de l'Assemblée nationale pour qu'il saisisse le Bureau de cette Assemblée afin qu'une étude soit réalisée par l'Office parlementaire d'évaluation des choix scientifiques et technologiques.

Le rapport correspondant est réalisé entre le 15 décembre 1999, date de l'adoption de l'étude de faisabilité par l'Office et le 15 mars, date de publication de l'étude qui conclut à la nécessité de construire sans délai un synchrotron national.

Nommé ministre de la recherche le 27 mars 2000, le nouveau ministre de la recherche, M. Roger-Gérard SCHWARTZENBERG annonce la réouverture du dossier synchrotron, le 5 mai suivant.

Le 11 septembre 2000, le ministre annonce la construction de SOLEIL sur le plateau de Saclay, avec une participation décisive de la région Ile-de-France et du département de l'Essonne.

3.2. Le nouveau schéma de décision tel qu'explicité par la direction de la recherche

Le Conseil des très grands équipements avait achevé son travail sur le projet SOLEIL lorsque la décision positive de le construire a été prise le 30 mai 1997.

Le changement de majorité parlementaire se produit donc alors que le projet dispose d'un dossier achevé et d'une décision positive de lancement.

L'approche de la question des TGE adoptée par le nouveau ministre chargé de la recherche est différente. Il s'agit de privilégier le soutien aux laboratoires et aux équipes de jeunes chercheurs, le financement des TGE apparaissant comme antinomique des mesures visant cet objectif.

Depuis lors, la doctrine de la direction de la recherche s'applique à intégrer les TGE aux mécanismes de décision généraux de la recherche.

Dans une communication écrite faite aux Rapporteurs le 19 juin 2000 après son audition du 17 mai 2000, le Directeur de la recherche a indiqué le schéma retenu à cette date. L'encadré suivant indique l'architecture du système.

" Une fois le sujet [...] des TGE resitué dans une véritable politique scientifique, la procédure importe. Celle que nous avons retenue part de l'expression des priorités scientifiques par le CIRST [Conseil interministériel de la recherche scientifique et technologique]. Quand un besoin de grand équipement se présente alors dans ce cadre et qu'il correspond bien aux priorités définies par le CIRST, il convient d'en estimer le coût complet et d'en envisager la réalisation avec des partenaires européens. Le concept, ravivé par le gouvernement français au moment de prendre la présidence de l'UE et par le commissaire Busquin, de la `géométrie variable' (ou `coopération renforcée') est pour cela un outil privilégié.

" Dans la mesure où il est dangereux d'isoler le problème des TGE de leur cadre scientifique, il n'y a pas lieu que la procédure qui permet de les traiter soit isolée du reste. Elle doit impliquer les organismes de recherche et leurs conseils (notamment CNRS, CEA, CNES) et les comités de coordination qui se mettent en place au ministère de la recherche depuis 1998 et pourraient être à ce titre étoffés et complétés (Sciences du Vivant, Sciences de la Planète et Environnement, Matériaux, Sciences et Technologies de l'Information et de la Communication, Sciences humaines et sociales). Responsables d'organismes concernés et chercheurs éminents nommés intuitu personae s'y retrouvent.

" Du point de vue financier, un TGE est un investissement pluriannuel, qui doit en général être réalisé par redéploiement ou dans le cadre d'une augmentation raisonnable du budget (c'est le principe d'une enveloppe globale en équilibre, où les projets en voie d'achèvement laissent la place à des projets nouveaux). Le problème se règle alors au niveau interministériel classique (ce sera le cas pour la seconde machine de rayonnement synchrotron de 3 ème génération à implanter sur le territoire français). "

Pour la direction de la recherche, la question des TGE ne saurait donc être traitée indépendamment de la politique scientifique générale.

Le c_ur de la décision dans le domaine des orientations de la recherche appartient au Comité interministériel de la recherche scientifique et technologique (CIRST).

On trouvera ci-après un schéma des instances intervenant dans les décisions fondamentales de la recherche et donc en particulier sur les TGE.

Figure 2 : Organigramme simplifié des instances participant aux décisions en matière de politique de la recherche

Président de la République

Premier ministre

Comité de coordination des sciences de la planète et de l'environnement

Comité consultatif du développement technologique

Le Comité interministériel de la recherche scientifique et technologique, qui s'est réuni à deux reprises, le 15 juillet 1998 et le 1 er juin 1999, pour fixer les grandes orientations de la recherche, voit ses réunions préparées par un rapport biennal de l'Académie des sciences, par le Conseil national de la science, et par le comité stratégique pour l'enseignement supérieur et la recherche.

La procédure qui permet de traiter des TGE implique les organismes de recherche et leurs conseils (notamment CNRS, CEA, CNES).

Cette procédure implique également les comités de coordination où se retrouvent responsables d'organismes concernés et chercheurs nommés intuitu personae.

Selon la direction de la recherche, le problème des TGE doit se régler au niveau interministériel classique, du point de vue financier.

Tel est le processus de décision que la direction de la recherche entend utiliser pour les très grands équipements fondamentalement intégrés à l'ensemble des décisions à prendre pour la recherche.

4. Les interrogations sur le système de décision prévu pour les TGE

L'intégration des TGE au processus de décision général de la recherche se produit à un moment où le ministère renforce ses structures afin de progresser dans sa capacité d'impulsion de la science française.

Le système décrit représente un vaste chantier qui n'a pas encore subi, à de multiples égards, l'épreuve des faits.

Différents écueils semblent à éviter.

4.1. La recentralisation et la multiplication des instances de conseil

Le renforcement des capacités d'analyse et de proposition du ministère va sans aucun doute dans le sens d'une efficacité accrue de l'action publique.

La question qui est toutefois posée est bien évidemment d'éviter qui ne se produise une " recentralisation " , c'est-à-dire la remontée au niveau du ministère de questions qui devraient être traitées directement par les organismes de recherche eux-mêmes.

Un doublonnement et une compétition inutile pourraient en effet surgir entre les directions de programme de la direction de la recherche et les directions de département du CNRS et du CEA.

Par ailleurs, on peut se demander si certaines des instances existantes n'auraient pas pu jouer les rôles de conseil, de consultation, voire de coordination confiés aux comités de coordination.

La création par voie réglementaire d'instances consultatives nouvelles est une tendance des années récentes. Le Conseil national de la science a été créé en 1998, le Conseil national pour un nouveau développement des sciences humaines et sociales en 1999.

Ces nouvelles structures sont venues s'ajouter au Conseil supérieur de la recherche et de la technologie, créé par la loi d'orientation et de programmation de la recherche et du développement technologique de la France, en date du 15 juillet 1982.

Mais la démultiplication des instances de conseil ne doit pas constituer un objectif en soi.

4.2. La consultation démocratique et la transparence

On peut se demander si la procédure prévue pour les TGE, telle qu'elle a été présentée à vos Rapporteurs, offre les garanties de consultation, de transparence et d'appel indispensables que la communauté scientifique est en droit d'attendre.

En effet, il est prévu que l'instruction d'un projet de TGE et en particulier le calcul indispensable de son coût complet ne seront réalisés que dans la mesure où " il correspond bien aux priorités définies par le CIRST " .

La notion de correspondance aux priorités nécessite à l'évidence une explicitation et la définition de critères précis, une entreprise au demeurant malaisée, du fait de la complexité des liens entre disciplines et de l'existence de technologies d'utilité transversale.

Dans ce schéma, on remarque à l'évidence l'importance critique des instances qui posent le diagnostic d'adéquation du projet aux priorités définies par le CIRST.

Au vrai, la procédure doit impliquer " les organismes de recherche et leurs conseils et les comités de coordination qui se mettent en place au ministère chargé de la recherche depuis 1998 " .

On peut s'interroger à cet égard sur ce que recouvre le terme " coordination " et quels sont les pouvoirs dévolus aux comités correspondants.

Par ailleurs, la question de la nomination des membres des comités de coordination doit être résolue dans la transparence en précisant quelle est l'instance de nomination et la procédure suivie, ainsi que les critères de représentativité utilisés.

Enfin, il convient de prévoir une instance d'appel ou une procédure de recours, voire une possibilité de deuxième présentation d'un dossier de TGE en cas d'avis négatif donné par l'assemblée visée, de manière à éviter un enlisement sans justification d'un projet intéressant.

5. Les voies d'une amélioration

5.1. La cohérence en terme d'aménagement du territoire

L'implication des régions dans le financement des investissements de recherche a connu un spectaculaire développement avec le projet de synchrotron SOLEIL. Leur intervention n'est toutefois pas nouvelle.

Il s'agit là d'une question clé pour l'avenir. Une réelle prise de conscience existe dans les populations de l'effet d'entraînement considérable exercé par les universités et les centres de recherche, et en particulier par les très grands équipements. Il est très vraisemblable que l'action offensive des régions en la matière s'accélérera dans les années à venir.

Plusieurs conditions sont à réunir pour tirer le meilleur parti possible de ces efforts accrus des régions.

La première condition a trait à la reconnaissance du rôle des investissements de recherche comme facteur décisif d'aménagement du territoire.

La deuxième condition est relative à la coordination nationale des efforts, de façon que les inégalités ne se creusent pas entre régions.

La troisième condition a trait à la transparence et au contrôle démocratique des choix effectués.

La quatrième condition a trait à l'extension du rôle des régions, de façon qu'elles puissent non seulement participer aux investissements, comme c'est le cas actuellement, mais qu'elles puissent également participer aux dépenses de fonctionnement des TGE, ce qui leur est interdit pour le moment.

5.1.1. Le nouvel élan des régions, tel que le projet SOLEIL l'a révélé

S'agissant de l'implication des régions dans les TGE, on citera deux exemples, celui du GANIL et celui de SOLEIL.

La région Basse-Normandie contribue en 2000 au budget du GANIL (Grand accélérateur national d'ions lourds) de Caen, pour un montant de 1,5 million de francs sur un budget total de fonctionnement et d'investissement de 52 millions de francs, soit une part de 2,9 %.

S'agissant du projet de synchrotron SOLEIL, onze régions ont témoigné leur intérêt pour l'implantation, certaines s'étant par la suite regroupées pour finir à 9 : Alsace, Aquitaine/Midi Pyrénées/Limousin, Basse Normandie, Champagne-Ardenne, Centre, Ile-de-France, Lorraine, Nord-Pas-de-Calais, Provence-Alpe-Côte d'Azur.

Le ministre de la recherche a indiqué avoir effectué son choix en faveur de l'Ile-de-France, sur la base des trois critères principaux non financiers que sont la qualité du site, la facilité d'accès et l'environnement scientifique.

Il faut toutefois noter que l'Ile-de-France avec le Conseil général de l'Essonne, ainsi que la région Basse-Normandie se sont engagées chacune sur une participation de 1,2 milliard de francs, tandis que l'ensemble Aquitaine-Midi-Pyrénées-Limousin envisageait de faire de même et que le Nord-Pas-de-Calais se déclarait prêt à participer au niveau souhaité par l'Etat.

Un autre élément a vraisemblablement pesé en faveur de l'Ile-de-France, c'est le ralliement à sa candidature de la région Centre et de la région Lorraine.

5.1.2. Les TGE, des instruments d'aménagement du territoire parmi d'autres

Certains observateurs ont pu souligner dans le passé l'audace de la décision d'implanter le Grand accélérateur national d'ions lourds (GANIL) à Caen, alors que la région de Basse Normandie était peu ou mal dotée en infrastructures de recherche ou d'enseignement supérieur.

Mais cet exemple montre précisément que des effets d'entraînement importants ont eu lieu sur les environs de Caen et la région Basse Normandie.

Peut-on opérer un investissement de ce type dans une zone géographique non déjà pourvue d'un tissu scientifique et industriel dense ?

Cette question mérite d'être approfondie.

Dans le tome I du présent rapport consacré aux conditions d'implantation d'un nouveau synchrotron, vos Rapporteurs avaient énoncé parmi les différents critères à utiliser pour le choix du lieu d'installation de SOLEIL, les critères suivants :

1. Des dessertes nationales et internationales de qualité

2. Une implantation au c_ur d'une zone de recherche existante ou en création

3. Un projet s'intégrant dans un plan d'ensemble pour les moyens d'analyse à la disposition de la recherche publique et privée

A cet égard on peut estimer que le choix de la région Ile-de-France pour l'implantation de SOLEIL est cohérent avec ces trois critères énoncés par vos Rapporteurs.

Pour autant, il ne faudrait pas en conclure que vos Rapporteurs se soient prononcés en faveur d'un déséquilibre croissant entre les régions déjà pourvues en moyens scientifiques et industriels et celles qui n'ont que le projet de changer leur spécialisation en faveur de productions à plus forte valeur ajoutée.

C'est pourquoi vos Rapporteurs avaient indiqué que l'implantation de SOLEIL devait se faire dans une zone de recherche existante ou en création .

En réalité, la notion essentielle semble bien être la masse critique des investissements opérés.

Au plan scientifique, l'exemple de l'EMBL et de son antenne de Grenoble montre qu'il se produit un effet de boule de neige.

D'une part, c'est précisément en raison de la présence à Grenoble de l'ILL que l'EMBL y a implanté en 1976 un laboratoire spécialisé dans la biologie structurale. C'est d'autre part en raison de la présence supplémentaire de l'ESRF, décidé en 1988 et opérationnel en 1994, et en raison de l'excellence de ce synchrotron de 3 ème génération que l'antenne de Grenoble de l'EMBL a été chargée de conduire en exclusivité les actions de post-génomique de l'EMBL dans le développement d'instruments pour la cristallographie des protéines.

L'accumulation d'instruments d'analyse et l'excellence de ceux-ci se sont révélés déterminants pour Grenoble, puisque aussi bien l'antenne de l'EMBL à Hambourg se situait, elle aussi, à proximité du synchrotron Hasylab de DESY, celui-ci étant toutefois une machine de 2 ème génération.

Toute la question d'aménagement du territoire se résume finalement à l'ampleur des investissements pratiqués dans un laps de temps réduit, selon un plan d'ensemble et avec une masse critique suffisante.

5.1.3. La coordination des efforts des régions dans les investissements de recherche

La loi n° 85-1376 du 23 décembre 1985 relative à la recherche et au développement technologique a prévu que " les régions sont associées à l'élaboration et à l'évaluation de la politique nationale de la recherche et de la technologie et participent à sa mise en _uvre. A cet effet, le ministre chargé de la recherche et de la technologie réunit une conférence annuelle regroupant notamment les présidents des conseils régionaux, les présidents des comités consultatifs régionaux de recherche et de développement technologique, des responsables d'organismes publics de recherche ainsi que des responsables d'entreprises publiques et privées et des représentants de la recherche universitaire. La conférence annuelle donne lieu à un débat sur les orientations de la politique nationale de recherche et sur les plans de localisation des organismes publics de recherche. Elle examine les implications au niveau régional de ces orientations et leur articulation avec les programmes d'initiative régionale " .

Peut-on pour autant poser la question de la légitimité de l'intervention de l'Etat dans le choix d'une région de consacrer des crédits à l'investissement dans la recherche ?

En tout état de cause, il appartient bien à l'Etat de veiller à l'optimisation des investissements faits sur le territoire, quelle que soit l'origine -nationale ou locale - des ressources fiscales qui en permettent le financement.

Cette optimisation porte sur la nécessité d'éviter aussi bien les doublons que les investissements ne répondant pas à une demande avérée.

C'est naturellement ce qu'a prévu la loi n° 99-533 du 25 juin 1999 d'orientation pour l'aménagement et le développement durable du territoire.

Après que le 11 ème Plan a été abandonné, la démarche de planification nationale a été réformée en profondeur par la loi du 4 février 1995 créant le Schéma national d'aménagement et de développement du territoire (SNDAT), dont la vocation était de donner un cadre national à l'action de l'Etat et aux Contrats de Plan, ces derniers étant le seul élément de planification restant dans notre pays.

Parmi ces contrats de plan figurent notamment les contrats de plan Etat-régions.

En tout état de cause, la loi du 25 juin 1999 comprend des dispositions permettant la mise en _uvre de la loi d'orientation de 1982.

Mais la loi n° 99-533 du 25 juin 1999 a également substitué au schéma national d'aménagement et de développement du territoire, huit schémas de services collectifs, et a introduit les schémas régionaux d'aménagement et de développement du territoire, les nouveaux contrats de plan Etat-régions étant établis pour une période de 7 ans sur la période 2000-2006.

Parmi les huit schémas de services collectifs, figure le schéma de l'enseignement supérieur et de la recherche, dont l'article 12 de la loi définit les objectifs et les moyens. La notion de répartition équilibrée des services d'enseignement supérieur et de recherche sur le territoire national est explicitement visée.

Dans quels délais les dispositions de la nouvelle loi seront-elles opérationnelles ?

La loi dispose que le décret adoptant les premiers schémas de services collectifs devra être publié au plus tard le 31 décembre 1999.

Pour autant l'ambition de ces schémas n'est pas faible puisque, selon l'article 11 de la loi du 25 juin 1999, " les schémas de services collectifs sont élaborés par l'Etat dans une perspective de vingt ans en prenant en compte les projets d'aménagement de l'espace communautaire européen. Leur élaboration donne lieu à une concertation associant les collectivités territoriales les organismes socio-professionnels, les associations et les autres organismes [concourant à l'aménagement du territoire] ".

En outre, deux ans avant l'échéance des contrats de plan Etat-régions, c'est-à-dire avant 2004, le Gouvernement soumettra au Parlement un projet de loi relatif aux orientations stratégiques de la politique d'aménagement et de développement durable du territoire national.

Où en est la procédure complexe d'élaboration des schémas de service collectifs et en particulier de celui qui porte sur l'enseignement supérieur et la recherche  ?

Le tableau suivant indique l'état d'avancement des différentes procédures prévues par la loi.

Tableau 3 : les différentes étapes de l'élaboration des schémas de services collectifs

niveau

nature

calendrier

national

document de cadrage fixant les priorités de l'Etat

étape achevée mi 1999

régions

- identification de priorités des régions compatibles avec les priorités de l'Etat

- définition des objectifs d'amélioration des services collectifs

- étape achevée début 2000

national

- élaboration d'un document final unique composé d'une vision prospective à l'horizon 2020 et de l'ensemble des schémas collectifs

- étape achevée en juillet 2000

national

- adoption des projets de schémas de services collectifs par le Gouvernement

26 octobre 2000

régions

- consultation des régions et des conférences régionales d'aménagement et de développement du territoire (CRADT)

- novembre 2000 - printemps 2001

national

- examen du document unique complété par les avis des régions

? par le conseil national d'aménagement et de développement du territoire (CNADT) et

? par les délégations parlementaires à l'aménagement et au développement durable du territoire de l'Assemblée nationale et du Sénat

- printemps 2001

national

- rédaction finale des schémas

- juin - juillet 2001

national

- examen des schémas par le Conseil d'Etat

- juillet 2001

5.1.4. L'exhaustivité et la transparence de l'information

Deux démarches de programmation sur la recherche sont en cours, avec d'une part le plan U3M (université du 3 ème millénaire) et d'autre part le schéma de services collectifs de l'enseignement supérieur et de la recherche.

Le plan U3M, financé par l'Etat, les collectivités territoriales et les fonds structurels européens, représente un effort de près de 50 milliards de francs sur la période 2000-2006. Sur ce montant de 50 milliards de francs, les contrats de plan Etat-régions représentent 42 milliards de francs.

On trouvera ci-après la répartition des dépenses.

Figure 3 : Prévisions de financement du plan U3M

Contrats de plan Etat-Régions

(CPER) :

42 mds F

(84 %)

Les orientations nationales du plan U3M en matière de recherche sont indiquées dans le tableau suivant.

Tableau 4 : les orientations nationales d'U3M pour la recherche

? s'appuyer sur des équipes scientifiques locales de qualité faisant l'objet d'évaluations nationales ou internationales positives

? s'insérer dans une carte nationale reposant sur une mise en réseau de quelques pôles : Renater III - Génopoles - Maisons des sciences de l'homme - centres nationaux d'analyse et de caractérisation des matériaux - centres multitechniques d'imagerie médicale - moyens de calcul

? contribuer à une rationalisation et à une mise en cohérence des équipements mi-lourds des laboratoires de recherche

? faire émerger des priorités régionales en créant sur un thème pluridisciplinaire donné des instituts à vocation nationale fédérant des compétences scientifiques existantes dans plusieurs établissements d'enseignement supérieur d'une région et de régions voisines.

L'importance des régions dans la mise en _uvre du plan U3M est manifeste, puisque leurs contributions, dans le cadre des contrats de plan Etat-région (CPER), atteint 23,7 milliards de francs.

Pour autant le plan U3M et le schéma de services collectifs d'enseignement supérieur et de recherche sont deux choses distinctes.

D'après les indications données au Parlement lors de la discussion du projet de loi de finances pour 2001, le projet de schéma de services collectifs de l'enseignement supérieur et de la recherche, construit dans une perspective de long terme, insiste tout particulièrement sur la nécessaire mise en réseau des différents niveaux du système d'enseignement et de recherche. Il s'agit là de l'axe majeur de la stratégie retenue pour l'aménagement du territoire.

Le schéma prévoit le renforcement des centres d'excellence, avec comme objectif une meilleure répartition du potentiel de recherche publique mais le développement des seules régions à dynamique réelle.

Une prime est donc donnée aux régions ayant déjà engagé une démarche active, ce qui peut apparaître à certains observateurs comme étant en contradiction avec la responsabilité de l'Etat de mettre en _uvre une politique active de stimulation des capacités de l'ensemble des zones du territoire afin de remédier aux inégalités de développement.

Au vrai, une seule stratégie semble pouvoir limiter voire réduire les inégalités de développement entre les régions. Ce serait celle de centres d'excellence également répartis sur le territoire, spécialisés pour les régions aux ressources les plus limitées, et avec un nombre de spécialités augmentant en fonction des ressources financières.

Au demeurant, le développement de la nouvelle démarche du plan U3M et du schéma de services collectifs de l'enseignement supérieur et de la recherche, se produit dans un contexte où l'information sur le volet recherche d'U3M et du schéma de services collectifs de l'enseignement et de la recherche souffre de lacunes manifestes.

La répartition des actions d'U3M en ce qui concerne les actions prises en charge par les contrats de plan Etat-Régions (CPER) est indiquée dans le graphique suivant. On remarquera que ces statistiques portent sur 40,2 milliards de francs et non pas sur les 42 milliards de francs indiqués précédemment, la différence provenant de la non-intégration de la totalité des CPER.

Cette répartition est probablement proche du résultat final mais elle n'est qu'approchée.

Figure 4 : Répartition des actions d'U3M relevant des Contrats de Plan Etat-Régions

Selon les seules informations que vos Rapporteurs ont pu obtenir, le poids relatif des opérations concernant la recherche et la technologie dans le total des dépenses des Régions pour U3M, varie de 26,5 % pour la Corse à 57,8 % pour la Picardie. Pour 11 régions, le poids relatif des dépenses de recherche atteindrait ou dépasserait 40 %.

En réponse à une question du Parlement sur les budgets régionaux affectés à la recherche et la technologie, il a été répondu que les ministères de l'éducation nationale et de la recherche ne disposent d'aucune information permettant de connaître les dépenses des régions pour la recherche, sur des bases homogènes et comparables.

Il a même été précisé que même la part de ces budgets inscrite dans les CPER est incertaine, dans la mesure où la répartition des financements entre l'Etat et les régions n'est pas toujours ventilée a priori entre les différentes catégories d'action.

Il semble donc, dans la limite des informations communiquées à vos Rapporteurs, qu'il n'existe pas pour le moment une information centralisée et fiable permettant une discussion approfondie entre l'Etat et les régions.

La mise en place des nouvelles procédures de concertation Etat-Régions constitue à l'évidence une lourde charge pour les pouvoirs publics.

On ne peut que souhaiter qu'un système d'information statistique soit mis en place sans tarder, système indispensable pour l'information et la coordination ex ante , le suivi et le contrôle ex post .

5.1.5. L'extension du rôle des régions

En tout état de cause, la volonté des régions de s'intéresser activement aux très grands équipements, telle qu'elle s'est manifestée pour l'accueil du synchrotron SOLEIL, nécessite l'examen de deux questions essentielles qui portent l'une sur la coopération inter-régionale et l'autre sur la nécessité de repousser les limites actuelles des interventions des régions.

Les très grands équipements d'infrastructure constituent, on l'a vu, dans la deuxième partie du rapport, un élément clé pour la recherche moderne.

Les TGE d'infrastructure comprennent en effet différents types d'équipements dont certains sont en réseau et sont donc à cheval sur plusieurs régions voire même couvrent tout le territoire national.

Ces réseaux sont les réseaux de télécommunications à hauts débits, les réseaux d'observation de l'atmosphère ou de l'environnement, les réseaux de bibliothèques, etc.

L'implication d'une région en particulier dans un TGE d'infrastructure est sans doute moins aisée à obtenir que son implication dans un TGE de percée thématique souvent localisé, dans la mesure où la visibilité de son engagement est moins forte.

Par ailleurs, un projet de TGE exige toujours qu'un leader en prenne la tête. Il est donc nécessaire que les régions mettent en place des possibilités de coopération sur les TGE, en prévoyant des systèmes de responsabilité de conduite d'un projet acceptés par les participants de deuxième ligne.

Un autre aspect fondamental est celui des moyens d'intervention des régions dans le financement de la recherche.

Pour le moment, les régions ne peuvent prendre à leur charge que des dépenses d'investissement dans les TGE. Ceci génère deux difficultés.

En premier lieu, les dépenses de fonctionnement des TGE sont souvent importantes. La perspective pour les organismes de recherche de devoir les prendre totalement à leur charge peut représenter un frein important au développement de projets pourtant nécessaires au développement de la recherche.

En second lieu, les dépenses correspondant à certains TGE d'infrastructures comme les réseaux de télécommunications sont exclusivement des dépenses de fonctionnement, en particulier de locations de lignes et d'équipements à des opérateurs de télécommunications.

La participation des régions à ce type de TGE d'infrastructures est donc impossible dans l'état actuel de la législation.

Il paraît en conséquence indispensable d'apporter des modifications à cet état de chose, en vue d'autoriser, dans certaines limites, les régions à participer aux dépenses de fonctionnement des TGE, et en excluant, le cas échéant et dans un premier temps, les dépenses de personnel.

5.2. La subsidiarité comme principe d'organisation

La subsidiarité est un principe qui a été popularisé par l'Union européenne mais qui est d'une valeur générale en matière de management.

La subsidiarité consiste à ce que le " haut " ne se saisisse que de ce qui ne peut être fait par le " bas " avec l'efficacité requise.

Ce principe doit être appliqué aux procédures relatives aux TGE.

La classification des TGE en trois catégories que propose vos Rapporteurs révèle encore une fois son intérêt.

Au plan géographique et fonctionnel, on distingue quatre niveaux d'intervention : les régions, les ministères, les autres pays et l'Union européenne, les pays non européens.

Les trois catégories de TGE sont, rappelons-le, les TGE de percée thématique , les TGE d'infrastructure et les TGE de grand programme .

Quels sont les niveaux de responsabilité concernés par ces différents types de TGE ?

Les TGE de percée thématique ont comme intervenants de premier rang les organismes de recherche eux-mêmes tant en ce qui concerne la décision que les financements.

Figure 5 : Schéma de décision et de financement des TGE de percée thématique

Seuls les scientifiques sont en effet à même de déterminer si un TGE de percée thématique est indispensable pour conquérir un nouveau territoire de connaissances, et si ce type d'investissement est préférable à d'autres investissements dans des moyens expérimentaux lourds ou mi-lourds, par exemple.

Seule la communauté scientifique est à même d'apprécier les conséquences du choix d'un TGE sur l'orientation et l'organisation de la discipline.

Les organismes de recherche, en permanence en contact avec les communautés scientifiques étrangères, engagent naturellement et spontanément des coopérations avec d'autres pays, européens ou non européens pour partager leurs savoir faire et leurs coûts.

Le rôle de l'Etat est de faciliter la réalisation du TGE et de contribuer à son financement.

Le fait que l'horizon des TGE soit le long terme, représente un argument de plus pour la subsidiarité et l'attribution des responsabilités en la matière aux organismes de recherche assurés d'une continuité supérieure à celle des responsables de l'exécutif.

Par ailleurs, la région d'accueil, si toutefois il y en a une, a un rôle de financement, compte tenu des retombées scientifiques et économiques, mais seulement de second rang.

La situation est légèrement différente en ce qui concerne les TGE d'infrastructure .

Les organismes de recherche sont les intervenants de premier rang mais les régions doivent l'être également.

Figure 6 : Schéma de décision et de financement des TGE d'infrastructure

Les coopérations internationales ou européennes sont alors utiles mais facultatives.

L'Etat intervient en tant qu'incitateur, coordinateur et financeur, et prend en compte les impératifs de l'aménagement du territoire.

Deux questions sont essentielles à cet égard : c'est la coordination des grandes structures de la recherche entre elles, des régions entre elles et la coordination des instances de recherche avec les régions.

Le schéma de décision et de financement est encore différent pour les TGE de grand programme .

Les TGE de grand programme correspondant à la " commande " d'une recherche d'utilité sociale directe, les intervenants de premier rang sont l'Etat avec ses différents ministères, l'Union européenne, les pays européens impliqués dans une coopération renforcée et éventuellement d'autres pays étrangers.

Les grands organismes de recherche exécutent les commandes de ces intervenants et n'ont donc qu'une charge de financement accessoire. De même, seule la région d'accueil éventuel du TGE de grand équipement participe au financement, du fait des retombées.

Figure 7 : Schéma de décision et de financement des TGE de grand programme

Une fois déterminés les niveaux de responsabilité, il convient de déterminer les procédures, en particulier pour l'émergence des projets de TGE.

5.3. Le processus d'émergence, d'instruction des projets, d'appel et de suivi

On distingue classiquement deux processus pour l'émergence des projets de toute nature, les processus " Bottom Up " et les processus " Top Down " .

Les processus " Bottom Up " sont initiés par la base qui assure la formulation et l'instruction des projets et confie à une institution représentative la responsabilité de la décision. Les processus " Top Down " sont initiés par le sommet qui, en fonction des impératifs de la collectivité qu'il administre, décide la réalisation d'un projet et mobilise ensuite la base afin de le réaliser.

Les TGE de percée thématique et les TGE d'infrastructure doivent être des projets " Bottom Up " , résultant de l'initiative des chercheurs.

La décision de lancement appartient aux organismes de recherche, qui prennent la décision éventuelle de lancement d'un TGE sur la base d'une analyse de leurs besoins scientifiques.

Figure 8 : Processus de décision pour les TGE de percée thématique et

les TGE d'infrastructure

TGE de percée thématique, TGE d'infrastructure

Le rôle de l'Etat est de donner un avis aux organismes de recherche, de s'assurer de la qualité de la coordination des organismes entre eux et d'aider au financement le cas échéant.

La fonction de conseil, d'aide à la décision et d'évaluation doit alors être assumée par un organe indépendant dont les avis éclairent aussi bien le ministère que les organismes de recherche eux-mêmes.

Les TGE de grand programme procèdent d'une démarche " Top Down " .

La décision de lancer un TGE de grand programme émane des pouvoirs publics, pour répondre à un besoin de la société. L'Etat assure le financement et mobilise en conséquence la communauté scientifique.

L'organe indépendant de conseil et d'évaluation éclaire les pouvoirs publics sur l'opportunité de réaliser ce TGE et les organismes de recherche sur les moyens de le mettre en _uvre.

Figure 9 : Processus de décision pour les TGE de grand programme

TGE de grand programme

En tout état de cause, il paraît indispensable qu'un organe d'étude, de conseil et d'évaluation prenne en charge, dans un cadre renouvelé et surtout amélioré sur le plan institutionnel, les tâches de consolidation des besoins, de suivi dans le temps des projets et d'évaluation des TGE.

La mise en sommeil puis la suppression du Conseil des grands équipements n'a évidemment pas fait disparaître ces nécessités fonctionnelles impératives pour la recherche française.

5.4. Les questions de financement

L'application souhaitable du principe de subsidiarité pour les TGE suppose évidemment l'établissement de " règles du jeu " parfaitement claires.

Les TGE de percée thématique et les TGE d'infrastructure doivent rester du ressort des organismes de recherche, tant pour la décision que pour l'exploitation.

Il convient en conséquence que les conditions d'un financement pluriannuel régulier soient mises en place pour ces organismes.

Les contrats des tutelles, c'est-à-dire l'Etat, avec ces organismes pour une période de 4 ans, représentent une amorce de solution mais ne répondent pas à la totalité du problème, dans la mesure où la construction d'un TGE s'étale sur une période de 5 années en moyenne avec une exploitation sur une période de 15 à 20 ans.

Un dispositif complémentaire doit donc être mis en place, à savoir une loi de programmation (voir ci-après).

S'agissant des TGE de grand programme, l'impulsion venant de l'Etat, celui-ci doit s'engager à financer le TGE sur une longue période dépassant bien entendu les durées d'engagement actuellement connues.

5.5. L'évaluation

Par ailleurs, une évaluation continue doit être mise en place, pour s'assurer que l'exploitation de chacun des TGE donne satisfaction à la fois sur le plan scientifique et économique.

La question de l'évaluation de la recherche a été posée dans des termes généraux par le ministre de la recherche.

Dans sa conférence de presse du 4 mai 2000, le ministre de la recherche, M. Roger-Gérard SCHWARTZENBERG, consacrait un long développement à l'amélioration jugée nécessaire de l'évaluation. Il soulignait la nécessité de " jouer cartes sur table " , comme pour l'enseignement supérieur et indiquait que " aujourd'hui l'évaluation de la recherche présente un caractère complexe et multiforme, résultant surtout de la multiplicité des instances d'évaluation : conseils scientifiques par département, commissions scientifiques spécialisées des grands organismes de recherche (ex : Comité national de la recherche scientifique au CNRS), le Comité national d'évaluation de la recherche (CNER), créé en 1989, voire le Conseil supérieur de la recherche et de la technologie (CSRT), etc. " .

Le ministre ajoutait : " il serait souhaitable de créer, surtout pour l'évaluation stratégique des établissements, une structure nouvelle qui pourrait reprendre les missions du Comité national d'évaluation des établissements publics à caractère scientifique, culturel et professionnel (CNE) créé en 1985 et du CNER actuels, en les fusionnant dans un Comité national d'évaluation des établissements d'enseignement supérieur et des organismes de recherche " .

S'agissant des TGE, on peut se demander si leur technicité et la nécessité de combiner une approche scientifique et économique ne requiert pas un organisme spécialisé, constituant éventuellement une partie d'un organisme à vocation plus large.

L'évaluation des TGE doit se faire sur la base des coûts complets, mais doit aussi porter sur l'impact de l'équipement, sur la compétitivité économique et intégrer les avantages et les inconvénients d'une coopération internationale éventuelle.

Une évaluation de qualité suppose évidemment que les instruments comptables indispensables existent non seulement dans les structures en charge directe des TGE mais également dans les établissements publics de recherche. Ces éléments existent mais nécessitent sans doute d'être améliorés comme l'a noté le récent rapport de l'Inspection générale des finances et de l'Inspection générale de l'administration de l'éducation nationale et de la recherche 4 .

On peut souhaiter à cet égard la mise en place d'une tarification réelle ou virtuelle des usages, de façon à mieux faire participer les entreprises et les utilisateurs étrangers au financement des installations.

5.6. Le choix d'une des institutions existantes pour le conseil et l'évaluation des TGE

Différentes institutions interviennent à l'étranger sur les TGE. Certaines d'entre elles présentent un intérêt évident, comme le Wissenschaftsrat ou le CRLC , tout en présentant des différences fondamentales.

L'Allemagne dispose du Wissenschaftsrat , Conseil scientifique de la République fédérale d'Allemagne, composé de 32 membres nommés pour 5 ans, à plein temps, par le Président de la République. Indépendance morale et financière, d'une part, et prestige, d'autre part, sont attachés à cet organisme dont les décisions sont unanimement respectées.

Parmi ses différentes compétences, le Wissenschaftsrat examine les projets d'investissement des universités, des centres de recherche et des hôpitaux et délivre un avis qui s'impose à tous.

Tout projet de TGE doit obtenir l'aval du Wissenschaftsrat avant de pouvoir progresser au sein des administrations de la recherche, qu'elles soient fédérales ou locales.

Le CRLC (Central Laboratory for Research Councils) intervient au Royaume-Uni selon un tout autre principe. Il s'agit d'un organisme à qui revient la responsabilité de construire et de gérer les TGE. Le CRLC, comme son nom l'indique, est au service des organismes de recherche, à qui il facture ses prestations. Le CRLC n'engage donc un projet que s'il correspond à une demande et est assorti des financements correspondants par les futurs utilisateurs.

Les avis sur l'efficacité de cette organisation sont partagés. Les uns reconnaissent au CRLC une contribution essentielle à une bonne gestion des TGE. Les autres observent que l'articulation entre le CRLC et les Research Councils, d'une part, et l'articulation entre les Research Councils et les organismes de recherche, d'autre part, s'effectuent très difficilement et génèrent des retards considérables, dont on trouve un exemple dans les difficultés rencontrées pour la mise au point du projet de synchrotron de 3 ème génération DIAMOND.

Il reste que la France ne dispose d'aucun organisme comparable ni au Wissenschaftsrat ni au CRLC et que la multiplicité des structures existant en France dissuade d'en proposer et même d'en imaginer une seule autre.

Pour conseiller le Gouvernement sur les TGE, le choix est donc entre confier cette mission à l'une des institutions existantes ou à un regroupement de celles-ci, dans la mesure où il ne paraît pas souhaitable d'en créer une nouvelle.

Au reste, pour mettre en place un nouveau système de conseil et de suivi sur les TGE, il convient de partir des fonctionnalités à obtenir.

Parmi ces fonctionnalités, et sans que cela constitue en rien une liste exhaustive, on peut citer toutefois, d'une part la permanence pour embrasser un horizon de temps long correspondant à la durée de vie des TGE, d'autre part l'indépendance pour résister à toutes les pressions d'où qu'elles viennent, par ailleurs la technicité à la fois dans le domaine scientifique et dans le domaine financier, et enfin l'autorité pour obtenir sans difficulté les informations désirées et pouvoir auditionner tous les chercheurs et tous les responsables de la recherche quels qu'ils soient.

Il revient bien entendu aux pouvoirs publics de déterminer laquelle parmi les instances existantes est la plus à même d'évoluer pour assumer les fonctionnalités indispensables.

5.7. La continuation du rôle du Parlement pour le recours et une supervision en fonction des besoins

S'agissant du rôle de l'Office pour les TGE, vos Rapporteurs estiment que la loi n° 83-609 du 8 juillet 1983 qui l'a créé, l'a doté de moyens exactement adaptés aux besoins de la recherche française.

Le travail effectué sur les conditions d'implantation d'un nouveau synchrotron a répondu à l'impératif pour la communauté scientifique de bénéficier d'une instance d'appel après l'abandon du projet SOLEIL qu'elle estimait contraire aux intérêts de la science française.

L'Office a pleinement joué son rôle de recours. Les possibilités de saisine de l'Office par les commissions permanentes et les groupes politiques via le Bureau offrent ainsi de réelles possibilités d'appel vis-à-vis de décisions de l'exécutif.

Par ailleurs, avec le présent rapport, l'Office a offert à la communauté scientifique un forum d'expression pour quelques-unes de ses réalisations marquantes et pour ses projets, où ses représentants ont rencontré, avec une satisfaction signalée à plusieurs reprises, une grande qualité d'écoute et ont pu confier leurs idées en toute liberté, puisque le Parlement ne saurait avoir un rôle décisionnel en la matière.

Ces auditions ont démontré, une fois de plus, qu'il y a un singulier contraste entre le déficit d'image voire l'image négative de la recherche publique et l'enthousiasme communicatif de ses représentants lorsqu'ils disposent d'une écoute attentive.

Comment ne pas relever également le contraste entre l'image budgétivore, bureaucratique et improductive donnée des TGE depuis quelques années et leur réalité de grande aventure scientifique comme VIRGO ou de grande percée technologique comme SOLEIL ?

Au reste, l'attention portée à la science par le Parlement par l'entremise de son Office d'évaluation, rencontre, faut-il le souligner, à la fois le souci de nos concitoyens de voir celle-ci décryptée en termes d'enjeux quotidiens intelligibles et le souhait de la communauté scientifique d'être mieux comprise des décideurs publics et mieux associée à des décisions lourdes de conséquences pour son avenir et celui de la collectivité nationale.

Enfin, l'étude du rôle des TGE dans la recherche publique et privée, en France et en Europe, à quoi ce rapport est consacré, constitue une évaluation transversale et sur une durée d'une dizaine d'années de la politique qui a été suivie, évaluation qui pourra sans doute être reproduite si le Parlement en est saisi de nouveau, c'est-à-dire si le besoin s'en fait sentir.

A cet égard, la formule d'un binôme Député-Sénateur appartenant l'un à la majorité et l'autre à l'opposition a sans aucun doute contribué, par son impartialité et sa représentativité, à établir une relation de confiance avec les scientifiques auditionnés.

En outre, la constitution d'un groupe de travail ad hoc, étendu et non permanent, a enrichi les débats et permis de mener avec rapidité une investigation somme toute complexe de par la technicité souvent " sidérante " des sujets traités.

Vos Rapporteurs ont, en conséquence, la conviction que l'Office a trouvé d'emblée, dans le jeu institutionnel, le rôle de recours et d'évaluation de la politique des très grands investissements de recherche qui était nécessaire à la collectivité nationale, rôle qu'il convient de maintenir.

II - DES FINANCEMENTS À SÉCURISER À LONG TERME PAR UNE PROGRAMMATION GLOBALE DE L'EFFORT DE RECHERCHE

La nécessité de perspectives financières à long terme pour les très grands équipements résulte clairement des auditions au cours desquelles vos Rapporteurs ont pu rencontrer les responsables des principales installations en service ou en projet.

C'est cette nécessaire prise en compte du long terme qui a conduit au début des années 1960 au vote d'une loi de programme consacrée aux seules autorisations de programme relative à des grands équipements.

Mais en tout état de cause, les très grands équipements ne sauraient résumer les besoins de la recherche qui exigent tout à la fois des investissements et des crédits de fonctionnement accrus et une politique à long terme traduisant une véritable volonté politique.

L'évolution de l'emploi scientifique pour la recherche française, dans le cadre des TGE mais également sur un plan général, a été soulignée par tous les interlocuteurs de vos Rapporteurs, dans la ligne du rapport de M. Jean-Yves LE DÉAUT, réalisé avec M. Pierre COHEN, de juillet 1999.

Au final, un plan d'ensemble doit être élaboré pour traiter de l'ensemble des moyens matériels et des ressources humaines de la recherche française.

En dépit de ses limites techniques et des déceptions rencontrées dans un passé récent, une loi de programmation apparaît comme un moyen privilégié pour préparer l'avenir, tout en apparaissant comme devant être complétée par une action spécifique en faveur de la recherche industrielle.

1. La nécessité d'engagements à long terme pour les TGE et pour les autres moyens matériels de la recherche

Le décalage temporel est patent entre les très grands équipements scientifiques et techniques dont le domaine est celui du long terme, et les techniques budgétaires qui ont pour horizon l'année budgétaire et fiscale.

Grâce à la gestion responsable et soucieuse des engagements à long terme conduite par les grands organismes de recherche et par le ministère chargé de la recherche, avec l'aide de l'ancien Conseil des grands équipements, aucun accident de financement ne s'est jamais produit en France pour les TGE, qui aurait pu conduire à un abandon ou un retard sensible.

L'absence d'accident de financement pourrait inciter à un certain optimisme sur les mécanismes actuels. Pour autant, la communauté scientifique est soucieuse qu'une meilleure visibilité et davantage de garanties à long terme soient tout de même apportées aux très grands équipements.

1.1. Le long terme, horizon de temps intrinsèque des TGE

La construction d'un très grand équipement peut se dérouler sur une période de 5 à 10 ans et sa durée de vie dépasser une vingtaine d'années, à l'exception des satellites.

Dans la plupart des cas, malgré le principe contraignant de l'annualité budgétaire et malgré les aléas de la croissance économique et les fluctuations des recettes budgétaires, les pouvoirs publics ont su résoudre les difficultés inévitables des financements à très long terme.

Toutefois, différents exemples récents montrent les difficultés de l'exercice. C'est notamment le cas de la flotte océanographique.

Les autorisations de programme pour le renouvellement de la flotte hauturière de l'Ifremer, de 30 millions de francs par an, ont été mises à zéro pour 1999 et 2000. Elles ont certes repris pour 2001 au niveau de 70 millions de francs et devraient se perpétuer au même niveau en 2002. Mais, en tout état de cause, le renouvellement de la flotte exige une pérennisation au même niveau de 70 millions de francs. Quant au financement du Marion Dufresne, il a été réalisé en partie par emprunt.

Les réseaux de surveillance météorologique appellent également un financement pluriannuel identifié et sécurisé.

Il en va de la rentabilisation des dépenses effectuées en vue de l'obtention de mesures qui ne sont exploitables que si elles concernent une très longue période.

Il en va également du respect par la France de ses engagements internationaux qui est d'assurer une participation pérenne à ces réseaux internationaux.

1.2. Capitalisation, amortissements et fonds de réserve ?

Une " sécurisation " des financements des très grands équipements apparaît en conséquence souhaitable à de nombreux observateurs du monde de la recherche.

Un système de " capitalisation " des autorisations de programme, c'est-à-dire de garantie de leur stabilité dès lors que la décision est prise, est recommandé par les responsables des systèmes océanographiques d'observation in situ et pour les satellites.

La constitution de fonds de réserves ou la mise en place de mécanismes d'amortissement est prônée par d'autres experts. Ces dernières solutions présenteraient en effet l'avantage de permettre aux organismes de recherche de procéder d'eux-mêmes au renouvellement des TGE arrivant en fin de service, sans pour autant devoir faire appel à un arbitrage politique.

L'opportunité d'une telle autonomie est contestée par d'autres observateurs, en ce sens qu'une décision de construction de TGE doit par essence appartenir dans tous les cas à la puissance publique, compte tenu de son impact sur le BCRD.

En l'occurrence, la distinction faite dans la deuxième partie du rapport entre les différentes catégories de TGE éclaire là encore la décision.

Les très grands équipements de percée thématique doivent exciper de décisions des communautés scientifiques et des organismes de recherche eux-mêmes, mis dans la situation de constituer des fonds de réserves leur permettant de procéder aux renouvellements ou innovations nécessaires.

En tout état de cause, une décision ministérielle ne devrait intervenir que dans la mesure où un effort supplémentaire serait nécessaire.

De même, les très grands équipements d' infrastructure ne semblent pas relever de décisions autres que celles des organismes de recherche. Il s'agit, rappelons-le, de TGE comme les sources de rayonnement synchrotron, les sources de neutrons, les réseaux ou les supercalculateurs, qui assurent un service transversal de haut niveau technologique, à un ensemble de laboratoires de plusieurs disciplines.

Il serait donc souhaitable de permettre aux organismes de recherche, par de nouveaux mécanismes de constitution de fonds de réserve, de procéder par eux-mêmes aux investissements indispensables.

S'agissant des TGE de grands programme , il est évident que la décision appartient conjointement aux ministères concernés, avec un financement réparti entre les différents budgets et non pas un financement assuré par le seul budget de la recherche.

En tout état de cause, les TGE de percée thématique et les TGE de grands programmes trouveraient avantage à ce qu'un mécanisme ad hoc permette d'asseoir les autorisations de programme renouvelables pour plusieurs années sur des décisions législatives claires.

Pour les TGE d'infrastructure, il pourrait en outre être intéressant d'étudier les conditions de mise en place d'un mécanisme permettant aux organismes de recherche de procéder à des mises en réserve et de provisionner les dépenses de remplacement, qui pourraient être abondées par le BCRD à titre d'incitation et d'accélération du processus de modernisation.

2. La nécessité d'un plan à long terme pour l'emploi scientifique

L'importance des ressources humaines pour la valorisation des très grands équipements scientifiques a été soulignée par l'ensemble des responsables de la recherche auditionnés par vos Rapporteurs.

En tout état de cause, les investissements réalisés dans les très grands équipements, dont la durée de vie dépasse le plus souvent deux décennies, posent avec acuité le problème de l'évolution de la population des chercheurs dans les années à venir.

Pour autant, la question de l'emploi scientifique ne se résume pas aux besoins des très grands équipements.

Il s'agit d'une question d'ordre général, dont l'importance stratégique justifie qu'elle soit traitée par une politique à long terme.

2.1. Des départs massifs dans un contexte de désaffection pour les études scientifiques

La pyramide des âges des chercheurs est une question centrale de la problématique de la recherche publique civile dans notre pays.

M. Jean-Yves LE DEAUT, dans son rapport au Premier ministre, de juillet 1999 intitulé " Priorité à la recherche - Quelle recherche pour demain ? " réalisé avec M. Pierre COHEN a le premier analysé en profondeur les mouvements prévisibles des effectifs des grands organismes de recherche pendant la décennie actuelle.

Près de la moitié des effectifs de la recherche ont un âge supérieur à 48 ans.

Figure 10 : Pyramide des âges des institutions de recherche (universités et établissements publics scientifiques et techniques) au 31 décembre 1996 5

Les pyramides des âges en 1997 des différents organismes de recherche présentent une structure très défavorable. A l'instar du CNRS (voir figure suivante), les pyramides de la plupart des organismes présentent un maximum relatif ou un plateau pour les classes d'âge de 30 à 40 ans et un maximum absolu pour les classes d'âge de 50 à 60 ans.

Figure 11 : Pyramide des âges du CNRS au 31/12/1996

La situation est particulièrement accentuée pour les chercheurs de l'enseignement supérieur, avec une division par deux des recrutements après l'effort de la fin des années 1960 et du début des années 1970 correspondant à la création de nouvelles universités.

Figure 12 : Pyramide des âges des enseignants-chercheurs au 31/12/1996

Au total, la faiblesse des recrutements opérés dans les années récentes aura pour conséquence d'entraîner une perte d'effectifs considérable dans les dix prochaines années.

Selon les évaluations faites par l'Observatoire des sciences et techniques (OST), le nombre de départs à la retraite pendant la période 2000-2005 devrait être multiplié par 2 par rapport à la période 1995-2000 et dépasser deux mille deux cents personnes par an en moyenne. Au cours de la période suivante 2005-2010, ce même nombre devrait encore croître de 22 % pour atteindre 2739 personnes en moyenne (voir figure suivante).

Figure 13 : Ordres de grandeur des flux annuels de départ à la retraite des chercheurs de la recherche publique civile 6

Ce constat d'une accélération des départs à la retraite dans les prochaines années est à l'évidence commun, dans une large mesure, à l'ensemble de la fonction publique.

Il reste que le problème de la recherche a deux spécificités.

La première spécificité provient de la longueur du processus de formation des chercheurs, le plus long à vrai dire de toutes les filières de formation.

La deuxième spécificité provient des contraintes de la transmission des savoirs à l'intérieur des laboratoires. Une accumulation de savoirs et de savoir-faire qui ne sont pas toujours formalisés, se produit dans les laboratoires de recherche et ne peut se transmettre que dans un processus de compagnonnage qui requiert du temps pour s'effectuer correctement.

En conséquence, l'ampleur du problème et son étalement dans le temps imposent des processus planifiés pour le remplacement des classes d'âge concernées.

Or ce processus doit intervenir dans un contexte profondément défavorable, celui d'une désaffection non seulement pour les formations scientifiques mais également pour les métiers de la recherche.

2.2. Les changements nécessaires en amont

Avant de traiter du renouvellement des effectifs de la recherche, il convient de traiter des questions de formation et des modalités de recrutement.

La planification doit évidemment prendre en compte le processus de formation et concerner non seulement le nombre de places en DEA et en écoles doctorales mais aussi les contenus de formation en parallèle à la recherche.

Or les effectifs des premiers cycles scientifiques dans les universités ont fondu de 23 % entre 1994 et 1999 7 . La diminution atteint 53 % pour les sciences de la matière, 32 % pour les sciences de la Terre et 19 % pour les sciences du vivant. Les effectifs ont également diminué dans les classes préparatoires scientifiques. Ni la diminution du nombre de bacheliers scientifiques ni le placement sur le marché du travail qui est excellent pour la quasi-totalité des disciplines n'expliquent ce phénomène.

De surcroît, l'enseignement supérieur ne forme pas assez d'ingénieurs pour répondre aux besoins de sciences et techniques de l'information et de la communication (STIC) et en particulier de ceux de la microélectronique du futur. Cette situation n'est pas propre à la France puisqu'on l'observe aussi aux Etats-Unis et dans d'autres pays européens.

Parmi tous les changements à opérer, le premier est essentiel et porte sur le statut de la science dans la société.

En trente ans, la science " en majesté " est devenue une science " en procès " . Pourtant les succès d'audience des émissions audiovisuelles sur la science, ainsi que le succès considérable de l'Université de Tous les Savoirs démontrent l'intérêt de fond de la société française pour la recherche scientifique. Il convient sans aucun doute de multiplier les initiatives des médias permettant une prise de parole directe des scientifiques.

Mais il s'agit également sans doute de mieux faire connaître les métiers de la recherche. Sur un plan général, un récent sondage sur les Français et la recherche scientifique donne des indications intéressantes sur l'image des métiers de la recherche 8 . Ces métiers sont jugés à une forte majorité, attirants pour les jeunes et valorisants socialement, et, à une courte majorité, ouverts sur le monde et correctement rémunérés.

En conséquence, quelles sont les causes de la désaffection pour les études scientifiques ?

L'Académie des sciences a attiré l'attention sur la gravité du phénomène. Son président, M. Guy OURISSON, dirige un groupe de travail chargé par le ministre de l'éducation nationale, M. Jack LANG, de dégager des pistes d'action.

Il semble en tout état de cause que la longueur des études scientifiques et la durée de formation à la recherche par le doctorat soient des handicaps, face à la demande d'autonomie formulée de plus en plus tôt par les jeunes. A cet égard, l'âge moyen d'intégration dans les organismes de recherche, soit trente ans, est certainement jugé pénalisant par les étudiants, de même que les difficultés d'intégration des post-docs ayant effectué des stages à l'étranger.

Or la présence des post docs dans les TGE est d'une importance capitale pour leur succès et leur efficacité.

A cet égard, ce sont probablement tous les mécanismes d'intégration des étudiants aux laboratoires et aux organismes de recherche qui sont à revoir.

L'augmentation du nombre de bourses de stages en fin de maîtrise et en DEA, ainsi que de doctorat, et une intégration rapide dans les organismes de recherche, selon des mécanismes simples et transparents, largement connus non seulement des étudiants mais également des lycéens, revaloriseraient sans aucun doute l'attractivité des métiers de la recherche.

2.3. Les prémisses d'une nouvelle politique de l'emploi scientifique

Le projet de loi de finances pour 2001 prévoit la création des 265 postes dans les organismes publics de recherche, dont 130 de chercheurs et 135 d'ingénieurs, techniciens et personnels administratifs.

Pour M. Roger-Gérard SCHWARTZENBERG, il s'agit là de " la première étape d'une gestion prévisionnelle et pluriannuelle de l'emploi scientifique " 9 . Il faut en effet " rajeunir la recherche, offrir aux jeunes docteurs davantage de débouchés et anticiper sur les départs massifs à la retraite qui interviendront dans la période 2004-2010 " .

Compte tenu de l'accélération du phénomène de départ à la retraite des chercheurs dans les prochaines années, l'effort prévu pour 2001 devra sans aucun doute être amplifié dans les années suivantes.

La gestion prévisionnelle des effectifs nécessite, elle aussi, une programmation détaillée, faisant la part des différents types de moyens dont la recherche française a un impérieux besoin dans les années à venir pour participer aux progrès de la société française.

Le ministre de la recherche a indiqué dans sa conférence de presse du 4 mai 2000 que le rajeunissement de la recherche constitue l'une des ses dix priorités, énoncée d'ailleurs en premier dans son exposé : " il y aura des départs massifs à la retraite entre 2002 et 2012, et plus particulièrement autour de 2005-2008. Nous devons anticiper ces départs pour éviter de nouveaux `coups d'accordéon', c'est-à-dire des recrutements massifs et au dernier moment, alors que des candidats très compétents auraient été écartés quelques années auparavant. Ce qui ne serait ni équitable ni efficace. " 10 .

Le ministre a ajouté : " une stratégie de programmation de la recherche publique doit être définie en concertation avec l'ensemble des acteurs de la recherche et mise en _uvre sur plusieurs années " .

Ce constat est partagé par vos Rapporteurs, qui estiment indispensable la préparation immédiate d'une loi de programmation de la recherche.

3. Pour une loi de programmation de la recherche

Le principe de l'annualité des dépenses budgétaires est souvent présenté comme compliquant singulièrement la préparation du long terme par la puissance publique.

Pour autant, les instruments existent, autorisations de programme, lois de programme et lois de programmation, qui donnent la possibilité à l'Etat de conduire une politique courant sur plusieurs années.

Il paraît donc indispensable, dans le cadre de la réflexion sur les très grands équipements et plus généralement sur la recherche du futur d'examiner à quelles conditions ces instruments peuvent apporter une solution à la réalisation de la politique de long terme que la recherche exige.

A cet égard, l'étude de l'expérience accumulée dans ce domaine s'impose avant d'examiner l'éventualité d'une nouvelle loi de programmation pour la recherche.

3.1. Les autorisations de programme

La notion d'autorisation de programme a été examinée à plusieurs reprises au cours des auditions.

L'opinion générale est qu'il s'agit là d'un moyen de programmation du financement des TGE qui est sujet à des aléas trop importants.

La suggestion a été faite à plusieurs reprises au cours des auditions d'une capitalisation des autorisations de programme, c'est-à-dire au cumul ne varietur dans le temps des autorisations de programme que l'on peut calculer lors de l'annonce du renouvellement d'un équipement. Une telle possibilité ne semble pas en tout état de cause correspondre aux techniques budgétaires.

Ainsi que les définit l'article 12 de l'ordonnance du 2 janvier 1959, les autorisations de programme constituent " la limite supérieure des dépenses que les ministres sont autorisés à engager pour l'exécution des investissements prévus par la loi " .

Une première limite technique, importante s'agissant des très grands équipements scientifiques et technologiques, est que les investissements doivent être découpés en tranches, correspondant chacune à " une unité individualisée formant un ensemble cohérent et de nature à être mise en service sans adjonction " .

En pratique, dans la plupart des cas, il n'est pas possible de diviser l'investissement en des unités qui puissent servir isolément.

A l'inverse, le régime des autorisations de programme est d'une grande souplesse, ce qui est peut-être un avantage mais aussi un inconvénient.

Aucune limitation de durée ne conditionne la validité des autorisations de programme. Celles-ci peuvent d'ailleurs être révisées notamment afin de prendre en compte l'évolution des prix.

Mais des autorisations de programme peuvent être purement et simplement annulées. C'est notamment le cas lorsqu'un ralentissement de la croissance se produit, venant diminuer les recettes fiscales et creuser le déficit budgétaire qu'une contrainte interne ou externe forte oblige à limiter.

Au reste, si les autorisations de programme constituent une exception au principe d'annualité budgétaire, celui-ci est réintroduit par les crédits de paiement qui nécessairement correspondent à la fraction des dépenses qui doit être acquittée lors de chacune des années concernées.

Une politique peut certes se matérialiser dans des autorisations de programme mais son application effective doit se traduire année après année dans l'inscription au budget des crédits de paiement qui, seuls, ont une réalité en termes de paiement.

Un autre inconvénient du mécanisme des autorisations de programme, c'est bien évidemment le manque d'impact médiatique de la discussion du projet de loi de finances.

L'engagement politique peut être fort pour la recherche, au regard de l'inscription dans un projet de loi de finances de crédits de paiement et d'autorisations de programme pour un ou plusieurs projets de TGE.

Mais son écho sera toutefois faible dans la discussion des recettes fiscales et des dépenses des autres secteurs ministériels, sans mentionner le fait que l'initiative parlementaire a peu de possibilités en la matière.

3.2. Les lois de programme

La portée des lois de programme a été atténuée sous la V e République par rapport à celle qu'elle était sous la IV e République. D'obligatoires, les engagements des lois de programme sont en effet devenus déclaratifs. Les lois de programme gardent toutefois une valeur d'engagement politique fort.

Sous la IV e République, les lois de programme avaient pour effet d'obliger les pouvoirs publics à inscrire dans les lois de finances correspondantes, les autorisations de programme qu'elles énonçaient. Les lois de programme réalisaient donc une planification impérative des autorisations de programmes. Mais la rigidité introduite dans les lois de finances et l'impact négatif de dépenses obligatoires sur le déficit budgétaire en cas de diminution des recettes fiscales a rapidement entraîné les gouvernements à n'inscrire dans les lois de finances que les crédits de paiement compatibles avec la situation budgétaire.

La V e République a tiré les conséquences de cette expérience. Ainsi, l'article 34 de la Constitution du 4 octobre 1958 indique que " des lois de programme déterminent les objectifs de l'action économique et sociale de l'Etat " . Mais l'ordonnance du 2 janvier 1959 dénie aux lois de programme tout caractère obligatoire : " les lois de programme ne peuvent permettre d'engager l'Etat à l'égard de tiers que dans les limites des autorisations de programme contenues dans la loi de finances de l'année " .

Au reste, une loi de programme ne peut prévoir que le regroupement d'autorisations de programme.

Ceci veut dire qu'une loi de programme ne peut traiter les questions fondamentales des dépenses de personnel et des dépenses de fonctionnement.

Il n'en demeure pas moins que les lois de programme se révèlent contraignantes au plan politique et traduisent des engagements politiques solennels.

Une loi de programme sur la recherche a été adoptée en 1961, portant sur des montants financiers limités et ne concernant que quelques autorisations de programme relatives à de grands équipements scientifiques.

3.3. Les lois de programmation militaire

La Défense nationale est par excellence en France le domaine qui fait l'objet d'une programmation récurrente. Depuis le début de la V e République, ce sont en effet 9 lois de programmation militaire qui ont été adoptées.

Cette programmation est indispensable en raison des délais de recherche et développement, d'industrialisation de procédés de fabrication et de construction des matériels militaires eux-mêmes.

Les lois de programmation se distinguent des lois de programme en ce qu'elles définissent des objectifs à la fois en termes d'investissement mais aussi de fonctionnement et de dépenses de personnel. Il s'agit d'engagements de nature politique mais en aucun cas d'engagements ayant une portée juridique.

De fait, peu nombreuses sont les lois de programmation militaire dont le déroulement a été conforme aux objectifs initiaux.

La loi de programmation de 1983 a subi des retards tels qu'elle a été interrompue et remplacée par une nouvelle loi en 1987.

La loi de programmation de 1987, à son tour, s'est soldée par un écart de près de 12 % entre la prévision et l'exécution.

Le projet de loi de programmation suivant, qui devait couvrir la période 1992-1994 n'a jamais été discuté.

C'est pourquoi, en 1993, un Livre blanc sur la défense a été élaboré et une loi de programmation votée en 1994 pour la période 1995-2000.

Toutefois, cette programmation a été interrompue en 1997. Une nouvelle loi a été adoptée, à savoir la loi de programmation actuellement en vigueur qui porte sur la période 1997-2002 et se traduit par une réduction massive des crédits.

Ainsi, une première façon de voir les lois de programmation militaire est de souligner les lacunes et les erreurs de programmation, qui nécessitent des réajustements fréquents en cours d'exécution.

Mais ce dispositif ne saurait être jugé seulement à raison des rectifications opérées sur leur contenu et sur les écarts toujours négatifs entre les résultats et les objectifs initiaux.

En effet, les évolutions stratégiques en cours d'exécution d'une loi de programmation, les ajustements de formats à opérer en conséquence sur les forces armées, le caractère imprévisible des ruptures technologiques dans le domaine des armements, sans parler des contraintes économiques budgétaires expliquent ces nécessaires adaptations, qui correspondent en réalité à une planification glissante, indispensable et bienvenue.

En réalité, même assorties des limites précédentes, les lois de programmation militaire jouent un rôle indispensable.

Ces lois introduisent un temps de réflexion et d'élaboration du long terme, fixent des perspectives à moyen terme pour les industries et pour les personnels et communiquent à l'effort de défense nationale une solennité et une visibilité importantes pour la Nation.

3.4. Les expériences de programmation dans le domaine de la recherche

Ainsi qu'on l'a vu, les lois de programmation représentent un moyen capital d'inscrire une politique dans la durée, à la fois pour l'investissement et le fonctionnement.

Dans le domaine de la recherche, la technique de la loi de programmation a été utilisée avec la loi d'orientation et de programmation du 15 juillet 1982 pour la recherche et le développement technologique de la France.

Cette loi a par ailleurs été complétée par la loi du 23 décembre 1985 relatives à la recherche et au développement technologique.

Ces deux lois doivent être analysées pour mieux définir les contours d'une nouvelle loi de programmation qu'il semble impératif de préparer sans attendre.

3.4.1. Utilité et actualité des lois de programmation non militaires

Les lois de programmation ont été fréquemment utilisées en dehors des questions militaires dans les premières années de la V e République. Plus récemment, des lois de programmation pluriannuelles ont été utilisées à plusieurs reprises de 1993 à 1995.

En novembre 2000, le Premier ministre a annoncé une grande loi pénitentiaire, le déblocage d'une enveloppe de 10 milliards de francs à cet effet et la mise en place d'un établissement public pour la réalisation du programme 11 .

Dans ce cas précis, on doit noter qu'à l'effet déclaratif de ce qui prendra probablement la forme d'une loi de programmation, s'ajoute une disposition concrète, à savoir la création d'une structure dédiée à la réalisation des objectifs fixés, structure dont l'existence même représente une garantie supplémentaire de respect des engagements pris.

De même, sans que les modalités aient été détaillées pour le moment, un plan pluriannuel de programmation des emplois et des recrutements sur 5 ans a été annoncé par le ministre de l'éducation nationale pour renforcer l'enseignement public et pour faire face aux conséquences prévisibles des départs en retraite des personnels éducatifs.

En réalité, il se confirme dans l'actualité récente que les lois de programmation constituent le moyen d'inscrire une politique dans la durée, même si les règles des finances publiques interdisent toute programmation impérative de dépenses.

Au reste, ces engagements ont été utilisés à deux reprises au cours des années 1980, dans des conditions qu'il convient d'analyser.

3.4.2. La loi d'orientation et de programmation du 15 juillet 1982 pour la recherche et le développement technologique

La loi n° 82-610 du 15 juillet 1982 d'orientation et de programmation pour la recherche et le développement technologique de la France présente plusieurs caractéristiques importantes.

Préparée par une vaste consultation nationale, eu égard à la portée jugée stratégique par le Gouvernement de la recherche scientifique et technologique, le projet de loi, après déclaration d'urgence, est discuté en première lecture au Sénat les 13 et 14 mai 1982, le texte étant rapporté par M. Jean-Marie RAUSCH 12 , puis à l'Assemblée nationale, les 21, 22 et 23 juin 1982, le texte étant rapporté par M. Philippe BASSINET 13 . Après échec de la Commission mixte paritaire 14 , une nouvelle lecture intervient à l'Assemblée nationale le 28 juin, puis au Sénat le 30 juin 1982, l'adoption définitive ayant lieu le même jour à l'Assemblée nationale.

Le constat de fond, fait par le ministre d'Etat, ministre de la recherche et de la technologie, M. Jean-Pierre CHEVENEMENT, est que l'effort de recherche de la France a connu une brillante période correspondant aux premières années de la V e République. Ainsi, le ratio DIRD / PIB est passé de 1,1 % en 1959 à 2,2 % en 1968.

Mais ensuite, " le défaut de volontés gouvernementales, concrétisé par la suppression du ministère de la recherche en 1969, conduisit à une longue période de stagnation " 15 . Il en résulta une baisse de l'effort national de recherche à 1,8 % du PIB en 1974 et ensuite une longue stagnation jusqu'en 1980.

La baisse de l'effort national de 1969 à 1974 est due à une diminution de l'effort public que l'augmentation de l'effort des entreprises n'a pas compensé. Aucun rattrapage n'a ensuite été observé puisque le DIRD a cru sensiblement au même rythme que le PIB, le ratio DIRD / PIB restant à peu près égal à 1,8 %. Du fait d'un effort particulier réalisé en cours d'année, le chiffre atteint en 1981 a été de 1,89 %.

En tout état de cause, le projet de loi d'orientation et de programmation, repose sur l'analyse que la recherche et le développement technologique sont essentiels pour la compétitivité de l'économie française et en particulier à court terme pour sortir de la crise économique.

De fait, dans son article 1 er , la loi du 15 juillet 1982 indique que " la recherche scientifique et le développement technologique sont des priorités nationales " .

L'objectif fixé par le plan intérimaire de la Nation est de porter à 2,5 % en 1985 la part du produit intérieur brut consacrée aux dépenses de recherche et de développement technologique (DNRD / PIB).

En conséquence, la loi indique dans son article 2 que les crédits inscrits au BCRD progresseront au rythme annuel de 17,8 % en volume de 1982 à 1985, les effectifs employés dans la recherche devant croître au rythme moyen annuel de 4,5 %.

Tels sont les deux seuls engagements chiffrés définis dans la loi n° 82-610 du 15 juillet 1982.

Au demeurant, au plan institutionnel, la loi crée le Conseil supérieur de la recherche et de la technologie auprès du ministre chargé de la recherche et de la technologie. Elle institue également un nouveau type d'établissement public, les établissements publics à caractère scientifique et technologique, ainsi que les groupements d'intérêt public (GIP). Les GIP sont des personnes morales dotées de l'autonomie financière et sont constituées entre des établissements publics ayant une activité de recherche et de développement technologique, entre l'un ou plusieurs d'entre eux et une ou plusieurs personnes morales de droit public ou de droit privé.

3.4.3. Le bilan de la loi d'orientation et de programmation du 15 juillet 1982

Le bilan de la loi d'orientation et de programmation pour la recherche peut être fait d'une manière simplifiée par la simple consultation des chiffres a posteriori.

Mais ce bilan a surtout été fait d'une manière approfondie par M. Jacques VALADE dans un rapport d'information fait au nom de la Commission des Affaires économiques et du Plan, en préalable à l'examen du projet de loi de 1985 sur la recherche.

L'analyse approfondie faite par M. Jacques VALADE permet, au delà du constat relatif à la loi particulière de 1982, de tirer des enseignements généraux sur les lois de programmation.

*

Suite à l'adoption de la loi du 15 juillet 1982, quelle est l'évolution de l'effort de recherche de la France ?

Figure 14 : Evolution du ratio DIRD / PIB - global, entreprises (DIRDE) et administrations (DIRDA)

L'impulsion donnée en 1981 et amplifiée en 1982 est notable, puisque le ratio DIRD/PIB passe de 1,75 % en 1980 à 2,25 % en 1985.

Au demeurant, les efforts des administrations et des entreprises sont parallèles en début de période.

Le ratio DNRDA / PIB représentatif de l'effort des administrations passe en effet de 0,7 % en 1980 à 0,9 % en 1985.

Quant à l'effort des entreprises, il passe de 1,1 % en 1980 à 1,3 % en 1985. Il est évidemment difficile d'identifier les causes de l'accroissement des efforts des entreprises. La pression de la concurrence et la nécessité d'y faire face sont bien sûr des causes fondamentales. Mais la sensibilisation des entreprises à l'importance de la R&D a été notablement accrue par le processus de consultation mis en place dans tout le pays avant la discussion de la loi au Parlement.

Enfin, il convient de rappeler que l'introduction du crédit d'impôt recherche par la loi du 29 décembre 1982 a également joué un rôle très important dans la mobilisation accrue des entreprises.

*

Dans son rapport d'information sur le bilan de la loi de 1982, M. Jacques VALADE note que " l'irréalisme de ses hypothèses de base ont ôté toute crédibilité aux discours gouvernementaux " .

L'hypothèse de croissance du PIB était en effet de 3 % par an, un chiffre signalé dès 1982 comme irréaliste par le Sénat. Le rythme moyen annuel d'augmentation des crédits inscrits au BCRD devait être pour sa part de 17,8 %.

Le taux de croissance du PÏB n'a finalement été que de 1,3 % en moyenne. L'augmentation annuelle moyenne des crédits du BCRD s'est avérée être de 8,2 % par an.

La priorité à la recherche affichée par la loi n'a donc pu être totalement traduite dans les moyens mis à sa disposition.

Le ralentissement économique et la politique économique et budgétaire restrictive qui a dû être appliquée en sont la cause essentielle.

Mais il faut remarquer que, si l'objectif fixé était d'atteindre un ratio DIRD/PIB de 2,5 % en 1985, le résultat fut tout de même de 2,25 %, ce qui a dénoté une progression réelle par rapport au 1,9 % de 1980. En effet, le BCRD a été privilégié sur la période 1982-1985, alors que l'ensemble du budget civil accusait une évolution de -0,5 % en moyenne annuelle.

M. Jacques VALADE note que, malgré la priorité affichée, le BCRD a fait l'objet d'annulations de crédits, imposées au ministère et mal ressenties par le monde de la recherche. En outre, le CEA et le CNES ont dû faire appel à l'emprunt, une pratique dangereuse pour des organismes de recherche.

Un débat existe donc entre l'intérêt d'afficher des objectifs ambitieux, voire irréalistes mais somme toute contraignants et l'intérêt de faire preuve de réalisme, dans le souci de mieux planifier les évolutions et d'éviter les déceptions.

M. Jacques VALADE note également dans son rapport que l'accroissement des aides à la formation a été important mais que les objectifs relatifs à l'emploi n'ont pas été atteints.

L'analyse conduite par M. Jacques VALADE laisse entrevoir les difficultés de conduire une politique volontariste de l'emploi scientifique cherchant des effets rapides.

Des difficultés ont en effet été rencontrées sur le plan des recrutements. En effet, le taux de progression de l'emploi scientifique n'a atteint que 2,9 % par an alors que l'objectif fixé était de 4,5 % par an en moyenne.

Par ailleurs, les dépenses de main d'_uvre ont doublé entre 1981 et 1985, ce que l'augmentation des effectifs n'explique pas.

Enfin, les recrutements n'ont pas réduit le déséquilibre structurel de l'emploi scientifique, caractérisé par le vieillissement de la population des chercheurs.

M. Jacques VALADE souligne par ailleurs que la loi d'orientation et de programmation n'a pas atteint ses objectifs pour la recherche privée. La part de la recherche financée par les entreprises s'établit en effet en 1985 à 1 % du PIB, contre le 1,5 % prévu, tout en restant concentrée d'une manière excessive.

Un autre enseignement de portée générale doit être cité. Dès 1985, il est apparu que le mécanisme des Groupements d'intérêt public souffrait de lourdeurs excessives. La loi du 23 décembre 1985 n'a toutefois pas entrepris d'y remédier.

3.4.3. La loi du 23 décembre 1985 relative à la recherche et au développement technologique

Constatant à la fois le succès de la mobilisation nationale en faveur de la recherche et l'écart entre le résultat obtenu en 1985, c'est-à-dire un ratio DIRD / PIB de 2,25 % et l'objectif initial de 2,5 % en 1985, un nouveau coup d'accélérateur est donné en 1985 par l'adoption d'une nouvelle loi, la loi du 23 décembre 1985 relative à la recherche et au développement technologique.

Après déclaration d'urgence, le projet de loi est discuté en première lecture à l'Assemblée nationale les 27 et 28 juin 1985, rapporté par M. Philippe BASSINET 16 . Le texte est ensuite examiné en première lecture au Sénat le 22 octobre 1988, rapporté au fond par M. Jacques VALADE 17 . La CMP ayant échoué 18 , une nouvelle lecture intervient à l'Assemblée nationale le 29 novembre 1985 19 , puis au Sénat le 13 décembre 1985 20 , l'adoption définitive ayant lieu le 16 décembre 1985 21 .

La loi n° 85-1376 du 23 décembre 1985 réaffirme que la recherche scientifique et le développement technologiques sont des priorités nationales. Un nouvel objectif très ambitieux est posé, à savoir que " la politique nationale se propose de porter l'ensemble des dépenses publiques et privées de recherche et de développement technologique à 3 % du PIB à la fin de la présente décennie " .

La loi comporte des dispositions relatives à l'emploi scientifique et technique ainsi qu'une programmation du BCRD et de l'emploi scientifique. Sans doute son apport le plus important est-il de fixer des objectifs détaillés pour l'évaluation de la politique de la recherche.

A la lumière de ces expériences, quels pourraient être les contours d'une nouvelle loi de programmation ?

3.5. Pour une loi de programmation sur les TGE

En tout état de cause, la recherche scientifique représente au premier chef, un défi stratégique pour la France d'aujourd'hui.

Ce défi impose qu'une loi de programmation pour les TGE soit rapidement mise en chantier.

L'expérience accumulée permet de préciser les conditions de réussite d'une telle loi.

3.5.1. Les hypothèses macro-économiques et budgétaires

Le choix des hypothèses macro-économiques revêt une importance particulière.

L'expérience plaide plutôt en faveur du réalisme qu'en faveur de l'affichage d'objectifs trop ambitieux, qui génèrent des déceptions en cas d'échec.

Une voie moyenne pourrait être l'adoption d'un taux de croissance modéré, assorti de mécanismes de réévaluation des objectifs en fonction de l'évolution constatée.

Par ailleurs, il conviendrait de déterminer des objectifs de progression des crédits de la recherche intégrant les contraintes de la programmation pluriannuelle des finances publiques requise par l'Union européenne.

Selon cette programmation pluriannuelle, les déficits publics devront être progressivement résorbés, en étant ramenés à un niveau proche de zéro en 2004. Si un ralentissement de la croissance venait à se produire, la tâche serait compliquée d'autant.

En conséquence des arbitrages devront être faits, notamment par les ministères impliqués dans les TGE de grands programmes qu'il convient de faire participer au financement de ces derniers à raison de leur utilité particulière.

Il convient donc de prévoir des mécanismes d'arbitrage pour affirmer la priorité de la recherche, même en cas de difficultés budgétaires.

3.5.2. Une programmation des investissements et de l'emploi

Si l'on veut consolider les perspectives de développement de TGE, il semble nécessaire de reprendre dans un texte législatif les perspectives des contrats de plan Etat-Régions en la matière, ainsi que les propres engagements de l'Etat.

A cet égard, la loi de programmation pourrait apparaître comme un instrument de consolidation, au niveau national, des engagements pris par l'Etat et les Régions, dans le domaine capital des TGE scientifiques.

Par ailleurs, la question de l'emploi scientifique revêt une importance cruciale pour l'avenir de la recherche française. Elle l'est en particulier pour les très grands équipements.

L'expérience des précédentes lois semble suggérer que la programmation des efforts en la matière est particulièrement difficile et qu'un soin tout particulier doit lui être apporté.

Enfin, s'agissant de la recherche privée, sa contribution croissante à l'effort national nécessite des moyens de soutien résolus mais adaptés à sa nouvelle organisation. A cet égard, le soutien à la recherche privé a été rénové depuis quelques années. Une évaluation des premiers résultats obtenus s'impose à cet égard, ainsi qu'un nouvel élan en la matière.

La loi de programmation pourrait également reprendre d'une manière solennelle des dispositions phares relatives au soutien de la recherche privée.

III - UN NOUVEL ÉLAN POUR LA RECHERCHE DU DÉBUT DU XXIE SIÈCLE, DANS LE CADRE D'UN GRAND CONTRAT NATIONAL

Dans les dix dernières années, les découvertes scientifiques ont été plus nombreuses que durant toute l'histoire de l'humanité. Il n'existe aucun raison pour qu'un ralentissement se produise dans les prochaines années.

Le rôle moteur de la recherche dans la croissance et pour la compétitivité de l'économie nationale ne laissent en réalité aucune alternative à un effort massif de recherche et développement national.

Ainsi que le déclarait en mai dernier M. Roger-Gérard SCHWARTZENBERG, ministre de la recherche, " il appartient plus que jamais à la recherche de préfacer et de préparer l'avenir. Celle-ci est à la fois la matrice de la production de nouvelles connaissances, de nouveaux savoirs et le principal moteur de la compétitivité, de la croissance et de l'emploi. La recherche est devenue le premier booster de l'économie et de l'emploi. " 22 .

Un trait majeur de la science moderne est la réduction drastique des délais qui séparent certains travaux de recherche fondamentale de leur application dans le domaine de la recherche technologique et dans l'industrie.

S'agissant de l'industrie elle-même, la durée de l'ensemble du processus depuis l'émergence d'une idée jusqu'à la mise sur le marché tend à se réduire et en particulier le volet recherche.

Au demeurant, la mutation des économies industrialisées vers des activités à haute valeur ajoutée est un processus incontournable dont l'effet d'entraînement sur l'ensemble de l'économie est majeur et positif, à condition d'être à la fois soutenu et équilibré.

Parallèlement à la demande de l'économie et de l'industrie, s'ajoute la demande d'expertise de la société sur des questions touchant à la sûreté et à la sécurité.

Nombreuses sont les crises récentes, qu'elles soient alimentaires, énergétiques, environnementales ou climatiques, où la société s'étonne que la science ne mette pas à sa disposition des éléments de décision suffisamment fondés et où la société appelle en conséquence à une accélération de la recherche et à une interaction plus forte entre les connaissances, les problèmes de la société et les applications industrielles.

Enfin, l'accroissement des connaissances est un mouvement irrépressible de l'humanité, qui, depuis la nuit des temps, avance vers une meilleure compréhension du monde. Cette quête inlassable est bien sûr symbolisée par la demande autocentrée de la communauté scientifique de disposer de moyens toujours plus étendus pour son développement

Simultanément, le coût de la recherche augmente en raison d'un recours croissant à l'instrumentation.

La science moderne, on l'a vu, dans les première et deuxième parties du présent rapport fait un appel croissant à des très grands équipements pour effectuer des percées scientifiques dans une discipline particulière. L'ensemble des disciplines utilisent par ailleurs des très grands équipements d'infrastructure de haut niveau technologique. Enfin des très grands équipements sont également mis au point et utilisés dans le cadre de grands programmes d'utilité sociale.

L'examen détaillé de la question des très grands équipements scientifiques et technologiques fait au total apparaître des demandes d'investissement considérables dans les années à venir.

Au demeurant, les besoins en très grands équipements de la recherche ne sauraient représenter la totalité de ses besoins de financement. Les groupes de laboratoires exigent des équipements lourds et les laboratoires des équipements mi-lourds qui entraînent des dépenses d'acquisition et de fonctionnement importantes.

Enfin, l'on ne saurait minimiser les dépenses de personnel, qui, dans certains organismes, représentent une part considérable du budget annuel, souvent plus des deux tiers.

Cette croissance des besoins jointe à des questions très préoccupantes sur l'évolution prévisible des effectifs des personnels de la recherche fait clairement apparaître qu'un risque réel existe aujourd'hui de marginalisation de la science française dans de nombreuses disciplines.

Ces menaces se précisent alors que nombreux sont les pays qui donnent depuis plusieurs années une réelle priorité à la recherche.

1. L'audace exemplaire de différents pays

Les Etats-Unis ont clairement et collectivement fait le choix d'une accélération considérable de leur effort de recherche et développement.

Cet effort de recherche aura atteint, en 1998, 202 milliards de dollars alors que, la même année, l'Union européenne et le Japon réunis y consacraient 244 milliards de dollars. En 1999, le total de leurs dépenses aura atteint 247 milliards de dollars 23 , leur permettant d'égaler le total de leurs deux principaux concurrents.

Une telle accélération ne se produit-elle que dans un grand pays, doté d'une recherche militaire puissante, d'une recherche couvrant tous les domaines à un excellent niveau et bénéficiant d'une avance notable dans certains domaines ?

En réalité, il n'en est rien. Certains pays de l'Union européenne se singularisent en effet par des efforts considérables en faveur de la recherche.

Ainsi, la Suède se caractérisait par un ratio DIRD / PIB de 3,7 % en 1997.

La Finlande a fait le choix de reconvertir son industrie vers des productions à forte valeur ajoutée et pour atteindre cet objectif a fait passer son ratio DIRD/PIB de 1,8 en 1989 à 3,11 % en 1999.

Tableau 5 : Evolution du ratio DIRD/PIB des pays d'Europe du Nord, depuis 1989 24

DIRD/PIB en %

1989

1990

1991

1992

1993

1994

1995

1996

1997

1998

1999

Suède

2,94

2,89

3,27

3,46

3,7

Finlande

1,8

1,88

2,04

2,13

2,17

2,29

2,29

2,54

2,72

2,9

3,11

Danemark

1,51

1,57

1,64

1,68

1,74

1,84

1,85

1,94

1,92

2

Norvège

1,69

1,65

1,73

1,71

1,67

1,75

Mais au delà des niveaux relatifs, exprimés en pourcentage du PIB, il convient aussi d'analyser les dépenses en niveaux absolus.

Les dépenses totales de l'Allemagne en 1998 pour la R& D ont représenté 44,1 milliards d'écus, soit 56 % de plus que celles de la France qui se sont élevées à 28,3 milliards d'écus la même année.

Cet écart n'est-il pas suffisamment important pour que la France n'entreprenne pas de le combler ?

Figure 15 : DIRD de 1998 en millions d'écus dans l'Union européenne 25

En tout état de cause, il semble possible par un effort déterminé de compenser une différence de poids relatif des économies nationales. Cet exemple est donné par la Suède.

Grâce à un effort considérable, la Suède atteint en effet une masse critique de dépenses de R&D qui la font talonner l'Italie et devancer l'Espagne dont les PIB sont pourtant considérablement plus élevés (voir tableau suivant).

Tableau 6 : PIB et DIRD de 1998

milliards d'écus

PIB

DIRD

Italie

1099,1

10,9

Espagne

559,4

4,7

Suède

223,9

8,0

Au demeurant, au sein de l'OCDE, on constate trois groupes de pays, qui se distinguent en fonction de leur effort de R&D : les grands pays ayant clairement opté pour un effort accru de R&D, les grands pays hésitants et les pays offensifs (voir graphiques ci-après).

Figure 16 : Evolution de l'effort de R&D des principaux pays de l'OCDE - pays principaux et pays à spécialisation offensive dans les productions à forte valeur ajoutée 26

Grâce à leur effort massif de R&D, les Etats-Unis et le Japon, sont à même de développer leurs spécialisations industrielles à forte valeur ajoutée.

L'Allemagne et surtout la France, tout en faisant des efforts importants, semblent hésiter quant à elles à tourner leur économie toute entière vers les productions à forte valeur ajoutée.

La Suède, la Finlande, mais aussi la Suisse et la Corée du Sud, ont fait le choix déterminé de relever le défi de jouer un rôle mondial dans certaines activités productives à fort contenu en matière grise.

Ce choix est non pas celui de la tertiarisation de leur économie, mais celui des industries à forte valeur ajoutée du XXI e siècle, électronique, informatique, télécommunications, pharmacie, biotechnologies, sur le constat que l'industrie constitue toujours la matrice du développement.

C'est exactement le type de défi que la France doit aujourd'hui relever : s'engager avec enthousiasme et détermination vers une économie de matière grise, avec la participation de toute la population et une place pour chacun de nos concitoyens .

Au reste, cette évolution vers une place plus importante donnée à la science correspond à l'attente de la société française, comme l'indiquent de nombreux éléments, le succès de l'Université de Tous les Savoirs, les succès des Journées de la science, et le sondage réalisé à l'occasion du Colloque " Science et société " .

Parmi un ensemble de questions, ce sondage 27 montre que, pour contrôler le progrès scientifique et s'assurer de son respect des questions éthiques, les personnes interrogées font confiance à 53 % aux scientifiques eux-mêmes, et à 19 % aux intellectuels et aux philosophes.

Une autre question posée à l'occasion de ce sondage montre que près des deux tiers des personnes interrogées souhaitent un renforcement de la part du budget de l'Etat consacrée à la recherche scientifique et technologique (voir figure ci-après).

Figure 17 : Les Français et la recherche scientifique 28

Le moment est donc venu de changer la dimension de la recherche française.

2. Un grand débat national pour un grand contrat d'objectifs

Au final, quels que soient les moyens choisis, c'est d'un élan national dont la France a besoin pour accélérer sa conquête de la science du XXI e siècle.

La première étape à boucler, c'est de mieux faire comprendre l'impératif de la recherche scientifique et obtenir l'adhésion de nos concitoyens à cet objectif vital. L'Etat a sans doute un rôle à jouer d'impulsion et de catalyse des efforts.

Mais il faut surtout que la communauté scientifique se mobilise pour faire comprendre son travail et faire partager son enthousiasme.

Si la communauté scientifique explique l'intérêt et les limites de ses recherches, alors il ne fait aucun doute que la science aura fait un grand pas dans notre pays.

Alors il sera possible d'engager la France dans la voie d'un effort accru.

2.1. Le Colloque national de la Recherche de 1981-1982

La France a connu en 1981 et 1982, grâce au dynamisme et à l'esprit de conquête du ministre d'Etat, ministre de la recherche, M. Jean-Pierre CHEVÈNEMENT, un grand débat national sur la recherche qui a fait date et qui a joué un rôle important dans le redressement de l'effort de recherche.

Ce Colloque national de la Recherche a compris trois niveaux d'organisation :

? les Assises régionales

? les Journées sectorielles

? les Journées nationales

Un témoignage sur ce Colloque national a été fait le 21 juin 1982, à l'Assemblée nationale, lors de la discussion du projet de loi d'orientation et de programmation pour la recherche et le développement technologique, par M. Robert CHAPUIS.

Les Assises régionales de Rhône-Alpes ont permis à des centaines de chercheurs, industriels, syndicalistes concernés par le mouvement de la science ou le progrès des techniques de se sentir " responsables, non plus seulement sur la base de leur intérêt personnel mais du point de vue collectif, social, national, voire international ".

Ces Assises régionales et le Colloque national ont permis des rencontres qui apparaissaient naguère impossibles, " non seulement entre les disciplines et opinions différentes, entre des personnes différentes, chercheurs, ingénieurs, techniciens, administratifs mais aussi entre universitaires et industriels, et entre syndicats de tendances diverses " .

M. Robert CHAPUIS ajoutait que " dans chacun de ces deux colloques, j'ai rencontré des hommes et des femmes dont l'esprit était animé par l'enthousiasme, certes, mais aussi par un grand sens des réalités et de la nature des efforts actuellement nécessaires et possibles ".

En réalité, l'ensemble des intervenants lors de la discussion parlementaire se sont réjouis de la dynamique créée dans le pays par cette consultation généralisée.

C'est ce sentiment que retrace M. Jacques VALADE, dans son rapport d'information de 1985 sur le bilan de la loi du 15 juillet 1982 d'orientation et de programmation de la recherche 29 .

Ainsi, " des changements fondamentaux sont apparus dans le monde de la recherche à la suite du grand mouvement des Assises et du Colloque national de la Recherche de 1981 à 1982 ".

Plus important encore, le Rapporteur ajoutait : " On assiste à une démocratisation de l'idée de la nécessité de la recherche " .

On sait par ailleurs que la prise de conscience de l'importance de la recherche au cours de la consultation nationale a ensuite été relayée par la loi d'orientation et de programmation du 15 juillet 1982, qui a fixé des objectifs quantitatifs et surtout développé les moyens d'expression et de consultation de la communauté scientifique.

Ainsi, lors de l'étape ultérieure, les instances représentatives de tous les grands organismes de recherche, le Conseil supérieur de la recherche et de la technologie et les régions ont pu être associés à la préparation de l'étape triennale suivante, la loi du 23 décembre 1985.

2.2. Pour des Etats généraux de la recherche du début du XXI e siècle

Parmi les effets bénéfiques de la loi de 1982, le processus de consultation nationale est sans doute reconnu comme l'un des principaux.

Vos Rapporteurs invitent le Gouvernement à prendre cette initiative dans les prochaines semaines.

A l'occasion des rencontres que vos Rapporteurs ont eues avec les chercheurs lors d'auditions que ceux-ci ont préparées avec un grand soin et conduites avec un respect extrême de la représentation nationale, la communauté scientifique française a manifesté un besoin criant d'être entendue.

En l'occurrence, les chercheurs ont montré qu'il ne pouvait suffire aujourd'hui d'organiser des discussions avec les décideurs de la science.

Il faut impérativement aux chercheurs un dialogue en premier lieu avec la Nation mais aussi avec la représentation nationale, dans l'enceinte du Parlement, où ils savent qu'aucun enjeu direct de pouvoir, d'attribution de crédits ou de jugements de carrière ne vient perturber la sincérité des échanges.

A de multiples égards, ces moments de dialogue d'une qualité rare, entre vos Rapporteurs et les chercheurs sur le sujet des très grands équipements scientifiques, ont représenté une véritable adresse à la Nation.

Refonder le rôle de la science dans la Nation est une urgence.

On constate en effet une singulière fracture entre l'image des chercheurs et celle de la recherche.

Les uns sont estimés pour leurs capacités, leur désintéressement et leur éthique.

Mais la recherche et ses institutions sont jugées avec sévérité par des pans entiers de la société, comme si les chercheurs pouvaient s'accommoder d'organisations totalement inadaptées à leurs activités et cautionner des institutions qu'ils ne pourraient estimer, ce qui est évidemment absurde.

Cette fracture d'image et la dévalorisation des institutions de recherche, faute d'information et d'insertion dans la société, doivent cesser.

La Nation et la science doivent se rencontrer pour définir en commun leur vision de la recherche du XXI e siècle et l'organisation qu'il convient de refonder dans cette perspective.

Les Etats généraux de la recherche du XXI e siècle dont l'organisation est proposée par vos Rapporteurs, auraient une triple mission  :

? faire connaître au plus grand nombre de nos concitoyens les défis de la science moderne et les réalités de la recherche

? faire émerger une vision de la science du XXI e siècle partagée par la communauté scientifique et la communauté nationale toute entière

? définir une organisation optimale de la recherche dans le respect de la dignité de chacun et au service de l'efficacité collective.

Cette grande consultation nationale ne serait pas réduite au monde de la recherche et de l'industrie. Elle serait conduite en présence du peuple et de leurs représentants. Elle déboucherait sur un Grand contrat national pour la recherche.

2.3. Un grand Contrat d'objectifs pour la Recherche du début du XXI e siècle

Les Etats généraux de la recherche du XXI e siècle prendraient la forme d'une vaste consultation dans tout le pays, dans les régions puis au niveau national, en prenant comme point de départ les très grands équipements de la recherche du futur.

L'organisation d'Etats généraux de la recherche du XXI e siècle pourrait prendre appui sur toutes les instances consultatives du monde de la recherche, sur les organismes de recherche, sur les régions, sur le Parlement, dans un vaste processus de coopération en réseau, où l'Etat ne jouerait qu'un rôle de coordination et s'interdirait toute intervention sur le choix des thèmes abordés.

On pourrait imaginer à cet égard une organisation coopérative tripartite réunissant l'exécutif, le Parlement et les organismes de recherche, sur la base d'une Charte de la consultation nationale définissant ses objectifs et ses principes.

Les enseignements des Journées de la Science et des journées portes ouvertes de différents laboratoires, dont ceux du CEA, sont d'une grande utilité pour concevoir et organiser une opération de plus grande ampleur, qui, compte tenu de la consultation nationale réalisée, mobiliserait encore davantage la communauté scientifique.

L'organisation des Etats généraux de la recherche du XXI e siècle bénéficierait à l'évidence des médias modernes tels que les forums Internet, les chaînes thématiques voire généralistes de radiotélévision.

Ainsi serait exaucé, pour le plus grand bien de la communauté nationale, le souhait des chercheurs d'être entendus et de participer aux processus de décision.

Cette consultation permettrait de forger une vision partagée de la recherche française pour les années à venir et de faire émerger la meilleure organisation possible de la recherche pour le début du XXI e siècle, tant sur le plan des institutions de recherche que sur celui de l'aménagement du territoire.

Le peuple français et les chercheurs ressentent le besoin de passer un contrat d'objectifs pour la Recherche du début du XXI e siècle.

Il convient à la situation présente que des Etats généraux de la Recherche entreprennent de révéler les attentes, les besoins et la vision commune de la Nation et de sa communauté scientifique pour la science du futur

et,

que le Parlement traduise solennellement dans la loi commune ce Grand contrat d'objectifs pour la Recherche du début du XXI e siècle.

CONCLUSION GENERALE

Ainsi donc, après s'être penchés sur la question du rayonnement synchrotron et avoir conclu à l'opportunité de construire en France une machine de 3 ème génération pour répondre aux besoins de la communauté scientifique française, vos Rapporteurs ont, à la demande de l'Office, entrepris un voyage au pays des très grands équipements (TGE) scientifiques et techniques.

A vrai dire, ce long voyage de près d'une année a pu se faire au Palais Bourbon ou au Palais du Luxembourg grâce à l'extraordinaire souhait des scientifiques de toutes les disciplines de venir exposer, au delà de leurs besoins, la substance de leurs recherches et leur foi vibrante dans la recherche scientifique avec un enthousiasme qui s'est communiqué à tous les membres du groupe de travail.

Le plus important des nombreux enseignements tirés de ces rencontres avec plus de 200 chercheurs de toutes les disciplines, c'est cette passion pour leur métier qu'ils ont tous exprimée et c'est le niveau et la richesse remarquables de la science française qui apparaissent en filigrane des grands équipements, qu'ils soient en fonctionnement ou en projet.

La recherche est souvent décrite comme déconnectée sinon retranchée des besoins de la société et de l'économie et comme soumise à des pesanteurs bureaucratiques et à des inerties de toutes sortes. Néanmoins vos Rapporteurs ont comme premier souhait, celui de dire que l'examen concret et général d'un pan important de la recherche, celui des équipements lourds dont elle a un besoin impératif, permet de conclure sans aucune hésitation et au contraire avec fierté que les chercheurs de notre pays sont parmi les meilleurs du monde et méritent de voir leur rôle et leur place mieux reconnus dans notre pays.

La deuxième leçon de ce voyage aux pays des TGE, c'est l'extraordinaire étendue des besoins en équipements de toutes sortes que formulent les chercheurs et le foisonnement des projets qu'ils estiment nécessaires pour répondre aux défis de l'avenir. A cet égard, c'est un euphémisme de dire que les besoins d'investissement sont considérables , alors que la recherche s'accélère de toute évidence et apparaît en toute lumière comme un des moteurs du développement.

*

S'agissant des très grands équipements scientifiques et techniques, leur importance a fort heureusement été détectée au début des années 1980 par les organes dirigeants de la recherche française. Le concept de TGE (très grands équipements) a été défini et une instance, le Conseil des grands équipements , a été chargée d'informer et de conseiller les ministres de la recherche sur cette question importante dans le sujet plus général des investissements nécessaires à la recherche.

Il importe de rendre hommage au travail accompli, dans une discrétion voulue mais somme toute imméritée et regrettable, par ce Conseil qui a oeuvré avec efficacité pour le décryptage des demandes, leur mise en forme et leur organisation dans le temps.

Pour l'Etat, la notion de TGE et les recommandations du Conseil ont permis une coordination des projets et une planification des investissements, grâce auxquelles la France non seulement n'a manqué pratiquement aucune grande évolution scientifique ou technologique mais au contraire a pu se retrouver aux avant-postes de nombreux secteurs, comme par exemple la physique des particules, la physique du noyau, le rayonnement synchrotron, les sources de neutrons ou bien encore le spatial.

Pour les chercheurs eux-mêmes, l'inscription " dans l'ordre des TGE " a pu assurer à la fois la visibilité d'un projet et la continuité des efforts budgétaires afférents. En voyant leur grand équipement installé dans cette liste d'élection, les chercheurs bénéficiaient peu ou prou d'une garantie de pérennité dans les efforts budgétaires, garantie indispensable pour ces outils longs à construire et d'une durée de vie de plusieurs années voire de plusieurs décennies.

Que l'aboutissement d'un projet de très grand équipement et sa prise en compte comme TGE aient représenté une consécration briguée par de nombreuses communautés scientifiques est absolument incontestable et a pu être vérifié à de nombreuses reprises par vos Rapporteurs qui ont vu, avec le plus grand plaisir, les porteurs de projets se bousculer pour être auditionnés.

Au reste, la notion de TGE et le travail du Conseil des grands équipements donnaient un objet concret à la concertation des grands organismes de recherche et participent encore à la substance de leur coopération.

*

Mais rapidement, les très grands équipements ne sont plus apparus au milieu des années 1990 comme un point d'ancrage de la réflexion sur la recherche, tant les nuages se sont accumulés sur les chercheurs, nuages dont la perception a été amplifiée par un déficit d'image considérable et pourquoi ne pas le dire cruel .

Simultanément, alors que la capacité de l'Etat à impulser la science française semblait de plus en plus faible, un nouvel acteur a tenté de se frayer une place plus importante dans les processus de décision, le ministère de la recherche lui-même.

Il est juste et légitime de reconnaître aujourd'hui ce que cette démarche a de positif. En définitive, c'est bien grâce au ministère de la recherche que de nouvelles communautés scientifiques ont pu accéder à l' expression institutionnelle voire publique, comme les sciences du vivant et les sciences et technologies de l'information et de la communication. Faute de projets capitalistiques de grande envergure, ces disciplines ne pouvaient trouver dans le TGE un moyen de s'affirmer. Grâce à l'action du ministère de la recherche, elles ont pu en revanche faire reconnaître leur importance légitime, ce dont il faut se féliciter tant leur importance est grande pour l'avenir de la science et de la société.

Par ailleurs, dans une action renforcée du ministère de la recherche, on ne saurait décrier la volonté de répondre aussi aux besoins de la demande sociale .

Mais à l'inverse, on peut avoir des réticences vis-à-vis du modèle d'une direction éclairée de la recherche, pour des raisons de principe d'attachement à la démocratie dans tous les domaines mais aussi pour des raisons d'efficacité car la démocratie permet de réduire les erreurs et de gagner en efficacité. Or le modèle éclairé a des partisans dans tous les secteurs de la société, y compris dans les milieux politiques souvent effrayés par la complexité des choix, des organisations et même des mentalités.

Au demeurant, l'un des apports des trois dernières années est sans aucun doute l'émergence sinon le test de nouvelles formes d'orientation de la recherche scientifique et technologique par de nouvelles formes d' incitation directe des chercheurs et de coopération entre la recherche publique et privée.

Mais, dans tous les cas, c'est bien à la communauté scientifique elle-même qu'appartient la responsabilité de prendre en compte le long terme .

Par ailleurs un autre facteur majeur est mis en évidence par ce voyage au pays des TGE, à savoir l'explosion des besoins d'investissement pour l'avenir. Que l'instrumentation se complique toujours davantage est une évolution imparable et même implacable de la science moderne.

Le présent rapport propose de distinguer les différents types de très grands équipements selon leur fonction, sur le constat que la nomenclature actuelle fait masse d'outils qui n'ont pas les mêmes finalités ni les mêmes modes de fonctionnement.

A cet égard, il convient désormais de distinguer les TGE de percée thématique , les TGE d'infrastructure et les TGE de grand programme.

Cette nouvelle typologie démontre son utilité en permettant de distinguer quelles doivent être les sources de financement des uns ou des autres et quels doivent être les modes de décision pour leur construction et leur exploitation.

Pour autant, cette évolution vers une instrumentation plus performante et la mise en place de nouveaux mécanismes de financement et de décision n'est pas la seule à revêtir une importance critique.

*

M. Jean-Yves LE DÉAUT dans son rapport de juillet 1999 " Quelle recherche pour demain ? " a, le premier, souligné avec force que la décennie 2000-2010 est décisive pour la recherche publique et que la question du renouvellement des effectifs est absolument capitale en raison du nombre considérable de départs à la retraite de chercheurs dans les années à venir.

L' Académie des sciences , à son tour, a souligné avec force que la science française entre dans une zone de tous les dangers.

A vrai dire, il faut pousser un cri d'alarme une nouvelle fois pour affirmer, encore et toujours, que, de par la structure très défavorable de sa pyramide des âges , la recherche française est menacée d'une implosion, voire d'un effondrement tel que celui dont les étoiles supernovae sont capables.

Si un couplage destructeur se faisait entre la désaffection pour les formations scientifiques, la timidité dans les recrutements, la pingrerie dans les conditions financières proposées aux jeunes scientifiques et la rigidité de la gestion des ressources humaines et des carrières, c'est bien la recherche française qui risquerait de disparaître corps et bien avant dix ans, auquel cas la question des investissements en équipements lourds ne se poserait évidemment plus.

C'est pourquoi une programmation de l'emploi scientifique appelée de ses v_ux par M. Jean-Yves LE DÉAUT revêt une importance déterminante.

A cet égard, il faut saluer les efforts qu'enregistre le budget de la recherche pour 2001 grâce à l'action efficace de M. Roger-Gérard SCHWARTZENBERG, avec la création de 265 emplois scientifiques dans les disciplines prioritaires que sont les sciences du vivant et les sciences et technologies de l'information et de la communication.

Mais il faut impérativement que ce soit là le point d'inflexion d'une courbe qui se redresse enfin et retrouve dès l'année prochaine une pente non seulement positive mais violemment croissante .

*

Au demeurant, le financement des grands équipements continue de se profiler comme une obligation incontournable et urgente dans le paysage de la recherche française.

Le triptyque théorie-instrumentation-expérimentation est un paradigme fondamental de la science moderne. Il ne faut donc pas s'étonner que les besoins d'investissement soient considérables et connaissent une véritable explosion.

Bien que certains chercheurs parmi les plus éminents plaident pour une science simplifiée, le chercheur travaillant sur sa seule paillasse et le théoricien sur sa feuille blanche exploitent des masses de données accumulées à travers le temps, souvent à l'aide de très grands équipements.

En tout état de cause, la durée très longue de la conception et de la construction des très grands équipements impose qu' aucun retard ne soit pris dans quelque domaine que ce soit.

A cet égard, on est bien forcé de regretter l'engagement insuffisant de l'Union européenne dans le financement des TGE et d'en prendre note, tout en continuant de fonder les meilleurs espoirs sur la coopération bilatérale ou multilatérale .

En réalité, le rythme imprimé par les premiers de la course scientifique est de plus en plus élevé au point qu'il risque d'entraîner, comme on l'a connu dans d'autres domaines, l'asphyxie de bien des compétiteurs et leur renoncement à développer une recherche nationale.

*

Enfin, ce voyage au pays des TGE aura aussi mis en évidence l' extraordinaire complexité des structures de conseil , de décision et de financement de la recherche française.

Chaque âge de la science a déposé ses propres instances, commissions, comités, instituts dans la superstructure administrative de la recherche, au point que, comble d'ironie administrative, certains chercheurs trouvent plus aisé de travailler avec la Commission européenne qu'avec les instances françaises.

Au reste, dans ce maquis administratif, l'on est obligé de se pincer pour admettre que l'on ne rêve pas quand on constate la place si réduite donnée à la prospective et la pauvreté des moyens qui lui sont consacrés.

*

Le présent rapport ne saurait être une intercession en faveur de telle ou telle discipline.

Il se veut modestement mais résolument un plaidoyer pour le futur de la recherche française alors que de nombreux ferments d'avenir travaillent les organismes de recherche et que l'intérêt de nos concitoyens pour la science n'attend pour s'enflammer que la prise de parole des pédagogues inspirés et désintéressés qui existent par milliers dans les laboratoires français.

Si malgré l'accumulation de dangers et les difficultés à résoudre, vos Rapporteurs nourrissent un très grand optimisme pour l'avenir, c'est parce qu'il existe une demande considérable de dialogue et d' expression de la part de la communauté scientifique, à chaque fois qu'on veut bien l'entendre avec respect et affection.

Que des Etats généraux de la recherche du début du XXI e siècle associant pour la première fois le peuple, les chercheurs, les organismes de recherche, les régions et le Parlement, soient organisés afin d'élaborer en commun une vision de la recherche pour l'avenir et une organisation pour la mettre en ordre de bataille.

Qu'ensuite un grand Contrat d'Objectifs pour la Recherche du début du XXI e siècle soit passé par la Nation et sa communauté scientifique et soit traduit solennellement par une loi de programmation de la Recherche française du début du XXI e siècle.

1 Audition de M. Georges LAURENS, mercredi 6 décembre 2000.

2 Voir plus loin l'historique des décisions relatives au projet SOLEIL.

3 Ce document s'avérera d'une valeur pérenne encore en 2000.

4 Rapport sur les grands équipements scientifiques, Inspection générale des Finances, n° 2000-M-024-01, Inspection générale de l'administration de l'éducation nationale et de la recherche, n° 00-0034, juin 2000.

5 Jean-Yves LE DEAUT et Pierre COHEN, Priorité à la recherche - Quelle recherche pour demain ?, Rapport au Premier ministre, 22 juillet 1999.

6 Source : OST, indicateurs 1998.

7 Les Echos, 17 novembre 2000.

8 Le Monde, 30 novembre 2000.

9 Le Monde, 28 septembre 2000.

10 Conférence de presse de M. Roger-Gérard SCHWARTZENBERG, ministre de la recherche, " Une nouvelle étape pour la recherche : dix orientations prioritaires " , 4 mai 2000.

11 Le Monde, 10 novembre 2000.

12 Rapport de M. Jean-Marie RAUSCH, Sénat, n° 325 (1981-1982).

13 Rapport de M. Philippe BASSINET, Assemblée nationale, n° 953.

14 Rapport CMP n° 969 Assemblée nationale.

15 Jean-Pierre CHEVENEMENT, Discussion en séance publique du projet de loi d'orientation et de programmation pour la recherche et le développement technologique, n° 242 et 325 (1981-1982), séance du 13 mai 1981, JO des débats.

16 Rapport de M. Philippe BASSINET, Assemblée nationale n° 2817.

17 Rapport de M. Jacques VALADE, Sénat n° 33 (85-86). Rapport pour avis n° 37 (85-86) et n° 40 (85-86).

18 Rapport Assemblée nationale n° 3085.

19 Rapport de M. Philippe BASSINET, Assemblée nationale n° 3111.

20 Rapport de M. Jacques VALADE, Sénat n° 186 (85-86).

21 Rapport de M. Philippe BASSINET, Assemblée nationale n° 3198.

22 Le Figaro, 6 mai 2000.

23 Pierre LE HIR, Le Monde, 20 octobre 2000.

24 Source : OCDE-Dsti, novembre 2000.

25 Source : Towards a European Research Area - Science, Technology and Innovation - Key Figures 2000 - Commission européenne, DG Recherche et Eurostat.

26 Source : OCDE, MSTI, mai 2000 - interpolations OPECST

27 Jean-François AUGEREAU et Pierre LE HIR, Le Monde, 30 novembre 2000.

28 Sondage effectué par la SOFRES du 15 au 17 novembre 2000 auprès d'un échantillon national de 1000 personnes représentatif de la population âgée de 18 ans et plus.

29 Jacques VALADE, Rapport d'information sur le bilan de la loi d'orientation et de programmation pour la recherche et le développement technologique, Sénat, n° 23 (1985-1986)

RECOMMANDATIONS

1. Mettre en place sans délai une structure de lancement du synchrotron SOLEIL , dotée des moyens de décision et des moyens d'agir nécessaires et rendre possible le début immédiat des travaux.

2. Distinguer les TGE (très grands équipements) selon trois catégories : les TGE de percée thématique , les TGE d'infrastructure , les TGE de grands programmes.

3. Recourir au principe de subsidiarité pour les décisions sur les TGE et diversifier les financements des TGE selon leur catégorie. Prendre toutes dispositions pour que les décisions sur les TGE de percée thématique et les TGE d'infrastructure soient prises à terme par la communauté scientifique organisée en conséquence et dotée des outils de financement adéquats.

4. Améliorer l' information du Parlement et de la collectivité nationale sur les grands investissements de la recherche. Créer après réaménagement des institutions existantes, une instance indépendante de l'exécutif et des organismes de recherche pour le conseil et l' évaluation des TGE, l'Office parlementaire continuant, le cas échéant et dans le cadre de son fonctionnement actuel, à jouer à la demande du Parlement, un rôle de recours, de supervision et de prospective.

5. Faire en sorte que les régions qui le souhaitent puissent ne pas limiter leur soutien aux TGE aux seules dépenses d'investissement mais se voient donner la possibilité d'intervenir dans les dépenses de fonctionnement des TGE. La responsabilité du développement de la recherche revenant d'abord à l'Etat mais les régions souhaitant davantage y contribuer, faciliter la coordination et le suivi des interventions des régions dans le domaine de la recherche et en particulier pour les TGE.

6. Préparer en urgence un grand plan d'équipement de la France en TGE d'infrastructure notamment centres de calcul de puissance, bases de données d'ampleur, réseaux informatiques à hauts débits, réseaux de surveillance de l'environnement. Recruter des personnels ingénieurs et techniciens pour l'acquisition, le traitement, la documentation et le stockage des données scientifiques.

7. Proposer à nos partenaires de l'Union européenne , dans le cadre de la négociation sur le 6 ème PCRD, que le programme ACCESS, d'une part, finance les frais d'étude des futurs TGE et, d'autre part, prenne en charge non seulement les frais d'accès à un TGE des chercheurs européens et une quote-part des dépenses de fonctionnement de la machine mais aussi une partie du coût d'amortissement de celle-ci. Proposer une augmentation significative de l'aide européenne au renforcement des puissances de calcul dans l'Union européenne et au développement des réseaux à hauts débits , y compris pour les accès locaux.

8. Faciliter l'embauche en plus grand nombre de jeunes chercheurs et de post-docs par les organismes de recherche et par les structures gérant les TGE.

9. Organiser les Etats généraux de la recherche du début du XXI e siècle regroupant les populations, la communauté scientifique et les élus pour définir la vision et l' organisation de la recherche française pour les prochaines décennies.

10. Préparer, sur la base des leçons des Etats généraux, une loi de programmation traduisant le Contrat d'Objectifs de la Recherche française du début du XXI e siècle.

EXAMEN DU RAPPORT PAR L'OFFICE

L'Office parlementaire d'évaluation des choix scientifiques et technologiques s'est réuni le mardi 19 décembre 2000 pour examiner le rapport de MM. Christian CUVILLIEZ, Député, et René TRÉGOUËT, Sénateur.

M. Christian CUVILLIEZ, Député, Rapporteur, a souligné qu'après la première partie du rapport consacrée au synchrotron, ce sont l'ensemble des très grands équipements scientifiques qui ont été étudiés grâce à l'audition de près de deux cents chercheurs, responsables de très grands équipements et d'organismes de recherche, auditions réalisées par les rapporteurs, entourés des quinze membres de leur groupe de travail.

L'état des lieux auquel il a été procédé indique quels sont les très grands équipements actuellement en service dans chaque discipline. Le rapport recense également les besoins formulés librement par les chercheurs pour l'avenir. Il propose une nouvelle classification afin de faciliter la prise de décision concernant les très grands équipements et les modalités de leur financement.

L'importance de la recherche scientifique pour la compétitivité d'un pays renforce la nécessité de resserrer les coopérations scientifiques, de coordonner les efforts des régions et, en complément aux investissements indispensables dans ces équipements, de faciliter l'embauche en plus grand nombre de jeunes chercheurs, d'ingénieurs et techniciens.

M. René TRÉGOUËT, Sénateur, Rapporteur, a présenté les trois types de très grands équipements, de " percée thématique " , d' " infrastructure " et de " grand programme " . Les très grands équipements de percée thématique et d'infrastructure doivent résulter de projets formulés par la base et être proposés aux responsables des organismes de recherche. Les décisions et les financements relèvent, en tout état de cause, des organismes de recherche dotés des moyens nécessaires. Répondant pour leur part à une demande de la société, les très grands équipements de grands programmes relèvent de financements publics élargis au-delà des crédits de la recherche. Il a insisté sur le fait que les très grands équipements du futur ne seront plus, dans leur majorité, des " cathédrales technologiques " , mais des réseaux et souligné que l'attente des chercheurs sur ce point était grande.

Les dix recommandations proposées par les rapporteurs ont ensuite été présentées :

1. Mettre en place sans délai une structure de lancement du synchrotron SOLEIL, dotée des moyens de décision et des moyens d'agir nécessaires et rendre possible le début immédiat des travaux.

2. Distinguer les très grands équipements selon trois catégories : les très grands équipements de percée thématique, les très grands équipements d'infrastructure, les très grands équipements de grands programmes.

3. Recourir au principe de subsidiarité pour les décisions sur les très grands équipements et diversifier les financements des très grands équipements selon leur catégorie. Prendre toutes dispositions pour que les décisions sur les très grands équipements de percée thématique et les très grands équipements d'infrastructure soient prises à terme par la communauté scientifique organisée en conséquence et dotée des outils de financement adéquats.

4. Améliorer l'information du Parlement et de la collectivité nationale sur les grands investissements de la recherche. Créer après réaménagement des institutions existantes, une instance indépendante de l'exécutif et des organismes de recherche, pour le conseil et l'évaluation des très grands équipements, l'Office parlementaire continuant, le cas échéant et dans le cadre de son fonctionnement actuel, à jouer, à la demande du Parlement, un rôle de recours, de supervision et de prospective.

5. Faire en sorte que les régions qui le souhaitent puissent ne pas limiter leur soutien aux très grands équipements aux seules dépenses d'investissement mais se voient donner la possibilité d'intervenir dans les dépenses de fonctionnement des très grands équipements. La responsabilité du développement de la recherche revenant d'abord à l'Etat mais les régions souhaitant davantage y contribuer, il convient de faciliter la coordination et le suivi des interventions des régions dans le domaine de la recherche et en particulier pour les très grands équipements.

6. Préparer en urgence un grand plan d'équipement de la France en très grands équipements d'infrastructure notamment centres de calcul de puissance, bases de données d'ampleur, réseaux informatiques à hauts débits, réseaux de surveillance de l'environnement. Recruter des personnels ingénieurs et techniciens pour l'acquisition, le traitement, la documentation et le stockage des données scientifiques.

7. Proposer à nos partenaires de l'Union européenne, dans le cadre de la négociation sur le 6 e programme cadre de recherche et de développement (PCRD), que le programme ACCESS, d'une part, finance les frais d'étude des futurs très grands équipements et, d'autre part, prenne en charge non seulement les frais d'accès à un très grand équipement des chercheurs européens et une quote-part des dépenses de fonctionnement de la machine mais aussi une partie du coût d'amortissement de celle-ci. Proposer une augmentation significative de l'aide européenne au renforcement des puissances de calcul dans l'Union européenne et au développement des réseaux à hauts débits, y compris pour les accès locaux.

8. Faciliter l'embauche en plus grand nombre de jeunes chercheurs et de post-docs par les organismes de recherche et par les structures gérant les très grands équipements.

9. Organiser les Etats généraux de la recherche du début du XXIe siècle regroupant les populations, la communauté scientifique et les élus pour définir la vision et l'organisation de la recherche française pour les prochaines décennies.

10. Préparer, sur la base des leçons des Etats généraux, une loi de programmation traduisant le Contrat d'objectifs de la recherche française du début du XXIe siècle.

M. Claude BIRRAUX, Député, a estimé que les très grands équipements favorisent la mobilité des chercheurs, ainsi que la multidisciplinarité. Le processus de décision les concernant peut revenir aux organismes de recherche à condition, d'une part, que les instances en charge de la décision soient pluridisciplinaires, et, d'autre part, que des objectifs de transfert de technologie à l'industrie soient explicitement assignés par contrat lors de la construction d'un nouvel équipement et, enfin, que des coopérations inter-régionales et européennes soient systématiquement recherchées.

M. René TRÉGOUËT, Sénateur, Rapporteur, a précisé qu'une instance indépendante chargée de l'instruction des projets de très grands équipements, de leur suivi et du contrôle paraissait indispensable, en complément à l'accroissement des responsabilités des organismes de recherche en la matière. S'agissant des coopérations, il lui a semblé nécessaire d'activer la coordination des efforts des régions et, en matière internationale, de continuer à mettre l'accent sur les coopérations bilatérales pour le lancement des très grands équipements, tout en élargissant le nombre de participants et en recherchant un soutien accru de l'Union européenne.

M. Pierre LAFFITTE, Sénateur , a estimé indispensable d'inciter l'Union européenne à renforcer son aide aux pays qui s'engagent dans la réalisation d'un très grand équipement, indépendamment du nombre de ces pays. Il a également souhaité que l'on réfléchisse aux conditions de fonctionnement des très grands équipements en France, de façon à éviter qu'elles soient dissuasives et entraînent une localisation préférentielle des nouveaux très grands équipements en dehors du territoire national.

M. Christian CUVILLIEZ, Député, Rapporteur , a souligné, sur ce dernier point, qu'une souplesse accrue des conditions de fonctionnement pourrait être admise, dans le respect des statuts des personnels.

M. René TRÉGOUËT, Sénateur, Rapporteur , a fait état des propositions faites par les rapporteurs à M. Philippe Busquin, Commissaire européen à la recherche pour renforcer à l'avenir l'implication du programme cadre de recherche et de développement (PCRD) dans le soutien aux très grands équipements.

M. Jean-Yves LE DÉAUT, Premier Vice-président , a estimé que le présent rapport sur les très grands équipements était un rapport d'une importance majeure.

Il a regretté que les décisions sur ce sujet aient longtemps échappé au contrôle parlementaire et qu'il ne soit communiqué au Parlement ni l'information préalable à ces décisions, ni les éléments d'une programmation à moyen et long terme de leur implantation.

Il a ajouté que depuis les Assises nationales de la recherche de 1981-1982, la société avait profondément changé, en particulier sous l'action de la technologie. Des Etats généraux de la recherche permettraient de faire un bilan de la recherche française et de mettre en place une programmation des moyens en fonction de nouveaux objectifs.

Il a également relevé que l'augmentation des puissances de calculs, le renforcement des moyens alloués aux bases de données et la multiplication des réseaux à très hauts débits constituaient des priorités nationales.

Il a aussi rappelé que la décennie en cours était d'une importance décisive pour le recrutement à temps de jeunes chercheurs.

Le rapport présenté par MM. Christian CUVILLIEZ, Député, et René TRÉGOUËT, Sénateur, sur " le rôle des très grands équipements dans la recherche publique et privée, en France et en Europe " a été adopté à l'unanimité et sa publication autorisée.

ANNEXES

ANNEXE 1 : LISTE DES ÉQUIPEMENTS LOURDS DE LA RECHERCHE

Tableau 7 : Liste des Très Grands Equipements en fonctionnement ou en projet 1 , 2 , 3

grand équipement

Sigle développé

remarques

I - GRANDS EQUIPEMENTS SCIENTIFIQUES

1. Physique des particules

CERN

Centre européen de recherche nucléaire

(La contribution française au CERN fait partie de la liste des TGE du ministère de la recherche)

Organisation internationale créée le 29 septembre 1954 ; installations situées entre Genève et Ferney-Voltaire.

LEP

Large Electron Positron - Grand collisionneur électrons-positrons

Installation principale du CERN arrêtée en novembre 2000

LHC (détecteurs)

Large Hadron Collider - Grand collisionneur de protons du CERN.

( La participation française au LHC fait partie des TGE)

Installation du CERN succédant au LEP et devant entrer en service en 2005.

2. Nucléaire

SATURNE

Accélérateur d'ions lourds de Saclay

(Les dépenses de démantèlement de Saturne font partie de la liste des TGE du ministère de la recherche)

Accélérateur d'énergie intermédiaire (= 3 GeV) ; rénové en 1978 et 1987 ; arrêté en 1997 ; en cours de démantèlement

GANIL

Grand Accélérateur National d'Ions Lourds

(Le Ganil fait partie de la liste des TGE du ministère de la recherche)

Installation située à Caen, en service depuis 1984

3. Fusion

Tore Supra

Tokamak français à supraconducteurs

(Tore Supra fait partie de la liste des TGE du ministère de la recherche)

Equipement pour l'étude de la fusion nucléaire contrôlée avec confinement magnétique ; en service depuis 1988 à Cadarache

JET - EFDA

JET (Joint European Torus) - Tokamak européen

(La participation française au JET-EFDA fait partie de la liste des TGE du ministère de la recherche)

Tokamac pour l'étude de la fusion nucléaire contrôlée avec confinement magnétique, opérationnel depuis 1983 et situé à Culham, Grande-Bretagne

4. Astronomie au sol

CFH

Télescope Canada-France-Hawaï

(La participation française au CFH fait partie de la liste des TGE du ministère de la recherche)

Télescope au sol en service depuis août 1979 et situé à Hawaii (Etats-Unis)

ESO

European Southern Observatory

(La participation française à l'ESO fait partie de la liste des TGE du ministère de la recherche)

Organisation intergouvernementale créée en 1962 et comprenant 8 Etats membres ; observatoire de La Silla dans le désert d'Atacama au Chili comprenant 14 télescopes optiques et 1 radiotélescope

VLT/VLTI

Very Large Telescope - Very Large Telescope Interferometer

(La participation française au programme VLTI de l'ESO fait partie de la liste des TGE du ministère de la recherche)

VLT : Nouvel observatoire de l'ESO constitué de 4 télescopes couplés de 8m de diamètre, installés sur le mont Paranal dans le désert d'Atacama ; 1 ère lumière du 1 er télescope : mai 1998 ; 1 ère lumière du 4 ème télescope : septembre 2000

VLTI : mode de fonctionnement interférométrique du VLT

IRAM

Institut de Radio-Astronomie Millimétrique

(La participation française à l'IRAM fait partie de la liste des TGE du ministère de la recherche)

Fondé par le CNRS et la Max Planck Gesellschaft en 1974, rejoints par l'Espagne en 1990. Deux observatoires, l'un au Plateau de Bure (Alpes françaises près de Grenoble) et l'autre sur la Sierra Nevada (Espagne).

5. Astrophysique spatiale

ISO

Infrared Space Observatory. Observation de l'Univers en infrarouge.

(La participation française au programme ISO de l'ESA fait partie de la liste des TGE du ministère de la recherche)

Satellite d'astrophysique destiné à l'observation de l'univers en infrarouge, lancé en novembre 1995, dont la mission s'est arrêtée en mai 1998

- Programme ESA

FIRST

PLANCK

Télescope spatial dans l'infrarouge lointain et les longueurs d'onde submillimétriques

Mission de cosmologie sur l'origine et l'évolution de l'Univers

(La participation française à ces deux programmes de l'ESA fait partie de la liste des TGE du ministère de la recherche)

Observatoire en infrarouge lointain et submillimétrique destiné à la recherche sur la formation des galaxies

- Programme ESA

Etude du rayonnement cosmologique du fond de ciel (rayonnement fossile) et de ses anisotropies

- Programme ESA

Lancement simultané de FIRST et de PLANCK prévu en 2007.

INTEGRAL

Télescopes et détecteurs spatiaux de rayonnement gamma

(La participation française au programme INTEGRAL de l'ESA fait partie de la liste des TGE du ministère de la recherche)

Observation de l'univers en rayonnement gamma émis à la suite d'événements violents survenus dans l'espace. Lancement prévu en 2002

- Programme ESA

SOHO

Solar and Heliospheric Observatory

(La participation française au programme SOHO de l'ESA en coopération avec la NASA fait partie de la liste des TGE du ministère de la recherche)

Satellite d'étude du soleil et de son atmosphère et de surveillance des éruptions solaires. Lancé en 1995 pour un fonctionnement jusqu'en 1998. Prolongé jusqu'en 2003.

- Programme ESA-NASA

XMM-Newton

X-Ray Multimiror Mission. Observation de l'Univers en rayonnement X.

(La participation française au programme XMM de l'ESA fait partie de la liste des TGE du ministère de la recherche)

Satellite de spectroscopie rayons X lancé en décembre 1999 par Ariane 5.

- Programme ESA

Missions à coûts réduits

Petits satellites divers

(Le programme Missions à coûts réduits fait partie de la liste des TGE du ministère de la recherche)

6. Planétologie

HUYGENS / CASSINI

Observation de Saturne par l'orbiteur CASSINI et de l'atmosphère de Titan (la plus importante lune de Saturne) par la sonde HUYGENS.

(Le programme HUYGENS fait partie de la liste des TGE du ministère de la recherche)

Lancement en octobre 1997 par une fusée Titan IV et arrivée dans l'environnement de Saturne en 2004.

- Programme NASA (CASSINI) et ESA (HUYGENS)

CLUSTER 2

Etude en trois dimensions des relations Soleil-Terre

(La participation française fait partie de la liste des TGE du ministère de la recherche)

Quatre satellites identiques deux à deux lancés en deux temps par des fusées Soyouz (Salsa et Samba en juillet 2000 et Tango et Rumba en août 2000). Etude des relations Soleil-Terre.

- Programme ESA-NASA

ROSETTA

Sonde spatiale pour l'étude de l'environnement et du noyau de la comète Wirtanen

(Le programme ROSETTA fait partie de la liste des TGE du ministère de la recherche)

Lancement prévu en janvier 2003 pour un rendez-vous avec la comète Wirtanen en 2011, suivi d'une mise en orbite et du largage d'un atterrisseur

- Programme ESA + module franco-allemand.

COROT

Convection and Rotation - Satellite d'étude de la sismologie des étoiles et des planètes géantes.

(COROT, récemment adopté, ne fait pas partie pour le moment de la liste des TGE du ministère de la recherche)

Satellite d'astéro-sismologie et d'étude des planètes extra-solaires. Lancement prévu en 2004.

- Programme CNES

Mars Express

Cartographie de Mars et recherche de l'eau et de la vie sur Mars.

(La participation française fait partie de la liste des TGE du ministère de la recherche)

Lancement prévu en 2003 par une fusée russe.

- Programme ESA + module d'atterrissage développé sous la direction du Royaume-Uni

Expl. Mars - MSR - Programme PREMIER

Série de missions pour l'exploration de Mars - mission la plus importante : Mars Sample Return (Retour d'échantillons de Mars)

(Le programme Exploration de Mars fait partie de la liste des TGE du ministère de la recherche)

Mars Sample Return : lancement prévu en 2005 par une fusée

Ariane 5

- Programme CNES-NASA

7. Observation de la Terre

TOPEX-POSEIDON

Satellite de topographie dynamique des océans.

(Le programme fait partie de la liste des TGE du ministère de la recherche)

Satellite d'altimétrie radar lancé en août 1992.

Programme CNES-NASA.

PROTEUS/

JASON

Satellites d'observation topographique des océans (mesure du niveau des océans et étude de la circulation globale des courants) - successeur de TOPEX-POSEIDON

(Le programme fait partie de la liste des TGE du ministère de la recherche)

Série de petits satellites utilisant la plate-forme multi-missions PROTEUS. Lancement en mai 2001.

- Programme CNES-NASA.

ERS1 / ERS2

Earth Remote Sensing Satellite - Observation en mode radar, micro-ondes et infrarouge

(La participation française au programme ERS1-2 de l'ESA fait partie de la liste des TGE du ministère de la recherche)

Satellites d'observation permanente et tout temps par radar des océans, des terres émergées et des glaces polaires. ERS1 lancé en 1991, ERS2 lancé en 1995.

- Programme ESA

ENVISAT

Satellite d'observation de l'atmosphère et de la surface de la Terre

(La participation française au programme ENVISAT de l'ESA fait partie de la liste des TGE du ministère de la recherche)

Satellite de 8 tonnes comprenant des nouvelles versions des instruments d'ERS2 et de nouveaux dispositifs. Lancement prévu en juin 2001

- Programme ESA

POLDER

Instrument de surveillance satellitaire de surveillance du phytoplancton

(La participation française à POLDER a fait partie de la liste des TGE du ministère de la recherche)

Lancement prévu à la mi-2001

- Programme CNES

PICASSO-CENA

Climatologie des nuages et des aérosols.

(Le programme ne fait pas partie de la liste des TGE du ministère de la recherche).

Lancement prévu en 2003.

- Programme CNES-NASA

8. Géologie

ODP

Ocean Drilling Program

(La participation française à ODP fait partie de la liste des TGE du ministère de la recherche)

Programme international de forages océaniques profonds.

9. Océanologie

Flotte océanographique

Ensemble des moyens à la mer appartenant à l'IFREMER, à l'INSU, à l'IFRTP et à l'IRD.

(La flotte océanographique fait partie de la liste des TGE du ministère de la recherche)

Une partie de la flotte est gérée par le GIE Genavir.

10. Sources de Neutrons

LLB

Laboratoire Léon Brillouin

(Le LLB fait partie de la liste des TGE du ministère de la recherche)

Utilisation des neutrons produits par le réacteur Orphée, en service depuis décembre 1981 à Saclay

ILL

Institut Laue Langevin

(La participation française à l'ILL fait partie de la liste des TGE du ministère de la recherche)

Institut fondé en 1967 par la France, et l'Allemagne, rejoints en 1973 par le Royaume-Uni et situé à Grenoble

11. Rayonnement synchrotron

LURE

Laboratoire pour l'Utilisation du Rayonnement Electromagnétique - Orsay

(Le LURE fait partie de la liste des TGE du ministère de la recherche)

Synchrotron de 1ère génération en service depuis 1975 (DCI) et synchrotron de 2 ème génération en service depuis 1987 (Super-ACO)

ESRF

European Synchrotron Radiation Facility

(La participation française à l'ESRF fait partie de la liste des TGE du ministère de la recherche)

Synchrotron de 3 ème génération, dont les 15 premières lignes de lumière ont été ouvertes aux utilisateurs en septembre 1994, situé à Grenoble

SOLEIL

Source Optimisée de Lumière d'Energie intermédiaire de LURE.

(Le projet SOLEIL fait partie de la liste des TGE du ministère de la recherche).

Projet de synchrotron de 3 ème génération. Saclay

DIAMOND

Projet britannique de synchrotron de 3 ème génération auquel la France s'est associée

(DIAMOND ne fait pas partie de la liste des TGE du ministère de la recherche).

Projet de synchrotron de 3 ème génération. Oxford.

12. Sciences de la Vie

EMBL

European Molecular Biology Laboratory

(La participation française à l'EMBL fait partie de la liste des TGE du ministère de la recherche)

Organisation internationale créée en 1978 et possédant un laboratoire principal à Heidelberg et des antennes à Hambourg (biologie structurale), Hinxton (bioinformatique), Monterotondo et Grenoble (biologie structurale)

Sciences de la Vie dans l'Espace

(Le programme Sciences de la vie dans l'espace fait partie de la liste des TGE du ministère de la recherche)

Soutien des programmes en microgravité (physiologie spatiale, biologie fondamentale)

13. Physique gravitationnelle

VIRGO

Détecteur d'ondes gravitationnelles

(La participation française à VIRGO fait partie de la liste des TGE du ministère de la recherche)

France, Italie

II - GRANDS EQUIPEMENTS TECHNIQUES ET OPERATIONNELS

EUMETSAT

European Meteorological Satellites

(La participation française à EUMETSAT fait partie de la liste des TGE du ministère de la recherche)

Organisation internationale gérant les satellites de météorologie Meteosat, créée en 1986.

MSG

Meteosat Second Generation -

(La participation française au programme MSG fait partie de la liste des TGE du ministère de la recherche)

Série de 3 satellites météorologiques géostationnaires devant prendre la suite de la série Meteosat.

- Programme ESA et EUMETSAT.

METOP

Satellites d'observation de l'atmosphère

(La participation française au programme METOP fait partie de la liste des TGE du ministère de la recherche)

Satellites défilants en orbite polaire, à vocation météorologique.

- Programme ESA-EUMETSAT

MSG

Meteosat Second Generation -

(La participation française au programme MSG fait partie de la liste des TGE du ministère de la recherche)

Satellites météorologiques géostationnaires devant prendre la suite de la série Meteosat.

- Programme CNES-ESA

ISS - Station spatiale internationale

(La participation française à la station spatiale internationale fait partie de la liste des TGE du ministère de la recherche)

- Participation aux programmes de l'ESA : European Robotic Arm (2001) ; Automated Transfer Vehicle (2003) ; module européen Columbus (2004).

- Programme CNES CTV (Crew Transport Vehicle).

GALILEO

Système de radionavigation ou de positionnement par satellites

(GALILEO ne fait pas partie de la nomenclature des TGE du ministère de la recherche).

Développement en deux temps :

- satellite EGNOS, complémentaire du système américain GPS ; développement achevé

- constellation de 30 satellites prévue pour être opérationnelle en 2008.

Décision de lancement du programme en décembre 2000 par le Conseil des ministres de l'Union européenne

ANNEXE 2 : LISTE DES SIGLES

ABWR

Advanced Boiling Water Reactor

ACI

Actions concertées incitatives

ALMA

Atacama Large Millimetre Array Project

AP

Autorisations de Programmes

BCRD

Budget Civil de Recherche et de Développement technologique

CEA

Commissariat à l'Energie Atomique

DSM/CEA

Direction des Sciences de la Matière / Commissariat à l'Energie Atomique

CERN

Centre Européen de Recherche Nucléaire - Laboratoire européen pour la physique des particules

CFH

Télescope Canada France Hawaii

CNES

Centre National d'Etudes Spatiales

CNRS

Centre National de la Recherche Scientifique

CONCERT

Combined Neutron Centre of European Research and Technology

CP

Crédits de Paiement

CRG

Collaborative Research Group

DESY

Deutsche Elektronen Synchrotron

DO

Dépenses Ordinaires

ECU

European Currency Unit

EDA

European Design Activities

EMBL

European Molecular Biology Laboratory

EPR

European Pressurized Reactor

ERS

Earth Remote Satellite

ESA

European Space Agency

ESO

European Southern Observatory

ESRF

European Synchrotron Radiation Facility

ETW

European Transsonic Windtunnel

EUMETSAT

European Meteorological Satellite organisation

EURECA

European Retrievable Carrier

GANIL

Grand Accélérateur National d'Ions Lourds

GT-MHR

Gas Turbine Modular Helium Reactor

HERA

Hadron Electron Ring Accelerator

IAS

Institut d'Astrophysique Spatiale

IFREMER

Institut Français de Recherche pour l'Exploitation de la Mer

ILL

Institut Laue Langevin

IN2P3

Institut National de Physique Nucléaire et de Physique des Particules

INFN

Instituto Nazionale di Fisica Nucleare

INSU

Institut National des Sciences de l'Univers

IOPD

Integrated Ocean Drilling Programme

IRAM

Institut de Radio-Astronomie Millimétrique

IRM

Imagerie par résonance magnétique

ISO

Infrared Space Observatory

ITER

International Thermonuclear Experimental Reactor

JET

Joint European Torus

LEP

Large Electron Positon ring

LHC

Large Hadron Collider

LLB

Laboratoire Léon Brillouin

LNS

Laboratoire National Saturne

LURE

Laboratoire pour l'Utilisation du Rayonnement Electromagnétique

MD

Marion Dufresne

MPG

Max Planck Gesellschaft

MSH

Maison des sciences de l'Homme

NASA

National Aeronautics and Space Administration

NOAA

National Oceanographic and Atmospheric Administration

NSF

National Science Foundation

OCDE

Organisation de Coopération et de Développement Economique

ODP

Ocean Drilling Programme

PCRD

Programme Cadre de Recherche et Développement technologique

RJH

Réacteur Jules Horowitz

RMN

Résonance magnétique nucléaire

SHOM

Service Hydrographique et Océanographique de la Marine

SHS

Sciences de l'Homme et de la société

SOHO

Solar and Heliospheric Observatory

TGE

Très Grand Equipement

TG2T

Très Grands Instruments et Très Grandes Infrastructures

TGP

Très Grand Projet

UE

Union européenne

VLT

Very Large Telescope

VLTI

Very Large Telescope Interferometer

WOCE

World Ocean Circulation Experiment

ANNEXE 3 : LA RECHERCHE SCIENTIFIQUE, UNE PRIORITÉ RÉELLE DANS DE NOMBREUX PAYS

La comparaison des efforts de recherche de différents pays, un exercice toujours délicat, est le plus souvent effectué avec l'indicateur de la dépense intérieure de recherche et développement (DIRD) qui rassemble l'ensemble des dépenses effectuées dans tous les secteurs économiques d'un pays, quelles que soient l'origine des ressources et la nationalité des bailleurs de fonds.

Cet indicateur tient donc compte non seulement de l'effort effectué par les administrations, les institutions sans but lucratif et les entreprises du pays considéré, mais également de son pouvoir d'attraction vis-à-vis des centres de recherche d'entreprises étrangères ou d'organisations internationales.

La comparaison des niveaux en valeur absolue permet d'évaluer les puissances des appareils de recherche respectifs.

Néanmoins, pour évaluer les efforts consentis par les pays et les différents degrés de priorité assignés à la recherche, il convient aussi d'utiliser le ratio dépense intérieure de recherche et de développement / PIB.

Il convient enfin de comparer les dépenses de recherche en fonction de l'origine de leur financement - entreprises, recherche publique et autres sources -.

1. Le retard de l'Union européenne

Dans le domaine de l'effort global de recherche, l'Union européenne se caractérise par deux traits majeurs par rapport aux Etats-Unis et au Japon.

Les dépenses globales intérieures de recherche de l'Union européenne, ont représenté 141,2 milliards d'euros en 1998. Les Etats-Unis, la même année, ont dépensé 202,2 milliards d'euros et le Japon 102,6 milliards d'euros. Les dépenses européennes représentent ainsi 70 % de celles des Etats-Unis et 137 % de celles du Japon.

Figure 18 : DIRD 1998 en milliards d'écus

Ces écarts en niveau correspondent à des écarts relatifs, par rapport au PIB, très importants.

En 1999, les dépenses de R&D du Japon se sont élevées à 3,1 % du PIB, celles des Etats-Unis à 2,7 % du PIB et celles de l'Union européenne à 1,8 % du PIB.

Par ailleurs, depuis 1994, les Etats-Unis et le Japon se caractérisent par une croissance soutenue de leurs dépenses de R&D exprimées en pourcentage du PIB, ce qui traduit une priorité réelle donnée à la recherche, à la fois par les pouvoirs publics et les entreprises. En revanche, l'Union européenne n'a enrayé la diminution de ses efforts que depuis 1997, et ceci d'une manière très timide (voir figure suivante).

Figure 19 : Evolution des dépenses de R&D en % du PIB 4

Il faut souligner par ailleurs que ces écarts en terme de ratios de DIRD / PIB se traduisent par des écarts en valeur absolue considérables.

Ainsi, on estime qu'en 1999, l'Union européenne aura dépensé 75 milliards d'euros de moins que les Etats-Unis dans la R&D, soit 491 milliards de francs.

Au total, depuis 1990, le déficit de l'Union européenne en terme de dépenses de R&D par rapport aux Etats-Unis aura atteint environ 485 milliards d'euros, soit 3 181 milliards de francs.

Figure 20 : L'insuffisance des efforts de R&D de l'Union européenne par rapport aux Etats-Unis 5 , 6

Ainsi, les priorités réelles divergent entre l'Union européenne considérée globalement et les Etats-Unis.

Ce constat d'ensemble, inquiétant à de nombreux égards, recouvre au demeurant des divergences sensibles entre les pays.

2. Des efforts divergents selon les pays

Ainsi que le résume la figure ci-après, l'effort de la France mesuré par le ratio DIRD/PIB est passé de 2,37 % en 1991 à 2,18 % en 1998, selon une baisse continue similaire à celle du Royaume-Uni, qui toutefois se trouve à un niveau inférieur (1,83 % en 1998).

Les Etats-Unis, le Japon et l'Allemagne se trouvent, pour leur part, à des niveaux supérieurs et dans une tendance à la hausse.

Figure 21 : Niveau et évolution du ratio DIRD/PIB en % des principaux pays de l'OCDE (DIRD : dépense intérieure de recherche et développement) 7

2.1. Concernement collectif pour la recherche et impact de la science

Un autre indicateur important est celui de la dépense intérieure de recherche et de développement par habitant, qui traduit, d'une manière ou d'une autre, l'importance donnée par la collectivité nationale à cette activité.

La figure suivante montre qu'à partir de situations comparables en 1991, l'Allemagne a opéré une mobilisation largement supérieure à celle de la France. Par ailleurs, les niveaux atteints par les Etats-Unis et le Japon étaient très supérieurs à ceux de la France en début de période, avec un écart qui s'est considérablement accru en fin de période. On constate par ailleurs que l'écart se réduit avec le Royaume-Uni.

Figure 22 : Niveaux et évolution de l'effort de recherche par habitant (DIRD/population) dans les grands pays de l'OCDE 8

Un autre indicateur concerne la présence des différents pays dans les grandes revues internationales. Il donne une indication à la fois du niveau de dépenses dans la recherche et de la productivité de ces dépenses.

Une analyse bibliométrique faite par l'Office of Science and Technology britannique, sur la période 1981-1998, montre que la France arrive en 6 ème position, en terme de publications et de citations dans les revues scientifiques à audience mondiale. Les biais méthodologiques d'une telle étude ne sont pas négligeables, en particulier ceux induits par la notion de publications d'audience mondiale, et par le rôle de la langue anglaise et des revues scientifiques anglophones. Toutefois, les résultats de cette étude méritent l'attention.

Tableau 8 : Analyse bibliométrique des publications et des citations dans des publications d'audience mondiale sur la période 1981-1998 9

Pays

Part dans les publications d'audience mondiale

Part dans les citations dans des publications d'audience mondiale

Etats-Unis

34,2

47,9

Royaume-Uni

8,2

9,2

Japon

7,8

5,8

Allemagne

7,4

6,2

France

5,5

4,7

Canada

4,5

4,6

Italie

3,0

2,3

Il faut remarquer à cet égard que l'Observatoire des sciences et techniques français (OST) met en évidence une baisse de l'indicateur d'impact des publications scientifiques françaises, qui passe de 0,98 en 1982 à 0,92 en 1997 10 .

Par ailleurs, il semble que l'Europe concurrence bien les Etats-Unis pour la recherche académique, avec 33,5 % des publications mondiales académiques contre 32,6 % pour les Etats-Unis.

Mais l'avance de ces derniers pour les dépôts de brevets est considérable, démontrant une vitalité incomparable de leur recherche industrielle.

2.2. Les Etats-Unis déterminés à accroître leur avance

Les Etats-Unis ont clairement adopté une stratégie offensive dans la recherche, en mobilisant à la fois la recherche universitaire et la recherche industrielle. Cette dernière constitue un atout déterminant.

Une caractéristique essentielle de la recherche aux Etats-Unis est en effet que l'industrie assure près de 70 % de l'effort de recherche contre 30 % pour le budget fédéral. Cette structure particulière du financement de la recherche est le résultat d'une évolution de plusieurs années (voir figure suivante).

Figure 23 : Evolution du ratio des dépenses de R & D publique et privée par rapport au PIB aux Etats-Unis 11

Mais une autre caractéristique importante de la recherche aux Etats-Unis est l'importance de la recherche militaire. Même si les crédits budgétaires pour la recherche militaire ont nettement diminué, ils représentent encore plus de 40 milliards de dollars.

Figure 24 : Répartition entre le civil et le militaire de l'effort de R & D financé par le budget fédéral aux Etats-Unis

De fait, si les Etats-Unis connaissent une diminution de l'importance relative des crédits fédéraux dans le financement de la recherche, une tendance récente consiste à faire augmenter dans les crédits fédéraux la part consacrée à la recherche civile.

Ainsi, les demandes budgétaires de l'administration Clinton pour l'année fiscale 2001 se traduisent par une hausse de 6 % pour la recherche civile à 43,4 milliards de dollars, contre une baisse de 2 % de la recherche militaire à 42,0 milliards de dollars. Pour l'agence publique chargée de distribuer les crédits fédéraux aux laboratoires, la National Science Foundation, l'augmentation demandée atteint 17 %.

Il est donc clair que les Etats-Unis ne préparent pas un relâchement de leurs efforts.

2.3. La relance de l'effort de R & D au Royaume-Uni

Le Royaume-Uni représente un cas intéressant de redynamisation de l'effort national, après plusieurs années d'abandon.

En tout état de cause, le diagnostic que fait le Gouvernement britannique sur l'état de la recherche au Royaume-Uni est que, malgré la négligence des majorités précédentes, la science et la technologie gardent toutes leurs possibilités d'un renouveau.

Le constat sur la force de la science britannique tient en trois chiffres. La population du Royaume-Uni représente 1 % de la population mondiale, mais le pays finance 4,5 % de la science mondiale et produit 8 % des publications scientifiques mondiales, ce qui le met au second rang mondial derrière les Etats-Unis et augure bien de ses atouts pour l'avenir.

En conséquence, le Gouvernement a lancé en 1994 le programme UK FORESIGHT, après une évaluation approfondie de sa politique de la science, de l'ingéniérie et de la technologie. Il s'agit d'une vaste entreprise de consultation, de réflexion et d'anticipation des tendances en matière de science et de technologie 12 .

En 1995, le premier ensemble de perspectives et de recommandations a été publié et a donné lieu à quatre années d'approfondissement et d'applications. Une nouvelle étape du programme a débuté en avril 1999.

A cette occasion, la recherche publique a travaillé sur la définition des futurs besoins technologiques du pays et publié un rapport afférent intitulé " Long Term Technology Review ". Des rapports sectoriels ont également été élaborés par des panels sur les sujets indiqués dans le tableau suivant.

Tableau 9 : Les travaux de prospective du programme UK FORESIGHT

panels thématiques

le vieillissement de la population

la prévention des crimes et délits

les techniques de production en 2002

thèmes de base

éducation, compétences et formation

le développement durable

panels sectoriels

l'environnement citadin et les transports

les produits chimiques

la défense, l'aérospatial et les systèmes

l'énergie et l'environnement naturel

les services financiers

la chaîne alimentaire et les cultures industrielles

les soins pour la santé

information, communication et médias

les matériaux

les services aux entreprises et aux consommateurs

Le livre blanc du Gouvernement 13 , un document essentiel pour cet exercice, présente les investissements programmés à partir de 2000 pour relancer la recherche.

Les universités et les instituts de recherche bénéficient, sur une période trois ans, pour rénover leurs bâtiments et équipements, d'un financement de 750 millions de livres, soit 8,5 milliards de francs, apportés par le Joint Infrastructure Fund, constitué par les pouvoirs publics et le Wellcome Trust.

En outre, un programme de 1 milliard de livres, soit 11,35 milliards de francs doit financer sur deux ans des investissements dans les infrastructures de recherche. Ce programme est financé à hauteur de 775 millions de livres (8,8 milliards de francs) par le Gouvernement et de 225 millions de livres (2,55 milliards de francs) par le Wellcome Trust.

Un effort additionnel de 250 millions de livres (2,8 milliards de francs) est consenti pour la recherche dans les domaines de la génomique, de l'électronique et des technologies de base comme les nanotechnologies, les ordinateurs quantiques et les biotechnologies.

ANNEXE 4 : L'ÉVOLUTION DE L'EFFORT DE RECHERCHE DE LA FRANCE DEPUIS 1993

1. Le ralentissement des efforts de recherche de la France de 1993 à 1999

Bien que la recherche scientifique et technologique constitue une priorité nationale souvent affirmée, la France a relâché son effort depuis 1993 et n'a engagé un redressement que récemment, à compter du projet de loi de finances pour 2001.

1.1. Une baisse du ratio DIRD/PIB de 2,4 à 2,17 % en 6 ans

La dépense intérieure de recherche et développement rapportée au PIB a connu en France une période d'augmentation de 1978 à 1993. A partir de 1994, ce ratio a régulièrement diminué pour atteindre 2,17 % en 1999, même si la dépense intérieure de R & D a augmenté en valeur absolue (voir figure suivante).

Figure 25 : Evolution du ratio DIRD/PIB en % en France

L'année 1994 a constitué un point noir pour la recherche, puisque la DIRD a diminué en volume de 0,6 % alors que le PIB augmentait de 2,1 % en volume.

Après que la croissance économique a retrouvé en 1997, un rythme plus élevé, la DIRD a recommencé à croître, mais plus lentement que le PIB (voir figure suivante).

Figure 26 : Taux de croissance annuelle en volume du PIB et de la DIRD

1.2. Une croissance du BCRD plus lente que celle du PIB

Au demeurant, le budget civil de recherche et développement exprimé en pourcentage du PIB est passé de 0,70 % en 1993 à 0,61 % en 1999. Cette évolution recouvre une croissance des crédits qui est effectivement intervenue en valeur absolue mais qui a été moins rapide que celle du PIB (voir figure suivante).

Sur toute la période 1994-1999, la croissance du BCRD est plus lente que celle du PIB. Le différentiel de taux de croissance atteint 2,5 points en moyenne sur la période.

Figure 27 : Evolution des taux de croissance annuels en volume du BCRD et du PIB et du ratio BCRD/PIB en % 14

Au demeurant, un élément important des évolutions enregistrées au cours de la période est relatif à l'action des entreprises dans le domaine de la R & D.

1.3. La part croissante de la recherche privée

La part des entreprises dans la dépense intérieure de recherche et développement s'est en effet accrue sensiblement, en passant de 61,7 % du total en 1993 à 63,1% en 1999.

Figure 28 : Evolution de la répartition de la DIRD en France entre les entreprises et les administrations 15

Il s'agit là sans aucun doute d'une évolution favorable pour la compétitivité des entreprises. Rappelons, à cet égard que la part des entreprises dans la DIRD aux Etats-Unis atteint près de 70 %.

2. La transition représentée par la loi de finances pour 2000 et le projet de loi de finances pour 2001

En prévoyant des augmentations inférieures à la hausse prévisible des prix, la loi de finances pour 2000 avait marqué une détérioration des financements budgétaires avec une augmentation du BCRD de 1,3 % en dépenses ordinaires et crédits de paiements (DO+CP) et de 0,1 % en autorisations de programme (AP).

Le projet de loi de finances pour 2001 marque une nouvelle orientation.

2.1. Une évolution globale positive mais encore timide

L'augmentation du BCRD prévue pour 2001 est de 6,4 % en autorisations de programme et de 2,2 % en dotations ordinaires et crédits de paiement

Tableau 10 : Evolution comparée ex ante du BCRD en 2000 et 2001

LFI 2000

PJLF 2001

BCRD

DO+CP

montant (mds F)

54,647

55,864

variation (%)

1,3%

2,2%

AP

montant (mds F)

22,843

24,288

variation (%)

0,1%

6,4%

La situation devrait s'améliorer entre 2000 et 2001 pour les crédits du ministère de la recherche, ainsi que le montre le tableau suivant.

Tableau 11 : Evolution des crédits du ministère de la recherche

LFI 2000

PJLF 2001

Min. Recherche

DO+CP

montant (mds F)

39,961

40,267

variation (%)

-0,4 %

0,8 %

AP

montant (mds F)

13,465

14,362

variation (%)

-4,0 %

6,6 %

Pour les établissements publics scientifiques et techniques 16 , les autorisations de programme marquent une hausse de 10 % qui devrait permettre une reprise des investissements.

Tableau 12 : Evolution des crédits des EPST

LFI 2000

PJLF 2001

EPST

DO+CP

montant (mds F)

22,77

22,993

variation (%)

1,40 %

1,00 %

AP

montant (mds F)

4,224

4,668

variation (%)

3,00 %

10,00 %

Pour l'ensemble constitué par les établissements publics industriels et commerciaux 17 et le GIP IFRTP (institut français de recherches et de technologies polaires), la hausse des autorisations de programme n'atteint toutefois que 2,5 %.

Tableau 13 : Evolution des crédits des EPIC (+IFRTP)

LFI 2000

PJLF 2001

EPIC + IFRTP

DO+CP

montant (mds F)

13,163

13,213

variation (%)

0,40 %

AP

montant (mds F)

7,608

7,800

variation (%)

2,50 %

On remarquera par ailleurs que l'augmentation des crédits du FNS et du FRT, si elle continue d'être largement supérieure à celles des subventions aux organismes de recherche, se ralentit par rapport à l'année précédente.

Tableau 14 : Evolution des crédits des fonds incitatifs

LFI 2000

PJLF 2001

FNS

DO+CP

montant (mds F)

0,565

0,718

variation (%)

+54,1 %

+27,0 %

AP

montant (mds F)

0,700

0,885

variation (%)

+40 %

+26,4 %

FRT

AP

montant (mds F)

0,905

1,000

variation (%)

+35,1 %

+10,5 %

2.2. Une priorité marquée en faveur des sciences du vivant et des STIC

Près du quart des crédits de recherche des ministères, soit 13,8 milliards de francs, sont affectés aux sciences du vivant. Les deux tiers de ces recherches seront effectués par le CNRS (29 %), l'INRA (22 %) et l'INSERM (19 %).

Les sciences et technologies de l'information et de la communication constituent la deuxième priorité, avec près de 8 % des crédits, soit 4,4 milliards de francs.

2.3. Inflexion, point de départ ou nouvel élan ?

L'un des autres points clés du budget de la recherche pour 2001 est la création de 265 postes dans les organismes de recherche.

Les commentaires sur les crédits de la recherche inscrits au projet de loi de finances, sont en conséquence généralement positifs.

Pour qualifier ce nouveau budget, les expressions " inflexion ", " nouvel élan " ou plus prudemment " des raisons d'espérer " ont été utilisées.

Votre Rapporteur à l'Assemblée nationale a ainsi déclaré que " le projet de budget traduit une inflexion et constitue une transition devant conduire dès 2002 à faire de la recherche une grande priorité nationale " 18 .

Son rapport écrit estime que " le projet de budget pour 2001 donne un nouvel élan à la recherche publique " 19 .

Le Président de l'Académie des sciences, accompagné par le Bureau de l'Académie indiquait, pour sa part, aux membres de l'Office, le 25 octobre 2000, que le budget pour 2001 donne " des raisons d'espérer " 20 .

En tout état de cause, il est indispensable que l'amorce de redressement constatée dans le projet de loi de finances pour 2001 ne soit pas annihilée par un relâchement de l'effort de la recherche privée, qui pourrait être entraîné par un dérapage des coûts de production et par la nécessité d'investir dans l'outil de production si les goulets d'étranglement se multipliaient, tant l'importance de la recherche privée est désormais grande dans notre pays.

En second lieu, il est nécessaire que les années prochaines voient l'effort d'entraînement de la recherche publique changer de dimension.

ANNEXE 5 : LA RÉPARTITION DES EFFORTS ENTRE DISCIPLINES

Compte tenu de la montée des besoins de financement de la recherche et des inévitables et légitimes questions de priorités nationales au plan global, il est fréquent de voir évoquer la nécessité d'opérer des choix dans les disciplines à soutenir et de mettre davantage de moyens au service des unes et au détriment des autres.

Au vrai, la question de la répartition des crédits entre les disciplines est sans doute l'une des plus complexes pour la politique de la recherche. Cette question est évidemment encore plus sensible dans une situation où la croissance des crédits budgétaires ralentit et devient inférieure à la croissance des besoins.

1. Quels domaines de recherche privilégier ?

Les trois plus grands organismes de recherche allemands ont fait l'objet récemment d'une évaluation internationale délivrée par un panel international de scientifiques de haut niveau.

Ces critères sont présentés au tableau suivant.

Tableau 15 : Les 5 conditions d'une bonne recherche

Pour être considérée comme de qualité, la recherche doit :

1. Explorer un nouveau champ de connaissances

2. Se concentrer sur les domaines ayant un grand potentiel d'avenir

3. Soutenir l'interdisciplinarité

4. Renforcer l'éducation des étudiants et des jeunes chercheurs

5. Renforcer la coopération internationale

Ces cinq critères fournissent une grille d'évaluation particulièrement pertinente. Chacun des 5 éléments doit être pris en compte, et tout particulièrement la nécessité de se concentrer sur des domaines ayant un grand potentiel. Par ailleurs, si cette grille d'analyse s'applique au présent, elle entraîne aussi la nécessité de mettre en place une planification glissante sur 10 ans.

En tout état de cause,  pour jouer les premiers rôles dans la recherche mondiale, il faut être en avance. Il faut des instruments pour réaliser des idées et exploiter des résultats. Il faut également préparer le terrain, et les très grands équipements sont indispensables à cet égard.

2. Le débat priorités - régularité des efforts de recherche

L'adoption de priorités pour la recherche est une pratique rencontrée dans tous les pays.

Une discipline peut s'imposer comme une priorité dès lors qu'elle correspond à une demande de la société, comme les sciences du vivant, ou à des débouchés commerciaux supposés de grande ampleur comme les sciences et technologies de l'information.

Le renforcement prioritaire d'une discipline particulière en situation de retard par rapport aux niveaux observés dans d'autres pays peut également mobiliser des efforts exceptionnels.

Il peut également être nécessaire de favoriser des investissements à impact pluridisciplinaire comme des TGE d'infrastructure qui conditionnent les progrès de nombreux domaines scientifiques.

Il convient donc de pouvoir accélérer le développement de disciplines scientifiques d'un intérêt social ou économique particulier. On ne saurait donc que se féliciter des priorités données dans notre pays depuis 1999 aux sciences et techniques de l'information et de la communication et aux sciences du vivant.

Cette priorité répond d'ailleurs au très fort coup d'accélérateur donné aux recherches relatives aux sciences du vivant aux Etats-Unis (voir première partie).

Figure 29 : Evolution du budget fédéral de la recherche par disciplines aux Etats-Unis en milliards de dollars 21

Mais il existe un véritable dilemme priorité-régularité des financements de la recherche, en particulier dans le domaine des très grands équipements.

De nombreux exemples montrent que le relâchement des efforts dans certaines disciplines peut se révéler désastreux quelques années après.

La nécessité d'une régularité dans les financements a été soulignée à plusieurs reprises, dans notre pays, par le Conseil des grands équipements et par l'Académie des Sciences dans son récent rapport.

L'Académie des sciences dans son récent rapport " Science et technologie " d'octobre 2000, commandé par le Comité interministériel de la recherche scientifique et technologique (CIRST), a souligné les dangers du ralentissement actuel des efforts dans certaines disciplines, en particulier en sciences nucléaires, en radiochimie, ou en chimie analytique. Ces ralentissements sont au demeurant incompréhensibles compte tenu des réponses que ces matières pourraient apporter à des interrogations prégnantes de la société.

Dans le domaine de la biologie, on peut citer l'exemple de la physiologie française qui a été tenue dans un relatif oubli alors que la génétique moléculaire prenait de l'importance, mais qui apparaît aujourd'hui comme fondamentale pour les recherches sur le post-génomique. De même, le désintérêt manifesté pendant plusieurs années vis-à-vis de la biologie végétale apparaît aujourd'hui dommageable.

La régularité des financements et l'exhaustivité des disciplines à prendre en compte constituent des éléments fondamentaux de toute politique de recherche.

Ces principes fondent la stratégie américaine, telle qu'elle a été énoncée en 1995 par le comité des conseillers pour la science du Président des Etats-Unis 22 . La nécessité d'un développement parallèle des disciplines explique qu'après avoir favorisé pendant plusieurs années les sciences du vivant avec une augmentation forte des financements de la recherche biomédicale des National Institutes of Health, un rééquilibrage soit amorcé aux Etats-Unis pour 2001 en faveur d'autres disciplines, à savoir mathématiques, physique, chimie, sciences de l'univers.

Bien entendu, un développement de front de toutes les disciplines semble davantage à la portée des Etats-Unis qu'à celle d'un pays comme la France aux ressources plus limitées.

Il semble toutefois que notre pays a réussi dans le passé un développement homogène des différentes disciplines et que, si les besoins d'investissement venaient à excéder ses capacités propres, la coopération européenne permettrait de mutualiser et de diminuer la charge d'un développement coordonné qui doit rester en tout état de cause un objectif cardinal de la science française.

En tout état de cause, ainsi que l'a souligné M. Guy OURISSON, Président de l'Académie des sciences 23 , il faut poursuivre des buts à long terme en matière de politique de recherche, et une évolution en " dents de scie " de leurs ressources serait une catastrophe pour les organismes de recherche.

3. La place du spatial dans l'effort de recherche de la France

Les très grands équipements techniques de l'espace nécessitent, on l'a vu, une augmentation considérable des dépenses d'investissement, tant pour la station spatiale internationale que pour certaines missions lointaines d'exploration de Mars.

Alors que la priorité de la politique française de la recherche est clairement donnée depuis 1999 aux sciences du vivant et aux sciences et technologies de l'information et de la communication, il paraît important de déterminer si la place de l'espace dans l'effort de recherche de notre pays correspond à ses besoins à long terme.

En tout état de cause, si l'importance économique et industrielle de l'espace est majeure dans les sociétés modernes, il apparaît bien que la recherche dans l'espace s'impose également comme une évolution décisive de la science moderne.

Une accélération des efforts de l'Europe dans ce domaine s'impose tant son retard vis-à-vis des Etats-Unis est manifeste, en dépit de succès notables obtenus dans un cadre budgétaire beaucoup moins favorable.

Compte tenu de l'ampleur des financements que nécessitent les programmes spatiaux, il n'en demeure pas moins que la France doit sans doute faire des choix en termes de projets et favoriser la mise en place de nouvelles sources de financement, de façon que l'indispensable développement de la recherche dans l'espace n'assèche pas les ressources disponibles pour d'autres investissements scientifiques.

3.1. L'espace, une nouvelle frontière de la recherche pour de nombreuses disciplines

La mise au point des outils spatiaux est sans aucun doute une évolution majeure de la recherche des vingt à trente dernières années. Il est peu de disciplines scientifiques qui n'aient trouvé dans les satellites de nouveaux moyens d'observation complétant, pour la plupart, les moyens terrestres mais ouvrant aussi de nouveaux territoires à la recherche.

On peut résumer, d'une manière simplifiée, selon la classification adoptée dans le premier chapitre, l'apport de l'espace à chacun des domaines de très grands équipements.

S'agissant des sciences du vivant, il apparaît clairement établi que la biologie en microgravité n'apporte pas les enseignements attendus. Mais il s'agit sans doute là du seul exemple où les résultats de la science dans l'espace aient quelque peu déçu.

La physique des particules et l'astrophysique connaissent à l'heure actuelle une convergence, qui s'exprime notamment par une nouvelle discipline, la physique des astroparticules et par le fait que l'Univers constitue le " meilleur laboratoire " pour de domaines de recherche de la physique des hautes énergies. D'où l'importance des moyens spatiaux d'étude des événements violents survenant dans l'Univers.

La géologie et la planétologie tirent des enseignements fondamentaux des activités spatiales, d'une part pour l'observation de la Terre et d'autre part pour l'étude des planètes de notre galaxie.

De même, on n'imagine plus aujourd'hui que les moyens de l'astronomie au sol ne soient complétés par les satellites d'observation de l'Univers, sur des gammes de longueurs d'ondes étendues et si besoin est avec des sondes spatiales.

Pour l'océanographie et la météorologie, les satellites constituent désormais des outils indispensables dans la chaîne d'observation qui, alimentant les modèles de simulation numérique, permet la prévision météorologique à court terme et la prévision des changements climatiques.

Au reste, l'espace propose une série de nouveaux services qui se révèlent indispensables à la science moderne. Les sciences et technologies de l'information et de la communication trouvent dans les satellites des outils puissants de télécommunications, indispensables à bien des égards à l'Internet et aux réseaux mondiaux à hauts débits. Les satellites de radionavigation offrent également des solutions à nombre de questions scientifiques où le positionnement et la datation sont des paramètres fondamentaux.

L'importance de l'espace pour la recherche étant incontestée, il apparaît important de déterminer si les investissements de l'Europe et en particulier de la France sont à la mesure des enjeux.

3.2. L'indispensable accélération des efforts de l'Europe

L'Europe a enregistré ces dernières années avec l'ESA, dans le cadre duquel le CNES joue un rôle fondamental, des succès considérables, tant en termes de lanceurs avec Ariane 5 qu'avec les satellites scientifiques ou les satellites de service technologiques avancés.

Pour autant, les efforts semblent insuffisants dans la mesure où les Etats-Unis consentent des efforts budgétaires cinq fois et demi plus importants.

Certes, les Etats-Unis allouent à la recherche et au développement autant que l'Europe et le Japon réunis. Mais, en 1998, les Etats-Unis ont consacré à l'espace 26 milliards de dollars de dépenses publiques, alors que l'Europe n'y consacrait que 4,8 milliards de dollars.

Figure 30 : Dépenses publiques pour le spatial en 1998

De nombreux observateurs remarquent que ce décalage provient en partie du fait que l'Europe n'ayant pas de politique de défense commune, n'a pas de politique spatiale de défense autre que celle qui est à la portée, inévitablement limitée, des politiques nationales.

Ainsi, en terme de dépenses publiques en 1998, le spatial civil américain pèse 3,4 fois plus lourd que le spatial civil européen. Mais le spatial militaire américain pèse 16,5 fois plus lourd que l'européen.

Le seul élément de consolation dans ce tableau pour le moins inquiétant, est que le déséquilibre entre la science spatiale américaine et la science spatiale européenne est le même qu'entre les budgets spatiaux civils au sens large.

Tableau 16 : La science spatiale en Europe et aux Etats-Unis

2000

science spatiale

budget total

science spatiale en % du budget total

NASA (millions de dollars)

2 059

13 600

15,1 %

ESA (millions d'euros)

358

2 700

13,2 %

Europe (ESA + budgets nationaux européens)

600

4 000

15 %

3.3. Des choix à faire et des sources nouvelles de financement à mettre en place

L'action de la France dans le domaine de l'espace est confiée au CNES qui s'acquitte de sa mission soit par l'intermédiaire de l'ESA soit directement.

A cet égard, la coopération internationale joue le rôle le plus important puisque, pour 2001, les dépenses du CNES s'effectueront à hauteur de 69 % dans le cadre de l'ESA, ainsi que le montre le tableau suivant.

Tableau 17 : Répartition des dépenses du CNES en termes de TGE spatiaux

Prévisions 2001

ESA

hors ESA

Total

millions de francs

en % du total ESA+hors ESA

millions de francs

en % du total ESA + hors ESA

millions de francs

en % du total des dépenses

Sciences de l'Univers

410

64,1

230

35,9

640

20,9

Sciences de la Terre

710

53,4

620

46,6

1 330

43,5

Sciences de la vie et de la matière

90

47,4

100

52,6

190

6,2

Infrastructure orbitale

900

100,0

0

0,0

900

29,4

Total

2 110

69,0

950

31,0

3 060

100,0

S'agissant de la répartition des dépenses entre les différents chapitres de sa mission, le CNES allouera en 2001 près de 30 % de ses ressources à l'infrastructure orbitale, c'est-à-dire la Station spatiale internationale. Les sciences de la Terre représenteront quant à elles 43,5 % du total et les sciences de l'Univers près de 21 %.

L'évolution de ces dépenses est intéressante à connaître, à la lumière des prévisions faites par le CNES jusqu'en 2006, sur les moyennes annuelles pour la période 2001-2006, par référence aux moyennes annuelles sur la période 1997-2000.

D'après cette programmation " glissante " du CNES, c'est-à-dire révisable en fonction des urgences politiques ou scientifiques, on constate que la part du transport spatial devrait diminuer du fait de la maturité du programme Ariane. La part des moyens, si l'on y ajoute la part de l'infrastructure orbitale, à savoir la Station spatiale internationale, passera de 47 à 43 % du total.

Les programmes des sciences et des technologies devraient connaître une croissance forte en passant de 25 à 32 % du total. Cette évolution correspond avec la montée des besoins d'observation de la Terre, que ce soit pour l'océanographie, la météorologie ou la géophysique.

Tableau 18 : Evolution de la répartition des programmes du CNES par grands domaines

1997-2000

2001-2006

montant annuel moyen (milliards de francs)

6340

6554

Transport spatial (%)

38

31

Sciences et technologies (%)

25

32

Applications (%)

28

25

Infrastructure orbitale (%)

9

12

Toutefois, la part des applications passerait de 28 à 25 %, ce qui pose le problème de la programmation dans le temps de certaines missions spatiales.

A cet égard, les missions relatives à Mars, et en particulier la mission Retour d'échantillons de Mars semblent reculer dans le temps en raison de problèmes de faisabilité qui incitent à la prudence et nécessitent de multiplier les étapes de validation des différentes technologies nécessaires.

A l'inverse, la France met en avant le programme de GALILEO de positionnement par satellite.

L'accélération du programme GALILEO et le ralentissement du programme Retour d'échantillon de Mars correspondent à l'évidence à la règle qui devrait s'imposer de plus en plus aux pouvoirs publics d'accorder une priorité aux programmes spatiaux dont les retombées sont les plus importantes sinon les plus rapides.

Par ailleurs, dans la première partie, on a détaillé l'ampleur de la charge représentée par la participation française, via l'ESA, à la Station spatiale internationale.

Si, pour des raisons juridiques mais également politiques et stratégiques, il ne saurait être question de remettre en cause la participation française, il semble nécessaire de revoir les conditions de son financement dont il est paradoxal qu'il n'incombe qu'au seul budget de la recherche.

D'une manière plus générale, une clarification des circuits de financement des applications spatiales pourrait apparaître bienvenue. Il parait à cet égard contestable que l'on considère comme un TGE dans la nomenclature actuelle du ministère de la recherche une participation de 155 millions de francs par an aux sciences de la vie dans l'espace.

A bien des égards, les applications spatiales constituent des outils banalisés dans de multiples activités de recherche ou pour de nombreux services à fort contenu technologique.

En conséquence, le moment semble venu de ne plus imputer au seul budget de la recherche le coût d'applications intégrées dans la panoplie des moyens d'usage quotidien.

ANNEXE 6 : ELÉMENTS SUR LE FINANCEMENT PRIVÉ DE LA RECHERCHE

Compte tenu du poids croissant de la recherche privée dans l'effort national de recherche, une action d'envergure en faveur de la recherche française peut aussi s'envisager sous l'angle d'une mobilisation de sources de financement complémentaires et doit sans doute comprendre également un volet d'une ambition accrue pour soutenir la recherche des entreprises.

1. Le rôle encore modeste des institutions sans but lucratif et des fondations dans le financement de la recherche

La diversification des sources de financement de la recherche et des instituts de recherche est une évolution qui n'a sans doute pas encore trouvé sa pleine mesure dans notre pays.

Les financements apportés par les institutions charitables jouent d'ores et déjà un rôle significatif dans la recherche.

Ainsi, les ressources collectées par l'Association française contre les Myopathies, se sont élevées en 1999 à 622 millions de francs. En 1999, 468 millions de francs auront été collectés à l'occasion du Téléthon.

Le montant total collecté lors des 13 premières années de cet événement atteint 4,3 milliards de francs.

L'aide à la recherche représente environ les deux tiers des activités de l'AFM, le tiers restant étant dévolu à l'aide directe aux malades.

En tout état de cause, il ne semble pas abusif de dire que l'AFM a contribué d'une manière décisive à l'accélération des travaux de séquençage du génome réalisés en France et plus généralement à l'essor de la génomique dans notre pays.

Un autre élément doit être pris en compte dans l'effort de recherche, c'est l'intervention des institutions sans but lucratif.

Figure 31 : Dépenses intérieures de recherche des institutions sans but lucratif (ISBL) - évolution en valeur absolue et en pourcentage de la DIRD 24

Les institutions sans but lucratif sont composées des associations, des fondations et des instituts de recherche comme l'Institut Pasteur, l'Institut Curie et l'Institut national de transfusion sanguine. La part de leur dépense représentait 1,35 % de la DIRD totale en 1994 et atteint 1,45 % en 1999.

Les dépenses de recherche des institutions sans but lucratif sont focalisées dans les sciences du vivant. Leur montant pourrait sans doute accru grâce à des possibilités fiscales favorisant plus encore qu'aujourd'hui les dons directs.

Par ailleurs, il faut signaler le rôle d'acteur essentiel de financement de la recherche dans le domaine de la santé d'organismes comme les fondations anglo-saxonnes. Au Royaume-Uni, un " charity trust " comme le Wellcome Trust joue un rôle de plus en plus important dans le financement de la recherche, concurrençant même dans certains programmes le Gouvernement britannique lui-même.

On peut se demander s'il n'y aurait pas lieu dans le cadre d'une réflexion globale sur le financement de la recherche, d'étudier la transposition dans notre pays de mécanismes comme ceux des fondations anglo-saxonnes.

2. Les facteurs influençant le dynamisme de la recherche privée

Les causes de fluctuations de l'effort de recherche des entreprises ainsi que les modalités d'une aide publique optimale ont fait l'objet de multiples travaux de recherche. On citera ici deux études de l'OCDE.

Les causes des fluctuations des investissements de R&D des entreprises ont fait l'objet d'une étude portant sur 12 pays de l'OCDE, sur la période 1972 à 1996 25 .

La diminution enregistrée à la fin des années 1980 et au début des années 1990 a quatre causes principales.

Dans certains pays, les changements de structures économiques ont exercé une influence de fond, notamment dans le cas de phénomènes de tertiarisation de leur économie qui ont pu affecter certains pays.

La deuxième cause de la baisse de l'effort de recherche des entreprises durant la période de référence est le ralentissement économique du début des années 1990.

La réduction des financements publics a joué également un rôle important, même si elle résulte principalement d'une contraction générale des budgets de la défense.

La hausse des taux d'intérêt a enfin contribué au relâchement des efforts consentis par les entreprises pour la recherche.

Au demeurant, une autre étude réalisée par l'OCDE analyse les canaux par lesquels le soutien public à la recherche favorise la recherche privée. Cette analyse couvre 17 pays de l'OCDE sur la période 1981-1996 26 .

La R&D financée par les pouvoirs publics favorise la recherche privée, à la fois à court terme mais aussi à long terme. Les incitations fiscales exerceraient leur action principalement à court terme.

L'efficacité du soutien public à la R&D s'accroît avec l'ampleur de celui-ci, sauf au delà d'un seuil estimé à 15 % du total.

Le soutien public aux objectifs de défense aurait un impact global négatif sur la recherche privée.

Quel que soit le pays et la période considérés, les instruments les plus stables sont aussi les plus efficaces.

Ces indications ont été largement reprises par la politique récente de soutien à la recherche privée.

3. La recherche privée en France

Sur la base de positions de départ en retrait par rapport à de nombreux autres pays, la recherche privée française tend depuis quelques années à se renforcer. L'accroissement des investissements en R&D est un impératif dans la concurrence mondiale. La restauration des marges bénéficiaires permet d'accélérer l'effort sans détériorer la situation financière, contrairement à ce que l'on observait dans les années récentes. Il n'en demeure pas moins indispensable que les pouvoirs publics renforcent ce mouvement et accroissent encore les liens entre la recherche publique et la recherche privée.

3.1. Une position de départ moins favorable que dans d'autres pays

La structure de la recherche française est, on le sait, particulière, avec un rôle plus important que dans d'autres pays, joué par la recherche publique. La part de l'industrie était en effet en France en 1998 de 50,3 % du total contre 53,9 % pour la moyenne européenne et 61,7 % pour l'Allemagne.

Figure 32 : Répartition des dépenses de R&D par origine en 1998 27

A titre de comparaison, la part des entreprises dans les dépenses de recherche atteignait 66,7 % du total en 1998 et 73,4 % au Japon.

Il convient de souligner que les efforts très importants faits par les deux pôles de la recherche française pour se rapprocher vont évidemment dans le bon sens en ce qui concerne la compétitivité de l'économie française.

On doit remarquer à cet égard que les TGE sont des lieux de coopération privilégiée entre les entreprises et les laboratoires publics et privés, ce qui est une justification de plus de l'intérêt des équipements lourds.

S'agissant du financement par les entreprises de leurs dépenses de recherche, la situation de la France est similaire à la moyenne européenne, avec près de 80 % du total autofinancé, près de 10 % provenant de subventions directes des pouvoirs publics, et environ 10 % provenant de sources étrangères et de sources privées (voir figure suivante).

Figure 33 : Financement des dépenses de R&D des entreprises - autofinancement, subventions du gouvernement et autres sources nationales et étrangères 28

L'écart des dépenses de recherche des entreprises françaises et des entreprises allemandes, est au demeurant important en valeur absolue.

Ainsi, si l'écart entre l'Allemagne et la France était de 56 % en 1998 pour la DIRD globale, les entreprises allemandes ont dépensé 70 % de plus que les entreprises françaises en R&D pendant la même année.

Figure 34 : Dépenses des entreprises en R&D en 1998 (milliards d'écus)

3.2. Les efforts récents

Alors que l'effort de recherche des entreprises (DIRDE) avait baissé à partir de 1993, un redressement s'est opéré à partir de 1998, pour l'ensemble des entreprises.

Cet effort a été particulièrement sensible pour les grandes entreprises. Les vingt cinq plus grandes entreprises françaises ont en effet investi 100 milliards de francs dans la recherche en 1998, soit une augmentation de 12,2 % par rapport à leurs investissements de 1997 29 . La création de laboratoires de recherche en dehors de France est un mouvement qui semble se généraliser aux principales entreprises. Il s'agit en effet à la fois de bénéficier d'apports intellectuels différents de ceux de la recherche française et d'afficher une image d'excellence technologique sur des marchés jugés stratégiques.

Ainsi, France Télécom a ouvert un laboratoire dans la Silicon Valley, Renault au Brésil, Vivendi à Hong Kong, Suez-Lyonnaise des Eaux en Malaisie et en Angleterre.

Ce mouvement des grandes entreprises s'est poursuivi en 1999 puisque les trente plus grandes entreprises françaises ont investi 127 milliards de francs, soit une augmentation de 10 % par rapport à 1998, alors que les subventions et les contrats de recherche accordés par les administrations publiques enregistraient une baisse sensible 30 .

Au demeurant, le mouvement d'externalisation et d'internationalisation de la recherche des grandes entreprises s'est poursuivi. En l'occurrence, ces évolutions semblent devenir une tendance lourde de leur stratégie de recherche.

A ces évolutions, il faut ajouter le rachat de " start up ", que les grandes entreprises effectuent pour enrichir leurs structures d'équipes nouvelles spécialisées sur des créneaux porteurs.

L'essaimage risque ainsi de prendre une réalité inattendue, avec la création temporaire d'équipes prenant leur liberté par rapport à une structure initiale puis intégrant pour diverses raisons une autre structure.

3.3. Le renforcement des interactions entre la recherche publique et privée

Le renforcement des interactions entre la recherche publique et privée est une orientation fondamentale de ces dernières années.

L'une des bases de l'action des réseaux nationaux de recherche et d'innovation technologiques est d'accorder des financements de soutien aux seuls projets regroupant des laboratoires publics et privés.

Par ailleurs, les Centres nationaux de recherche technologique (CNRT), ont pour objectif de créer les conditions d'une collaboration efficace entre les laboratoires de recherche publique et les centres de recherche des grands groupes industriels, pour développer les activités de recherche technologique.

Les CNRT, dont les douze premiers ont été installés en juillet 2000 par M. Roger-Gérard SCHWARTZENBERG, constituent aujourd'hui un axe majeur du dispositif de soutien par le ministère de la Recherche aux transferts de technologies.

Il ne fait pas de doute que, lorsqu'un premier bilan pourra être fait de ces initiatives, il sera positif.

3.4. Le crédit d'impôt recherche

Le crédit d'impôt recherche a été institué en 1982 et régulièrement reconduit depuis lors. La loi de finances pour 1999 a introduit des modifications destinées à le rendre plus incitatif et l'a prorogé pour 5 ans 31 . Le succès de cette mesure pourrait inciter à étendre le rôle.

L'article 67 de la loi n° 82-1126, codifié à l'article 244 quater du code général des impôts a institué un crédit d'impôt consistant en une réduction de l'impôt sur les sociétés ou de l'impôt sur le revenu dû par les entreprises, représentant 50 % de l'accroissement en volume de leur effort de recherche et développement d'une année par rapport à la moyenne des deux années précédentes.

Les types de dépenses ouvrant au crédit d'impôt recherche sont au nombre de huit et indiquées dans le tableau suivant.

Tableau 19 : Les dépenses ouvrant droit au crédit d'impôt recherche en 1999

1. les salaires des ingénieurs et techniciens de recherche

2. les frais de fonctionnement calculés forfaitairement en fonction des salaires versés

3. la sous-traitance de recherche effectuée par des universités ou des organismes de recherche ou par des entreprises agréées par le ministère chargé de la recherche

4. les dotations aux amortissements des immobilisations affectées à la recherche et au développement

5. les frais de dépôt et de maintenance des brevets

6. les dotations aux amortissements des brevets acquis en vue de la recherche

7. certaines de dépenses de normalisation

8. les dépenses liées à l'élaboration de nouvelles collections exposées par les entreprises individuelles du secteur textile

Le montant du crédit d'impôt recherche est limité à 40 millions de francs par entreprise et par an.

On trouvera dans le tableau ci-dessous une analyse des dépenses retenues pour le crédit d'impôt recherche en 1997.

Tableau 20 : Ventilation des dépenses retenues

pour le crédit d'impôt recherche en 1997

1997

dépenses (milliards de francs)

en % du total

1 + 2 Salaires et dépenses de fonctionnement

50,4

70,1 %

3. Sous-traitance d'opérations de recherche

15,0

20,9 %

4. Dotations aux amortissements

4,2

5,8 %

5 + 6 Brevets

1,1

1,6 %

7. Dépenses de normalisation

0,055

0,08 %

8. Dépenses de collection

1,1

1,5 %

Total sans les subventions

71,9

100,0 %

Subventions

2,5

-

Total général

69,4

Ce sont les salaires et les dépenses de fonctionnement qui représentent le poste principal des dépenses éligibles, suivies des dépenses de sous-traitance de la recherche à des organismes agréés, dont évidemment les organismes de recherche publics.

Le tableau ci-après montre l'effet général de la mesure sur l'ensemble des entreprises, avec une répartition à peu près égale entre les grandes entreprises et les PMI/PME.

Tableau 21 : Répartition des effets du crédit d'impôt recherche selon la taille des entreprises

1997

nombre d'entreprises concernées

(en % du total)

dépenses de R&D effectuées

(en % du total)

crédit d'impôt recherche

(en % du total)

Petites entreprises

(moins de 20 salariés)

33

4

12

Entreprises moyennes

(de 20 à 500 salariés)

58

24

42

Grandes entreprises

(plus de 500 personnes)

9

72

46

Total

100

100

100

Le crédit d'impôt recherche a représenté en 1999 un montant total de 2,9 milliards de francs, et a bénéficié à 3033 entreprises.

Le dispositif a été prorogé jusqu'en 2003 par la loi de finances pour 1999, tout en ayant fait encore l'objet d'améliorations visant à le rendre plus incitatif.

Les jugements sur le crédit d'impôt recherche sont contrastés.

Le groupe communiste a proposé, lors de la discussion en première lecture à l'Assemblée nationale du projet de loi sur l'innovation et la recherche, un amendement de suppression de ce dispositif, en mettant en avant son manque de transparence, d'efficacité et en soulignant ses dérives. Il a proposé en remplacement un impôt recherche libératoire dénommé " contribution annuelle au titre de la recherche ". Cet amendement n'a pas été adopté. L'économie du système proposé était très différente du système actuel puisqu'il s'agissait de mettre en place un impôt nouveau de 0,2 % sur la valeur ajoutée que les entreprises auraient acquitté dans le cas où elles n'auraient pas fait de recherche.

Ces critiques contre certains aspects du dispositif actuel étant mises à part, il semble que le crédit d'impôt recherche soit jugé plutôt positivement.

Certains observateurs se demandent même s'il ne serait pas opportun d'en élargir les bases.

A vrai dire, le crédit impôt recherche a fait l'objet au cours du temps d'élargissements successifs, notamment en 1985 à l'occasion de l'adoption de la loi n° 85-1376 du 23 décembre 1985 relative à la recherche et au développement technologique. Les dispositions proposées ont alors rencontré un accord politique très large.

Sous réserve d'un examen attentif de l'impact que de telles dispositions pourraient avoir sur le déficit public, le relèvement du plafond de 40 millions de francs par an et par entreprise pourrait être étudié, à la fois pour tenir compte de l'augmentation des coûts de la recherche et pour que les grandes entreprises en tirent un meilleur parti, sans pour autant que ceci nuise aux PME/PMI.

S'il apparaissait important et opportun de favoriser par ce moyen la coopération entre recherche publique et recherche privée, le quota des 50 % pourrait être relevé pour ce type particulier de dépenses.

La question de l'amortissement des dépenses de logiciel a été évoquée à plusieurs reprises lors des auditions. Il serait sans doute utile d'étudier l'impact d'une mesure qui concernerait les logiciels de conception ou de design assisté par ordinateur, tout en reconnaissant que la frontière des logiciels de calculs dits scientifiques est difficile à mettre en place.

S'agissant des TGE proprement dits, la participation des entreprises à leur construction et à leur fonctionnement ne semble pas, pour le moment, les intéresser de près ou de loin.

Les entreprises préfèrent en effet acheter directement des temps d'accès en fonction de leurs besoins à court terme, et accéder ainsi aux machines disponibles les plus performantes.

S'il apparaissait important d'associer de plus près les entreprises à leur construction voire à leur fonctionnement par des prises de participation, il conviendrait de mettre en place une incitation fiscale très forte, sans doute en dehors du mécanisme du crédit d'impôt recherche, du type d'un amortissement très fortement dégressif.

3.4. L'innovation et l'ANVAR

L'encouragement à l'innovation est une préoccupation constante des pouvoirs publics depuis quelques années, préoccupation qui s'est traduite récemment par la loi n° 99-587 du 12 juillet 1999 sur l'innovation et la recherche.

Ainsi que l'indiquait dans son rapport pour la Commission des Affaires culturelles, M. Pierre LAFFITTE 32 , " L'innovation est désormais enfin reconnue dans les milieux industriels, technologiques et politiques comme un élément essentiel de la croissance et un facteur déterminant de la création d'emplois. [...] Mais innovation n'est pas synonyme de recherche bien qu'elle soit de plus en plus liée à la recherche. Elle est liée aux idées qui peuvent entrer en application, conduire à des produits et à des services qui eux-mêmes doivent trouver un marché grâce à des transferts ou créations d'entreprises. "

La loi sur l'innovation et la recherche comprend un premier volet permettant aux fonctionnaires d'apporter leur concours en tant qu'associé à une entreprise de valorisation. Le deuxième volet a pour but de favoriser les coopérations entre la recherche publique et les entreprises, en rendant possible la création de services d'activités industrielles et commerciales au sein des établissements d'enseignement supérieur et en permettant aux établissements publics d'enseignement supérieur et aux EPST d'aider à la création et au développement d'entreprises.

Par ailleurs, la loi ouvre la possibilité aux EPST de contracter avec l'Etat et simplifie les procédures qui leur sont imposées pour la création de structures de collaboration. Enfin la loi élargit le régime fiscal des bons de souscription de parts de créateur d'entreprise, pour les entreprises détenues à 25 % au moins, au lieu de 75 %.

La timidité des mesures fiscales d'incitation à l'innovation a été soulignée à plusieurs reprises par M. Pierre LAFFITTE.

Les premiers résultats de cette politique ont toutefois été soulignés par M. Roger-Gérard SCHWARTZENBERG, ministre de la recherche, le 18 juillet 2000 33 . Ainsi, selon les estimations produites à cette date, le nombre de créations d'entreprises par des chercheurs et les enseignants-chercheurs des laboratoires publics devrait dépasser la centaine, contre vingt en 1999. Le nombre de réseaux de recherche et d'innovation technologique associant laboratoires publics et entreprises privées est passé de un à dix en un an. En juillet 2000, il existait déjà 29 " incubateurs " ainsi que sept fonds d'amorçage devant totaliser 700 millions de francs à la fin 2000. Le concours destiné à favoriser la création d'entreprises innovantes, doté en 2000 de 200 millions de francs, devrait permettre l'installation en deux ans de plus de 500 entreprises.

Sur un plan global, l'observation est faite par certains que la valorisation de la recherche souffre en France d'un handicap qui est encore loin d'être comblé.

Pour autant, la France dispose avec l'ANVAR (Agence nationale de valorisation de la recherche) en premier lieu et, en second lieu, avec les centres techniques industriels, d'outils qui font l'unanimité de par leur excellent fonctionnement.

Les subventions à l'innovation et les avances remboursables de l'ANVAR en 1999 ont représenté un montant de 1,4 milliard de francs en 1999.

Tableau 22 : Aide à l'innovation de l'ANVAR en 1999 34

Nature de l'intervention

Nombre d'aides

Montant

(millions de francs)

Faisabilité et développement de projets

1 279

1 083

Recrutements ingénieurs-chercheurs

963

150

Total des aides aux PME-PMI

2 242

1 233

Procédures spécifiques

893

166

Émetteurs de technologie

43

24

Réseau de diffusion technologique

30

49

Sociétés de recherche sous contrat (SRC)

49

76

Projets jeunes

706

14

Inventeurs indépendants

65

3

Total

3 135

1 400

Outre les 1.400 millions de francs ouverts à son budget, l'ANVAR a également mobilisé, en 1999, 191 millions de francs supplémentaires, provenant d'autres services de l'Etat, de collectivités locales et de crédits européens. Au premier semestre 2000, les engagements accordés par l'Agence s'élevaient à 662,56 millions de francs pour 1.580 dossiers enregistrés.

Pour autant, les crédits de valorisation de la recherche, qui sont de l'ordre de 4 à 5 milliards de francs paraissent insuffisants à beaucoup, en regard des crédits publics de recherche, qui sont de 15 à 20 fois supérieurs 35 .

1 Ministère de la Recherche, note aux Rapporteurs, 19 juin 2000.

2 Les TGE : vers une évolution des concepts et moyens, rapport d'étape du CSRT, Alain PAVE et Claudine LAURENT, octobre 2000.

3 Office parlementaire d'évaluation des choix scientifiques et technologiques, novembre 2000.

4 Source : Towards a European Research Area - Science, Technology and Innovation - Key Figures 2000, Commission européenne, 2000.

5 Ecarts de dépenses de R&D (DIRD) en milliards d'euros aux parités de pouvoir d'achat de 1990.

6 Source : Towards a European Research Area, op. cit.

7 Source : OCDE et ministère de la recherche - DPD-C3, septembre 2000, cité par M. Christian CUVILLIEZ, Rapporteur spécial, rapport au nom de la commission des finances sur le projet de loi de finances pour 2001, Assemblée nationale n° 2624 , annexe n° 37.

8 Source : OCDE et ministère de la recherche, op.cit.

9 Source : Excellence and Opportunity, a science and innovation policy for the 21 st century, White Paper, Department of Trade and Industry, Royaume Uni.

10 Science et Technologie, Indicateurs 2000, Rapport de l'Observatoire des Sciences et des Techniques, Paris, 2000.

11 Source : American Association for the Advancement of Science ; R & D civile et militaire.

12 Actualités scientifiques et technologiques, Service Science et Technologie, Ambassade de France à Londres, avril 2000.

13 Excellence and Opportunity, a science and innovation policy for the 21 st century, Department of Trade and Industry,

14 Source : ministère de la recherche / DPD-C3, cité dans le rapport au nom de la commission des finances sur le projet de loi de finances pour 2001, par M. Christian CUVILLIEZ, Rapporteur spécial, n° 2624, annexe n° 37.

15 Source : ministère de la recherche / DPD-C3, op.cit.

16 La liste des EPST est la suivante : Inra, Cemagref, Inrets,, Lcpc, Inria, Cnrs, Inserm, Ined, Ird.

17 La liste est la suivante : Ifremer, Cirad, Ademe, Brgm, Cnes, Cea.

18 Christian CUVILLIEZ, rapporteur spécial de la commission des finances, discussion de la 2 ème partie du projet de loi de finances pour 2001, Assemblée nationale, séance publique du 2 novembre 2001.

19 Rapport au nom de la commission des finances sur le projet de loi de finances pour 2001, par M. Christian CUVILLIEZ, Rapporteur spécial, Assemblée nationale n° 2624, annexe n° 37.

20 Guy OURISSON, Président de l'Académie des sciences, Office parlementaire d'évaluation des choix scientifiques et technologiques, 25 octobre 2000.

21 Source : American Association for the Advancement of Science.

22 " La régularité du financement qui doit être basée sur une planification à long terme, est indispensable pour que les investissements financés par le budget fédéral atteignent les objectifs fixés avec efficacité, pour obtenir les effets de formation désirés et pour permettre la coopération internationale " . Wellspring of Prosperity, Science and Technology in the U.S. Economy, President's Committee on Advisors on Science and Technology, Spring 2000.

23 Audition du bureau de l'Académie des sciences par l'Office parlementaire d'évaluation des choix scientifiques et technologiques, 25 octobre 2000.

24 Source : ministère de la recherche, DMD-C3, op.cit.

25 Dominique GUELLEC et Evangelos IONNADIS, Revue économique de l'OCDE, n° 29, 1997/II.

26 Dominique GUELLEC et Bruno VAN POTTELSBERGHE DE LA POTTERIE, Revue économique de l'OCDE, n° 29, 1997/II.

27 Source : Towards a European Research Area - Science, Technology and Innovation - Key Figures 2000, Commission européenne, Direction générale Recherche, Eurostat - OCDE ; Autres : autres sources de financement nationales et étrangères.

28 Source : Towards a European Research Area - Science, Technology and Innovation - Key Figures - Commission européenne, Direction générale de la recherche, Eurostat-OCDE.

29 Le Monde, 3 novembre 1999.

30 Le Monde, 17 octobre 2000.

31 Jean-Yves LE DEAUT et Pierre COHEN, Priorité à la recherche - Quelle recherche pour demain ? Rapport au Premier ministre, juillet 1999.

32 Rapport de M. Pierre LAFFITTE, au nom de la Commission des Affaires culturelles sur le projet de loi sur l'innovation et la recherche, Sénat n° 217 (1998-1999).

33 La recherche, " booster numéro 1 de l'économie et de l'emploi ", AFP, 18 juillet 2000.

34 Source : Secrétariat d'Etat à l'industrie, cité par Michel DESTOT, rapport au nom de la Commission des finances, de l'économie générale et du Plan, par Didier MIGAUD, Assemblée nationale n° 2624, Annexe n° 13 Economie, finances et industrie, industrie.

35 Robert BOYER et Michel DIDIER, Innovation et croissance, Conseil d'analyse économique, 1998.

COMPTES-RENDUS DES AUDITIONS

1. La méthodologie du rapport - mercredi 26 avril 2000

• M. Jacques FRIEDEL, Président honoraire de l'Académie des Sciences

• Mme Claudine LAURENT, Vice-présidente du Conseil supérieur de la recherche et de la technologie (CSRT)

• M. Roger BALIAN, membre de l'ancien Conseil des grands équipements

En introduction à la réunion, M. Christian CUVILLIEZ, Député, rapporteur, a rappelé qu'à la demande de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, le Bureau de l'Assemblée nationale a décidé que l'étude sur les conditions d'implantation d'un nouveau synchrotron comporterait une deuxième partie, consacrée, elle, à la problématique générale du " rôle des très grands équipements dans la recherche publique et privée en France et en Europe " .

Pour la préparation de cette deuxième partie, il sera procédé selon la même méthode que précédemment, c'est-à-dire à l'audition de l'ensemble des personnes concernées, afin que la confrontation des points de vue permette de dégager des priorités et si possible une hiérarchie dans les besoins futurs en très grands équipements.

De même que pour la première partie, un groupe de travail composé de scientifiques est en cours de constitution, auquel M. Christian CUVILLIEZ a remercié Mme Claudine LAURENT et M. Roger BALIAN de bien vouloir appartenir.

Au terme de la présente étude, l'idée s'imposera-t-elle de reconstruire le Conseil des grands équipements scientifiques et la nécessité apparaîtra-t-elle de n'envisager les investissements correspondants que sous le seul angle européen ?

Ces questions, probablement récurrentes dans les travaux du groupe de travail, devraient recevoir un début de réponse au cours de la présente réunion, avec l'audition de M. Jacques FRIEDEL, fondateur du Conseil des grands équipements, de M. Roger BALIAN, membre de ce conseil de 1994 à 1996 et de Mme Claudine LAURENT, vice-présidente du Conseil supérieur de la recherche et de la technologie (CSRT).

*

Mme Claudine LAURENT, vice-présidente du Conseil supérieur de la Recherche et de la Technologie (CSRT), a indiqué que ce conseil, présidé par le ministre de la recherche lui-même, a, entre autres activités, créé un groupe de travail sur la problématique générale des très grands équipements (TGE). La première question abordée a naturellement été celle de la définition des TGE, dans la mesure où ce qu'on labellise actuellement sous ce vocable ressortit plutôt d'une " liste à la Prévert " que d'une définition scientifique. Un historique de la notion est également effectué, de même qu'un examen des raisons pour lesquelles certains équipements sont inscrits sur les crédits TGE du budget civil de la recherche au contraire d'autres équipements qui pourraient l'être également.

Au fil de ses réflexions, le groupe de travail a décelé l'intérêt qu'il y aurait d'accorder, le cas échéant, un label " TGE d'intérêt collectif " à ceux des TGE dont l'apport concerne plusieurs disciplines. Au reste, le groupe de travail a établi une liste des TGE, en identifiant les communautés scientifiques concernées. Ainsi, un TGE comme le satellite SOHO d'observation du Soleil, s'il est un équipement onéreux, est au service essentiellement d'une discipline scientifique particulière, ce qui le distingue d'un autre très grand équipement comme un synchrotron.

Au demeurant, le groupe de travail du CSRT continue sa réflexion. Mme Claudine LAURENT s'est réjouie de sa participation au groupe de travail constitué par les Rapporteurs de l'Office, puisqu'il sera ainsi possible d'éviter la duplication des efforts sur les TGE. L'importance du problème est en tout état de cause suffisamment grande pour qu'une coordination soit nécessaire. Il reste en effet à analyser les très grands équipements actuels et futurs, à mettre au point non seulement une procédure de labélisation mais aussi des mécanismes de décision efficaces tant pour le lancement des TGE que pour leur arrêt.

A l'occasion d'une remarque de M. Roger BALIAN faisant état d'un seuil d'investissement de 100 millions de francs pour le classement d'un projet dans la catégorie TGE, Mme Claudine LAURENT a estimé que la mise en _uvre d'un tel seuil est malaisée tant la détermination du périmètre des TGE se prête à des interprétations différentes.

Ainsi une bouée de mesures océanographiques ne représente pas, à elle, seule un TGE, alors qu'avec le satellite sans lequel elle est inopérante, elle rentre dans cette catégorie. D'autres exemples méritent une réflexion approfondie, celui d'un projet comme la numérisation des bibliothèques, celui du successeur du réseau à grand débit RENATER ou bien encore le cas d'un centre de calcul de pointe, qui échappent totalement pour le moment à la notion de TGE. Le rapport de l'Office parlementaire sera à cet égard particulièrement utile

En tout état de cause, le critère de l'intérêt collectif semble important à approfondir. Il semble en effet qu'il existe, à ce stade de la réflexion, deux types de TGE, les uns d'intérêt collectif, et les autres " unidisciplinaires " . Outre l'exemple de SOHO, on peut citer à cet égard la sonde Cassini Huygens dont les résultats sont certes utilisés dans le cadre d'une coopération internationale mais par quelques dizaines de chercheurs français seulement. Au vrai, il semble contestable d'appliquer le label TGE à une sonde de ce type, qui plus est déjà lancée dans l'espace, alors qu'un réseau de calculateurs et ses moyens humains ne sont pas répertoriés au nombre des TGE.

M. René TRÉGOUËT, Sénateur, rapporteur , a alors souligné combien il est important de mettre au point une grille de lecture des très grands équipements scientifiques. Le rapport de l'Office ne saurait s'y soustraire, même si ses recommandations se placeront au niveau politique. D'ores et déjà, il semble apparaître plusieurs catégories de TGE.

La première catégorie de TGE pourrait comprendre les équipements utilisés dans des recherches nécessaires pour la Connaissance et pour l'Humanité, équipements dont les résultats sont d'ailleurs exploités par un petit nombre de chercheurs. Il apparaîtrait en tout état de cause incohérent d'envisager de les réaliser au niveau national. Au contraire, c'est le niveau international qui s'impose.

La deuxième catégorie de TGE correspondrait aux installations de grande taille, devant donner lieu à des applications mais seulement au terme de développements aléatoires impossibles à assumer financièrement par un seul pays. Le cadre d'une coopération européenne semble alors s'imposer pour leur réalisation.

La troisième catégorie est celle des TGE dont la construction est pertinente au niveau national. Ainsi que l'a montré le rapport de l'OPECST, c'est le cas du synchrotron, dont les utilisations se multiplient et même explosent, en particulier dans le domaine de la biologie. Dans le cas de tels grands instruments desservant un grand nombre de communautés scientifiques nationales, " le retour sur investissement pour la communauté nationale " devient un critère de décision essentiel.

A cet égard, une réflexion sur le niveau optimal d'intervention nationale est d'autant plus indispensable que l'on voit les Etats-Unis alléger leurs dépenses spatiales - ainsi pour les missions sur Mars - grâce à la participation très importante de la France, ce qui leur permet d'investir massivement au niveau national pour les Sciences de la Vie, dont le retour sur investissement pour la communauté nationale américaine est incomparablement plus grand.

M. Jacques FRIEDEL , ayant fait connaître qu'il n'avait pas d'objection à faire à cette proposition et qu'il était d'accord pour repenser la notion de très grand équipement, a estimé nécessaire de ne pas traiter tous les TGE de la même façon. Toutefois, ces instruments ont en commun d'être chers et de faire l'objet d'un cadrage budgétaire. Leur budget doit donc être planifié sur des longues années alors que l'horizon du budget de l'Etat est l'année. En tout état de cause, il est nécessaire d'établir une cohérence entre les différents TGE lancés les uns après les autres et d'assurer un suivi. De telles tâches échappent à la responsabilité d'un ministère dont la durée moyenne n'excède pas 3 ans. Or les TGE se planifient en 3 ans et s'exécutent en 10 ans. Il faut noter, à cet égard, que le Plan assurait autrefois la cohérence entre les crédits des ministères et ceux des TGE.

Pour M. Jacques FRIEDEL, le fait qu'il existe une coopération internationale et européenne de plus en plus importante et active, ne saurait signifier qu'il soit opportun de reporter au niveau européen toutes les réflexions sur les grands équipements ne présentant pas un intérêt national immédiat. Il serait en effet dommageable que l'Europe soit seule à décider des TGE que la France contribuerait à financer. En réalité, il faut une réflexion sur la nature des TGE, domaine par domaine, et mettre en place un processus de suivi qui dépasse la durée moyenne des fonctions d'un ministre de la recherche.

A ce titre, M. Jacques FRIEDEL a rappelé que le Conseil des grands équipements jouait ce rôle même s'il n'était pas toujours écouté. Il avait ainsi délivré un avis négatif sur le projet ITER, avis transmis au ministre de la recherche mais jamais répercuté au niveau international,

M. Roger BALIAN a ajouté que les scientifiques avaient jugé que l'intérêt de la station spatiale ne pouvait être que politique.

Notant que de telles questions ne peuvent pas ne pas intéresser les chercheurs français, M. Jacques FRIEDEL a estimé au contraire qu'il ne faut pas " éjecter de la réflexion nationale ce qui est de portée européenne ou internationale " .

A cet égard, M. Roger BALIAN a précisé d'une part que la coopération internationale en matière de TGE est à géométrie variable, allant de projets bilatéraux à des projets multilatéraux, et, d'autre part, que celle-ci doit être pilotée au niveau national, ce qui oblige dans tous les cas à maintenir des compétences. Mais il existe une autre limite à la notion actuelle de TGE, à savoir l'absence de critère permettant de distinguer ceux qui ont une vocation scientifique de ceux qui n'en ont pas.

Ainsi, le label scientifique a été accordé dans le passé à des projets qui ne l'étaient pas. M. Roger BALIAN a cité sur ce point des expérimentations sur la croissance des plantes en apesanteur ou de biologie humaine dans l'espace. On peut dire dans ce dernier cas que de nombreuses expériences de biologie humaine dans l'espace visent davantage le développement des vols spatiaux eux-mêmes que l'accroissement du stock de connaissances générales en biologie. En conséquence, il semble nécessaire d'être capable de reconnaître sans ambiguïté la portée scientifique réelle des différents TGE. Au demeurant, il existe bien entendu des TGE mondiaux ou européens auxquels la France peut coopérer même s'ils n'ont pas de retombée scientifique immédiate. Mais la justification de la participation française ne devrait pas alors être présentée comme de nature scientifique.

*

A l'instigation de M. René TRÉGOUËT, Sénateur, rapporteur , qui a souligné que le réseau à haut débit RENATER ne figure pas dans les TGE, une discussion s'est alors engagée sur l'opportunité d'y inclure des équipements qui, selon son expression, ne se caractérisent ni par une " unité de lieu " ni par une " unité de commandement " .

Une définition moderne des TGE devrait nécessairement inclure les machines en réseau et les réseaux eux-mêmes. Cette notion présenterait en outre l'avantage de supprimer les antagonismes entre petits et grands laboratoires, qui semblent souvent s'opposer sur la question de grands instruments.

Pour Mme Claudine LAURENT , la réponse est incontestablement positive. Les réseaux comme RENATER devraient figurer au nombre des TGE.

M. Roger BALIAN a ajouté que le Conseil des grands équipements avait en son temps apporté une réponse identique s'agissant de la flotte océanographique, en l'incorporant dans la catégorie des TGE.

M. Jacques FRIEDEL a estimé que l'on devait se poser la même question pour les investissements relatifs au génome, approuvé en cela par M. René TRÉGOUËT, Sénateur, rapporteur , qui a souligné la pertinence de cette question au moment où un réseau des génopoles est en création.

Mme Claudine LAURENT , faisant mention de la réflexion en cours au CSRT sur ce sujet, a alors souligné qu'avec des subventions de 80 millions de francs sur 10 ans, le programme de séquençage du génome mérite le label TGE, ne serait-ce que parce que son interruption ruinerait tous les efforts engagés. Le CSRT devrait à cet égard faire des propositions pour le génoscope. S'agissant de la station spatiale par ailleurs, la politique américaine pose effectivement un problème en ce qu'elle focalise les ressources des autres pays du monde, alors que les Etats-Unis investissent pour leur propre compte dans les biotechnologies et les technologies de l'information. En tout état de cause, le label scientifique ne devrait être octroyé qu'aux TGE répondant à un véritable projet scientifique. En conséquence, il conviendrait sans doute de prévoir un deuxième label, celui-là technologique, de manière à prendre en compte le cas de la station spatiale.

M. Christian CUVILLEZ, Député, rapporteur, a insisté sur l'importance de définir une méthode d'analyse et des critères de définition des TGE. A vrai dire, des entrées diverses seront sans doute nécessaires pour les caractériser, leur coût n'étant qu'un élément certes important mais un élément parmi d'autres.

M. Roger BALIAN a ensuite estimé que les comparaisons internationales seraient particulièrement importantes pour le travail de l'Office parlementaire, ce qui souligne l'importance de définir des critères applicables quel que soit le pays considéré. Dans le cas des génopoles en réseau, il sera indispensable, pour comparer les efforts des différents pays, de prendre en compte les mêmes types de dépenses, selon une méthode harmonisée.

A l'invitation des Rapporteurs, M. Jacques FRIEDEL a alors dressé un historique de la création du Conseil des grands équipements, dont il est à l'origine.

*

M. Jacques FRIEDEL a indiqué qu'il avait créé le Conseil des grands équipements alors qu'il présidait le comité technique du Conseil consultatif de la recherche scientifique et technologique (CCRST). Ce dernier organisme avait pour mission d'analyser l'enveloppe recherche et de faire connaître son avis au Gouvernement.

Or que constatait-on à l'époque, c'est-à-dire dans les années 1978-1980 ? D'une part une rivalité entre le ministère de l'industrie dirigé par André GIRAUD et celui de la recherche conduit par Pierre AIGRAIN, et, d'autre part, la personnalisation excessive du lancement de grands projets.

S'agissant du premier point, le ministère de l'industrie s'appliquait, de manière à prendre de vitesse son concurrent de la recherche, à lancer presque tous les mois des grands projets scientifiques et technologiques, sans référence à "l'enveloppe recherche " globale limitative qui était gérée par le ministère de la recherche et le CCRST.

S'agissant du rôle moteur de certaines grandes personnalités du monde de la recherche, il faut citer l'initiative de Jules HOROWITZ du CEA, qui, souhaitant lancer le projet TORE SUPRA, tokamak de recherche sur la fusion, obtint le feu vert du Président GISCARD D'ESTAING, sans consulter quiconque, pas même André GIRAUD.

L'idée à la base de la création du Conseil des grands équipements fut donc d'introduire un " minimum de formalités " en préalable au lancement d'un investissement de ce type. Il ne s'agissait pas pour autant de partir d'une feuille blanche, dans la mesure où il existait déjà un conseil pour le CERN qui se réunissait deux fois par an pour instruire les demandes de crédits correspondant à la participation française, dont le ministère des Affaires étrangères assurait la charge. Le conseil relatif au CERN servit donc de point de départ, avec un élargissement tant de sa composition que de son rôle.

Le Conseil des grands équipements fut créé dans le contexte de la préparation en 1979-1980 du nouveau Plan, sous l'autorité de Michel ALBERT, alors Commissaire général du Plan. Le cadrage des dépenses dans ce domaine fut préparé par un groupe de travail chargé par le Commissaire général et le CCRST de planifier une croissance raisonnable de l'enveloppe recherche.

Une précision s'impose toutefois quant aux débuts du Conseil des grands équipements. Ce furent en réalité deux conseils qui furent créés, le premier sur les grands équipements scientifiques animé par Jean TEILLAC et le second sur les grands équipements technologiques animé par Claude FREJACQUES. Au vrai, ce dernier conseil n'a pas survécu aux aléas politiques de l'époque, dans la mesure où il dépendait trop de ministères technologiques peu disposés à se voir limités dans leur action par une référence extérieure.

Au contraire, le Conseil des grands équipements scientifiques fut conservé en tant que tel par M. Jean-Pierre CHEVENEMENT, ministre de la Recherche du Gouvernement MAUROY, qui le jugea " normal et utile " . Mais quelles étaient la composition et la mission du Conseil des grands équipements ?

Le Conseil des grands équipements fut conçu comme devant être composé d'un nombre restreint de membres représentant l'ensemble des disciplines scientifiques intéressées, à savoir la physique, la chimie, la biologie, l'espace, l'astronomie, les sciences de la terre et l'océanographie. Les membres du Conseil étaient choisis ès qualité et non pas en tant que représentants des organismes de recherche.

Quant à la mission du Conseil, elle était moins de faire des choix absolus que de fixer des ordres d'urgence en matière de grands équipements en amenant les chercheurs et les organismes à proposer des plans d'investissement.

Une telle méthode présentait le double avantage de sortir de la confidentialité des rapports exclusifs des organismes de recherche avec le ministre et de permettre d'amortir les chocs par une vision à long terme, ce qui s'est révélé plus aisé pour la physique que pour l'océanographie, dont les demandes assez erratiques ont cependant été satisfaites.

Notons, pour ce dernier cas, comme l'a précisé M. Roger BALIAN , que des plans ont été finalement élaborés dans les années 1994-1996 pour le renouvellement de toute la flotte

En tout état de cause, le Conseil des grands équipements conduisit ses réflexions dans le cadre de contraintes budgétaires connues. Pour la préparation du Plan, le Conseil élabora un programme de grands équipements après avoir obtenu par une action commune avec le CCRST une relance progressive des crédits de la recherche et une augmentation des crédits des TGE.

En 1981, après consultation d'Hubert CURIEN, le Gouvernement MAUROY reprit l'essentiel de ces orientations en les gonflant quelque peu.

En conclusion, M. Jacques FRIEDEL a jugé qu'une formule telle que celle du Conseil des grands équipements est nécessaire mais qu'il faut aussi que le ministère ait sa propre instance de réflexion sur ces questions, l'existence d'un petit groupe de scientifiques étant à cet égard sans doute préférable. Bien évidemment une réflexion au niveau français est utile mais ne constitue pas la seule réponse à apporter à la question des grands équipements. Au demeurant, l'effort effectué actuellement par la France étant comparable à celui des autres pays, un " drame " n'est pas à craindre dans ce domaine.

Une discussion est alors intervenue sur les circonstances de la disparition du Conseil des grands équipements.

M. Roger BALIAN , membre de ce Conseil lors de ses deux derniers exercices, de 1994 à 1996, a estimé que les " choses ont commencé à se dérégler " lorsque Mme Elisabeth DUFOURCQ assuma la charge du secrétariat d'Etat à la Recherche. Un retard dans la nomination des nouveaux membres du Conseil fut pallié par une prolongation de fonctions jusqu'à l'été. Mais, en réalité, le remaniement ministériel qui aboutit, entre autres, au départ de Mme DUFOURCQ, ne permit pas la nomination effective d'intervenir, l'affaire se perdant alors dans les " sables " comme par un effet de " déshérence " ou comme résultat d'une " pagaille " administrative. Il semble donc que la mise en sommeil du Conseil des grands équipements n'ait pas répondu à une volonté délibérée du Gouvernement JUPPÉ de s'en débarrasser.

M. Jacques FRIEDEL a ensuite précisé que, selon plusieurs sources concordantes, M. Claude ALLÈGRE ne tenait pas à avoir un comité de ce genre dans son domaine d'action.

Selon M. FRIEDEL, il serait sans aucun doute utile au groupe de travail de l'Office sur les TGE d'auditionner le secrétaire du Conseil des grands équipements, M. Georges LAURENS.

M. Roger BALIAN a ensuite souligné l'une des particularités du Conseil, particularité finalement dommageable à sa pérennité.

Les avis du Conseil des grands équipements avaient en effet pour seul destinataire le ministère de la Recherche. Le Conseil ne disposait d'aucun relais à l'extérieur. Ses travaux appartenaient en exclusivité à l'exécutif qui n'en assurait pas la publication. Il s'agit vraisemblablement là d'une erreur, même si dans certains cas, en particulier avec M. Bernard BIGOT, la confiance de la direction de la Recherche dans les travaux du Conseil était grande.

En réponse à une interrogation de Mme Claudine LAURENT sur la supposée sensibilité du Conseil aux lobbies, M. Roger BALIAN a noté qu'il s'agit de critiques postérieures à sa disparition. Au vrai, le Conseil n'était pas responsable des décisions. Les grands organismes lui exposaient les projets qu'ils avaient préparés. Un examen dans la durée était effectué, notamment en répondant aux deux questions de l'objectif visé et des utilisateurs concernés.

M. René TRÉGOUËT, Sénateur, rapporteur , regrettant que l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) n'ait pas eu de relations avec le Conseil des grands équipements, a pointé la spécificité des travaux de l'Office qui ne peut être assimilé à un comité technique. Après que les dossiers ont été instruits dans la sérénité et avec toute l'objectivité possible, les rapports dont les élus décident la publication, expriment alors l'avis du Parlement.

M. Jean GALLOT, membre du groupe de travail, a rappelé que l'Office, créé par la loi et formé d'élus, est non seulement d'une nature et d'un poids différents de ceux du Conseil des grands équipements, mais a également une mission beaucoup plus large, puisqu'il est conduit à informer le Parlement sur quantité d'autres problèmes scientifiques. Au demeurant, le fonctionnement d'un groupe comme le Conseil des grands équipements, est toujours tributaire de sa composition mais l'est particulièrement sur des problèmes scientifiques et technologiques.

M. Jean GALLOT a ensuite souligné l'impact des choix scientifiques sur l'aménagement du territoire, notamment en matière de grands instruments. Les élus sont de plus en plus sensibilisés à cette problématique. Les scientifiques doivent à leur tour commencer à intégrer cette dimension, la France détenant une multitude de pôles secondaires dont la vocation scientifique devrait être développée. Il convient en conséquence de veiller non seulement à l'implantation d'équipements centralisés mais aussi de prévoir l'essor d'un système plus décentralisé.

La question des grands équipements est également révélatrice de conflits de pouvoir.

La définition du budget de la recherche se traduit en effet par la fixation de crédits budgétaires qui ne peuvent être transférés d'une ligne à l'autre, en particulier dans le cas des TGE, ce qui limite à la fois la marge d'action du Parlement et celle des organismes de recherche. Une fois encore, les problématiques scientifiques et politiques sont étroitement liées.

Les mêmes enjeux se retrouvent au niveau européen. En tout état de cause, même si l'on peut trouver avantage à construire certains grands instruments dans le cadre européen, il est primordial que les communautés scientifiques nationales en discutent la construction et l'exploitation. Au reste, le développement d'un projet international commence toujours par des contacts bilatéraux, ainsi que le montre le cas des lasers à électrons libres rapporté par le Professeur Jochen SCHNEIDER au cours des auditions relatives au synchrotron.

Un danger doit par ailleurs être écarté, celui d'experts nationaux ayant une délégation de pouvoir pour prendre, au nom de la France, des décisions au niveau européen.

Une première étape démocratique est essentielle, rassemblant des représentants de toutes les communautés scientifiques et se traduisant par un véritable dialogue sur les priorités en matière de futurs grands équipements.

Enfin, il convient de rappeler que la majorité des grands projets scientifiques européens sont nés en dehors des institutions de l'Union européenne et continuent d'exister en dehors de la Commission et du Parlement européens.

M. René TRÉGOUËT, Sénateur, rapporteur , prolongeant les considérations précédentes, a noté en outre que, s'il existe des compétences européennes pour le financement de la recherche, il faut toujours un pays initiateur pour porter à son terme un projet de recherche.

En l'occurrence, la France doit garder la capacité d'être à la base de nouveaux projets de grands équipements, quitte à rechercher le concours d'autres pays dans le cas où ces derniers ne sont pas finançables au plan national.

M. Jacques FRIEDEL est alors revenu sur l'impact des décisions en matière de grands équipements sur l'aménagement du territoire.

En tout état de cause, il faut se garder de schématiser et de considérer que la décision de construction est du domaine scientifique et qu'une décision d'implantation est du ressort des politiques. En réalité, les deux aspects sont liés.

Le cas de l'ESRF est éclairant à cet égard. La construction de ce synchrotron avait été prévue à Strasbourg. Pour des raisons politiques, elle s'effectua, comme on sait, à Grenoble, ce qui fut une grave erreur. Le fait que ce synchrotron n'ait pas été construit à Strasbourg est probablement l'une des raisons principales pour lesquelles l'utilisation du rayonnement synchrotron en biologie s'est développée plus lentement en France qu'ailleurs. Certes, des transferts d'équipes ont eu lieu de Strasbourg vers Grenoble. Mais ces transferts n'ont eu lieu que partiellement, certaines des meilleures équipes restant à Strasbourg.

Le GANIL 1 est un autre exemple significatif. Sa construction à Caen est intervenue dans une région dépourvue de toute activité de physique nucléaire. Certes, le pari de la construction et d'une activité de haut niveau a été tenu. Mais la décision de construction était incohérente avec les efforts déjà déployés par Lyon, Orsay et Strasbourg en la matière.

Au final, " les politiques devraient écouter les scientifiques dans leurs commentaires sur les lieux d'implantation d'un grand équipement " .

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné que l'étude sur le synchrotron a mis en évidence l'importance qu'un équipement de ce type soit bien desservi par un réseau de transports nationaux et internationaux de qualité. On peut estimer que Strasbourg ne présentait pas toutes les garanties à cet égard, notamment en tant que plate-forme de communications internationales, comme le démontrent d'ailleurs malheureusement les critiques des usagers du Parlement européen. Au contraire, Grenoble est accessible depuis l'étranger grâce à l'aéroport de Lyon-Satolas.

M. Jacques FRIEDEL a néanmoins observé qu'il y avait eu unanimité des chercheurs en faveur de Strasbourg.

Mme Claudine LAURENT a, pour sa part, estimé qu'il est indispensable pour décider valablement d'une implantation de connaître les projets scientifiques qui y sont attachés et leurs priorités respectives.

M. Jacques FRIEDEL a alors abordé un deuxième thème, celui du rôle des communautés scientifiques dans la genèse des grands équipements. En tout état de cause, les communautés scientifiques nationales ont un rôle éminent dans la création de grands équipements dans des domaines nouveaux. Un bref historique de l'ESRF le démontre aisément.

L'idée d'un centre européen de rayonnement synchrotron de haute énergie est née des débats de la Société européenne de physique qui a ultérieurement organisé une réunion technique sur les grands équipements en Europe. A la suite du succès de cette réunion, la Fondation européenne de la science, une organisation indépendante des ministères et regroupant des organismes de recherche, a conduit une étude de spécification d'un synchrotron d'avenir pour l'Europe, étude qui devait déboucher sur l'ESRF de Grenoble. En définitive, l'idée de l'ESRF est venue de la base et non pas d'une décision ministérielle.

A ce stade de la discussion, M. Pierre POINTU, membre du groupe de travail, est revenu sur la question des critères de décision en matière de grands équipements.

Lors de la préparation de la première partie du rapport sur le synchrotron, différents dysfonctionnements dans les processus de décision ont été mis en évidence, avec en particulier des mélanges à la fois des genres et des niveaux d'intervention.

Une constante des projets à succès est qu'ils viennent de la base et qu'ils sont portés progressivement vers les niveaux de décision ultime, dans tous les cas par un scientifique à vocation " entrepreneuriale " . C'est ce processus de développement qui doit inspirer la méthode d'instruction des dossiers de grands équipements. Les questions fondamentales doivent en conséquence porter sur ce qu'apporte le projet considéré et à qui. Les réponses donnent à l'évidence des indications sur les communautés scientifiques concernées, sur l'impact régional de l'équipement, ainsi que sur les budgets qui doivent être mis à contribution.

M. Pierre POINTU a proposé, en conséquence, une typologie reposant sur l'usage, les effets des grands équipements et l'évolution de ces effets dans le temps. Cette méthode a fait la preuve de son efficacité dans le choix de projets de recherche concurrents ou dans des décisions relatives à la protection de l'environnement. Elle oblige à reposer des questions sur la finalité cognitive ou applicative du grand équipement. En tout état de cause, une fois un dossier instruit selon cette méthode, la décision, qui demeure un enjeu de pouvoir, fait naturellement référence aux usages et aux effets attendus ou bien peut être décryptée selon ces critères, ce qui en éclaire les raisons dans tous les cas de figure.

Mme Claudine LAURENT a estimé utile cette méthode d'analyse. Alors que les moyens budgétaires ne sont pas illimités, il convient d'établir des priorités et donc pour cela de comparer des projets incomparables à première vue.

M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, s'est ensuite interrogé sur le champ de l'étude par référence à l'intitulé de la saisine, à savoir " le rôle des très grands équipements dans la recherche publique et privée en France et en Europe " . Un premier questionnement doit en conséquence intervenir sur le rôle de l'instrumentation dans la démarche scientifique.

L'évolution de la recherche moderne montre qu'au dialogue entre théoriciens et expérimentateurs, se substitue une relation triangulaire entre l'expérimentateur, le technicien et le théoricien, dans laquelle le rôle du technicien s'accroît inexorablement en raison de l'augmentation des performances attendues des instruments. Il y a donc une tendance irréversible au développement de grands équipements dont les performances sont au faîte des possibilités techniques. Même si certains d'entre eux peuvent voir leur taille et leurs coûts réduits jusqu'à se banaliser, une autre génération d'installations plus performantes prend alors le relais.

De fait, il existe des communautés scientifiques pour lesquelles les grands équipements ont un rôle " existentiel " et vis-à-vis desquels elles ont une responsabilité particulière. Au vrai, chaque communauté scientifique devrait, dans ce domaine, avoir une vision à long terme et anticiper sur les différentes évolutions techniques envisageables afin d'utiliser les grands équipements au mieux de leurs performances. En outre, s'agissant d'un grand équipement interdisciplinaire, la communauté porteuse devrait avoir la responsabilité de convaincre les autres communautés de la nécessité de contribuer à son financement.

Deux exemples sont éclairants à cet égard. Le premier est celui du CERN. Grâce à une vision à long terme, la physique des hautes énergies non seulement a conquis son autonomie et son indépendance mais a également convaincu les autres disciplines de l'importance de ses activités. Le contre-exemple est celui du projet SSC aux Etats-Unis que son gigantisme et son absence de soutien réel autre que politique ont conduit à l'échec.

En tout état de cause, l'instruction d'un dossier de grand équipement par une instance émanant de la communauté scientifique est donc primordiale pour le succès de celui-ci.

Une autre dimension a été citée comme essentielle par M. Gilles COHEN-TANNOUDJI, à savoir les modalités de contrôle des grands organismes de recherche en matière de grands équipements.

Ni la décision ministérielle pour leur création ni la tutelle pour leur exploitation ou leur arrêt ne semblent permettre une gestion moderne et responsable.

C'est bien au contraire le régime du contrat qui devrait s'imposer, tant pour gérer la durée que pour régler les rapports des grands organismes de recherche avec l'Etat et les rapports mutuels de ceux-ci. Dans ce schéma, il est nécessaire de garantir la valeur des contrats et d'assurer la cohérence des projets dans le temps. On peut imaginer que ceci soit assuré par un ensemble de trois institutions travaillant de concert, d'une part un nouveau type de Conseil des grands instruments, d'autre part le CSRT et enfin l'OPECST qui possède la caractéristique fondamentale d'avoir la pérennité nécessaire.

M. Roger BALIAN a ensuite brossé alors le tableau d'un Conseil des grands équipements idéal de son point de vue.

Ce dernier serait un lieu de dialogue entre les différentes disciplines scientifiques où il serait en outre possible de séparer les facteurs non politiques des considérations politiques. En particulier, une méthode prenant en compte les facteurs scientifiques et les coûts consolidés de construction et de fonctionnement - dont les coûts des déplacements - permettrait d'éviter, au contraire du cas du synchrotron SOLEIL, que les régions court-circuitent toute prise de décision rationnelle pour la localisation.

Il convient à cet égard que le groupe de travail mette au point une méthode d'ensemble pour l'évaluation des projets de grands équipements. En tant qu'organe pluridisciplinaire et purement consultatif, ce futur Conseil pourrait être relié organiquement au CSRT ou à l'OPECST ou bien aux deux.

Un débat s'est alors engagé sur le rôle que pourrait jouer l'Office parlementaire d'évaluation des choix scientifiques et technologiques dans le domaine des grands équipements.

M. René TRÉGOUËT, Sénateur, rapporteur , a estimé que l'Office n'a pas vocation à se substituer à l'exécutif.

Grâce à sa composition et à l'esprit de ses travaux qui conduisent le plus souvent à des diagnostics adoptés à l'unanimité de ses membres, l'Office pourrait certes constituer un élément de stabilisation en matière de grands équipements en exprimant " la continuité dans les choix scientifiques " . Mais il ne lui appartient pas de dire à tout moment et à tout propos ce qui doit être adopté et lancé comme nouveau projet. En outre, il courrait un risque fatal à ajouter à une préconisation sur les priorités de TGE une préconisation sur leur localisation.

M. Jean GALLOT a noté, quant à lui, que l'une des forces de l'Office, qui bénéficie au demeurant de la durée nécessaire pour mener un travail de fond, est d'ouvrir le débat à la presse, de publier l'ensemble de ses travaux et d'alimenter ainsi le débat public.

Pour M. René TRÉGOUËT, Sénateur, rapporteur , la transparence de la démarche de l'Office, difficile à mettre en _uvre par une administration par nature travaillée par des influences contradictoires, constitue l'un de ses grandes forces.

Le Rapporteur a par ailleurs fait connaître son intention de suggérer au Président de l'Office la pérennisation de la présente démarche sur les très grands équipements. En effet, s'il s'agissait seulement de prendre une photographie de la situation actuelle, les propositions de l'Office ne présenteraient qu'un intérêt limité. Au contraire, en s'appuyant sur la durée dont il est l'une des rares institutions politiques à bénéficier, l'utilité de la présente mission en serait considérablement accrue grâce à une profondeur de champ plus grande.

M. Christian CUVILLIEZ, Député, rapporteur, à son tour, a souhaité que du présent rapport résulte une vision dynamique des grands équipements, vision qui remédie en particulier aux inconvénients d'un système de prise de décision centralisé, fonctionnant souvent dans l'urgence, négligeant dans une certaine mesure l'examen de l'utilité sociale et scientifique d'un projet et ne pouvant résoudre dans la durée le problème du financement.

La réunion s'est terminée sur la mise au point du programme des auditions et la discussion d'une liste provisoire des TGE établie sur la base de documents transmis par le CNRS et émanant du ministère de la Recherche.

2. Les aspects budgétaires et fiscaux des TGE - mercredi 17 mai 2000

Ministère de la Recherche - Direction de la Recherche

• M. Vincent COURTILLOT, Directeur de la Recherche

• M. Michel LE BELLAC, conseiller du Directeur de la Recherche pour la physique et les sciences de l'ingénieur (CRD2)

• M. Jean-Pierre CHARLEMAGNE, chef du bureau du Budget civil de recherche, du Développement et du financement des programmes

Ministère de la Recherche - Direction de la Technologie

• Mme Geneviève BERGER, Directrice de la Technologie

• M. Bernard FROIS, directeur du département énergie, transports, environnement et ressources naturelles (DTA4)

• M. Jean-Alexis GRIMAUD, directeur du département bio-ingéniérie (DTA2)

Ministère de l'économie, des finances et de l'industrie - secrétariat d'Etat au budget

• M. Laurent GALZY, Sous-directeur, Direction du Budget

• M. Stéphane BRIMONT, Chef de Bureau, Direction du Budget

CEA

• M. Philippe BRAIDY, Directeur financier

• M. François GOUNAND, Directeur des Sciences de la Matière

• M. Bernard SALANON, Direction de la Stratégie

• M. Pierre TRÉFOURET, chef du service des Affaires publiques

CNRS

• M. Nicolas RUBEL, Chef du service de la programmation des moyens

• Mme Nathalie GODET, Secrétaire permanent des grands équipements

*

Pour introduire la réunion, M. René TRÉGOUËT, Sénateur, rapporteur, a rappelé que la mission de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), après s'être focalisée sur les conditions d'implantation d'un nouveau synchrotron, porte désormais sur le rôle des très grands équipements (TGE) dans la recherche publique et privée en France et en Europe. Le grand nombre de participants à la réunion démontre un grand intérêt pour la problématique des très grands équipements.

En tout état de cause, il convient que le groupe de travail accorde une place de choix à la réflexion sur les très grands équipements dans les sciences et technologies de l'information et de la communication (STIC) ainsi que dans les sciences de la vie, du fait de l'importance déterminante de ces domaines dans l'avenir.

Au reste, parmi les questions que se posent les Rapporteurs de l'Office, l'une des plus importantes concerne la définition des TGE et son évolution éventuelle au cours du temps. Après que leur périmètre s'est étendu, il semble aujourd'hui nécessaire d'aller plus loin de sorte que cette notion ne désigne plus obligatoirement un instrument unique sur un lieu unique mais puisse aussi comprendre un ensemble d'équipements en réseau et le réseau lui-même. Un réseau comme RENATER qui rend des services précieux ne devrait-il pas entrer dans la catégorie des TGE ? Un tel élargissement permettrait notamment que des réseaux d'équipements mi-lourds " pré-programmés " pour rendre des services à des petits laboratoires puissent être pris en compte. Sans doute, faut-il mettre fin à la caractéristique des TGE d'être des équipements " pyramidaux " pour y faire entrer les réseaux.

Une autre approche consiste à différencier les TGE selon qu'ils relèvent de la compétence nationale et donc de l'investissement national, ou bien d'une compétence européenne avec éventuellement des participations croisées. A la veille de la présidence française de l'Union européenne, la réflexion sur ces questions revêt à l'évidence une grande importance.

L'un des objectifs de la présente réunion est que les représentants du ministère de la Recherche définissent leur approche des très grands équipements et que l'on puisse vérifier la cohérence des notions retenues avec l'approche du ministère de l'économie, des finances et de l'industrie, exposée par le représentant de la Direction du Budget.

En tout état de cause, il est essentiel que les pouvoirs publics aient une approche identique de ces questions et conçoivent leur action dans la durée : l'alternance politique ne doit pas avoir d'impact sur la recherche, en particulier dans le domaine des TGE.

Pour sa part, l'Office parlementaire, compte tenu de ses caractéristiques, peut apporter une contribution qui va dans le bon sens.

En effet, depuis sa création en 1983, au total sur près de 17 années, l'Office a réussi à dépasser les approches partisanes pour faire place au consensus. Au vrai, la réflexion sur les TGE devrait trouver un lieu naturel où s'effectuer dans la durée. A cet égard, la contribution de la Direction du Budget sera essentielle pour déterminer si l'approche budgétaire des TGE est soumise ou non à des décisions politiques et, dans l'affirmative, pour tenter de dégager une méthode permettant de les inscrire dans la durée.

Pour M. Christian CUVILLIEZ, Député, rapporteur, il ne s'agit pas seulement de définir les très grands équipements par leur coût et leur financement mais aussi de répondre à d'autres questions essentielles, comme les raisons pour lesquelles le Conseil des grands équipements a disparu, de mettre au point des critères de caractérisation des TGE selon leur utilisation, le nombre d'utilisateurs, la répartition et le nombre de leurs sites dans le cas de TGE répartis, et enfin de pouvoir distinguer entre les TGE nationaux comme les synchrotrons et ceux pour lesquels il faut une coopération européenne ou mondiale. En tout état de cause, la deuxième partie de l'étude de l'Office, par l'étendue de son champ, diffère sensiblement de la première, qui, on s'en souvient, était focalisée sur un seul grand équipement spécifique, le synchrotron.

M. Vincent COURTILLOT, Directeur de la Recherche au ministère de la Recherche , a assuré les Rapporteurs de sa volonté de répondre, depuis la position centrale qu'il occupe, aux différentes questions adressées par le secrétariat de l'Office et de fournir à la fois des informations sur la situation actuelle et une critique de cette dernière. Cette réflexion avec l'Office parlementaire d'évaluation des choix scientifiques et technologiques est l'occasion de trouver en commun une piste pour définir des priorités et les réaliser.

La deuxième phase du rapport de l'Office est importante, comme l'est toujours le regard du Parlement.

Une réflexion est par ailleurs engagée par le Conseil supérieur de la recherche et de la technologie (CSRT). La Direction de la recherche du ministère travaille également sur ce sujet. La présente réunion permettra sans nul doute un échange profitable entre ces différentes instances, ici toutes représentées, auxquelles s'ajoutent les grands organismes de recherche. Mais il convient, avant toute chose, de " balayer " les informations nécessaires.

M. Vincent COURTILLOT a estimé qu'il n'existe pas de définition des TGE et qu'il ne saurait oser en proposer une en l'état actuel des choses. La notion de TGE est essentiellement une définition historique. Au reste, cette notion diffère d'un pays à l'autre, ce qui constitue une difficulté supplémentaire.

A l'origine de cette notion, les TGE étaient constitués des très grands appareils de la physique, dont la finalité était l'étude des objets de cette discipline. Leur échelle de financement et de fonctionnement, ainsi que leur degré de sensibilité les plaçaient au delà de l'échelle des laboratoires et même des organismes de recherche eux-mêmes. Avec ces équipements, on est à l'échelle nationale, dans un contexte pluri-organismes et pluri-utilisateurs, voire même à l'échelle européenne. A cet égard, cette question sera présente dans les propositions que fera la France en matière de politique européenne de la recherche au cours de sa présidence de l'Union.

La notion de TGE a connu ensuite un élargissement progressif. C'est ainsi qu'au cours du temps, ont été inclus successivement les grands instruments de l'astronomie au sol, les grands appareils de la physique au service des autres disciplines comme le synchrotron, la flotte océanographique, les expériences spatiales avec les sondes, les satellites et les expériences dont l'objet principal est scientifique, et enfin les grands équipements des sciences de la vie comme l'EMBL.

Aujourd'hui, il existe près de 40 très grands équipements répertoriés, avec une définition qui est la même depuis 10 ans. Les bases de comparaison existent donc pour la France sur cette période. Mais on peut se demander si cette définition rend compte avec exactitude de l'effort national.

Au reste, après les travaux du CSRT et les séminaires tenus par la Direction de la Recherche, les analyses des conseillers du Directeur de la recherche permettent de disposer de séries numériques depuis 1990, par institution, par type de machine et par discipline. Toutes ces données sont disponibles pour l'Office parlementaire et lui seront communiquées.

Au demeurant, pour mesurer l'effort national dans le domaine des TGE, une extension de la notion est étudiée par la Direction de la recherche dans trois directions.

La première direction est celle des sciences et technologies de l'information et de la communication (STIC). Il conviendrait peut-être d'inclure d'une part les 3 grands centres de calcul nationaux que sont l'IDRIS (Institut du développement et des ressources en informatique scientifique) du CNRS, le CINES (Centre informatique national de l'enseignement supérieur) de Montpellier et le Centre de calcul du CEA à Cadarache et, d'autre part, le réseau RENATER. Le doublement de la capacité de recherche et d'intervention de l'INRIA au terme d'un contrat quadriennal de 4 ans invite également à la même interrogation.

La deuxième direction est celle des sciences de la vie. Après l'inclusion de la contribution française à l'EMBL, il peut sembler nécessaire de prendre en compte dans l'enveloppe TGE les équipements de la biologie requérant un financement de grande ampleur. Ainsi, il serait logique de prendre en considération l'aide éventuelle de l'Etat au laboratoire P4 de Mérieux à Lyon lancé sur fonds privés mais qui ne réussit pas à perdurer dans ce cadre. Au premier rang des TGE des sciences de la vie, pourraient figurer aussi, bien entendu, le programme national de génomique, avec, notamment, le réseau des Génopoles, le programme Genhomme et les centres de séquençage, CNS (Centre National de Séquençage) et le CNG (Centre national du génotypage), à quoi on pourrait songer à joindre les animaleries (souris et primates).

La troisième direction est celle des sciences humaines et sociales, qui constituent au demeurant une des priorités du ministère de la recherche. Or les sciences sociales, en mettant en _uvre des recherches disciplinaires, ont besoin de moyens lourds. A cet égard, le réseau des maisons des sciences humaines, qui est un engagement fort du ministère, représente un investissement onéreux, lourd et structurant, qui pourrait être considéré comme un très grand équipement.

En réponse à la demande de M. René TRÉGOUËT, Sénateur, rapporteur, de voir la notion de TGE étendue aux réseaux, M. Vincent COURTILLOT, Directeur de la Recherche , a estimé qu'il y aurait lieu de procéder ainsi, mais que, plus la notion de TGE sera vaste, plus elle sera difficile à gérer. Dans l'attente d'une révision éventuelle à la suite des travaux de l'Office, du CSRT et de la Direction de la recherche, la liste des 40 TGE qui sert de base au ministère de la recherche doit donc seule être considérée.

Mme Geneviève BERGER, Directrice de la Technologie au ministère de la Recherche, a fait connaître son accord avec cette approche. Il existe toutefois des très grands équipements qui ne se composent pas d'une installation unique, leur intégration à cette catégorie étant alors admissible s'ils sont structurants.

M. Vincent COURTILLOT, Directeur de la Recherche , a alors précisé d'une part que le débat peut également être ouvert sur les collections biologiques et sur certains musées, en particulier pour le futur musée du quai Branly sur les Arts premiers et pour le Muséum d'Histoire naturelle et d'autre part que, si l'on peut ouvrir le débat, il convient de s'en tenir, pour le moment, à la définition actuelle.

L'évolution des crédits relatifs aux TGE a alors été retracée, ces derniers étant relatifs à la physique des particules (Cern, LHC), au nucléaire (Ganil, Saturne avant sa fermeture), à la fusion (JET, Tore Supra), à l'astronomie au sol (ESO, VLTI, télescope Canada-France-Hawaii, IRAM), à l'astrophysique spatiale (ISO, INTEGRAL, SOHO, PLANCK, XMM), à la planétologie (Rosetta, Cluster 2, Cassini, mission sur Mars), à l'observation de la Terre (TOPEX, PROTEUS-JASON, ERS2-Envisat, PICASSO-CENA), à la géologie (ODD, GéoFrance 3D), à l'océanographie (flotte océanographique), aux neutrons (ILL, LLB, SILOE avant sa fermeture), au rayonnement synchrotron (LURE, ESRF, SOLEIL), aux sciences de la vie (EMBL, sciences de la vie dans l'espace), à la physique gravitationnelle (VIRGO), ensemble auquel il faut ajouter les TGE techniques représentés principalement par les satellites météorologique (EUMETSAT, METOP, MSG) et la station spatiale internationale.

Ce sont le CEA, le CNRS, le CNES et le ministère des Affaires étrangères par lesquels le financement des TGE transite à partir du BCRD.

Sur les bases précédemment définies, les crédits d'équipement, de fonctionnement et les salaires relatifs aux TGE ont représenté en 1999 un total de 4,6 milliards de francs. Pour 2000, si le but est de stopper la croissance de ces crédits, leur montant devrait atteindre 4,7 milliards de francs.

L'indicateur des crédits TGE, en base 100 pour 1990, ressortit donc à plus de 160 pour l'année 2000, avec une croissance globale de 61,8 % en francs courants où les TGE techniques témoignent de la plus forte augmentation.

Pendant la même période, le Budget civil de la recherche et développement (BCRD) aura augmenté de 22,4 %, le soutien de base aux EPST et aux EPIC de 34 %, le budget de la recherche universitaire de 38,7 % en dotation de fonctionnement et autorisations de programme, tandis que la masse salariale des chercheurs et des enseignements chercheurs aura augmenté de 29 %.

Au total, sur une période de 10 ans, les différents indicateurs varient de 20 à 40 %, tandis que celui des TGE augmentent de plus de 60 %. Cette dernière hausse est principalement due aux TGE techniques, puisque l'augmentation des crédits des TGE scientifiques s'établit à 21 %.

Au reste, il est indispensable de distinguer entre les différents types de TGE, notamment entre les grands instruments nationaux ou internationaux et entre les grands instruments généralistes ou spécialisés.

Cette dernière distinction est particulièrement importante. Il existe en effet des équipements lourds indispensables à un petit groupe de chercheurs et d'autres, comme les synchrotrons, utilisés par un grand nombre d'entre eux.

Mais la différenciation essentielle est à faire entre les TGE de recherche et les TGE techniques et technologiques.

S'ils ont augmenté de 26,7 % en francs courants, les crédits des TGE de recherche sont, globalement, restés à peu près stables en francs constants sur la période, avec une légère augmentation pour les instruments généralistes et une légère diminution pour les instruments spécialisés.

Au contraire, les crédits des TGE techniques et technologiques ont enregistré une augmentation de 350 % en francs constants, pour atteindre un montant de 1,1 milliard de francs en 1999, sur un total de 4,6 milliards de francs.

La dichotomie " spatial " - " non spatial " est également instructive.

Les crédits des TGE " non spatiaux " , s'ils ont en effet augmenté de 9 % en francs courants, ont en réalité diminué de 8 % en francs constants, c'est-à-dire en volume. En revanche, les crédits des TGE " spatiaux " ont augmenté de 65 % en francs courants, ce qui correspond à une croissance de 38 % en francs constants.

Quoi qu'il en soit, un très grand équipement constitue une opération qui se déroule sur une durée importante et qui connaît, au plan budgétaire, une phase d'augmentation des crédits, suivie d'une phase de dépense maximale sur un plateau de plusieurs années et enfin une phase de décroissance.

C'est par superposition des cycles des différents TGE que l'on détermine si l'on peut engager un nouveau grand équipement.

Deux contraintes s'opposent à l'heure actuelle à des initiatives dans ce domaine. La première est qu'aucun dégagement d'un TGE majeur ne se profile. La deuxième est la longueur des cycles. La durée de la phase en plateau s'allonge, ainsi que celle de la décroissance. Cet allongement est, en soi, est une bonne chose puisqu'il traduit une meilleure rentabilisation de l'équipement. L'extension de la phase de décroissance traduit un recours plus systématique à des opérations de jouvence qui peuvent s'avérer au total onéreuses. Au final, une pression inflationniste résulte de ces deux phénomènes.

Mme Geneviève BERGER, Directrice de la Technologie , a précisé que la croissance des crédits relatifs aux TGE " spatiaux " provient de la multiplication des applications du spatial dans les domaines des télécommunications et de l'observation de la Terre.

Le CNES est, dans le cadre d'une stratégie européenne et internationale, le principal porteur des ressources financières allouées par la France au spatial, soit directement, soit au sein de l'Agence spatiale européenne (ESA). Pour l'année 2000, les crédits du CNES en faveur des TGE vont diminuer de 80 millions de francs pour atteindre un montant de 2,1 milliards de francs. Pour la période 2001-2003, une augmentation est prévue, principalement en raison de la station spatiale internationale, ce qui devrait hisser l'enveloppe TGE aux alentours de 2,3 milliards de francs. Les dépenses correspondant à la participation française aux missions sur Mars devaient s'accroître aussi mais avec retard par rapport au calendrier initialement prévu.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, Mme Geneviève BERGER , Directrice de la technologie, a confirmé que le projet européen GALILEO de positionnement par satellite, le réseau RENATER pour les STIC, les animaleries pour les sciences de la vie et les bibliothèques numériques pour les sciences humaines et sociales ne font pas partie, pour le moment, de la catégorie des TGE.

M. René TRÉGOUËT, Sénateur, rapporteur, est alors revenu sur la grille de lecture qui devrait être appliquée lors de la définition des priorités dans le domaine des TGE. En tout état de cause, la comparaison de leurs retombées devrait intervenir dans les choix à faire. Ainsi, le projet Galileo de positionnement satellitaire peut apparaître comme prioritaire de par ses retombées considérables pour la vie des entreprises et des particuliers, comparées à celles des projets relatifs à la planète Mars dont l'impact sera, selon toute probabilité, sensiblement inférieur.

Par ailleurs, la politique américaine dans le domaine des TGE devrait être source d'inspiration pour la France.

Ce sont en effet les projets aux retombées les plus lointaines pour lesquels les Etats-Unis proposent des coopérations internationales, ce qui accroît d'autant leurs ressources disponibles pour les TGE à fort impact économique national. Au demeurant, les investissements relatifs aux TGE ne sauraient constituer une " bulle " déconnectée des besoins de la Nation et des réalités économiques.

M. Vincent COURTILLOT, Directeur de la Recherche, a par ailleurs indiqué que des données comparatives portant sur la situation des TGE dans les autres pays ont été présentées au conseil d'administration du CNRS du 2 décembre 1999.

Ainsi, selon le CNRS, sur la période 1997-1998, si la part des TGE atteignait en France 7,9 % du BCRD, le même ratio était de 9,1 % aux Etats-Unis, hors station spatiale et hors satellites de météorologie.

Des statistiques équivalentes pour la même période ne sont pas disponibles pour le Royaume Uni et l'Allemagne. En revanche, les chiffres français ont pu être recoupés avec ceux du Royaume Uni fournis par M. John TAYLOR, Directeur de l'OST, et ceux de l'Allemagne présentés par le Secrétaire d'Etat M. Uwe THOMAS, pour 1999.

Il résulte que la part des TGE dans le BCRD oscille dans ces trois pays entre 8 et 9 %, avec probablement des dépenses plus fortes en Allemagne qu'en France, et plus fortes en France qu'au Royaume Uni. En ajoutant les grands équipements de la biologie et de l'informatique, cette part atteindrait probablement 15 %. En tout état de cause, les ordres de grandeur sont peu différents d'un pays à l'autre.

Les interrogations sur les TGE et la volonté politique dans ce domaine sont communes à la France, à l'Allemagne et au Royaume Uni.

En premier lieu, il s'agit de déterminer si la part des TGE est optimale, par rapport aux équipements mi-lourds des laboratoires et au soutien de base aux équipes de recherche. En deuxième lieu, la volonté politique commune aux différents pays est de faire en sorte que la part des TGE n'augmente pas à périmètre constant. L'Allemagne, en particulier, s'est engagée dans un vaste processus de réflexion qui ne devrait pas aboutir avant un an et qui mobilise l'ensemble de la communauté scientifique dans une approche pluridisciplinaire. Les principaux objectifs visés sont d'une part de recenser les demandes d'une manière exhaustive, d'autre part d'éviter les doublons, et enfin d'établir des priorités.

M. Vincent COURTILLOT a par ailleurs indiqué que le groupe européen de coordination à géométrie variable sur les TGE, dont il avait annoncé la création lors de ses auditions privée et publique de mars dernier sur le synchrotron, a effectivement progressé dans sa démarche et ses activités. Rassemblant les directeurs de la recherche de l'Allemagne, du Royaume Uni, de l'Italie, de la France et de l'Espagne, ce groupe, qui accueille dans le cas de la flotte océanographique le représentant du Portugal, a pour objectif la coordination des politiques nationales des TGE.

Un premier sous-groupe de travail se consacre aux méthodes d'analyse fine de la matière, à savoir le rayonnement synchrotron, les sources de neutrons, les lasers à électrons libres et les hauts champs magnétiques. Un premier compte rendu de ses travaux sera fait le 22 juin prochain à Rome. Un second rapport d'étape sera fait au cours du Colloque organisé à Strasbourg en septembre 2000.

Un deuxième sous-groupe examine la question des flottes océanographiques, une réunion étant prévue en Allemagne le 15 juin prochain.

Un troisième sous-groupe, à la demande de l'Espagne, devrait axer ses réflexions sur l'astronomie et l'astrophysique.

Deux autres sous-groupes pourraient étudier la problématique des TGE dans les domaines de l'informatique et des sciences de la vie.

Bien que représentant une rupture par rapport à la politique européenne antérieure, la constitution du groupe à géométrie variable des directeurs de la Recherche a été validée par le Commissaire européen à la Recherche, M. Philippe BUSQUIN, qui y délègue désormais un représentant comme dans chacun des sous-groupes de travail, ainsi d'ailleurs que la Fondation européenne de la science (ESF).

Mais quelles sont actuellement dans notre pays, les instances compétentes en matière de TGE ?

Si le Conseil des grands équipements n'a pas été renouvelé, une autre procédure a été mise à sa place, suite au conseil interministériel de la recherche scientifique et technologique (CIRST) de juin 1998. On peut la schématiser en 4 niveaux d'instruction des dossiers.

Le premier niveau est celui de l'expression des besoins en très grands équipements, qui est celui des organismes de recherche eux-mêmes.

Le deuxième niveau est celui des 4 comités de coordination du ministère chargé de la recherche, et qui sont relatifs aux sciences de la vie, aux sciences de la planète et à l'environnement, aux matériaux et aux sciences et technologies de l'information et de la communication. Ces comités, qui rassemblent les responsables des organismes de recherche ainsi que des chercheurs nommés intuitu personae , et qui siègent parfois en deux collèges distincts, ont une mission d'information et de proposition.

S'agissant des TGE de la physique, la coordination en est effectuée directement par la Direction de la Recherche elle-même, en raison du petit nombre de partenaires institutionnels concernés. A cet égard, on peut citer la réflexion en cours avec ces deux grands organismes pour un rapprochement de l'IN2P3 du CNRS et du DAPNIA du CEA.

Le troisième niveau est celui du Conseil supérieur de la recherche et de la technologie (CSRT) et du Conseil national de la science. Ce dernier conseil, composé d'un tiers de scientifiques français de la recherche académique nationale, d'un tiers de chercheurs français de l'industrie et d'un tiers de scientifiques étrangers.

Le quatrième niveau est celui du Comité interministériel de la recherche scientifique et technologique (CIRST).

M. Vincent COURTILLOT a ensuite détaillé les raisons pour lesquelles il n'avait pas proposé la recomposition du Conseil des grands équipements.

La structure de cette instance lui conférait en effet un caractère intrinsèquement inflationniste.

Au surplus, il est " malsain " de " sortir la réflexion sur les TGE de la réflexion générale " . Au contraire, la réflexion sur les TGE " doit se faire au sein de la réflexion générale sur la recherche et non pas indépendamment " . Les nouveaux comités de coordination conduisent une démarche globale, portant non seulement sur les programmes mais aussi sur les équipements afférents. De fait, les TGE doivent être envisagés dans le cadre d'une réflexion non seulement scientifique mais aussi économique et passés au crible de leurs applications. Au demeurant, on peut souligner l'insuffisance du concours de l'industrie au lancement et au démarrage des installations.

La parole a ensuite été donnée à M. Laurent GALZY, Sous-Directeur à la direction du budget du ministère de l'économie, des finances et de l'industrie.

*

M. Laurent GALZY, Sous-Directeur à la direction du budget, a remarqué, avant de répondre aux huit questions communiquées par les Rapporteurs, qu'il est difficile de faire entrer les très grands équipements dans les critères budgétaires classiques. Pour autant, aux TGE sont attachés des enjeux budgétaires lourds, qui s'ajoutent à des enjeux scientifiques, à des enjeux économiques et à des enjeux de coopération internationale eux-mêmes importants. Dans ces conditions, que les processus de décision soient complexes n'est pas fait pour étonner. Bien évidemment, la hiérarchisation des différents TGE et projets de TGE sous contrainte budgétaire est une obligation. Mais il faut également une hiérarchisation par domaine scientifique, par type de dépenses de recherche et une autre entre les dépenses relatives aux TGE, aux laboratoires et à la recherche industrielle.

" Il faut donc une grande qualité des systèmes de décision " . Cette question est précisément un " souci fort " de la Direction du Budget. Les deux ministères ont dépêché une mission d'experts conjointe de l'Inspection générale des finances et de l'Inspection générale de l'administration de l'éducation nationale et de la recherche sur l'amélioration des processus de décision.

Sur la notion de très grand équipement, force est de constater qu'il s'agit plutôt d'une liste qui s'est allongée au fil du temps que d'une définition méthodique. En réalité, " il n'existe pas de définition budgétaire des très grands équipements " et " il n'existe pas de traitement spécifique des très grands équipements dans le cadre de la procédure budgétaire " .

En tout état de cause, la procédure budgétaire appliquée au Budget civil de la recherche et développement (BCRD) recourt à la globalisation. La dotation de l'Etat aux différents organismes de recherche publics est globalisée. De surcroît, à la diversité des statuts juridiques de ces derniers répond une variété de canaux budgétaires. Au total, l'absence de procédure budgétaire concernant les TGE répond d'une certaine manière à leur hétérogénéité.

Il reste qu'une définition des très grands équipements est nécessaire, du fait de l'importance des enjeux et parce qu'il faut un processus de décision fiable et efficace. Ce dernier devra intégrer les différentes facettes à prendre en compte, à savoir les choix de TGE concurrents, les plans de financement et la recherche de coopérations internationales.

Un seuil financier aurait une pertinence, à condition de ne pas considérer le seul coût de l'investissement mais au contraire de faire référence au coût complet comprenant non seulement les dépenses d'investissement mais aussi les coûts de fonctionnement.

Deux écueils sont à éviter dans la mise au point d'une définition. Le premier est celui de la dilution de la notion de TGE, du fait d'une extension trop grande de leur définition. Ceci rendrait impossible le processus rigoureux qui est pourtant indispensable pour équilibrer les investissements relatifs aux différents domaines de recherche. Le deuxième écueil est celui de la création d'un tropisme en faveur des TGE qui, par un excès de priorité, éloignerait la perspective d'un équilibre entre leur financement et celui des laboratoires de recherche propres.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur la possibilité des techniques budgétaires actuelles de prendre en compte les réseaux, M. Laurent GALZY a noté que les crédits correspondants sont inclus dans la dotation globalisée aux organismes de recherche. Ceux-ci appliquent des processus budgétaires internes pour l'allocation aux TGE. Ce n'est que grâce aux données collectées par la Direction de la Recherche du ministère de la Recherche que s'effectue la consolidation extra-budgétaire relative aux TGE, dont il est fait état dans le fascicule sur " l'état de la recherche et du développement technologique " annexé au projet de loi de finances.

Dans ces conditions, quelles sont les améliorations souhaitables ?

Parmi les pistes envisageables, l'une des plus importantes est certainement l'amélioration du suivi budgétaire et comptable au sein de chaque établissement public à caractère scientifique et technologique (EPST). A cet égard, l'étude d'une solution est en cours, qui permettrait en particulier d'identifier les investissements pluriannuels et, en particulier les TGE, et de fournir des données systématiques grâce à une comptabilité analytique.

S'agissant de la deuxième question sur l'évolution des crédits alloués aux très grands équipements et les comparaisons internationales, M. Laurent GALZY, a, pour les raisons vues plus haut, fait référence aux données communiquées par M. Vincent COURTILLOT. Au plan global, il est établi, en tout état de cause, que le poids des dépenses relatives au TGE en France est cohérent avec ce qu'il est dans d'autres pays . Il n'existe pas de déficit ou de retard de notre pays dans ce domaine.

M. René TRÉGOUËT, Sénateur, rapporteur, a, pour sa part, estimé indispensable de se poser des questions sur la répartition des dépenses par secteur, les TGE " spatiaux " ayant un poids croissant alors que d'autres domaines sont en recul.

M. Laurent GALZY, a alors traité la question portant sur " les besoins prévisibles de la recherche française et européenne en très grands équipements scientifiques et technologiques dans les années à venir " .

On ne saurait traiter des besoins en matière de TGE hors de leur contexte scientifique correspondant. Mais il faut tenir compte de deux exigences de portée générale. En premier lieu, il est indispensable de disposer de la capacité de prendre en compte les besoins et les projets à l'échelle européenne grâce à une coordination européenne effective, de manière à éviter des surcapacités et un " doublonnage " des installations. En second lieu, il faut également être en mesure de hiérarchiser les priorités respectives des différentes disciplines et celles des dépenses de soutien aux laboratoires vis-à-vis des TGE.

Sur le sujet des procédures de décision relatives aux nouveaux TGE, M. Laurent GALZY a répété qu'il n'existe pas de processus budgétaire spécifique les concernant et a ajouté " qu'il n'existe pas non plus de procédure de décision interministérielle formalisée relative aux TGE " .

De fait, les situations sont disparates selon les secteurs et les niveaux de transparence variables. Ainsi, l'ESA (European Space Agency - Agence spatiale européenne) a mis au point une formalisation des processus de décision qui assure une lisibilité satisfaisante. Mais il existe des domaines où la transparence est inférieure, par exemple au CERN.

Au vrai, la situation est hétérogène suivant les organismes. Ceci n'est pas sans inconvénient. Le manque de transparence et de formalisation des processus de décision contribue à l'inertie de la répartition des crédits entre les disciplines. La pérennité des structures, souhaitable pour la continuité de la recherche, est toutefois un facteur d'inertie, de même que le caractère international d'une structure. D'ailleurs, la constitution d'équipes de recherche aguerries crée un phénomène inévitable de polarisation autour du renouvellement de l'installation.

Il y a donc de nombreuses raisons pour qu'un niveau de priorité élevé historiquement n'évolue pas aisément en fonction de nouveaux enjeux.

Si, comme on l'a vu précédemment, un chantier est ouvert au ministère de l'économie, des finances et de l'industrie pour l'amélioration des décisions relatives aux TGE, il n'en demeure pas moins indispensable que le futur processus budgétaire soit complété en amont par un dispositif assurant un " travail de maturation scientifique " et une " cohérence des priorités " .

M. Laurent GALZY a ensuite esquissé les " pistes d'améliorations souhaitables " pour les décisions en matière de nouveaux TGE.

En premier lieu, il est indispensable de veiller non seulement à ce qu'un dialogue interministériel de qualité intervienne sur ces sujets mais également qu'il se produise suffisamment en amont de la décision.

En second lieu, il est souhaitable d'avoir un processus de décision formalisé, pour avoir une décision claire à chacune de ses différentes phases. Ceci va à l'inverse des méthodes informelles d'engagement et milite au contraire en faveur de mémorandums circonstanciés et détaillés.

En troisième lieu, il convient d'élargir et de diversifier les paramètres de l'évaluation. Celle-ci doit bien sûr se faire sur la base des coûts complets, mais doit aussi porter sur l'impact de l'équipement sur la compétitivité économique et intégrer les avantages et les inconvénients d'une coopération internationale éventuelle. Les chercheurs eux-mêmes devraient être associés au processus.

En quatrième lieu, il est souhaitable de systématiser les questions à traiter aux différentes phases de l'instruction du dossier, en particulier le statut, la planification financière et les partenariats. S'agissant du financement, on sait que les dépenses d'investissement, de fonctionnement et de personnel des TGE sont intégrées au budget de l'établissement public porteur. Que les TGE soient gérés en interne, sous la forme d'un GIP ou d'une société civile, les dépenses sont traitées essentiellement en interne.

Il est nécessaire qu'à l'avenir, leur gestion budgétaire soit clarifiée et que les différentes structures internes et les conseils d'administration soient mieux informés à la fois du processus de décision et des coûts. De même, il serait opportun de mettre en place une tarification des usages, de façon à mieux faire participer les entreprises et les utilisateurs étrangers au financement des installations.

M. René TRÉGOUËT, Sénateur, rapporteur , a alors souligné qu'il est primordial d'avoir une vision précise des modes de financement des TGE, notamment à l'étranger. A cet égard, des éléments comparatifs sont essentiels. On connaît en effet le rôle du Wellcome Trust au Royaume Uni dans le financement de la recherche et bientôt du synchrotron DIAMOND. Des structures juridiques particulières comme les fondations existent outre Manche. De même, les collectivités territoriales en Allemagne apportent des financements substantiels à certains TGE.

M. René TRÉGOUËT, en conséquence, a demandé aux représentants du ministère de la recherche, des comparaisons internationales sur ces points, ainsi que sur les coûts d'investissement et de fonctionnement et les tarifications subséquentes.

M. Vincent COURTILLOT, Directeur de la Recherche , confirmant qu'il avait pris bonne note de cette demande, a remarqué qu'elle serait toutefois difficile à satisfaire d'une manière détaillée, en l'absence de données préexistantes.

S'agissant du Royaume Uni, le rôle de grandes fondations y est favorisé par la fiscalité. Le Wellcome Trust est, quant à lui, un Charity Trust qui a rompu ses liens avec l'industrie. Au demeurant son poids dans le financement de la recherche relative aux sciences de la vie devient équivalent à celui des pouvoirs publics. Le Wellcome Trust apporte ainsi des ressources financières supplémentaires pour la recherche britannique, tout en compliquant les processus de décision.

Le rôle des entreprises privées de l'industrie est également une dimension importante de la question des TGE. L'utilisation directe du rayonnement synchrotron et des sources de neutrons par l'industrie est faible en France. En revanche, par l'entremise de contrats de recherche passés avec les laboratoires publics, elle atteint près du tiers du total. Mais l'industrie est peu présente lors de l'initiation et la construction d'un projet, si elle l'est davantage pour son utilisation.

Le problème de la tarification peut être traité de deux façons. La première solution consiste à faire financer les centres de calcul ou de séquençage, par exemple, par l'Etat. Les chercheurs déposent alors un projet et le conseil scientifique de l'installation leur attribue des moyens en fonction de l'intérêt de leur dossier. Les " barrières d'énergie " sont certes différentes d'une discipline à l'autre. Mais s'il est des disciplines pour lesquelles il reste difficile de préparer des échantillons ou de soumettre un projet intéressant, il existe aussi des disciplines où ce n'est pas le cas, ce qui conduit à un gâchis de ressources rares car, alors, il n'y a pas de filtre. C'est pourquoi un deuxième type d'organisation peut être préférable, celui du ticket modérateur, où le laboratoire consacre une partie de sa subvention globale, au paiement d'une partie du coût de la ressource dont il bénéficie.

M. René TRÉGOUËT, Sénateur, rapporteur , ayant demandé des comparaisons internationales également sur les modes de tarification, M. Vincent COURTILLOT a estimé là aussi difficile de réunir des informations fiables, même si Internet devrait faciliter les choses.

Au sujet de la nécessité de la tarification, M. Laurent GALZY a rapporté que la Cour des Comptes a récemment observé une éviction des entreprises au profit des laboratoires dans l'accès au centre national de séquençage. Une telle situation pose le problème du financement structurel d'une installation de ce type et requiert des solutions pour une meilleure diffusion de ce type d'outil au profit des entreprises.

La parole a ensuite été donnée à M. François GOUNAND, Directeur des sciences de la matière au CEA.

*

M. François GOUNAND, Directeur des sciences de la matière (DSM) au CEA , a indiqué que le CEA, s'il utilise des très grands équipements pour sa recherche propre, a aussi la mission de participer à leur construction. Au reste, les TGE pèsent d'autant plus lourd dans le budget de la DSM que celui-ci est en diminution.

L'échelle de temps propre aux TGE, à savoir plusieurs décennies, n'est pas sans poser des difficultés. Lors de la création d'un TGE, la phase d'investissement apparaît souvent plus facile à monter au plan financier que ne l'est le financement ultérieur, c'est-à-dire celui de son fonctionnement, qui revient toujours aux organismes de recherche.

Même si le cas de chaque TGE est différent, une réelle difficulté existe pour le CEA en ce qui concerne l'adéquation de la charge financière à laquelle il est assujetti pour chaque TGE et l'utilisation réelle qu'il en fait. Sa participation financière est en effet indépendante de sa recherche propre. C'est ainsi que le CEA paie 50 % de la participation française à l'ESRF et à l'ILL, alors que les chercheurs du CEA recourant à ces machines sont loin de représenter 50 % du contingent des utilisateurs français.

Bien sûr, la prise en charge des participations françaises à 50 % par le CEA et à 50 % par le CNRS est une disposition qui date de la signature par la France des conventions internationales afférentes et il paraît difficile d'y revenir. Toutefois, cette charge se révèle lourde pour la Direction des Sciences de la Matière du CEA, car il s'agit d'un engagement de dépenses incompressible.

Sur un plan plus général, définir ce qu'est un TGE est assurément un exercice délicat. Deux critères fonctionnels apparaissent toutefois essentiels. Les TGE sont toujours en effet des programmes pluriannuels et pluri-organismes.

Par ailleurs, sur la question du cycle de vie des TGE, le CEA a démontré sa capacité non seulement à les concevoir, les construire, les faire fonctionner mais aussi à les fermer. C'est ainsi que dans les années récentes, les installations ALS (Accélérateur linéaire de Saclay), SATURNE et SILOE ont été effectivement arrêtées, même si, comme c'est inévitable, certaines dépenses relatives à leur démantèlement continuent de courir.

M. Philippe BRAIDY, Directeur financier du CEA, a indiqué que, les frais de fonctionnement et les salaires représentent l'essentiel des 4,6 milliards de francs de budget des TGE pour 1999. " La flexibilité à la baisse de ces dépenses est donc mauvaise " . Les coûts unitaires de l'investissement dans des nouveaux TGE semblent peu susceptibles de diminuer, compte tenu de leur technicité croissante. Par ailleurs, l'allongement de leur durée de vie ne semble pas critiquable, en ce qu'elle permet de rentabiliser l'investissement de départ. Au demeurant, l'arrêt d'une installation présente un coût, comme par exemple celui de retrait du combustible.

A l'évidence, il manque dans notre pays les outils de consolidation comptable qui permettraient d'avoir une meilleure appréciation de la situation globale des TGE. L'exercice est de toute façon complexe en raison des structures juridiques différentes des organismes de recherche en charge des très grands équipements. La présence de laboratoires mixtes CNRS-CEA complique encore les choses. Si le champ des TGE devait être étendu, la consolidation risquerait d'être de plus en plus difficile. En tout état de cause, la nature pluriannuelle des dépenses relatives aux TGE constitue sans aucun doute la difficulté de gestion la plus importante, même en l'absence d'aléas politique.

M. René TRÉGOUËT, Sénateur, rapporteur , s'est alors interrogé sur la possibilité réelle de remédier à l'inadéquation entre l'usage des TGE et leur financement.

Pour M. Vincent COURTILLOT, Directeur de la Recherche , une fois arrêté l'enveloppe TGE qui transite pour la plus grande part par le CEA et le CNRS, l'essentiel est de déterminer comment améliorer la façon dont le service est rendu aux utilisateurs. Il est également indispensable de travailler sur des budgets à 20 ans. C'est à cet horizon de temps qu'ont été établies les études sur SOLEIL et sur la participation française dans le synchrotron britannique. L'intérêt des régions pour les très grands équipements scientifiques et leur participation financière ne doivent pas faire oublier la nécessité de ces études sur 20 ans. Il faut enfin imaginer les moyens de mieux répartir la charge financière de ces grands instruments entre utilisateurs, le CEA et le CNRS l'assumant dans une proportion supérieure à celle de son usage propre.

La parole a ensuite aux représentants du CNRS, M. Nicolas RUBEL et Mme Nathalie GODET.

*

M. Nicolas RUBEL, Chef du service de la programmation des moyens , s'est proposé dans un premier temps d'analyser l'évolution des crédits des TGE et la part du CNRS dans leur financement, et, dans un deuxième temps, de présenter des comparaisons internationales.

Le CNRS fait la même analyse que le ministère de la Recherche quant aux évolutions majeures des TGE dans le passé.

L'augmentation globale provient des TGE technologiques " spatiaux " , c'est-à-dire de la station spatiale et des satellites de météorologie.

Les crédits des TGE dits scientifiques ont connu, quant à eux, une diminution en volume. De fait, depuis les années 1980, le poids de l'espace n'a cessé d'augmenter, ce qui n'a pas manqué d'interroger les diverses instances qui conduisent actuellement des réflexions sur ce sujet, dont le Conseil supérieur de la recherche et de la technologie (CSRT).

Au total, si le poids des crédits de TGE dans le BCRD est passé de 6 à 8 %, la responsabilité en incombe aux TGE techniques.

Encore faut-il, dans cette évolution, faire également la part de ce qui relève de la seule " géométrie " de cette catégorie de dépenses : au CNRS, par exemple, les crédits alloués aux TGE s'élevaient à 425 millions de francs en 1990, sur un budget total des TGE dans notre pays de 2,854 milliards de francs à la même date. En 1996, ce montant avait atteint 895 millions de francs. Quels sont les facteurs de ce doublement des dépenses pour le CNRS intervenu entre 1990 et 1996  ?

Des raisons techniques sont à prendre en compte pour interpréter cette croissance. En tout état de cause, le poids de l'ESRF est négligeable. En revanche, l'amélioration de la description des dépenses intervenue dans l'intervalle joue un rôle essentiel. Ainsi un meilleur chiffrage des charges de personnel pour le spatial contribue à alourdir la facture de 170 millions de francs pour la seule année 1996, de sorte qu'une forte part de la croissance observée résulte de la meilleure connaissance des salaires pour les TGE " spatiaux " .

Il faut, à cet égard, observer la concurrence, à, budget constant, entre les engagements d'investissement dans de nouveaux TGE et l'amélioration des moyens de fonctionnement des laboratoires, avec une pression de la masse salariale qui ne peut être mésestimée.

Les crédits des TGE ont représenté au CNRS une part relativement stable du total des autorisations de programme, avec un ratio en volume de 12 % en 1982 et de 13 % en 2000.

Seules les deux années 1995 et 1996 constituent des points singuliers, en raison des annulations de crédits totaux en AP de 200 millions de francs en 1995 et de 100 millions en 1996, intervenues pour résorber la crise de trésorerie de l'organisme.

En francs constants, les dépenses de construction s'élevaient à 115 millions de francs en 1982, hors ESRF, et à 80 millions de francs pour 2000. Aux mêmes dates, les dépenses d'exploitation hors salaires étaient respectivement de 178 et de 273 millions de francs.

Au total, les dépenses d'investissement sont moins responsables de la croissance du budget des TGE que les dépenses de fonctionnement.

Le souci du CNRS est donc de préserver une capacité d'investissement pour l'avenir tout en assurant le fonctionnement des installations existantes ou entrant en exploitation. A cet égard, les fermetures d'instruments obsolètes comme Saturne sont essentielles, de par les économies qu'elles génèrent, 40 millions de francs en l'occurrence pour cette dernière installation.

S'agissant des comparaisons internationales, le CNRS dispose de chiffres solides sur les Etats-Unis, provenant des demandes budgétaires des laboratoires et des crédits budgétaires des organismes ministériels ou de recherche, comme le DOE, la National Science Foundation ou la NASA. Les résultats de cette étude seront communiqués aux Rapporteurs de l'OPECST.

Mme Nathalie GODET, secrétaire permanente des très grands équipements au CNRS, a ensuite confirmé qu'il est aussi dans la mission du CNRS de participer à la construction et à la gestion des TGE pour l'ensemble de la communauté scientifique française. C'est en 1982 qu'une programmation des TGE scientifiques a été mise en place, en incluant les dépenses d'investissement et les dépenses de fonctionnement y compris les salaires. Un premier comité interne des TGE a été crée à cette date. Ce comité, arrêté en 1994, présentait l'avantage d'obliger à une formalisation et à un suivi des décisions au sein du CNRS. Ses travaux étaient éclairés par des évaluations externes, ainsi en ce qui concerne l'ESRF, VIRGO et SOLEIL. Le ministre de la recherche était destinataire de ses conclusions.

La définition des TGE est fondée dans la pratique sur des critères multiples. Ces outils mis à disposition de la communauté scientifique ont une triple vocation de service, de recherche propre et de développement. Il s'agit d'investissements insécables qui nécessitent à la fois une programmation pluriannuelle des moyens et des processus de décision et de suivi particuliers.

Concernant la définition des TGE, il y aurait un danger à pratiquer un élargissement trop grand. Les échelles de coûts et de délais de réalisation seraient disparates et donc peu évidentes à manier.

S'agissant enfin de l'intérêt respectif des différentes structures de gestion des TGE, l'expérience montre que c'est le statut juridique de la société civile qui permet le meilleur suivi.

*

M. René TRÉGOUËT, Sénateur, rapporteur, a ensuite demandé des précisions sur les travaux du groupe de travail européen " à géométrie variable " sur les très grands équipements. Quels sont ses constats sur l'élargissement éventuel du champ des TGE ? Quelles sont les volontés réelles des différents pays de mettre en place une coopération renforcée ? Quelles sont ses vues sur la révision des modes de financement ?

M. Vincent COURTILLOT, Directeur de la recherche, a précisé que tous ces sujets font l'objet de discussion, à l'exception du financement, pour le moment.

Il faut préciser que ce nouveau groupe de travail européen n'est pas le premier organisme de concertation en Europe. En effet, il existe depuis plusieurs années un niveau de coordination rassemblant les " grands directeurs " des " grands organismes de recherche " . Pour autant, il n'existait aucune coordination au niveau des Directeurs de la Recherche au niveau des ministères compétents.

Les premiers pas du nouveau groupe de travail, dont les réunions sont trimestrielles, n'ont pas suscité de critiques ni de la part des petits pays ni de la part de la Commission. Il faut dire que le principe de subsidiarité des actions de l'Union européenne y a été rappelé comme principe de base. Par ailleurs, ce groupe n'a aucun pouvoir. Il s'agit d'y effectuer un travail de coordination et d'y rassembler des informations à l'intention des Gouvernements nationaux qui gardent bien entendu leur autonomie par rapport aux travaux du groupe.

La question des très grands équipements s'est imposée de l'avis général comme l'une des premières à aborder. La création des sous-groupes de travail a été décrite précédemment. Si l'on prend l'exemple du sous-groupe sur les méthodes d'analyse fine de la matière, l'objectif est de réaliser un état des lieux et de faire des propositions d'action pour les pays représentés, notamment en définissant des priorités sur la longue durée. L'un des intérêts principaux de cette démarche est d'examiner les méthodes d'analyse dans leur ensemble et de conduire une réflexion sur leur utilisation conjointe, le recours simultané au rayonnement synchrotron et aux sources de neutrons étant en effet souvent le fait des meilleures équipes de recherche. Le rapport de ce sous-groupe devrait être disponible dans sa première version fin septembre et dans sa version définitive à la fin de l'année.

A la question de M. René TRÉGOUËT, Sénateur, rapporteur, concernant une éventuelle contribution de l'Union européenne au financement des TGE, M. Vincent COURTILLOT , Directeur de la Recherche , a indiqué qu'il existe une ligne budgétaire dans le budget des actions communautaires pour le programme " Access to Large Facilities " qui finance l'accès de chercheurs européens aux très grands équipements mais qu'il n'existe pas de participation aux coûts de construction et de fonctionnement de ces derniers.

Le ministère français de la recherche et le Commissaire européen ont envisagé de faire évoluer cette situation et d'impliquer l'Union européenne dans les phases de financement de certains TGE. La discussion est en cours avec les principaux partenaires européens. Il faut éviter la lourdeur des procédures communautaires et une prise de contrôle des instruments bénéficiaires par la bureaucratie européenne.

Dans la discussion qui a suivi, M. Robert COMÈS , membre du groupe de travail, a précisé que, s'agissant du LURE, la subvention de l'Union européenne non seulement comprend la prise en charge des frais de déplacement des chercheurs étrangers mais inclut également une contribution correspondant à la redevance d'utilisation.

M. Gilles COHEN-TANNOUDJI , membre du groupe de travail , a pointé la notion de tarification, particulièrement importante selon son point de vue.

Bien sûr, seule une connaissance précise des coûts permettrait une tarification. Mais avec cette dernière, il serait possible de passer d'une notion relativement floue d'aide aux laboratoires par l'intermédiaire de la gratuité d'accès à des grands instruments comme le synchrotron, à une situation de vérité des prix qui permettrait une clarification des rapports entre les organismes. Il semble urgent de rapprocher les visions de Bercy, du ministère de la recherche et des laboratoires. Il serait bon que le rapport de l'Office y contribue.

Pour M. René TRÉGOUËT, Sénateur, rapporteur, si cette notion est intéressante, il faut toutefois se garder de conclusions prématurées. Au reste, la tarification n'est pas automatiquement synonyme de débours réels et peut être envisagée au travers de systèmes d'unités de compte. Au préalable, il faut assurément avoir une vision claire des très grands équipements, une notion qui, pour le moment, semble résulter d'un processus de sédimentation historique. En tout état de cause, ne faut-il pas analyser les grands équipements au moyen d'autres approches ?

M. Pierre POINTU, membre du groupe de travail, a noté que la notion de TGE est apparue en raison de la nécessité de prendre des décisions avec des critères distincts de ceux utilisés d'ordinaire. A cet égard, il faut noter qu'une entreprise est impérativement dotée d'une comptabilité générale, mais aussi d'une comptabilité analytique et d'un contrôle de gestion, ce qui la conduit à avoir une représentation des budgets différente de celle de l'administration de l'Etat. Pour autant, il semble bien apparaître que la représentation actuelle des TGE est insuffisante. Est-il à jamais exclu d'enrichir la comptabilité publique avec les méthodes de représentation de la comptabilité privée ?

Mme Nathalie GODET a indiqué que le CNRS évalue, laboratoire par laboratoire, les retombées des crédits TGE, ce qui permet d'identifier, par exemple, l'impact d'un grand instrument comme le LURE.

Pour M. Robert COMÈS, les trois caractéristiques essentielles des TGE sont leurs coûts, leur durée de construction et de fonctionnement et leur caractère insécable. Faut-il élargir cette notion ? Certes, une structure commune gérant un réseau, par exemple de bouées océanographiques, pourrait entrer dans cette catégorie. Il convient toutefois de ne pas aller trop loin.

M. René TRÉGOUËT, Sénateur, rapporteur, a toutefois remarqué que deux arguments militent en faveur d'une réponse positive pour un tel équipement, d'une part l'insécabilité fonctionnelle et d'autre part l'unité de commandement.

M. Vincent MIKOL, membre du groupe de travail, a ensuite abordé la question essentielle de l'arrêt d'un très grand équipement en cas d'insuffisance de son impact sur la recherche en termes de résultats. Quel est le bilan des études réalisées en Europe sur ce sujet ?

M. Vincent COURTILLOT, Directeur de la Recherche , a remarqué que le CEA, pour sa part, a apporté une réponse à cette question. Cette question pertinente a incontestablement une dimension politique, en particulier sur le plan de l'aménagement du territoire.

Au reste, comme il semble bien qu'aucun très grand équipement n'ait été improductif de par le passé, il paraît approprié de formuler la question autrement. Quel est l'apport en valeur ajoutée des très grands équipements, comparé à ceux des autres investissements dont ils ont pris la place ? Telle semble être la véritable question.

Un point qui semble acquis, c'est celui de l'optimisation de la localisation. Il existe aujourd'hui des grands instruments " mal localisés ", dont les dividendes auraient été supérieurs sur un meilleur site. M. Roger-Gérard SCHWARTZENBERG, ministre de la recherche, a indiqué à plusieurs reprises que, dans la localisation d'un TGE, les critères d'aménagement du territoire ne sauraient l'emporter sur tous les autres. Selon M. Vincent COURTILLOT, " on mettra de moins en moins un grand instrument au milieu de la campagne ". Il existe une dizaine de grandes métropoles de recherche en France. Tout nouveau TGE devrait désormais être installé dans l'une de ces métropoles, ce dont s'est réjoui M. Robert COMÈS.

Mme Geneviève BERGER, a ajouté que les TGE non seulement ont un impact social et économique comme la recherche dans son ensemble mais qu'ils structurent également la communauté scientifique et participent à l'orientation de la recherche.

M. Laurent GALZY, est revenu ensuite sur l'approche comptable et économique des TGE.

Il y a un intérêt majeur à disposer de données claires dans le domaine des TGE. C'est la société civile qui est la structure juridique qui apporte le plus à cet égard. Au demeurant, la comptabilité des organismes de recherche a progressé et présente des éléments d'amortissement. Concrètement, si l'équilibre financier d'un TGE est assuré par une subvention, on amortit à la fois l'équipement et la subvention. Toutefois, cet amortissement ne génère pas de ressources.

Sur un plan économique, on ne peut nier que le taux de rentabilité d'un TGE ne soit difficile à calculer. Les critères à utiliser sont en tout état de cause plus différenciés et plus nombreux que le seul critère financier appliqué dans les entreprises.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé qu'un TGE doit en tout état de cause dégager une valeur ajoutée. Il faut donc introduire une vision dynamique qui permettent en particulier de déterminer l'impact de l'équipement sur le développement économique. La diversification des financements des TGE à l'étranger mériterait à cet égard, d'être mieux connue. La description du rôle moteur des Lander en Allemagne est à approfondir. Par ailleurs, on voit bien comment les Etats-Unis incitent d'autres pays à participer à certains de leurs investissements dans les grands instruments scientifiques dont les retombées sont lointaines. Au contraire, dans des domaines comme les sciences de la vie et des sciences et techniques de l'information et de la communication, les Etats-Unis n'invitent pas d'autres pays à coopérer, car ces programmes ont un fort retour à court terme pour l'économie américaine.

S'agissant du coût des TGE, M. Philippe BRAIDY , Directeur financier du CEA, a indiqué que cet organisme connaît leur montant, qu'il pratique l'amortissement et provisionne les coûts de démantèlement.

La véritable difficulté concernant la planification des dépenses, c'est celle du caractère public de la source de financement. Tant qu'un TGE se trouve dans le cadre d'une structure juridique financée par des partenaires publics, on ne peut échapper aux aléas de l'annualité budgétaire, un inconvénient qui serait atténué par une meilleure association des entreprises à la construction et à la vie des TGE.

M. Jochen SCHNEIDER, membre du groupe de travail, a, pour sa part, abordé la question de la fermeture éventuelle d'un très grand équipement, une opération toujours difficile.

Une façon d'y parvenir, c'est non seulement de remplacer la machine en fonctionnement par un équipement de la nouvelle génération mais également, et surtout, d'affecter systématiquement, pendant toute la durée de vie de l'installation, une part de son budget annuel de fonctionnement au financement de l'opération future de renouvellement. En tout état de cause, c'est la politique suivie par le Deutsche Elektronen-Synchrotron (DESY) à Hambourg.

M. Vincent COURTILLOT , Directeur de la Recherche, tout en indiquant qu'une telle approche n'entraînait pas d'opposition de sa part, a estimé qu'elle ne peut s'appliquer à tous les TGE. Ainsi, dans le cas du VLT et VLTI de l'ESO, la phase de définition du projet avait débouché sur la construction et l'implantation d'un télescope de nouvelle génération, le NTT (New Technology Telescope) à La Silla, avec l'objectif de fermer ultérieurement ces installations pour en construire d'autres plus performantes ailleurs. Un refus des petits pays partenaires tente de pérenniser les équipements intermédiaires, ce qui a occasionné une dérive budgétaire. Une garantie de pérennité peut donc entraîner une inertie dommageable et oblige, en tout état de cause, à trouver les moyens de rendre irrévocables les fermetures prévues dès l'origine.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur le point de savoir si le mode de décision actuel sur la construction et la fermeture des TGE est pertinent et sur le niveau auquel devraient intervenir les choix en la matière. Au vrai, le monde politique, qui n'est pas sans peser sur les choix relatifs aux TGE, notamment en ce qui concerne leur localisation, devrait également réfléchir sur le meilleur mode de décision à utiliser pour ce qui les concerne.

Pour M. Michel SPIRO, membre du groupe de travail, le processus optimal en matière de TGE, tant pour leur construction que pour leur fermeture, est le schéma " bottom-up " . Une discipline organisée est à même de réfléchir à la fermeture d'une machine dépassée et à la construction d'un équipement de remplacement. La preuve en a été donnée par la physique des particules avec la fermeture de Saturne et son remplacement par le GANIL à Caen. De même, il est prévu d'arrêter le LEP du CERN et de le remplacer par le LHC.

M. Vincent COURTILLOT, Directeur de la Recherche, s'étant interrogé sur l'indépendance des décideurs sur cette question, M. Michel SPIRO a précisé que les physiques étudiées respectivement au LEP et au LHC sont différentes et qu'il s'agira en conséquence de nouvelles équipes.

Au demeurant, M. Michel SPIRO a estimé que la dimension structurante des TGE génère des économies. La qualité de l'organisation du travail qui y règne nécessairement, permet en effet une utilisation optimale des compétences.

Mme Claudine LAURENT, membre du groupe de travail, a fait valoir que, non seulement la notion de TGE mais leur gestion varient d'une discipline à l'autre. Il est incontestable que certaines disciplines comme l'astronomie ne savent pas toujours fermer des installations obsolètes. Sur un autre front, certaines disciplines comme les sciences de la vie ne voient pas leurs grandes installations prises en compte dans la catégorie des très grands équipements alors qu'elles semblent en avoir toutes les caractéristiques. En définitive, pour avoir une appréciation correcte de cette question, il faut " être au-dessus des disciplines " .

Concluant cette réunion riche d'enseignements, M. René TRÉGOUËT, Sénateur, rapporteur, a remercié les participants pour la qualité de leurs interventions.

3. Sciences et technologies de l'information et de la communication - mercredi 31 mai 2000

INRIA

• M. Gilles KAHN, Directeur scientifique

BULL

• M. Gérard ROUCAIROL, Directeur de la recherche et du développement, Président du Conseil d'orientation du réseau national des technologies logicielles

CINES (Centre Informatique National de l'Enseignement Supérieur)

• M. Alain QUÉRÉ, Directeur

France TELECOM

• M. Francis JUTAND, Directeur scientifique de France Télécom R & D

• Mme Marie-Claude FÉRON, adjointe aux relations institutionnelles

MATRADATAVISION - SYNTEC

• M. Hugues ROUGIER, Président

RENATER

• M. Dany VANDROMME, Directeur

CEA

• M. Jean THERME, Directeur du LETI

• M. Alain HOFFMANN, Directeur de l'Informatique

• M. Bernard SALANON, Direction de la Stratégie

• M. Pierre TRÉFOURET, chef du service des Affaires publiques

CNRS

• M. Michel VOOS, chargé de mission auprès du Directeur général

• M. Jacques DUPONT-ROC, Directeur scientifique adjoint au département des sciences physiques et mathématiques

• M. Patrick LE QUÉRÉ, chargé de mission au département des sciences pour l'ingénieur

• M. Jean-Charles POMEROL, chargé de mission au département des sciences pour l'ingénieur

• M. Serge FAYOLLE, Directeur adjoint de l'IDRIS (Institut du Développement et des Ressources en Informatique Scientifique)

*

En ouverture à la réunion, M. Christian CUVILLIEZ, Député, Rapporteur, a rappelé aux participants que la présente partie du rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), porte sur " le rôle des très grands équipements dans la recherche publique et privée en France et en Europe " et constitue un prolongement et un élargissement de l'étude publiée dans le premier tome sur " les conditions d'implantation d'un nouveau synchrotron ". Aussi bien, ainsi qu'il résulte de l'entretien obtenu avec le ministre de la Recherche, la préparation de la seconde partie du rapport se fait dans un climat différent, ce dernier ayant exprimé sa volonté de rétablir ou de maintenir les savoirs et les compétences de la communauté scientifique nationale.

Quoi qu'il en soit, après la dissolution de Conseil des grands équipements, chaque communauté scientifique concernée par un très grand équipement (TGE) se trouve privée d'une participation à une réflexion collective et déconnectée du processus de décision et en particulier de la fixation des ordres de priorités.

Avec leur étude et sa méthode de préparation, les Rapporteurs de l'Office parlementaire souhaitent contribuer aux réflexions en cours dans différentes instances, en particulier au Conseil supérieur de la recherche et de la technologie (CSRT) dont la vice-présidente, Mme Claudine LAURENT, participe à leur groupe de travail.

Pour autant les Rapporteurs n'entendent pas se substituer aux comités scientifiques à recréer probablement en la matière et ne comptent pas non plus proposer des priorités et émettre des jugements de valeur.

Ils souhaitent au contraire donner un éclairage sur la situation actuelle des TGE dans notre pays et discuter de l'opportunité de donner une nouvelle définition de cette catégorie d'instruments scientifiques et notamment d'étendre leur liste aux réseaux.

De même, leur propos est de mettre en évidence les enjeux de la recherche actuelle auxquels seraient nécessairement attachés de nouveaux TGE.

La méthode de travail utilisée pour le tome I du rapport sur le synchrotron, est également appliquée au tome II, à savoir l'audition d'un grand nombre de chercheurs spécialistes des différents domaines, avec l'assistance d'un groupe de travail composé d'experts de haut niveau.

A ce stade des investigations, la question du financement des TGE dans ses modalités actuelles est posée et des voies nouvelles apparaissent nécessaires. Au lieu d'articles budgétaires globaux relatifs aux organismes de recherche gestionnaires, l'autonomisation du financement des TGE pourrait apparaître préférable, de même que de nouveaux systèmes de gestion et des techniques d'amortissement et de provision systématiques.

M. René TRÉGOUËT, Sénateur, rapporteur , a souligné que la démarche de l'OPECST est empreinte d'humilité et qu'en ce stade de la collecte d'informations et de points de vue, les conclusions du rapport ne sont bien entendu pas arrêtées. L'intérêt de cette démarche ne saurait être mésestimé non seulement pour cette raison mais aussi parce que l'Office procède du Parlement tout entier en tant que délégation commune de l'Assemblée nationale et du Sénat.

Depuis son origine, l'Office recherche le consensus et va devenir, de plus en plus, un lieu naturel pour des rencontres sans a priori entre scientifiques et politiques.

Un des souhaits des Rapporteurs de l'étude sur les TGE est de mettre en évidence l'importance de la durée dans la politique scientifique. Actuellement, les confrontations sont de plus en plus aiguës dans la compétition économique mondiale. A ce titre, s'il existe de nombreux horizons importants dans le domaine des TGE, deux axes apparaissent d'une importance primordiale à M. René TRÉGOUËT, à savoir les sciences et technologies de l'information et de la communication (STIC) et les sciences du vivant. En tout état de cause, si les disciplines les plus concernées par la problématique des TGE étaient dans le passé la physique et la chimie, les STIC et les sciences du vivant revêtent aujourd'hui une importance stratégique. Ceci ne veut d'ailleurs pas dire que les autres disciplines soient à sacrifier, puisque l'interdisciplinarité a de plus en plus d'importance, comme l'étude du synchrotron faite par l'Office l'a amplement montré.

En l'état actuel des investigations du présent groupe de travail, il semble nécessaire d'essayer de donner une nouvelle définition des très grands équipements. S'il s'est agi pendant longtemps de cathédrales technologiques et coûteuses, dont l'efficacité était au demeurant difficile à mesurer, sans doute faut-il aujourd'hui introduire une autre approche et notamment intégrer dans cette notion les grands réseaux.

Après avoir accueilli un nouveau membre du groupe de travail, Mme Phyllis LIVANOS, et annoncé la prochaine présence de M. Denis LE BIHAN, neurobiologiste et de M. Pierre TAMBOURIN, directeur général du génopole d'Evry, M. René TRÉGOUËT a appelé les participants à la réunion à se sentir libres de faire toutes propositions sur le thème en discussion, à savoir la problématique des TGE dans les sciences et les technologies de l'information.

Au sein de l'économie mondiale, ni la France ni l'Europe plus généralement n'occupent la place qui devrait être la leur dans la révolution de l'informatique, des télécommunications et de l'image. La question finalement est la suivante : " que devraient faire la France et en particulier l'Etat pour que nous reprenions une place significative à l'avenir ? " .

M. TRÉGOUËT a souligné que les orateurs ne se trouvent pas devant un organisme officiel, dispensateur de crédit ou promoteur d'une politique et qu'en conséquence, leur discours devait s'affranchir des précautions d'une " approche institutionnelle classique " pour énoncer avec clarté " ce que nous pouvons faire tous ensemble " , après avoir établi un constat sans fard de la situation.

La parole a ensuite été donnée à M. Gilles KAHN.

*

M. Gilles KAHN, Directeur scientifique de l'INRIA (Institut national de recherche en informatique et en automatique) , a commencé par marquer son accord avec trois notions soulignées par les Rapporteurs comme particulièrement importantes, d'une part la programmation des investissements de la recherche dans la durée, d'autre part l'absence de cloisonnement entre disciplines et enfin la place des réseaux dans la catégorie des grands équipements. Il a poursuivi par une brève présentation de l'INRIA.

L'INRIA est un établissement public à caractère scientifique et technologique (EPST), qui comprend 750 fonctionnaires et est doté d'un budget annuel d'environ 550 millions de francs. Avec 160 thésards et les personnels sous contrat, la force de travail de l'INRIA atteint 2000 personnes réparties en 5 centres nationaux majeurs. Ainsi, l'INRIA est le plus grand des petits organismes de recherche, dans un paysage d'ensemble qui comporte un fossé entre les grands organismes et les autres.

L'INRIA se trouve en aval d'un secteur de recherche et développement qui représente environ 30 % de l'effort de R & D du pays, une situation qui lui occasionne une charge de travail considérable. Son domaine est bien entendu celui des sciences et technologies de l'information et de la communication (STIC), une dénomination au demeurant préférable à celle des nouvelles technologies de l'information et de la communication (NTIC) dans la mesure où elle stigmatise bien l'absence de frontière que l'on constate entre les idées fondamentales et les applications et entre la science et la technique dans ce champ de recherche.

La recherche sur les logiciels constitue l'essentiel de l'activité de l'INRIA et porte aussi bien sur les outils informatiques que sur les réseaux, en traitant de leurs applications au calcul scientifique, à la physique appliquée, à la CAO (conception assistée par ordinateur), aux télécommunications, aux réseaux, à la santé, au transport et à l'environnement.

L'INRIA dispose d'un plan stratégique afin d'optimiser sa réponse à la compétition très forte résultant de la vitalité extraordinaire des STIC au niveau mondial, une compétition qui n'est pas toujours comprise par les scientifiques des autres disciplines.

Mais en quoi l'INRIA est-il concerné par la notion de très grand équipement ?

Du fait du montant de son budget, l'INRIA ne peut évidemment être impliqué dans la construction d'équipements dont le coût dépasse le milliard de francs. Pour l'INRIA, un grand équipement correspond à des moyens de calcul en participation ou bien à un centre informatique comme celui de Nancy, d'un coût de 30 millions de francs, qui propose notamment une plate-forme de réalité virtuelle. Au reste, l'ordre de grandeur du coût d'un grand ordinateur pour l'INRIA est de 5 millions de francs.

Une autre notion de grand équipement dans le domaine des STIC est certainement celle des réseaux. Leur importance est croissante dans la vie quotidienne des chercheurs et dans la capacité à déployer des équipes de recherche sur l'ensemble du territoire national.

M. Gilles KAHN a d'ailleurs, depuis le début des années 1980 et avant le démarrage de RENATER, soutenu la constitution d'un réseau informatique pour la recherche.

En tout état de cause, si un réseau est un grand équipement indispensable, ce n'est pas seulement parce qu'il constitue un moyen de communication entre chercheurs. C'est aussi que ses fonctionnalités de communication sont transformées par l'imagination des chercheurs et des industriels.

Ainsi, Internet, au départ réseau pour l'échange à distance de courrier électronique, a donné naissance au World Wide Web, dont les acquis déjà considérables ont été obtenus en moins de 10 ans. A son tour, le protocole du Web devient dominant et permet l'échange d'objets multimédia. L'étape suivante de l'évolution est la possibilité de se servir d'Internet pour des usages distincts de la simple transmission de données, le réseau se transformant en réseau de communication pour la voix et l'image en temps réel. Il apparaît donc de nouveau des problèmes de modélisation, la nécessité apparaissant de repenser la communication multimédia. La perte de paquets au cours d'une transmission voix-image doit, par exemple, recevoir une solution différente des solutions actuelles, en raison de sa perception immédiate.

Il faut en conséquence un réseau de recherche, pour conduire des études sur une meilleure utilisation des réseaux pour la communication mais aussi pour des applications scientifiques.

A cet égard, l'utilisation à des fins de calcul scientifique des ordinateurs connectés au réseau apparaît comme un domaine d'étude essentiel.

Dans cette perspective, le réseau apparaîtrait sous une configuration nouvelle, celle d'une ressource de calcul dans laquelle il serait possible de puiser comme l'on fait pour le courant avec le réseau électrique. L'idée se forme actuellement que le réseau pourrait être le moyen d'obtenir une puissance de calcul considérable et non locale. Une conséquence évidente de cette nouvelle possibilité serait naturellement une charge supplémentaire pour le réseau, charge correspondant aux transferts de données. Il faut noter, à cet égard, que le réseau se caractérise par une économie particulière. Il s'agit d'une ressource partagée dont l'ensemble des acteurs et des utilisateurs développent la capacité en travaillant dans le même sens. La mutualisation des ressources est un gain pour tous, notamment parce que les besoins s'expriment à des moments différents.

Pour l'INRIA, le réseau est donc un très grand équipement clé. Des expérimentations sont en cours avec France Télécom pour augmenter les débits et diminuer les temps de latence, ce qui conduit à de nouvelles applications, notamment la connexion de plates-formes de réalité virtuelle.

Au delà d'être un outil d'usage quotidien, le réseau est le point focal des réflexions de l'INRIA, qui participe non seulement à RENATER mais aussi au projet VTHD (vraiment à très haut débit).

Un exemple d'exploitation des capacités de calcul du réseau peut être trouvé dans le domaine de la cryptographie. Dans le cadre d'un projet scientifique de vérification de la robustesse d'un procédé de cryptage, on peut imaginer de suppléer aux ressources limitées en puissance de calcul d'un établissement par la mobilisation des puissances de calcul personnelles d'un ensemble de chercheurs parties prenantes au projet. Plusieurs mois de calcul sur un super-ordinateur peuvent en effet équivaloir au temps inutilisé le week-end sur un ensemble d'ordinateurs personnels. Les procédés cryptographiques reposant sur la difficulté de certains calculs, il est indispensable d'en démontrer l'impossibilité par des tests en vraie grandeur.

Pour conclure, M. Gilles KAHN a pointé le fait qu'un réseau informatique représente un investissement faible par rapport à ceux de la plupart des très grands équipements. mais produit un effet d'entraînement très important sur notre recherche et notre industrie.

Après avoir demandé des compléments d'information sur la politique des autres pays en matière de réseaux informatiques, M. René TRÉGOUËT, Sénateur, rapporteur, a ensuite donné la parole à M. Gérard ROUCAIROL.

*

M. Gérard ROUCAIROL, Directeur de la recherche et du développement du Groupe BULL , a indiqué que BULL, avec 25 milliards de francs de chiffre d'affaires et une présence en Europe, en Amérique et en Asie, est aujourd'hui le seul constructeur européen indépendant d'ordinateurs depuis la prise de contrôle à 80 % d'ICL par Fujitsu, depuis l'alliance de ce dernier avec Siemens et la disparition d'Olivetti.

En réalité, contrairement à ce que l'on pense généralement, la maîtrise de la conception et de la fabrication des ordinateurs de puissance prend une importance encore plus forte que par le passé, car les informations de tout type sont en passe d'être numérisées dans tous les secteurs d'activité.

Au demeurant, deux facteurs complémentaires replacent les calculateurs de grande puissance au centre du jeu : il s'agit d'une part de la constitution de bases de données géantes et d'autre part de l'apparition de nouvelles applications pour Internet rendant nécessaires des hauts débits. Au total, les grands systèmes informatiques redeviennent des éléments stratégiques.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est demandé si BULL avait tiré les conséquences de la réticence de plus en plus forte des utilisateurs à mettre en oeuvre des systèmes propriétaires.

M. Gérard ROUCAIROL, Directeur de la R & D de BULL a précisé que le choix avait été fait de placer les logiciels ouverts au centre de l'offre de la compagnie. Au delà de cette évolution, les sciences et techniques de l'information et de la communication (STIC) jouent un rôle essentiel dans la compétitivité économique globale, ce qui fait de la recherche dans ce domaine un enjeu majeur.

L'utilisation des STIC par un pays est une clé de sa compétitivité économique. L'évolution des investissements informatiques ne démontre malheureusement pas que l'on en ait pris conscience en France et en Europe. Le retard des investissements informatiques y est en effet patent. Quel que soit le ratio utilisé, que ce soit par rapport au PIB ou par tête d'habitant, les investissements informatiques de la France et de l'Europe représentent 50 % du niveau pratiqué aux Etats-Unis, avec toutefois une situation moins défavorable en Europe du Nord.

L'analyse des sources d'un point supplémentaire de croissance du PIB aux Etats-Unis est éclairante. Ainsi, le passage d'un taux de croissance de 2,5 % à 3,5 % par an dans ce pays provient pour 50 % de l'usage des STIC, pour 25 % de l'industrie des STIC et pour les 25 % restant du progrès général des autres secteurs économiques. L'absence presque totale de chômage aux Etats-Unis est à l'évidence liée à ces éléments.

S'agissant de la recherche, une insuffisance de l'investissement de l'appareil de recherche dans les STIC et un déficit de recherche sur les STIC sont très probables en France et en Europe. Il en résulte un déficit dans les puissances de calcul disponibles ainsi que dans les moyens de communication. Pourtant, des moyens de calcul et de télécommunications adéquats représentent des moyens de logistique de base pour les scientifiques.

S'agissant de la recherche relative aux STIC, il faut souligner qu'elle requiert des outils de puissance pour une raison simple. Aucun modèle des sciences et technologies de l'information et de la communication ne permet de prédire les puissances de calcul nécessaires, les comportements n'étant pas linéaires dans ce domaine, ce qui fait que le passage à l'échelle pose de nouveaux problèmes. L'expérimentation est en conséquence indispensable.

" Le problème fondamental de la recherche dans le domaine des STIC est donc de pouvoir disposer des plates-formes permettant le passage à l'échelle qui, seul, pose le problème scientifique au bon niveau ".

En conséquence quels sont les besoins des STIC en grands ou très grands équipements ?

Les grandes plates-formes de réseau constituent le premier type d'équipements nécessaires.

Il s'agit de plates-formes d'expérimentation ouvertes sur les grandes infrastructures de réseaux à haut débit, comme le projet " Next Generation Internet " en dispose aux Etats-Unis, permettant de faire de la R & D sur les télécommunications et accessibles aux fournisseurs d'applications pour qu'ils puissent tester de nouveaux services.

La dépense correspondante s'élève à environ 1,5 à 2 milliards de francs par an pendant 5 ans.

Il ne s'agit pas que l'Etat prenne à sa charge la totalité de la dépenses. Des contributions de l'industrie et des laboratoires publics sont envisageables et en tout état de cause nécessaires. Mais une contribution de l'Etat, supérieure à ce qu'elle est actuellement, est indispensable. A cet égard, le réseau national de recherche en télécommunications (RNRT) a mis en place une aide pour la seule communauté de la recherche et développement en télécommunications mais n'a pas les moyens, dans l'état actuel des choses, d'_uvrer pour les autres disciplines.

Les grands ordinateurs représentent le deuxième type d'équipements essentiels, pour deux raisons principales.

La première correspond aux besoins de calcul et de traitement de l'information des réseaux. L'augmentation des débits dans les " tuyaux " nécessite en effet à leurs extrémités des ordinateurs de plus en plus puissants. La deuxième raison tient à la gestion de bases de données de plus en plus étendues et aux exigences du " data mining " . Si l'on prend le cas du génome, il faut des puissances de calcul exceptionnelles pour découvrir d'éventuelles corrélations entre une séquence d'ADN et un ou plusieurs gènes.

Les infrastructures pour composants logiciels représentent la troisième catégorie d'équipements indispensables.

Les STIC connaissent en effet actuellement une rupture technologique majeure, à savoir l'importance croissante et bientôt déterminante des composants logiciels, grâce auxquels une nouvelle application peut être forgée à partir de morceaux de programmes provenant de diverses origines. Cette révolution technologique est selon toute probabilité susceptible de s'accélérer. Après une phase de maturation culturelle et technologie de l'industrie des logiciels, on assiste en effet à un nivellement des barrières à l'entrée sur ce marché.

Pour autant, pour profiter de cette révolution technologique, il faut des plates-formes de mutualisation et de mise en place des composants logiciels.

En tout état de cause, sur le marché des progiciels, qu'il faut distinguer des logiciels à façon, le retard de la France est considérable. On estime que ce marché atteindra en France 100 milliards de francs en 2002-2003 et 600 milliards de francs pour l'Union européenne. Or la part de la France est actuellement de quelques dixièmes de pour-cent de ces marchés. Par ailleurs, il existe un mécanisme de déplacement de la valeur ajoutée vers le logiciel que l'on observe dans toutes les industries et en particulier pour les équipements électriques, un phénomène qui renforce encore l'importance de la maîtrise de leur production.

" Il faut donc profiter de la rupture technologique des composants logiciels pour reprendre pied sur le marché des progiciels " .

Après avoir remercié M. Gérard ROUCAIROL pour son intervention, M. René TRÉGOUËT, Sénateur, rapporteur, a donné la parole à M. Francis JUTAND de France Télécom R&D, en lui demandant notamment d'expliciter l'organisation de la recherche en vigueur chez l'opérateur national après les bouleversements introduits par la loi de 1996.

*

M. Francis JUTAND, Directeur scientifique de France Télécom R&D a rappelé que la loi de réglementation des télécommunications de 1996 a confié à l'Etat la recherche publique auparavant assurée par le CNET. Une partie de la recherche amont en optoélectronique et en microélectronique a été transférée au CNRS et au CEA (LETI) et la recherche appliquée à Alcatel (GIE Opto+) et STMicroelectronics. Le CNET s'appelle désormais France Télécom R&D.

Certains commentateurs ont cru pouvoir déduire du retrait de l'entreprise de la recherche sur les composants que France Télécom abandonnait toute activité de recherche. Mais la réalité est tout autre.

France Télécom, société anonyme depuis 1996, comprend 5 branches, dont trois sont opérationnelles et deux sont fonctionnelles. France Télécom R&D est rattaché à la Branche Développement.

France Télécom R&D emploie 3800 personnes, dont 3000 ingénieurs et techniciens, accueille en outre 150 thésards et dispose d'un budget global de 3,4 milliards de francs.

Les activités de recherche de France Télécom R&D représentent un budget de 450 millions de francs, 350 chercheurs et 150 thésards. Ses principaux domaines d'activité portent sur les réseaux, le génie logiciel, l'accès aux réseaux de mobiles, le support au réseau, les interactions homme-machine, les technologies d'accès intelligent à l'information et les usages en termes de comportement et d'acceptation des nouveaux produits par le public et les entreprises.

France Télécom R&D participe très activement au Réseau national de recherche en télécommunications (RNRT) et participe en outre à des recherches coopératives en Europe.

Au demeurant, France Télécom R&D participe également au financement de la recherche publique au travers de contrats de coopération d'un montant total de 60 millions de francs. Les universités et le CNRS sont ses partenaires principaux, à hauteur de 60 % du total. L'INRIA et les écoles des télécommunications correspondent à 40 %, à parts égales.

Au total, il existe en France un tissu de recherche compétitif issu d'une dizaine d'années d'efforts. Pour passer à un nouveau stade, il faudrait des ressources supplémentaires.

S'agissant des TGE dans le domaine des télécommunications, il convient de distinguer deux niveaux de réseaux, d'une part les réseaux à qualité de service et d'autre part les réseaux de recherche et d'expérimentation, pour lesquels des politiques profondément différentes sont à mettre en _uvre. Au demeurant, le rôle de France Télécom R&D est d'effectuer des recherches pour améliorer la compétitivité de l'opérateur national dans les réseaux à qualité de service, de participer aux recherches coopératives au niveau scientifique et applicatif pour les réseaux expérimentaux et de participer à leur mise en _uvre.

Les réseaux à qualité de service constituent un support pour la recherche en raccordant les chercheurs entre eux ou avec les entreprises et l'industrie. La qualité de service doit être un objectif prioritaire. RENATER et ses réseaux régionaux entrent dans cette catégorie. L'offre à la communauté de recherche est en tout état de cause soumise à concurrence.

Les réseaux de recherche et d'expérimentation préfigurent les réseaux à qualité de service de demain. La principale initiative en la matière est le réseau VTHD (vraiment à très haut débit). Le creuset de ce projet a été le RNRT dans le cadre d'un programme de préparation de l'Internet du futur. France Télécom R&D s'investit dans ce projet en partenariat avec l'INRIA et le GET (Groupement des écoles de télécommunications).

Les objectifs du projet VTHD et plus généralement des réseaux expérimentaux sont multiples : d'une part en comprendre l'économie, d'autre part effectuer des recherches sur les technologies du futur dont les paramètres essentiels sont le débit, la capillarité et l'interconnexion avec l'Europe et le monde, et, enfin de faire des recherches sur les services associés du futur. La démarche est en conséquence de bâtir des infrastructures mais aussi d'imaginer des produits et des services nouveaux pour les utilisateurs.

Le projet VTHD est assimilable à un TGE. Le financement par l'Etat y joue un rôle essentiel, notamment par l'intermédiaire des aides à la connexion des laboratoires, " la capillarité coûtant plus cher que le `backbone' " .

France Télécom R&D contribue au projet VTHD avec une recherche coopérative et en mettant à disposition à des coûts faibles des infrastructures de télécommunications expérimentales, dont les performances sont élevées mais pour lesquelles il n'y a pas de garantie commerciale de qualité de service.

Le réseau VTHD va s'ouvrir en 2000, mettant en relation Rennes, Paris, Grenoble, Sophia Antipolis, Rouen, Nancy, Toulouse, dans un premier temps. Cette première mouture, comparable en niveau de performances avec le réseau américain ABILENE, sera accessible, grâce notamment à l'aide de l'Etat, à des tarifs moins élevés.

Avec cette réalisation, la France aura rattrapé son retard, mais il est indispensable de ne pas s'arrêter là, car les réseaux sont à une période de leur développement où leurs performances s'améliorent très rapidement.

Il est difficile de chiffrer les coûts du réseau VTHD. Les coûts s'élèvent à 40 millions de francs pour les infrastructures de base dont 10 millions de francs pour les routeurs, à quoi s'ajoutent les coûts de la recherche et ceux de la mise à disposition de chercheurs et de matériels, ce qui multiplierait par 3 ou 4 le coût global.

Si les réseaux constituent une part importante des besoins de recherche des STIC, ils ne sauraient pour autant résumer les investissements indispensables. En effet, les plates-formes d'intégration représentent également un élément essentiel de la recherche, en favorisant la dynamisation des efforts, l'ouverture et la coopération avec l'industrie et le monde.

Par ailleurs, les réseaux de qualité de service et les réseaux de recherche et d'expérimentation ont beau représenter deux générations différentes de réalisation, l'aide de l'Etat pour leur construction et leur fonctionnement qui se traduit au demeurant par des modes de financement différents est d'une importance capitale. Elle se justifie essentiellement par le fait que les réseaux figurent les routes qu'emprunte la recherche pour sa plus grande efficacité.

Après cet exposé de M. Francis JUTAND, un débat s'est engagé d'abord sur la fuite des " cerveaux " dans la recherche en télécommunications puis sur le niveau des investissements de la France dans ce domaine.

*

S'agissant du " turn over " des chercheurs dans le domaine des STIC, M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur le niveau et les causes des départs hors du secteur public et hors de France des ingénieurs en télécommunications. Ces départs sont-ils liés à un système de rémunération inapproprié face aux aberrations souvent rencontrées dans la nouvelle économie ou à un manque de visibilité de notre recherche ?

En tout état de cause, cette question est de la plus grande importance, car il ne servirait à rien de mettre en place de grandes plates-formes si l'on venait à manquer d'ingénieurs.

M. Gilles KAHN a indiqué que le " turn over " à l'INRIA est globalement de 8 %, les départs étant concentrés toutefois dans les activités de réseau. Pour lui, les départs procèdent d'un ensemble de raisons, dont celles évoquées par le Rapporteur. Le manque de flexibilité des rémunérations est certainement une des raisons primordiales. Mais il faut également invoquer le fait que le système est une " éponge " qui absorbe sans difficulté les chercheurs déçus par l'impossibilité de conduire une vraie réflexion du fait d'une charge de travail écrasante et qui, dès lors, ne voient pas d'inconvénient majeur à changer d'activité. En définitive, il semble nécessaire de favoriser un redéploiement des disciplines scientifiques, en matière d'effectifs et en particulier au niveau des personnels ITA (ingénieurs, techniciens et administratifs).

Selon M. Jean-Charles POMEROL, chargé de mission au département des sciences pour l'ingénieur , le CNRS éprouve également des difficultés à garder ses ingénieurs réseau. La raison principale en est, bien entendu, la concurrence mondiale en la matière qui crée une situation de pénurie. Mais il faut aussi y voir une conséquence de la concurrence des différentes administrations de l'Etat et des différentes fonctions, les primes des ingénieurs de gestion étant plus élevées que les primes de recherche, ce qui peut inciter certains ingénieurs à délaisser ce type d'activité.

Pour M. Francis JUTAND , la création de start-up avec son accompagnement de départ de personnels parmi les plus qualifiés, ne peut qu'aggraver la situation. Les besoins croissants des STIC en personnels est un problème critique qui exige que l'on prenne des mesures en amont. Le déclin des vocations scientifiques, même s'il est moins accentué que dans d'autres pays, constitue à cet égard une donnée de base à prendre en considération.

M. Hugues ROUGIER, Président-directeur général de MatraDatavision et administrateur du SYNTEC , a confirmé que le système éducatif ne fournit pas d'informaticiens en nombre suffisant. Deux solutions s'offrent dès lors aux entreprises du secteur de l'informatique pour combler ce déficit. La première solution est l'emploi d'informaticiens " off shore " . La deuxième serait d'ouvrir les frontières à des informaticiens étrangers.

Sur la question du déficit d'investissement dans la recherche, M. Gérard ROUCAIROL a rappelé qu'il redoutait que l'effort français d'investissement fût encore plus en retard que celui de l'industrie par rapport aux Etats-Unis. Les éléments fournis par les intervenants ont malheureusement corroboré cette impression.

Mme Phyllis LIVANOS, membre du groupe de travail, a quant à elle estimé qu'il convenait de comparer les Etats-Unis, non pas avec la France, mais avec l'Europe et que s'il fallait trouver des références pour notre pays, c'était avec l'Allemagne ou le Royaume Uni.

Pour Mme Sylvie JOUSSAUME, membre du groupe de travail, le retard d'investissement français dans les STIC varie selon les domaines. Les programmes de simulation militaire conduisent incontestablement à un renforcement des puissances de calcul dans notre pays. Dans le domaine de la climatologie, les niveaux sont pour le moment comparables entre la France et les Etats-Unis, le Japon, l'Allemagne ou la Grande-Bretagne. Mais les projets conçus actuellement aux Etats-Unis et au Japon submergeront la France par leur ambition et leurs moyens.

*

Un autre débat est alors intervenu sur les voies d'avenir pour les puissances de calcul les plus élevées.

Mme Sylvie JOUSSAUME a noté une difficulté particulière aux Etats-Unis, à savoir l'obligation pour des raisons de soutien à l'industrie nationale, d'acheter des super-calculateurs américains, qui sont pourtant dépassés par les machines japonaises.

M. Gilles KAHN a objecté que, pour le Japon, les super-calculateurs ne sont plus désormais une priorité, comme a pu le constater une récente mission de l'INRIA au Japon, dans le cadre d'une recherche en coopération avec NEC sur ce sujet. Pour quelle raison ce domaine n'est-il plus privilégié ? Parce que la demande de machines de ce type de la part de l'industrie a fortement décliné. Ni Fujitsu ni NEC n'en font leur priorité. De même, aux Etats-Unis, c'est le gouvernement fédéral qui pilote directement un spécialiste comme Cray, faute de débouchés industriels pour ce spécialiste des super-calculateurs. Au demeurant, s'il existe des applications nécessitant des grands calculateurs, comme par exemple la description des déformations subies par une macromolécule au cours d'une réaction, le marché économique solvable a disparu.

M. Michel SPIRO, membre du groupe de travail, a précisé que le CERN, après avoir joué la carte des super-calculateurs, parie désormais dans le cadre du LHC (Large Hadron Collider) sur les grilles de calcul, c'est-à-dire sur la mise en réseau des puissances de calcul de plusieurs instituts particuliers. Avec cette solution, ce sont tout à la fois les capacités de calcul et l'accessibilité à un grand nombre de chercheurs qui devraient être augmentés.

En réponse à une interrogation de M. René TRÉGOUËT, Sénateur, rapporteur , sur la possibilité d'égaler la puissance des super-calculateurs par la mise en réseau de machines de puissance inférieure, M. Gérard ROUCAIROL a précisé qu'il fallait prendre en compte plusieurs phénomènes pour répondre à une telle question.

Selon la nature des algorithmes, les calculs peuvent ou non se répartir aisément sur plusieurs machines. En réalité, le calcul massivement parallèle ne s'applique pas à tous les domaines.

Au surplus, pour être praticable, cette notion suppose de recourir à une main d'_uvre peu coûteuse. En effet, le calcul parallèle nécessite un investissement de l'utilisateur pour mettre au point les programmes additionnels qui permettront une répartition effective des calculs et la récupération de leurs résultats.

En définitive, comme la solution du calcul vectoriel développée aux Etats-Unis a été écrasée par la concurrence japonaise, la solution d'avenir semble être la mémoire partagée de multiprocesseurs spécialisés. En tout état de cause, on ne peut imaginer que les microprocesseurs des PC standards et les " open systems " puissent répondre à tous les besoins de calculs. On devrait donc assister à la spécialisation des futurs microprocesseurs, de plus en plus coûteux et dissipant de plus en plus de chaleur, dans le calcul de puissance au sein des super-ordinateurs.

Pour M. Francis JUTAND , les algorithmes nécessitant impérativement un super-calculateur ont vu leur nombre diminuer. Il en reste toutefois qui ne peuvent fonctionner que sur des machines de ce type, ce qui peut justifier que l'on considère les super-ordinateurs comme une technologie de souveraineté.

En prolongement à ce débat, la parole a ensuite été donnée à M. Alain QUÉRÉ.

*

M. Alain QUÉRÉ, Directeur du CINES (Centre informatique national de l'enseignement supérieur) , situé à Montpellier , après avoir remarqué que les chercheurs ne demandent pas particulièrement des " gros ordinateurs " mais des " grands calculs " a présenté le centre d'informatique qu'il dirige.

Etablissement public à caractère administratif depuis 1999, rattaché à la direction de la recherche du ministère de la recherche, le CINES a reçu la mission de mettre à disposition de l'enseignement supérieur des moyens de calcul intensif, de gérer des bases de données d'information notamment celles des bibliothèques universitaires et de participer au développement de réseaux par son expertise et par la formation.

Dans le cadre de sa mission " calcul " , le CINES est accessible à tout chercheur du monde académique (universités et organismes de recherche). Les demandes de temps de calcul sont examinées par des comités thématiques nationaux. Le tri des projets se traduit par un taux de rejet faible en raison de l'autocensure des chercheurs : pour l'année 2000, le nombre d'heures accordées s'élève à 1,57 millions d'heures pour 2,04 millions d'heures demandées.

Le dispositif national de calcul pour la recherche est constitué de plusieurs échelons : les équipements de laboratoires, une dizaine de centres intermédiaires comprenant des équipements de " méso-informatique " comme le Centre Charles Hermitte (CCH) de Nancy, le CRIHAN de Rouen, les ressources nationales de l'IDRIS (CNRS) et du CINES, et enfin les équipements dédiés (CEA, Météorologie nationale, par exemple).

La demande de temps de calcul adressée au CINES augmente globalement très rapidement puisque depuis 3 ans, elle double ou presque tous les ans. Les augmentations les plus fortes sont, en 2000, le fait de la physique, de la mécanique des fluides et de la biologie. Le taux de charge des machines du centre atteint 70 %, ce qui correspond à une limite supérieure pour une utilisation satisfaisante du centre.

Le parc d'ordinateurs du CINES est composé de matériels IBM et SGI. La puissance totale de calcul a été multipliée par 10 en 2 ans.

Comme tout grand centre de calcul, le CINES n'existerait pas sans son raccordement à un réseau à haut débit.

Le CINES est donc un point de concentration régional pour le réseau de la recherche en Languedoc-Roussillon et un n_ud régional de distribution pour RENATER à 155 Mbits/s relié à Toulouse. Une application nouvelle est l'utilisation en direct de la capacité de calcul des ordinateurs, avec visualisation à distance.

Actuellement, la mission " bases de données " du CINES a pour axe principal le projet SUDOC (système universitaire de documentation) de catalogage global des bibliothèques universitaires. Au delà de ce système en cours de déploiement, le centre peut aussi proposer, grâce à l'évolution des réseaux, de nouveaux services concernant le stockage et la diffusion de contenus dans le cadre de l'enseignement supérieur et de la recherche. Il s'agit d'une révolution qualitative et quantitative, car le service rendu ne porte plus sur des références mais sur des objets complexes tels que des textes, des images, des sons ou de la vidéo. Dans cette perspective, le centre participe à trois expériences pratiques qui porte sur des thèses numérisées et des manuscrits médiévaux, en partenariat avec la sous-direction des bibliothèques, ainsi que sur la diffusion de vidéo, en partenariat avec la direction de la technologie.

En 1999, les dépenses de fonctionnement du CINES ont représenté 9,4 millions de francs, les amortissements 10,6 millions de francs et les dépenses d'équipement 23,5 millions de francs. Le CINES assure une continuité de service, 24 heures sur 24, 7 jours sur 7.

M. Alain QUÉRÉ a par ailleurs fait état de statistiques sur les puissances de calcul installées dans les grands pays industriels.

Avec comme base de référence les 100 plus grands centres mondiaux et la part de chaque pays dans ce palmarès, la France arrive au 5 ème rang mondial avec une puissance installée de 2 Teraflops, contre 5 Teraflops pour la Grande-Bretagne, 7 pour l'Allemagne, 11 pour le Japon et 67 pour les Etats-Unis.

La somme des puissances des calculateurs européens figurant dans la liste des 100 premiers atteint 14,3 Teraflops.

La liste des grands centres français figurant dans la même statistique fait apparaître l'IDRIS (55 ème place ; 0,52 Teraflop), le CEA (57 ème place ; 0,45 Teraflop), le CINES (73 ème place ; 0,35 Teraflop), France Télécom (80 ème place ; 0,31 Teraflop), Météo-France (82 ème place ; 0,30 Teraflop), le BRGE (89 ème place ; 0,27 Teraflop) et Alcatel (98 ème place ; 0,25 Teraflop).

M. René TRÉGOUËT, Sénateur, rapporteur , s'est interrogé sur l'éventualité d'un manque de volonté politique de la France de s'équiper en centres de calcul de grande taille.

M. Gilles KAHN a indiqué que, si l'Allemagne devance la France dans ce classement, plusieurs raisons sont à invoquer. Il est certain que l'Allemagne a fait à différents niveaux le choix de s'équiper en super-ordinateurs et en centres de calcul de grande taille, alors qu'un nombre non négligeable de grandes entreprises industrielles françaises, comme par exemple, Peugeot SA, ont préféré opter pour le schéma d'une puissance distribuée.

Toutefois, le retard quantitatif français paraît incontestable. Sans doute faut-il y voir la conséquence d'un manque relatif de sensibilité de différentes disciplines en France à certains types de recherches et d'applications mettant en _uvre des calculs complexes.

A l'issue de ce débat, la parole a été donnée à M. Hugues ROUGIER.

*

M. Hugues ROUGIER, Président-directeur général de MatraDatavision, administrateur du SYNTEC , a indiqué que le marché du logiciel représente en France 100 milliards de francs par an, avec une croissance de 17 % en 1999 et de 15 % en 2000. Pour autant, on ne saurait être " fier " de la situation française, comparée à celle des Etats-Unis.

Selon le Department of Commerce américain, le marché du logiciel y a atteint 130 milliards de dollars en 1998 et devrait connaître une croissance de 14 % par an, de sorte que d'ici 2003, il devrait doubler et atteindre 257 milliards de dollars à cette date.

De 1998 à 2003, le marché américain du logiciel devrait passer de 48 à 49 % du marché mondial, tandis que le marché européen devrait passer de 31 à 26 %. Or, les éditeurs nord-américains détiennent 90 % du marché mondial, contre une part de 7 % aux éditeurs européens.

Même si la notion de très grands équipements n'est pas naturelle dans l'industrie informatique, on peut se demander quels investissements et quels projets d'envergure seraient susceptibles de changer cette situation.

Il est incontestable qu'un réseau moderne représente une partie de ce qu'il est indispensable de lancer. Il faut à la France une infrastructure forte pour la circulation des données et des résultats de calculs. Ceci est d'autant plus vrai que l'évolution technique privilégie la puissance distribuée plutôt que les grandes cathédrales qui, au demeurant, deviennent obsolètes avant leur achèvement. Un réseau de grande capacité et de haute qualité est donc essentiel pour l'avenir. Au demeurant, dans ce secteur comme dans d'autres, les entreprises jugeront la France en fonction de la qualité de ses infrastructures et en particulier de celle de ses réseaux pour leurs choix d'implantation.

Un autre aspect essentiel est celui des ressources humaines. Il existe un déficit de formation en informatique. La pénurie d'informaticiens, déjà réelle, va croître dans les années à venir.

Le SYNTEC, en tant que syndicat professionnel, est partenaire des pouvoirs publics dans un projet de reconversion. Si la formation est le premier objectif, le deuxième objectif du SYNTEC est l'immigration de personnels qualifiés, indispensable si l'on ne veut pas affaiblir les entreprises françaises vis-à-vis de la concurrence. MatraDatavision recourt déjà aux services d'informaticiens installés à Nijni Novgorod ou à Minsk. Pour autant, l'emploi à distance d'informaticiens étrangers ne constitue pas la meilleure solution. Il ne faut pas en effet sous-estimer l'importance des pôles de développement et la nécessité de créer des " capitales de la recherche " , où grâce à un réseau industriel dense, les chercheurs et ingénieurs ont la possibilité de dialoguer avec leurs pairs. Un des meilleurs développeurs russes employés à distance par MatraDatavision a d'ailleurs fini par émigrer en Californie. La France doit donc offrir des perspectives identiques aux informaticiens étrangers.

M. René TRÉGOUËT, Sénateur, rapporteur , a souligné que l'immigration de travailleurs qualifiés représente un vrai problème pour l'équilibre économique de la planète, dans la mesure où les pays développés vont chercher des intelligences dans des pays qui précisément en ont besoin pour leur développement. Il faut être attentif à ce qu'il ne se crée pas deux catégories de pays, les pays " info-riches " et les pays " info-pauvres " .

M. Roger BALIAN, membre du groupe de travail, a alors estimé qu'un tel souci suppose qu'un véritable système mondial fonctionne. La France a donné une aide aux chercheurs russes organisée de façon à ne pas priver l'économie locale de ses ressources humaines. Mais les Etats-Unis n'ont pas eu ce scrupule et ont attiré sur leur sol les meilleurs scientifiques russes.

Pour autant, selon M. Hugues ROUGIER , des investissements massifs dans les réseaux, la formation voire l'immigration ne peuvent suffire à rétablir la position de la France et de l'Europe sur le marché des logiciels. Qu'est-ce qui pourrait faire reculer la domination américaine ?

L'examen des difficultés actuelles de Microsoft donne des indications à cet égard. On sait que le numéro un mondial des progiciels doit résoudre actuellement des problèmes nouveaux qui ont trois sources différentes.

La première difficulté provient de l'action antitrust du Département de la Justice américain qui entend réduire les positions anticoncurrentielles de Microsoft en procédant à son démantèlement.

La deuxième difficulté provient de la révolution d'Internet qui affaiblit la position stratégique acquise avec Windows.

La troisième menace est celle du logiciel libre scandinave Linux, inventé par Linus Torval, et qui, en tant que système d'exploitation, connaît un succès grandissant au point de dépasser désormais UNIX.

Or qu'est-ce qu'un logiciel libre ?

Un logiciel libre est certes gratuit mais cet aspect n'est pas le plus important. Contrairement au logiciel propriétaire, le logiciel libre permet en effet à l'utilisateur d'accéder librement au code source, de le comprendre, de le modifier et donc de le faire évoluer. Il s'agit là d'une révolution fondamentale qui met fin à la dépendance par rapport à l'éditeur, qui peut refuser de faire évoluer son produit contrairement aux demandes de ses clients. On connaît par ailleurs le danger de voir des objets industriels fabriqués par l'industrie nationale mais dépendant de systèmes propriétaires.

En outre, le logiciel libre donne naissance à une communauté d'utilisateurs publics et privés qui mettent en commun leurs avancées, d'où un " profit collectif " et un " enrichissement mutuel " qui résultent de l'idée démocratique du logiciel libre. Au reste, on constate que la puissance inventive de la communauté est susceptible de dépasser en résultats les budgets de R&D les plus importants comme celui de Microsoft. En tout état de cause, le modèle du logiciel libre a déjà prouvé sa validité, notamment dans le monde du Web où près de 50 % des sites fonctionnent sur des logiciels libres.

Au demeurant, le logiciel libre ne condamne pas les sociétés de services en informatique mais change leur métier. Leurs tâches se concentrent en effet sur l'industrialisation d'applications nouvelles, sur la documentation du logiciel, sur la mise au point de packages, sur le support client et la consultance.

L'accès au code source et la conjonction des forces autour du logiciel libre rassurent les utilisateurs sur sa capacité à devenir un standard, tant il est vrai qu'un standard informatique n'est pas édicté par un organisme mais qu'une norme est une norme de fait.

En l'absence d'une révolution fondamentale comme celle du logiciel libre, il n'y a aucune chance pour que la suprématie américaine s'atténue en quoi que ce soit, au contraire. Certes il existe en France des îlots de compétitivité, par exemple dans les jeux et la CAO (conception assistée par ordinateur).

En tout état de cause, le logiciel libre donne une réponse en permettant d'imposer un standard de fait. Le succès de Linux constitue une " opportunité énorme " . L'Union européenne s'intéresse à cette perspective, comme l'a fait récemment fait savoir le Commissaire européen à l'industrie. Une étude intitulée " Open Source Free Software " appelle la France et l'Europe à une initiative majeure dans le domaine de la recherche et suggère des actions aux pouvoirs publics.

Le logiciel libre permet par essence un travail coopératif de la recherche publique et de la recherche privée, alors que la collaboration entre le public et le privé pouvait achopper sur des questions de propriété intellectuelle. Pour la mise en _uvre de cette initiative majeure, la France et l'Europe pourront donc disposer sans entrave de l'atout que constitue la force de leur recherche publique, un gisement qui n'est pas encore utilisé " de manière pleine et entière " .

Quelles actions et quelles infrastructures sont-elles nécessaires pour commencer à réduire l'écart avec les Etats-Unis ?

La première urgence est une mesure défensive. Il s'agit de stopper les man_uvres américaines visant à imposer la brevetabilité des logiciels.

La deuxième urgence est de reprendre l'offensive en augmentant fortement les ressources logicielles libres à la disposition des informaticiens. Il existe en effet de nombreux codes développés par les entreprises et les laboratoires publics qui sont sous-utilisés et que ces derniers sont prêts à mettre sur le marché en accès libre. Il faut donc à la fois mettre en place une capacité d'hébergement de ces logiciels, assurer leur documentation, prendre en charge leur promotion et rendre aisée leur récupération.

Il s'agit au total d'un très grand enjeu. Pour inverser la tendance actuelle à la marginalisation de l'industrie européenne des progiciels, les investissements à engager n'atteignent pas le milliard de francs mais seront de plus en plus élevés à l'avenir.

En définitive, il apparaît indispensable de mettre en place une Agence du Logiciel Libre dont la mission sera de donner un élan à la généralisation des logiciels libres et qui aura pour tâches essentielles l'hébergement des logiciels libres, leur documentation et leur promotion, ainsi que le développement des coopérations entre entreprises et laboratoires publics.

M. René TRÉGOUËT, Sénateur, rapporteur, a informé les participants qu'il a déposé en septembre 1999, sur le Bureau du Sénat, avec le Sénateur Pierre LAFFITTE, une proposition de loi sur le logiciel libre qui comprend la création d'une telle agence du Logiciel libre.

Le Premier Vice-président de l'Office parlementaire, M. Jean-Yves LE DÉAUT, a fait une proposition voisine, déposée, elle, sur le Bureau de l'Assemblée nationale. Une initiative des pouvoirs publics en France, mais plus encore en Europe, rencontrerait certainement un large écho. Il faut toutefois bien préciser que dans la notion de logiciel libre, la mise en commun des sources est plus importante que la gratuité, tant la connotation de la gratuité peut être jugée dévalorisante par certains.

Les Rapporteurs ont ensuite donné la parole à M. Dany VANDROMME.

*

M. Dany VANDROMME, Directeur de RENATER , a exposé que le GIP RENATER, créé en 1992, a déjà été renouvelé deux fois pour 3 ans, le dernier renouvellement étant intervenu en janvier 1999 et le pérennisant jusqu'en 2002.

Les membres du GIP sont l'Etat, représenté par la direction de la Recherche du ministère de la Recherche, qui s'implique fortement et assure la moitié du financement public, le CNRS (36 % du financement), le CEA, le CNES et l'INRIA qui prennent à leur charge chacun de 4 à 6 % du financement, avec des contributions inférieures du CIRAD et de l'INRA. Les apports des membres du GIP ne représentent toutefois que 75 % des ressources de RENATER, le complément correspondant à des recettes " commerciales " perçues en réalité auprès d'autres institutions non-membres, comme la DGA, l'INSERM ou Sup'Elec.

Pour l'année 2000, le budget total de RENATER atteint 180 millions de francs.

L'activité de RENATER reflète la caractéristique essentielle du monde des télécommunications qui est d'être un monde de services. RENATER ne prend pas en effet à sa charge le travail de l'opérateur. Le GIP est au contraire le maître d'ouvrage, fait des propositions d'infrastructures partagées, tire les offres de l'opérateur vers le haut. Le coût de location du réseau représente la quasi-totalité du budget, les dépenses de personnel correspondant aux 20 personnes de l'équipe ne dépassant pas 4 % du budget total.

Le travail du GIP RENATER a commencé par la réorganisation des liaisons spécialisées des laboratoires et des universités entre eux et avec le CIRCE. Les infrastructures existantes, comme la liaison de l'INRIA avec les Etats-Unis, à partir de Sophia Antipolis, ont servi de base de départ au réseau. C'est la reprise de ces installations particulières, ajoutée au changement de standard et à la mutualisation des ressources et des coûts qui ont conduit à RENATER. En outre, RENATER a fait _uvre de pédagogie auprès des régions en s'efforçant de les convaincre de s'équiper en réseaux régionaux. Au total, l'Etat apparaît comme chargé de connecter les réseaux régionaux entre eux. RENATER est donc bien un réseau national d'interconnexion.

Si les réseaux régionaux sont directement confiés à France Télécom, le " backbone " d'interconnexion nationale fait, lui, l'objet d'une convention de service entre le GIP et France Télécom. Le dernier renouvellement de cette convention est intervenu en 1996 pour 4 ans et comprenait une clause d'augmentation des débits, avec une bonne anticipation de la croissance du trafic, ce qui permet de disposer à l'heure actuelle d'un réseau national qui n'est pas " congestionné " .

Les réseaux régionaux ne se sont malheureusement pas améliorés aussi vite que le " backbone " national, dans la mesure où les avenants signés à la fin 1997 et au début 1998 avec France Télécom n'ont pas fixé d'objectifs assez ambitieux. Une étape importante s'est produite en 1998 avec l'ouverture à la concurrence, suivie de la mise en place de nouveaux réseaux tant pour RENATER que pour les réseaux nationaux.

Par ailleurs, en juin 1999, une convention signée avec France Télécom a jeté les bases de RENATER 2, qui traduira à la fois un changement technologique et une nouvelle approche dissociant en deux lots distincts les infrastructures et les services. Dans cette nouvelle approche, France Télécom fournit les circuits et la société Communications et Systèmes (anciennement la Compagnie des Signaux) les services, dont la mise en place du protocole intégrateur ATM et du protocole Internet IP. Les N_uds Régionaux Distribués (NRD) ne sont plus localisés dans les locaux de l'opérateur mais dans des sites publics, par exemple le GANIL à Caen ou le laboratoire de l'IN2P3 à Lyon, de façon à être accessibles à tout opérateur désigné par le GIP. Afin de bénéficier de la baisse régulière du coût des infrastructures, le marché correspondant n'est passé que pour une année. En revanche, la durée du marché pour les services est plus longue.

Dans le cadre de RENATER 2, ce sont à la fois une modification des implantations géographiques et une augmentation des capacités et qui sont visées. S'agissant de l'architecture du réseau national, l'un des objectifs est de limiter les accès en cascade, notamment dans le sud-est de la France. S'agissant des capacités, il faut noter que le cahier des charges élaboré en 1998 prévoyait un passage à 622 Mbits/s en 2000, alors que la meilleure offre a finalement plafonné à 155 Mbits/s. En réalité, si le réseau n'est pas au plus haut, ce n'est pas en raison de limitations financières mais en raison d'un manque de compétitivité du secteur.

Au reste, le principal problème est celui des réseaux régionaux qui sont encore pour la plupart dans leur configuration de 1992 et de leur insuffisance de performances par rapport au réseau national. A titre d'exemple, le raccordement de la plupart des universités se fait avec un débit de 2 Mbits/s, alors qu'en Allemagne et en Grande-Bretagne, il est de 155 Mbits/s. Ceci résulte d'un hiatus dans le financement de l'ensemble des infrastructures. L'Etat finance en effet l'infrastructure nationale d'interconnexion ainsi que les réseaux à l'intérieur des universités, mais ne prend pas à sa charge la connexion des universités aux n_uds régionaux distribués dont l'Etat espérait que les régions les financeraient. Mais il est clair que le réseau de collecte est insuffisamment performant et qu'il s'agit d'un problème qui concerne la collectivité nationale tout entière.

*

Une discussion a alors commencé sur les questions de financement de RENATER.

M. Gilles KAHN a indiqué que les dépenses liées aux réseaux, du fait de leur caractère récurrent, ne sont pas considérées comme des investissements par les régions et donc ne peuvent leur échoir, ce qui explique, faute de financement, la faible capacité des lignes reliant les universités aux n_uds régionaux distribués.

M. Jean-Charles POMEROL a souligné que la distinction entre les dépenses d'investissement et les dépenses de fonctionnement crée une difficulté particulière dans le cas des réseaux.

M. René TRÉGOUËT, Sénateur, rapporteur, a confirmé que les régions ne sont compétentes, dans ce domaine, que pour les investissements et que l'absence de pratique d'amortissement dans les comptes de l'Etat et dans ceux des régions pose un problème supplémentaire. Sans doute eut-il mieux valu que la responsabilité des réseaux incombe par ailleurs aux départements.

M. Dany VANDROMME ayant indiqué que les universités voient leur accès à RENATER pris en charge directement par le ministère, M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que la gratuité d'un service ne déclenche pas obligatoirement une dynamique de progrès. En conséquence, il conviendrait sans doute d'optimiser la consommation de ressources rares comme le temps d'accès aux lignes de lumière d'un synchrotron ou la connexion à un réseau à haut débit. Une solution pourrait être l'attribution de points de consommation afin que chaque chercheur connaisse ses dépenses. Deux autres arguments plaident en faveur d'une telle disposition : d'une part " l'économie réelle s'engage partout " et impose ses références ; d'autre part, le renouvellement des grands équipements est subordonné à une prise de conscience de leur coût.

M. Alain QUÉRÉ a alors précisé qu'en ce qui concerne les temps de calcul, il existe bien un mécanisme de régulation de la demande. En effet les utilisateurs se voient attribuer chaque année des heures processeurs. Lorsque leur quota est dépassé, soit leur compte est fermé, soit leurs projets doivent être à nouveau examinés par les comités thématiques pour une éventuelle attribution complémentaire, dans le cas où le dépassement est explicable et apparaît justifié. En tout état de cause le potentiel d'un centre de calcul est limité par le nombre de processeurs que multiplie le nombre annuel d'heures de disponibilité de ces derniers.

En ce qui concerne les réseaux, il n'existe pas de mécanisme de cette nature. Les tarifs des opérateurs sont au forfait et croissent avec les débits maximaux autorisés. La seule limite pour l'utilisateur est donc l'agacement et le découragement lorsqu'il ne peut obtenir, à cause d'un débit trop faible, le service qu'il attend du réseau. On peut estimer que le principe de facturation " au débit " devrait être revu au profit d'autres mécanismes comme la facturation de la quantité d'information transmise ou la facturation sur services rendus si la qualité de service est effective.

Au sujet de l'importance des réseaux pour les chercheurs, M. Gilles KAHN a confirmé que les scientifiques de l'INRIA en ont pleinement conscience et qu'ils seraient prêts à donner une priorité absolue aux dépenses correspondantes par rapport à tout autre frais de fonctionnement. Au reste, le budget de 180 millions de francs par an de RENATER, rapporté à la population de chercheurs-utilisateurs français, ne représente qu'un coût très faible.

M. Dany VANDROMME a ensuite présenté les développements en cours pour RENATER 2. Le GIP a pour mission d'assurer un service avancé à la communauté des utilisateurs. Le service de base assuré par les opérateurs, tant pour les téléphones mobiles que pour le transport de données, correspond généralement à la notion de " best effort " , c'est-à-dire à un engagement de performances sans toutefois de garantie. C'est pourquoi le GIP RENATER assure non seulement un service IP (Internet Protocol) mais également un service en " mode circuit " . C'est ainsi que toutes les administrations du CNRS figurent sur un même réseau logique qui constitue un réseau privé virtuel. Par ailleurs le GIP d'une part assure, à la demande, la supervision des connexions, notamment pour la détection de virus, et, d'autre part fournit des prestations de maîtrise d'ouvrage, notamment pour les liaisons avec l'Europe, les Etats-Unis et l'Internet commercial.

Le GIP RENATER fournit ainsi une liaison avec les Etats-Unis qui est passée de 155 à 300 Mbps au début juin 2000. Il est prévu un passage à 622 Mbits/s à la rentrée 2000, puis une croissance continue supérieure à 10 % par mois pour atteindre 2,5 Gbits/s à la fin de 2001. Par ailleurs, RENATER dispose également d'une liaison dédiée avec le n_ud d'échange STAR-TAP à Chicago, sur lequel se fait l'échange des trafics avec Internet 2. (ABILENE, vBNS) et NGI (ESnet, DREN, NREN, etc.) ainsi qu'avec les autres réseaux de recherche (APAN pour la zone Asie-Pacifique, Singarnet pour Singapour, Canarie pour le Canada, etc.)

Par ailleurs, RENATER est partie prenante du réseau européen TEN 155 dont la capacité va être portée à 622 Mbits/s avant la fin 2000. Il en est de même pour le réseau GEANT à 2,5 Gigabits/s qui reliera les pays membres de l'Union européenne et les 10 pays éligibles au 5 ème PCRD, réseau qui passera ensuite à 10 Gigabits/s puis à 40 Gigabits/s, soit l'équivalent de son modèle américain ABILENE.

La parole a ensuite été donnée à M. Jean THERME.

*

M. Jean THERME, Directeur du CEA-LETI (Laboratoire d'électronique, de technologie et d'instrumentation du CEA), a indiqué que ce laboratoire s'inscrit pleinement dans les nouvelles orientations du CEA qui, au delà de son c_ur de métier traditionnel, se repositionne sur les nouvelles technologies pour l'énergie, sur les nouvelles technologies de l'information et les biotechnologies.

La vocation initiale du CEA-LETI était axée sur l'étude et la fabrication de composants électroniques résistant aux rayonnements, et possédant une fiabilité et une sûreté élevée pour des applications dans le domaine du nucléaire civil et militaire. Les travaux du CEA-LETI ont rapidement débouché sur des applications civiles et des technologies génériques applicables aux semi-conducteurs, aux composants et aux systèmes électroniques de toute nature.

Le CEA-LETI, qui rassemble 1100 personnes, dont 750 salariés, est implanté à Grenoble, pour 80% de ses effectifs et à Saclay pour les 20 % restants. Son budget annuel est d'un milliard de francs. Il dispose de moyens technologiques très importants. Son activité est centrée sur la recherche appliquée, en liaison étroite avec les réalités industrielles. Les chercheurs y sont jugés sur les débouchés industriels de leurs travaux et non pas seulement sur leurs publications scientifiques.

Afin de relever les défis qui s'accumulent sur la recherche et l'industrie microélectronique, le CEA-LETI est aujourd'hui le pilote d'un grand projet, celui de la constitution d'un pôle d'innovation en micro et nanotechnologies à Grenoble.

La microélectronique connaît une révolution permanente qui se traduit par des coûts en croissance exponentielle et donc une concentration inexorable des moyens industriels mais également des moyens de recherche. Un des objectifs du CEA-LETI est donc désormais la mise en place de plates-formes technologiques ouvertes en amont aux chercheurs de différentes disciplines et en aval aux industriels.

Un autre objectif est de systématiser son approche pluridisciplinaire. En effet, la miniaturisation des composants électroniques trouve des applications dans d'autres domaines que l'électronique, comme par exemple les biopuces, point de rencontre de la microélectronique et de la biologie. De même, les composants électroniques sont des systèmes complexes combinant des fonctionnalités matérielles et logicielles. L'innovation est de plus en plus à la frontière des différentes disciplines scientifiques. Le CEA de par son caractère pluridisciplinaire constitue un creuset particulièrement adapté à ce type de démarche et apporte au CEA-LETI des avantages déterminants.

Le CEA-LETI entend par ailleurs promouvoir des systèmes applicatifs où la technologie s'efface derrière les usages. Ainsi, une voiture moderne comme la 607 comprend 57 processeurs, soit autant qu'un Airbus du début des années 1980, sans que l'automobiliste le soupçonne. C'est maintenant la fonction qui intéresse l'usager, quelle que soit la technologie sous-jacente. Mais en contrepartie, il saurait y avoir de fonction et d'usage sans technologie.

Deux autres paramètres essentiels de l'activité du CEA-LETI sont la réactivité et la rapidité d'action. Les cycles de développement raccourcissent et les produits pénètrent de plus en plus vite sur les marchés : ainsi la télévision noir et blanc a mis plus de 20 ans à s'installer dans les foyers, le téléphone portable plus de 4 ans alors que les lecteurs de DVD devraient s'implanter en un à deux ans. La durée de l'ensemble du processus depuis l'idée jusqu'à la mise sur le marché tend à se réduire et en particulier le volet recherche.

En tout état de cause, il faut associer les disciplines dans le développement des produits. En effet, " nous avons raté dans les années 1990 l'accrochage de la recherche appliquée sur les semi-conducteurs avec la recherche amont, dont la constante de temps est de 10 à 15 ans. Le balancier est parti trop en aval, de sorte qu'il s'est produit, durant cette période, un trou de plusieurs années. Il faut donc réagir " . L'enjeu fondamental est d'associer sur un même site la recherche appliquée et la recherche amont, dont la coupure est aujourd'hui trop prononcée dans de nombreux domaines.

Enfin, l'enseignement supérieur ne forme pas assez d'ingénieurs pour répondre aux besoins de sciences et techniques de l'information et de la communication (STIC) et en particulier de ceux de la microélectronique du futur. Cette situation n'est pas propre à la France puisqu'on l'observe aussi aux Etats-Unis et dans d'autres pays européens. L'attractivité d'un site est donc devenue essentielle pour les étudiants qui se désintéressent de plus en plus des sciences pour l'ingénieur. En effet la concurrence entre les différents sites universitaires s'accroît face à une certaine pénurie de candidats.

Le CEA-LETI et l'industrie grenobloise, avec en particulier un établissement de STMicroelectronics, s'ils ont été performants, doivent aujourd'hui " recomposer le dispositif " .

Conformément à l'analyse exposée plus haut, les trois axes de la démarche du CEA-LETI sont d'une part la concentration sur un même lieu d'un ensemble de moyens intellectuels et matériels, d'autre part l'accent mis sur l'innovation industrielle depuis l'idée jusqu'à la mise sur le marché des produits et enfin un projet de recherche au c_ur duquel se trouve l'association recherche appliquée - recherche amont.

Ce dernier point est particulièrement important : il s'agit de repartir à l'envers par rapport à la démarche précédente des microtechnologies consistant à accroître la finesse des technologies de gravure d'objets microscopiques et de fabrication de circuits complexes. Les frontières de la matière seront en effet très prochainement atteintes de même que les limites physiques des procédés actuels. Il s'agit donc à l'avenir de partir d'objets de petite taille - les atomes et les molécules - pour fabriquer des objets microscopiques grâce à la maîtrise de la croissance atomique ou moléculaire. Ces techniques, les nanotechnologies, devront être opérationnelles en 2010-2015. Il s'agit de s'y préparer dès maintenant.

L'objectif du Pôle d'innovation en micro et nanotechnologies est de constituer le premier pôle européen dans ce domaine. La stratégie mise en _uvre repose sur trois volets : d'une part l'enseignement, d'autre part la recherche et enfin la valorisation industrielle.

Le premier volet est celui de l'enseignement. Il s'agit de dynamiser et d'impliquer les deux écoles d'ingénieurs de l'INPG de Grenoble et de lancer un centre de formation permanente permettant de lisser les variations fortes en terme d'emploi et de compétences qui surviennent dans le domaine des microtechnologies.

Le deuxième volet concerne la recherche, avec les trois aspects technologie, composants et systèmes. Les installations du LETI, de l'INPG (Institut national polytechnique de Grenoble), du CNRS, de l'université Joseph Fourier et d'autres à venir seront fédérées sur le pôle.

Le troisième volet est celui de la valorisation industrielle. Le CEA-LETI a toujours été familier de la création de " start-up " , avant même la loi sur l'innovation. Une difficulté existe toutefois dans le domaine de la technologie, lorsque l'entreprise accueillie initialement au sein d'un laboratoire commence à grossir, à développer ses processus de fabrication et augmenter sa production. Des limitations liées à la disponibilité de surfaces existent également pour accueillir les industriels et pour monter des laboratoires communs. L'objectif est donc de construire des bâtiments flexibles et modulables aptes à accueillir les développements en aval de la recherche. Par ailleurs, la coordination, l'animation du Pôle et son rayonnement vers l'extérieur seront assurés par une " maison de vie " appelée la Maison des micro et nanotechnologies, qui favorisera également l'interdisciplinarité et la créativité.

D'autres services devront être fournis aux chercheurs et aux entrepreneurs, notamment un support marketing, des moyens de soutien financier aux start-up, une assistance juridique dans le domaine de la propriété industrielle ainsi qu'une veille technologique capable de capter des " signaux faibles " émis dans n'importe quelle partie du monde, de les amplifier puis éventuellement de les exploiter en fonction de leur intérêt potentiel.

Les effectifs du Pôle devraient atteindre à terme le chiffre de 3000 personnes, dont 1000 étudiants, 400 enseignants-chercheurs, 1000 chercheurs et plus de 600 industriels.

Le Pôle d'innovation en micro et nanotechnologies représente un investissement lourd dont le montant initial est de l'ordre de 800 millions de francs. Comment financer l'outil au delà de sa création ?

Il existe dans un tel projet d'une part des coûts fixes récurrents liés aux recherches génériques, qui sont du domaine des financements publics et, d'autre part, des coûts variables associés aux programmes applicatifs qui doivent être financées par les industriels. Pour l'accès aux moyens technologiques par la recherche amont, il convient d'abaisser la barrière financière pour rester compatible avec les capacités de financement des laboratoires académiques.

Les applications des technologies qui y seront mises au point concernent toutes les disciplines et tous les secteurs industriels, parmi lesquels on peut citer les microcomposants pour l'énergie, la biologie avec les biopuces, les matériels et les logiciels informatiques, les objets communicants comme les mobiles, les véhicules, les " tags intelligents " , et les cartes à puce, voire les vêtements et l'électroménager.

Parmi les différents domaines d'application, l'accent sera mis dans un premier temps d'une part sur les liens entre l'électronique et la biologie, d'autre part sur les interfaces des composants et des logiciels, et, enfin, sur les sciences humaines, les interactions homme-machine et l'acceptabilité des concepts nouveaux.

La place est à prendre pour un Medialab européen. Ce défi est par essence multidisciplinaire. Le CEA, grâce à ses capacités pluridisciplinaires, a tous les atouts pour être le moteur du projet et le fédérateur des initiatives. Après la création du réseau national des micro et nanotechnologies, la zone de Grenoble a été promue centre national de recherche dans ce domaine. Des contacts internationaux ont été lancés avec les Focus Center aux Etats-Unis et les réseaux équivalents en Belgique, en Irlande et en Allemagne.

Par sa concentration de moyens, le projet de Pôle d'innovation en micro et nanotechnologies peut s'apparenter à un très grand équipement mais il en diffère par le fait qu'il rassemble les trois composantes enseignement, recherche et valorisation industrielle, par le fait qu'il constitue un rassemblement de multiples plates-formes technologiques axées sur des thématiques et des applications voisines mais différentes et enfin par le fait que ce sont les programmes de recherche et non les moyens qui sont le véritable objectif du Pôle. Le Pôle fonctionnera, bien entendu, au sein d'un réseau maillé avec d'autres grands laboratoires, tant au niveau national qu'au niveau européen.

La parole a ensuite été donnée à M. Alain HOFFMANN, directeur informatique du CEA.

*

M. Alain HOFFMANN, Directeur informatique du CEA , a estimé qu'en matière de super-calculateurs, le rôle des gouvernements reste essentiel tant aux Etats-Unis qu'au Japon. Dans le domaine de leurs applications, il faut signaler l'existence du grand projet de centre de simulation pour les sciences de la Terre au Japon, dont le budget atteint 600 millions de dollars.

Le centre de calcul du CEA, pour sa part, est doté d'un budget de 45 millions de francs, dont la moitié correspond à des investissements et 95 % à des crédits CEA, le solde provenant de partenaires industriels ou de la Recherche. Les deux principales technologies de calcul sont représentées, avec le calcul vectoriel opéré sur de machines japonaises et le calcul massivement parallèle sur des machines américaines. Il faut noter que l'exploitation du centre du CEA est externalisée.

S'agissant de RENATER, l'expérience montre qu'on devrait lui confier un rôle directeur sur l'ensemble du pays, c'est-à-dire non seulement pour le " backbone " national mais également pour les réseaux régionaux.

S'agissant des logiciels, deux orientations seraient souhaitables. Il conviendrait, d'une part, de considérer l'achat de logiciels comme un investissement et donc de rendre possible son amortissement. D'autre part, la question du logiciel libre devrait faire l'objet d'un grand projet, disposant de la même priorité et des mêmes ressources qu'un très grand équipement au sens classique du terme.

Les représentants du CNRS ont ensuite été invités à donner leur point de vue sur la problématique des TGE dans le domaine des sciences et technologies de l'information et de la communication.

*

M. Jean-Charles POMEROL, chargé de mission au département des sciences pour l'ingénieur, a indiqué que la recherche dans le domaine des sciences et technologies de l'information représente au CNRS un budget d'un milliard de francs et un effectif de 800 personnes à temps plein. En comptant les liens avec les universités et les unités communes, ce sont près de 3000 à 4000 personnes qui participent à cet effort de recherche, à quoi il faut aussi ajouter un total d'environ 2500 thésards.

L'éventail de recherche couvert par le CNRS dans le domaine des STIC est considérable. Le CNRS couvre en effet les terrains de l'informatique classique, de la microélectronique et des nanotechnologies en coopération avec le LETI à Grenoble et l'ensemble de laboratoires de Besançon. Il prend également en compte les recherches communes à l'informatique, à la physique et aux mathématiques, les applications de l'informatique à la biologie ainsi qu'aux sciences humaines et sociales.

Une autre spécificité de l'activité du CNRS dans le domaine des sciences de l'information est son approche pluridisciplinaire.

Au demeurant, quels peuvent être les très grands équipements dans le domaine des STIC ?

Les réseaux représentent un échelon essentiel et pourraient être assimilés à des TGE. Pour autant, les investissements les concernant sont composés de matériels, d'intelligence et de services. Comme tels, les régions et la comptabilité publique ne savent les prendre en compte correctement sur le plan financier.

Les TGE ne sauraient toutefois occulter la question des équipements moyens, correspondant à des coûts inférieurs 100 millions de francs, amortissements compris. Le CNRS est le maître d'_uvre du centre de calcul IDRIS (Institut du Développement et des Ressources en Informatique Scientifique), utilisé par différentes disciplines. Il est clair, à ce sujet, que les investissements des centres de calcul et en centres de calcul nouveaux sont à soutenir, en particulier parce qu'ils sont pluridisciplinaires.

Un autre aspect essentiel est celui des ressources humaines et des recrutements à pratiquer pour répondre aux besoins des chercheurs. La question des ITA (ingénieurs, techniciens et administratifs) est particulièrement importante en informatique. Aucun projet d'équipement en plates-formes et de pré- développement dans le domaine des STIC ne saurait réussir sans une amélioration de la situation. La présence de personnels ITA dans les laboratoires informatiques est en effet insuffisante et les STIC ne bénéficient pas d'investissements à ce sujet.

Par ailleurs, les plates-formes, si elles correspondent à des investissements inférieurs à 100 millions de francs, amortissement compris, sont d'une importance capitale.

L'exemple du LETI à Grenoble montre qu'il faut à la fois des ressources humaines, des démonstrateurs et les moyens de transférer les technologies. Un point d'application particulièrement important, dans ce domaine, est celui des plates-formes de réalité virtuelle ou d'interface homme-machine par la parole.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur la valorisation de la recherche et de l'essaimage au CNRS, M. Jean-Charles POMEROL a précisé que les liens de ce dernier avec l'industrie des STIC sont désormais très forts. Un exemple peut être donné avec le réseau de connaissances sur le traitement du signal formé avec des industriels, composé de laboratoires communs, d'équipes mixtes avec l'industrie et dont les principaux centres d'activité sont Toulouse et Lyon, avec Matra et Thomson.

M. Jacques DUPONT-ROC, Directeur scientifique adjoint au département des sciences physiques et mathématiques, a par ailleurs indiqué que les liens du CNRS avec l'industrie sont particulièrement actifs pour le projet national d'optoélectronique.

M. Serge FAYOLLE, Directeur adjoint de l'IDRIS (Institut du Développement et des Ressources en Informatique Scientifique) a indiqué que l'investissement dans un centre de calcul tel que celui qu'il dirige et dont les performances sont voisines de celles du CINES, est de l'ordre de quelques dizaines de millions de francs par an. Il s'agit donc d'un équipement qui diffère des TGE classiques par son coût mais aussi par la nécessité de le renouveler tous les 4 à 5 ans, en raison des progrès très rapides de l'informatique. A cet égard, le choix de machines vectorielles ou de calculateurs massivement parallèles ne saurait être qu'une question d'opportunité, compte tenu de la durée de vie très limitée des technologies informatiques. Au demeurant, le mode de gestion et d'utilisation d'un centre de calcul présente des points communs avec ceux d'un TGE.

Recourant aux technologies du parallélisme et du calcul réparti, l'IDRIS est membre d'EUROGRID, grille de calcul européenne, grâce à laquelle le chercheur ne soucie pas de savoir où se trouve le centre de calcul qui prend en charge ses demandes.

Un point capital est celui du personnel et du recrutement. Il faut en effet souligner que les grands centres de calcul ne comprennent pas seulement des moyens matériels mais aussi des compétences essentielles pour la diffusion des technologies. Il faut en conséquence un financement régulier plutôt que des opérations " coup de poing " .

L'accès à l'IDRIS dépend bien évidemment des réseaux régionaux, ce qui confère une grande importance à une bonne capillarité de ceux-ci.

M. Michel VOOS, chargé de mission auprès du Directeur général du CNRS , réitérant l'existence de nombreux laboratoires du CNRS travaillant sur les STIC et les liens organiques des recherches sur ces domaines avec les sciences de la vie ou de l'ingénieur, avec la physique et les mathématiques, a précisé en outre qu'il existe au CNRS le projet de création d'un Institut des sciences et techniques de l'information et de la communication.

Au demeurant, les liens étroits du CNRS avec l'industrie des STIC découlent du fait que, dans ce domaine, les composants matériels répondent pour 20 % d'une application et les logiciels pour 80 %. A cet égard, le domaine de l'optoélectronique voit le CNRS s'engager résolument dans ce qui est une opportunité d'une importance exceptionnelle pour l'avenir.

A la suite du GIE Opto+ créé par Alcatel et France Télécom, le CNRS participe au développement des compétences en composants optoélectroniques. Après le désengagement de France Télécom de son site de Bagneux, l'implication concrète du CNRS se traduit par l'embauche d'agents de l'opérateur national, chercheurs et ITA, soit 38 postes au total. Sur le centre de Marcoussis, l'apport du CNRS sera au total de 100 postes, le GIE Opto+ en apportant quant à lui 140. Ce que l'on désigne comme l' " Optics Valley " comprendra un laboratoire du CNRS et un site industriel en GIE à proximité immédiate l'un de l'autre, ce qui constituera un pôle unique en Europe, son seul équivalent dans le monde se trouvant à Tsukuba au Japon.

Le couplage d'une recherche à court terme conduite par Alcatel et d'une recherche à long terme, soit 5 à 10 ans, sera donc réalisé, permettant d'ailleurs une formation au contact de l'industrie.

Le budget total d'investissement de l'opération comprend 100 millions de francs pour l'installation d'un laboratoire du CNRS dans un bâtiment d'Alcatel et la construction d'un troisième bâtiment pour ce dernier et 40 millions de francs pour renouvellement des équipements de haute technologie du centre de Bagneux. Le budget de fonctionnement est de 25 millions de francs par an et la masse salariale annuelle de 35 millions de francs.

Les délais de réalisation, soit 4 ans, de cette opération auront été réduits au maximum. Pour autant, ils sont encore trop longs, les initiatives de ce type apparaissant encore bridées.

La parole a ensuite été donnée à M. Jean JERPHAGNON.

*

M. Jean JERPHAGNON, conseiller du Directeur technique d'Alcatel, président d'Optics Valley 2 , et membre du groupe de travail de MM. CUVILLIEZ et TREGOUET, a indiqué que dans le domaine des STIC, il existe à la fois des grands et des très grands équipements.

Parmi les grands équipements, on peut compter les réseaux et les plates-formes qui permettent le transfert de données et de connaissances. Le RNRT (Réseau national de recherche en télécommunications) doit pouvoir disposer des moyens de réaliser l'intégration et le test de solutions ainsi que l'expérimentation de leurs finalités en terme d'usages. Dans ces processus, le passage à l'échelle est très important. Il existe à l'heure actuelle des éléments de plates-formes que l'on cherche à utiliser mais il faut davantage de cohérence pour les structurer. Il convient en outre que les plates-formes nationales soient promues en vue d'être parfaitement connues.

A cet égard, il convient de souligner qu'au niveau européen, le 5 ème PCRD a marqué une rupture avec le programme précédent, en ce qu'il exclut la poursuite des recherches et des réalisations en photonique.

Un très grand équipement correspond, dans le domaine des STIC, à une filière technologique. Ceci inclut les logiciels mais aussi la microélectronique non seulement avec le silicium mais aussi avec d'autres supports comme l'arséniure de gallium (AsGa) dont le développement nécessiterait des investissements importants, d'un total supérieur ou égal au milliard de francs.

Il convient également d'inclure l'optique, dont les applications se diversifient et revêtent une importance économique croissante. Au vrai, on estime qu'au 21 ème siècle, l'importance de l'optoélectronique sera essentielle. Son évolution est d'ailleurs parallèle à celle de la microélectronique, avec un décalage de 20 ans. En tout état de cause, l'optoélectronique est une technologie structurante, notamment par son intervention dans les réseaux à haut débit. Elle exige des investissements importants, qui se chiffrent en centaines de millions de francs pour la seule recherche.

Au demeurant, le développement de l'optoélectronique doit se faire en veillant à ce qu'il n'y ait aucun hiatus entre les différentes étapes, et en particulier entre la recherche amont et la recherche aval. Il faut en particulier, comme c'est le cas au sein de l'Optics Valley, que l'industrie soit au voisinage immédiat de la recherche, ce qui permet d'anticiper les ruptures technologiques.

*

M. René TRÉGOUËT, Sénateur, rapporteur, après avoir remercié les participants pour leur contribution à l'information de l'Office sur un secteur très large et capital pour l'avenir de la recherche et de l'économie française, leur a demandé de bien vouloir concrétiser sur le papier les propositions qu'ils souhaitent faire dans le domaine des très grands équipements pour les sciences et les technologies de l'information et de la communication.

M. Christian CUVILLIEZ, Député, rapporteur, s'associant à ces remerciements, a estimé qu'il faut peut-être, sous réserve d'un examen plus approfondi, passer de la notion de très grand équipement à celle de très grand projet. En tout état de cause, " il faut que la France retrouve la notion de grand projet " .

Après avoir demandé aux participants de bien vouloir participer avant la fin de l'année à une deuxième réunion sur les STIC, afin d'approfondir les notions abordées au cours de ce tour d'horizon, les Rapporteurs ont levé la séance.

4. Sciences du vivant - mercredi 7 juin 2000

Programme national de Génomique:

• Professeur Pierre CHAMBON, Président du conseil scientifique

Institut de génétique et de biologie moléculaire cellulaire

Professeur Dino MORAS

Génopoles :

• M. Pierre TAMBOURIN, Directeur général

EMBL :

• Dr. Fotis C. KAFATOS, Directeur général

• Dr. Christian BOULIN, Coordinator of Scientific facilities

Institut Pasteur :

Professeur Henri KORN, Directeur du Laboratoire de biologie cellulaire et moléculaire du neurone

CEA :

• M. Michel VAN DER REST, Directeur de l'IBS, Grenoble

• Dr. Denis LE BIHAN, Directeur de recherche, Laboratoire d'imagerie neurologique anatomique et fonctionnelle, Service hospitalier Frédéric Joliot

• M. Pierre TRÉFOURET, chef du service des Affaires publiques

CNRS :

Mme Geneviève ROUGON, Directeur scientifique adjoint au Département des sciences du vivant

• M. Jean-Claude THIERRY, chargé de mission au département des sciences du vivant

INSERM :

• Professeur Patrice DEBRÉ, Directeur scientifique auprès du Directeur général

M. René TRÉGOUËT, Sénateur, rapporteur, a ouvert la réunion sur " la problématique des très grands équipements dans le domaine des sciences du vivant " en remerciant les nombreux participants pour leur présence au sein de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) qui rassemble, comme on sait, députés et sénateurs.

La méthode constante de l'Office est d'essayer de trouver un consensus entre l'Assemblée nationale et le Sénat sur les grands problèmes scientifiques.

En l'occurrence, la mission de l'Office, après avoir porté sur les conditions d'implantation d'un nouveau synchrotron, a été élargie à l'étude des besoins de la France en très grands équipements (TGE) dans les prochaines années.

En accord avec le ministère de la recherche, il a été jugé nécessaire d'élargir les investigations au-delà de la définition actuelle des TGE. En conséquence, les travaux de l'Office vont au delà des grandes réalisations unitaires que l'on pourrait qualifier de " cathédrales " technologiques onéreuses, en incluant un autre type d'équipements, à savoir les équipements en réseau. A ce stade des réflexions du groupe de travail, il apparaît selon toute probabilité nécessaire d'introduire en France une nouvelle approche des TGE pour faire face à la compétition âpre qui oppose la France et l'Europe aux autres " plaques " du monde, en particulier aux Etats-Unis et au Japon.

Dans le cadre de la préparation du présent rapport, une attention prioritaire a été donnée à deux grandes disciplines, les sciences et technologies de l'information et de la communication (STIC) et les sciences du vivant, qui n'ont pas bénéficié d'une attention suffisante dans le passé, en particulier dans le domaine des très grands équipements. Ceci ne veut pas dire que les besoins des autres disciplines - chimie, physique, astronomie, océanographie, etc. - ne seront pas examinés en détail dans les prochaines semaines. L'audition de ce jour, qui manifeste l'attention de l'OPECST pour les sciences du vivant, devrait permettre un tour d'horizon fructueux qui sera suivi d'une deuxième séance pour l'étude approfondie des propositions qui pourraient être faites en matière de TGE pour cette discipline.

Après avoir présenté les différents participants, M. René TRÉGOUËT, Sénateur, rapporteur , a cité quelques-unes des questions qui pourraient être abordées par les orateurs, à savoir les méthodes d'analyse fine de la matière - rayonnement synchrotron, sources de neutrons, RMN - utilisée en biologie, l'imagerie médicale pour les neurosciences, les calculateurs nécessaires pour la génomique, les banques de données sur le génome, les laboratoires de haute sécurité, les animaleries, les pôles de recherche scientifique.

La parole a ensuite été donnée au Professeur Pierre CHAMBON.

*

Le Professeur Pierre CHAMBON, Professeur au Collège de France, Directeur de l'IGBMC (Institut de génétique et de biologie moléculaire et cellulaire) de Strasbourg, Président du Conseil scientifique du Programme national de génomique , s'est déclaré heureux de participer à la réflexion de l'Office sur les TGE dans les sciences du vivant, après que la Commission européenne a, par la voix du Commissaire européen à la recherche, M. Philippe BUSQUIN, estimé important que l'Union revoie ses objectifs pour la biologie en réexaminant les notions de centres d'excellence et d'infrastructure. Il ne saurait être dit que la Commission européenne a négligé ces aspects par le passé puisque l'Union européenne n'a pas voulu financer des infrastructures, ce qui a eu des conséquences néfastes pour la recherche. Dans cette conjoncture, la réflexion de l'Office pourrait voir son importance renforcée du fait de l'exercice par la France de la présidence de l'Union européenne pour le deuxième semestre 2000.

Mais en quoi les études sur le génome peuvent-elle nécessiter des grands équipements ?

Les études sur le génome, c'est-à-dire le support de l'hérédité, comprennent la découverte des gènes et la caractérisation de leur activité. Il s'agit de recherches très développées, auxquelles la France a participé, grâce à la création de ce que l'on peut considérer comme des grands équipements. Cette dernière notion est d'ailleurs à redéfinir.

Au demeurant la biologie est une science jeune, en plein développement conceptuel et expérimental, et qui fait un appel croissant à de grands instruments.

Parmi ceux dont la France s'est récemment dotée, il faut citer le Centre National de Séquençage, dont l'objectif est de permettre l'identification des gènes et de dire " là où ils sont " et " ce qu'ils sont " dans la structure de l'ADN, sans pour autant délivrer leurs caractéristiques fonctionnelles.

Le Centre National de Génotypage a, lui, pour mission d'établir le génotype des individus et la relation entre les gènes et l'état physiologique ou physiopathologique de ceux-ci. Dans ce cas également, ce sont essentiellement les aspects structuraux qui sont étudiés, même si l'on se préoccupe également des aspects fonctionnels.

La première étape de la génomique est celle du séquençage d'un nombre de gènes qui devrait être compris chez les mammifères, dont l'homme, entre 30 000 et 140 000 selon les estimations actuelles. A lui seul, il s'agit d'un problème " gigantesque " par son ampleur. Mais ce n'est pas le " début de la fin " . Au contraire, c'est la " fin du début " .

Le " vrai problème " est celui de la fonction des gènes, qu'il s'agisse du génome humain et des autres mammifères mais aussi des génomes des vertébrés dans leur ensemble, des autres animaux, des végétaux et des micro-organismes. Chez les mammifères, on ignore la fonction de la plupart des gènes, bien que l'on sache qu'ils jouent un rôle déterminant dans " l'économie " de l'individu.

Quelles sont les approches possibles pour étudier les fonctions des gènes et ainsi pénétrer dans l'ère de la génomique fonctionnelle ?

Pour simplifier, il en existe trois : l'approche structurale, l'approche génétique et l'approche biochimique. Ces trois approches sont complémentaires et de fait indissociables.

L'approche structurale consiste à se servir de la propriété des gènes de coder les protéines, macromolécules actives qui font " marcher " la machine biologique. La détermination de la structure tridimensionnelle des protéines revêt dès lors un grand intérêt. En effet, leur analyse structurale donne non seulement des informations sur la relation structure-fonction mais elle a également des prolongements avec le " drug design " , c'est-à-dire le dessin de petites molécules qui, associées aux protéines, peuvent en modifier l'activité.

L'un des outils d'étude des aspects structuraux des protéines est le rayonnement synchrotron, qui a connu des améliorations considérables et qui en connaîtra d'autres , de façon à permettre l'étude de cristaux de protéines de petites dimensions.

L'approche structurale systématique des protéines rencontre l'intérêt des chercheurs de la biologie fondamentale et de l'industrie pharmaceutique. Les Etats-Unis, le Japon et le Royaume Uni ont lancé des études à grande échelle dans ce domaine. La France est pour l'instant largement absente de cette démarche.

Aussi convient-il d'engager des efforts importants en amont des études structurales des protéines, c'est-à-dire en cristallogénèse, sauf à voir les ressources françaises en rayonnement synchrotron être utilisées par des chercheurs étrangers.

Dans le domaine de la cristallogénèse et de l'étude de la structure tridimensionnelle des protéines, la France possède quelques bonnes équipes mais leur nombre est trop réduit.

Cette situation provient d'orientations prises dans les quarante dernières années, où l'accent n'a pas été mis sur ces disciplines, même si le CNRS a conduit quelques actions dans ce domaine. Au plan quantitatif, la France est donc loin d'être au premier rang. Au reste, il n'y a pas en France de création de " start-up " de biologie structurale, contrairement au Japon, aux Etats-Unis et au Royaume Uni, l'Allemagne étant également en avance par rapport à notre pays.

Les équipements nécessaires à la préparation à grande échelle de cristaux des protéines, ainsi que les technologies informatiques nécessaires pour résoudre en aval les observations obtenues avec le rayonnement synchrotron, constituent à elles seules un très grand équipement qui vient s'ajouter au TGE que constitue le synchrotron lui-même.

Le passage à grande échelle est donc un défi essentiel, dont on se préoccupe au niveau des génopoles, avec toutefois des moyens actuellement insuffisants.

S'agissant des ressources humaines indispensables pour rattraper le retard déjà pris, il faut faire émerger des équipes et attirer des chercheurs étrangers.

Si l'on considère l'ensemble des machines à mettre en _uvre, les investissements à effectuer pour automatiser les processus et développer la bioinformatique, ainsi que les nombreux personnels indispensables - chercheurs, ingénieurs et techniciens -, la masse financière des TGE est atteinte.

Il convient en outre de prendre en considération les besoins en aval des études structurales. Le " drug design " suppose en effet le criblage de composés chimiques, soit en virtuel grâce à l'informatique, soit en réel avec des systèmes " rapporteurs " et la pharmacologie. Une fois les molécules choisies, il faut les tester sur l'animal, déterminer s'il y a eu stimulation ou inhibition de l'activité des protéines étudiées, en inférer le rôle du gène considéré et mettre au point d'éventuelles thérapies.

Là également, la somme des dépenses d'équipements, de fonctionnement et des salaires des chercheurs et techniciens indispensables est bien à l'échelle de celle des TGE.

Pour étudier les fonctions des gènes, une autre possibilité existe, en réalité complémentaire de la biologie structurale, c'est l'approche génétique.

Le principe de cette méthode est de modifier ou de muter un gène donné et d'en examiner les conséquences chez l'animal. Il s'agit de génétique physiologique ou de génétique physiopathologique. Cette méthode permet de déterminer la fonction des gènes au sein de l'animal, aussi bien dans des conditions normales que pathologiques.

Le cumul des investissements relatifs à la voie génétique conduit à des montants qui sont également du ressort des TGE, en raison des technologies et des équipements indispensables.

Il faut en effet disposer d'animaleries, en particulier pour la souris, système modèle privilégié. Celle-ci présente des avantages considérables pour l'expérimentation, en termes de taille et de vitesse de reproduction, mais aussi de possibilité de mutation " à volonté " de ses gènes, quels qu'ils soient, qu'ils appartiennent à la lignée germinale ou à des cellules somatiques.

Deux types d'investissements sont donc à réaliser.

Le premier type correspond à des animaleries de grandes dimensions pour l'élevage de milliers de souris et le stockage des mutants. On atteint ainsi 4000 m 2 pour le bâtiment qui est en cours de construction à Strasbourg dans le cadre des génopoles. Mais ceci ne suffit évidemment pas.

Le deuxième type d'investissement est relatif aux matériels nécessaires pour réaliser l'analyse physiologique des effets des mutations au niveau des systèmes respiratoire, cardio-vasculaire, osseux, visuel, auditif, immunitaire, etc. Le coût global de cet appareillage est supérieur à celui du bâtiment proprement dit.

De surcroît, des dizaines de spécialistes de ces domaines sont à rassembler pour effectuer et analyser ces explorations fonctionnelles et ainsi établir le rôle des gènes dans les modifications physiologiques et physiopathologiques constatées.

L'approche génétique nécessite donc des investissements matériels du niveau de ceux des TGE classiques, et exige aussi des crédits de fonctionnement et un personnel nombreux et qualifié.

La troisième approche est l'approche biochimique. Son principe est de descendre au niveau des protéines et d'examiner avec quelles autres molécules elles interagissent. Ces interactions et leurs modifications nous éclairent sur la fonction biochimique des protéines. L'approche biochimique comporte notamment l'étude du transcriptome, c'est-à-dire de l'ensemble des ARN messagers produits par une cellule ou un tissu donné, et sur celle du protéome, son équivalent au niveau des protéines.

Au final, il apparaît bien que, quelle que soit l'approche utilisée - structurale, génétique ou biochimique -, la génomique fonctionnelle nécessite des dépenses du niveau de celles d'un TGE : investissements en instruments, frais de fonctionnement et constitution d'une masse critique réunissant les nombreux groupes de chercheurs, ingénieurs et techniciens réalisant les investigations.

Pour faire face aux enjeux considérables du post-génome, que fait actuellement la France ?

Dans le cadre du Programme national de génomique, la France dispose du Centre national de séquençage (CNS) et du Centre national de génotypage (CNG), auxquels il faut ajouter le programme GenHomme, le réseau de recherche technologique Génoplante, le programme INFOBIOGEN et les Génopoles. Il faut aussi noter d'autres actions incitatives en biologie du développement et en physiologie.

L'enjeu majeur pour la France est aujourd'hui d'accentuer ses efforts pour l'étude des aspects structuraux et physiologiques du génome. Il convient donc que le Programme national de génomique, qui combine des efforts publics et privés, traite aussi bien des problèmes structuraux (génotypage, structure des protéines, etc.) que fonctionnels.

Un autre domaine devrait faire l'objet d'efforts particuliers, à savoir la bioinformatique, car il s'agit d'une discipline critique pour toute la biologie. Le programme INFOBIOGEN semble insuffisant.

Les Génopoles ont été créés par M. Claude ALLÈGRE avec l'idée de réaliser, avec la masse critique nécessaire, des plateaux techniques de grande ampleur permettant de passer à une biologie à grande échelle. Il convient que ces génopoles créent l'environnement nécessaire pour les études de génomique structurale et fonctionnelle, qu'elles soient fondamentales ou appliquées.

Les travaux à conduire en génomique fonctionnelle s'étaleront sur au moins 20 ans. La résolution de la fonction des gènes est en effet un problème beaucoup plus ardu que le séquençage. Pour avancer sur cette voie, il est indispensable d'avoir une approche multidisciplinaire, d'où l'intérêt de réunir sur un campus tout l'éventail des techniques nécessaires et de travailler en réseau.

Le réseau de Génopoles est financé par le Fonds National de la Science (FNS) dans le cadre d'un programme limité dans le temps. L'interrompre après 3 ou 4 ans, comme on peut actuellement le craindre, reviendrait à gaspiller la totalité de l'investissement déjà réalisé.

Le XXI e siècle sera celui des sciences et des technologies de l'information et de la communication (STIC) ainsi que celui des sciences du vivant.

Les Etats-Unis on mis en place une stratégie de conquête pour dominer ce dernier secteur au niveau mondial, stratégie qui s'exprime notamment par un doublement du budget du NIH d'ici à 2003.

L'Europe, et notamment la France, apparaissent jusqu'à maintenant " singulièrement absentes " . Un effort considérable doit donc être engagé.

*

Un débat s'est ensuite engagé sur les situations respectives de l'Europe et des Etats-Unis, pour les " start-up " dans le domaine de la biologie structurale.

M. Vincent MIKOL, Directeur de recherche chez Aventis, membre du groupe de travail, a estimé qu'avec les entreprises Structural Genomics et Astecs , l'Europe n'est pas en retard sur les Etats-Unis.

Le Professeur Dino MORAS , cristallographe et spécialiste de la structure des protéines, d'une opinion opposée, a estimé qu'il fallait prendre en compte non pas le nombre d'entreprises mais leurs forces respectives. Les Etats-Unis et le Japon ont engagé des efforts massifs, de sorte que les entreprises européennes ont comparativement des moyens insuffisants. Au reste, si les Wellcome Trust a une stratégie offensive, " ce n'est pas anodin " .

S'agissant des moyens actuels en rayonnement synchrotron, l'Europe connaît également un retard. Contrairement à ce que M. Robert COMÈS a exprimé sur le premier rang mondial du synchrotron ESRF de Grenoble, le Professeur Dino MORAS a indiqué que certains enregistrements ne peuvent être faits qu'à Argonne aux Etats-Unis.

Le Professeur Pierre CHAMBON a souligné en tout état de cause la force des groupes de cristallographes qui soutiennent les " start-up " américaines.

M. Pierre TAMBOURIN, Directeur général des Génopoles a indiqué que, s'il peut y avoir controverse sur la seule biologie structurale, en revanche le retard de l'Europe sur les Etats-Unis pour l'ensemble des biotechnologies est incontestable.

*

En réponse à une question de M. Vincent MIKOL, sur la présence éventuelle dans les Génopoles de moyens de criblage de molécules cibles, le Professeur Pierre CHAMBON a précisé que, s'il ne sera pas possible d'y cribler des chimiothèques de centaines de milliers de molécules, le criblage ciblé de quelques milliers de molécules sera toutefois possible.

Au reste, il faut sortir d'une conception unitaire du très grand équipement. Si l'on prend un par un les équipements de la génomique, aucun d'entre eux n'atteint la taille d'un TGE. Au contraire, l'ensemble d'un génopole constitue un TGE, de même que pourrait l'être un réseau de bioinformatique.

Il faut aussi noter que, si pris isolément, chacun des éléments d'un Génopole est à la portée d'un grand organisme de recherche comme l'INSERM ou le CNRS, leur réalisation dans leur ensemble " ne se fait pas " au niveau de ces organismes. Or les techniques évoluent et un seul projet, comme l'établissement des transcriptomes, demande des moyens de plus en plus importants. Au vrai, il n'existe pas en France une structure comparable au NIH aux Etats-Unis qui permette de lancer de grands programmes technologiques.

Les génopoles répondent précisément à l'objectif d'une finalisation des recherches et du passage en aval des découvertes, " ce qui, jusqu'à présent, n'est pas dans la vocation des grands organismes de recherche " .

*

Les causes du retard de la France en biologie structurale ont ensuite été analysées par plusieurs orateurs, à la demande de M. René TRÉGOUËT, Sénateur, rapporteur.

Le Professeur Dino MORAS a indiqué qu'après les premières grandes découvertes faites à Cambridge dans ce domaine, les Etats-Unis ont investi massivement dans la biologie structurale, alors que la France, à la suite d'un choix scientifique fait au début des années 1970, a décidé que cet axe de recherche n'était pas important. Ce choix a été fait par des instances scientifiques mal conseillées, au motif que la génétique était davantage prometteuse.

Le Professeur Pierre CHAMBON a fait toutefois remarquer que l'intérêt de la biologie structurale, peu clair au départ, s'est accru ensuite avec la perspective de l'élucidation de la structure des protéines.

M. Pierre TAMBOURIN ayant remarqué que la France est familière d'erreurs de ce type, le Professeur Pierre CHAMBON a signalé un autre exemple de fourvoiement. La biologie moléculaire a reçu en effet des encouragements très importants, dont la physiologie a malheureusement fait les frais. Or, aujourd'hui, la génomique fonctionnelle a besoin des acquis de la physiologie, notamment pour l'analyse du modèle intégré que représente l'animal.

M. Roger BALIAN a rappelé que l'opinion selon laquelle la biologie structurale serait de peu d'intérêt, est largement répandue, ainsi que l'ont montré les propos de M. Pierre-Gilles DE GENNES lors de l'audition publique sur le synchrotron organisée par l'Office parlementaire.

M. Roger BALIAN s'est ensuite enquis de savoir s'il est possible de reconnaître dans le cours d'un séquençage si l'on est en présence d'un gène ou bien d'informations non signifiantes.

Le Professeur Pierre CHAMBON a répondu sur un plan général par la négative. Toutefois, la connaissance et la comparaison de génomes de mammifères et de poissons permettent souvent d'établir la présence d'un gène dans une région donnée du génome.

Par ailleurs, concernant le nombre de gènes dont on connaît la protéine associée, autre question de M. Roger BALIAN , le Professeur Pierre CHAMBON a précisé que le nombre de structures élucidées est de l'ordre de 5000 et le nombre de fonctions identifiées de quelques milliers.

*

M. Roger BALIAN a, par ailleurs, fait une remarque générale sur les TGE.

Le Conseil des grands équipements avait en son temps insisté sur l'importance de l'accompagnement en moyens humains et matériels d'un très grand équipement. Cette idée avait été mise en avant sans toutefois qu'on la retrouve au plan budgétaire. A titre d'exemple, dans le domaine de la biologie structurale, l'investissement dans un synchrotron doit être complété par des mesures d'accompagnement en amont pour la préparation des cristaux et en aval pour l'informatique servant à l'analyse des informations expérimentales, de même qu'en aval d'un accélérateur il faut des outils d'analyse des particules.

Ainsi, toute réflexion sur un TGE doit inclure l'accompagnement nécessaire en amont comme en aval, le budget du projet incluant les crédits d'investissement et de fonctionnement.

En définitive, l'enveloppe budgétaire du très grand équipement, en incluant l'accompagnement, ne peut résulter de la seule communauté scientifique qui souhaite en disposer, et doit être au contraire abondée par d'autres ressources.

Prolongeant ces propos, le Professeur Dino MORAS a estimé que, pour atteindre la compétitivité, il faut investir non seulement dans des moyens matériels mais également dans des ressources humaines. De surcroît, il faut rassembler des compétences variées et les faire travailler ensemble.

D'une manière générale, dans les disciplines clé, il faut aller de l'avant, même s'il n'existe pas de spécialistes déjà formés, comme c'est d'ailleurs le cas dans le domaine de la bioinformatique. Au reste, la somme d'équipements de taille moyenne constitue bien un TGE. Une démarche offensive exige une approche globale, sans aucune lacune.

M. René TRÉGOUËT, Sénateur, rapporteur, a demandé aux participants de bien vouloir préparer une étude comparative sur les moyens à la disposition des sciences du vivant, en France, en Europe et aux Etats-Unis, tant pour la recherche publique que pour la recherche privée, ainsi que sur l'efficacité respective de ces deux types de recherche dans notre pays et outre-Atlantique.

S'il faut une stratégie dans notre pays, il faut aussi des moyens. En complément à ce document comparatif, M. René TRÉGOUËT a de surcroît appelé les participants à faire connaître à l'Office parlementaire les mesures qu'ils préconisent en matière de TGE pour permettre à la France de passer en tête de la recherche sur les sciences du vivant.

*

Un échange a suivi sur la notion de très grand équipement.

M. Christian CUVILLIEZ, Député, rapporteur, a estimé que l'on doit rechercher une définition systémique des très grands équipements mais également une définition qui ait une signification budgétaire, de façon à pouvoir analyser l'évolution de leurs crédits.

M. René TRÉGOUËT, Sénateur, rapporteur, a noté qu'il convient de reformuler la notion autour du but poursuivi afin de pouvoir y inclure l'ensemble des équipements qui concourent à la réalisation de cet objectif. Au demeurant, l'approche systémique proposée par M. CUVILLIEZ est fondamentale. En effet, il existe dans la recherche des équipements " isolés " dont l'absence éventuelle ne saurait dérégler tout un système de recherche. A l'opposé, il existe des grands équipements dont il faut impérativement disposer car ils sont utilisés par différentes disciplines, en coordination ou non.

Mme Claudine LAURENT, membre du groupe de travail , a demandé que les futures recommandations des participants à la présente réunion portent également sur les équipements de taille moyenne indispensables, dont il faudrait également faire le recensement.

Le Dr. Denis LE BIHAN, Directeur de recherche au CEA , a souligné qu'un catalogue des instruments nécessaires aux sciences du vivant ne devait pas omettre l'imagerie médicale, pour laquelle la France connaît un retard important.

*

Une discussion s'est ensuite engagée sur le sujet de l'échelle nationale ou européenne des TGE.

Le Professeur Henri KORN, Directeur du laboratoire de biologie cellulaire et moléculaire du neurone à l'Institut Pasteur, a estimé que la dimension européenne est trop souvent invoquée lorsque notre pays rencontre un problème scientifique majeur. Or la France fait face aujourd'hui à deux problèmes graves, d'une part la politique de recrutement des chercheurs et d'autre part des choix scientifiques importants à faire. Il convient donc de ne pas reporter ces deux questions sur l'Europe mais au contraire de les aborder avec courage.

Pour M. René TRÉGOUËT, Sénateur, rapporteur, une évolution européenne se produit actuellement dans la bonne direction pour les TGE. Pour le Professeur Henri KORN , il n'en est rien.

Au delà de la situation actuelle, il existe en tout état de cause pour M. René TRÉGOUËT, Sénateur, rapporteur, une fenêtre d'opportunité que la France doit s'efforcer d'ouvrir grâce à sa présidence de l'Union européenne au deuxième semestre 2000. Ceci ne saurait toutefois signifier que notre pays ne doit pas mobiliser ses propres énergies.

Pour le Professeur Pierre CHAMBON , les Génopoles répondent au niveau national à différents objectifs. Il s'agit de couvrir l'ensemble des recherches allant de la fonction des gènes à la définition de médicaments. Pour ce faire, il faut rassembler des compétences. L'idée est d'approfondir l'expertise des différents centres, avec une amorce de spécialisation de chacun d'entre eux et un travail en réseau de l'ensemble. Une fois cet effort réalisé au plan national, après " avoir balayé devant sa porte " , il sera alors possible de nouer des coopérations avec d'autres pays.

En tout état de cause, la France ne s'en remet pas à l'Union européenne mais au contraire doit avoir son propre dispositif.

La parole a ensuite été donnée à M. Pierre TAMBOURIN.

*

M. Pierre TAMBOURIN, Directeur général des génopoles, a indiqué que la France se caractérise dans le domaine des sciences du vivant par l'absence de TGE.

Au contraire d'autres pays comme les Etats-Unis ou les Pays-Bas, la France ne disposait d'aucune infrastructure pour stocker des cellules souches de souris et les reproduire, avant le projet d'animalerie de Strasbourg dont il a déjà été fait état. L'absence de serres de grande taille est, elle aussi, incompatible avec le développement considérable de la génomique agronomique. Il faut également relever une carence en centre de ressources biologiques assurant le stockage de cellules et de matières biologiques indispensables pour les biotechnologies. A cet égard, la France avait réussi à prendre à sa charge la coordination du réseau européen correspondant sans posséder d'infrastructure propre, au motif que l'INSERM disposait d'une base de données.

D'autres domaines ont longtemps souffert de retards du même type, notamment l'observation de la Terre ou en souffrent encore, ainsi pour l'observation des écosystèmes, alors qu'avec la Guyane, la France détient des milliers de km 2 précieux pour étudier la biodiversité, sans qu'aucun organisme de recherche n'ait été capable d'investir dans cette direction.

Au demeurant, la biologie structurale a bénéficié d'une initiative, le projet IMABIO. La création de l'Institut de Biologie Structurale de Grenoble a par ailleurs eu pour but de constituer une structure d'accueil. On ne peut toutefois nier qu'au niveau du CNRS, des besoins existaient en biologie structurale, auxquels cet organisme n'a pas répondu.

En tout état de cause, la France doit aujourd'hui faire face à un problème de compétitivité. Si l'on veut une politique européenne ambitieuse où la France joue un rôle, il faut investir.

L'effort considérable engagé par les Etats-Unis dans les sciences du vivant fixe les enjeux à cet égard. L'augmentation de 14 % du budget du NIH (National Institute of Health) pour l'année fiscale 1999-2000 correspond en volume, à elle seule, au cumul du bilan et du budget annuel de l'Institut Pasteur.

Avec une diminution progressive de la Dépense Nationale de Recherche et Développement (DNRD), passée de 2,45 % du PIB en 1993 à environ 2,1 % en 1999, le contexte est défavorable et a pour conséquence un accroissement du retard par rapport aux Etats-Unis.

En réalité, depuis le début des années 1970, la France n'a connu que deux périodes où l'effort national de R&D a baissé, d'une part de 1971 à 1973 sous la présidence de Georges POMPIDOU et d'autre part, depuis 1993 jusqu'à nos jours. Pour autant, l'évolution actuelle se produit sans raison économique ou budgétaire.

En tout état de cause, la création des génopoles, décidée en Comité Interministériel de la Recherche Scientifique et Technologique (CIRST), répond à la nécessité d'une nouvelle approche en biologie, à savoir une approche à grande échelle. Seule cette méthode permettra de savoir comment plusieurs milliers de gènes agissent dans une cellule.

Grâce aux progrès faits en automatisation, en robotisation et en informatique, le séquençage du génome débouchera sur une première version en 2000 et sur la version définitive en 2002, alors qu'avec une approche classique il aurait fallu attendre 2015 pour obtenir ces résultats. Un autre progrès méthodologique s'est révélé particulièrement efficace, c'est la pluridisciplinarité des recherches obtenue par un rapprochement des compétences. Les génopoles systématisent le rapprochement culturel avec des disciplines éloignées de la biologie, comme la physique, la chimie et les mathématiques.

Le génopole d'Evry a reçu les investissements lourds que sont le Centre national de séquençage et le Centre national de génotypage. Le Centre national de séquençage avait été conçu en 1996 pour prendre le 3 ème rang mondial. En réalité, il est aujourd'hui à la 8 ème place, alors même que sa productivité a été multipliée par 10, ce qui donne une indication de la compétition mondiale dans ce domaine.

Ces deux centres nationaux, dont le financement est garanti pendant 10 ans, ont pour mission de répondre à l'ensemble de la communauté scientifique nationale. Il faut y ajouter le Centre national informatique d'Evry, qui fait partie du réseau européen des centres de bioinformatique et donc est relié au Sanger Centre du Wellcome Trust.

Le génopole d'Evry et les génopoles créés dans les régions assurent, grâce aux investissements effectués et à une approche multidisciplinaire, la mise en _uvre d'une biologie à grande échelle. Toutefois, un nouvel enjeu existe désormais, celui du post-génome.

A cet égard, le réseau de génopoles couvrira l'ensemble du champ allant de la connaissance des gènes à leur application, en incluant la biologie structurale et l'imagerie des animaux, avec une répartition des spécialisations dans les différents centres.

Le réseau a également la mission de fournir une base de départ pour les " start-up " spécialisées dans les biotechnologies. A cet égard, on peut noter avec satisfaction une véritable mobilisation du milieu de la recherche, qui se traduit par la mise au point de nombreux projets. Si beaucoup d'entre eux sont voués à disparaître, en revanche les projets viables permettront peut-être de rattraper notre retard.

Au vrai, le retard de l'Europe sur les Etats-Unis est considérable dans les sciences du vivant, et celui de la France encore plus important sur le Royaume Uni comme sur les Etats-Unis. Les effectifs comparés de chercheurs de haut niveau employés dans ce secteur l'illustrent clairement. Toute chose égale par ailleurs, en 1997-1998, le déficit d'emplois atteignait en Europe 30 000 personnes, soit le total des postes relatifs aux sciences du vivant dans la recherche publique française.

La biologie a longtemps souffert en France d'une absence de débouchés, de sorte que les jeunes diplômés de cette discipline étaient conduits à s'expatrier, notamment aux Etats-Unis. Le réseau de génopoles a aussi pour ambition de compenser en trois ans le retard accumulé.

Le réseau de génopoles nécessite un effort budgétaire de plusieurs années et des ressources humaines pérennes. Or, selon certaines sources, cette aide pourrait disparaître dans trois ans.

Dans ce contexte, les premiers chiffres relatifs au budget de la recherche pour 2001, à savoir une diminution de 2 % de ses crédits, sont alarmants. En tout état de cause, il ne faut pas renoncer à la recherche fondamentale, qui conditionne en particulier la création de " start-up " dans les dix prochaines années.

Par ailleurs, si l'on n'y prend pas garde, la question du recrutement de jeunes chercheurs va devenir, dans quatre à cinq ans, d'une acuité majeure avec l'accélération des départs en retraite de chercheurs actuellement en fonction.

Le déclin relatif des filières scientifiques est un autre motif d'inquiétude à cet égard. Au reste, l'affichage actuel d'une baisse projetée du budget de la recherche pour 2001 est non seulement grave mais semble également en contradiction avec les propos du Premier ministre en 1997 de rétablir la dépense nationale de recherche à 2,5 % du PIB.

*

Une discussion s'est ensuite engagée sur l'effort consenti en France à l'égard de la recherche.

M. Christian CUVILLIEZ, Député, rapporteur, a rappelé qu'en tant que Rapporteur spécial de la Commission des Finances pour la Recherche, il a régulièrement désapprouvé et voté contre les budgets présentés par le Gouvernement depuis 1997 et qu'il ne lui est pas interdit de s'exprimer sur ce sujet dans un autre cadre que celui de l'Office parlementaire d'évaluation des choix scientifiques et technologiques. L'inquiétude suscitée par les premiers chiffres du budget de la recherche pour 2001 est largement partagée. Toutefois, les décisions définitives ne seront prises qu'à la fin juin.

M. Pierre TAMBOURIN a estimé qu'il fallait une intervention rapide et au niveau le plus élevé en faveur de la recherche, sauf à aboutir à une issue déplorable. La base de départ de la négociation, à savoir une diminution de 2 % est en elle-même mauvaise, puisque l'on sait bien que dans une négociation budgétaire, une augmentation de 5 % au début des discussions se traduit le plus souvent au final par une simple stabilité des crédits ou une augmentation de 1 % au plus.

Le Professeur Pierre CHAMBON a pour sa part souligné que le renforcement de l'industrie pharmaceutique française passe par celui de la biologie. Au reste, l'investissement public dans la recherche biologique est faible parce que l'investissement privé dans ce domaine est minime. La recherche conduite par l'industrie pharmaceutique française est en effet réalisée à 80 % aux Etats-Unis. Le poids politique de la biologie et de l'industrie pharmaceutique est donc faible. La réduction des crédits des sciences du vivant au CNRS en francs constants est d'ailleurs patente depuis plusieurs années. De surcroît, selon toutes probabilités, le budget de la recherche biologique restera " mauvais " même si l'on parvient à passer d'une diminution projetée des crédits, à leur stabilisation.

Pourtant, si l'on veut relever l'industrie biologique en prenant appui sur les " start-up " , il est impératif de placer la recherche fondamentale dans des conditions favorables et ceci pendant plusieurs années, car un tel redressement prend du temps. La France possède les intelligences et les capacités techniques pour jouer les premiers rôles en biologie. Mais sans une prise de conscience des enjeux - qui n'a pas encore eu lieu dans notre pays - et sans un " effort particulier " pour la biologie, il n'y a aucun espoir que la France se rétablisse à l'égal des premiers.

M. René TRÉGOUËT, Sénateur, rapporteur, a remercié les orateurs pour leurs contributions au débat, particulièrement intéressantes pour les Rapporteurs spéciaux des Commissions des Finances que M. CUVILLIEZ et lui-même sont respectivement à l'Assemblée nationale et au Sénat.

Au reste, l'on peut se demander si les problématiques nouvelles de la recherche ne pourraient pas s'accompagner de solutions nouvelles. Pour préparer l'avenir, sans doute de nouvelles méthodes seraient-elles à inventer, comme par exemple l'allocation à des investissements de recherche d'une partie des recettes tirées de l'attribution des licences UMTS.

Quoi qu'il en soit, si de nouvelles solutions de financement étaient mises au point, il serait encore plus important pour l'Office parlementaire de pouvoir présenter au Gouvernement des projets pertinents et classés par ordre de priorité, tant en ce qui concerne les équipements que les ressources humaines.

A cet égard, s'agissant des sciences et technologies de l'information et de la communication (STIC) ainsi que des sciences du vivant, il faut se garder de tout a priori et sans doute lancer un débat national. Mais il appartient à la communauté scientifique de présenter des propositions pertinentes.

M. Christian CUVILLIEZ, Député, rapporteur, a remarqué que si la communauté scientifique exprimait ses craintes avec vigueur sur les perspectives budgétaires actuelles, le résultat des arbitrages n'en pourrait être que meilleur. En tout état de cause, il convient que chacun, en dehors de cette enceinte, prenne ses responsabilités.

M. Pierre TAMBOURIN a ajouté qu'au titre de ses anciennes fonctions de directeur des sciences du vivant au CNRS, il avait constaté que l'absence de décision du CNRS en faveur de la construction de TGE en biologie tenait non pas à des raisons scientifiques mais à des contraintes budgétaires. L'absence d'augmentation des crédits, une situation qui oblige à résoudre la quadrature du cercle, a effectivement conduit le CNRS à opter pour la préservation de ses acquis notamment en physique, quitte à ne pas pratiquer d'investissements en biologie.

Le Professeur Henri KORN, Directeur de recherche à l'Institut Pasteur , après avoir souligné la difficulté de la mission de l'Office sur les TGE, a remarqué que des équipements d'imagerie cérébrale ou d'informatique ne font pas partie de la catégorie des très grands équipements mais qu'ils le sont dans la réalité pour de nombreux laboratoires. Il convient donc de rectifier la définition actuelle, qui, si elle est claire pour les grands appareils de la physique, l'est beaucoup moins pour la biologie.

Il reste que l'on ne peut parler de très grands équipements sans évoquer l'importance des personnels techniques et scientifiques indispensables à leur pleine exploitation. A cet égard, on peut se demander si l'éclatement des pouvoirs décisionnels entre l'Etat et la région, même dans le cadre de contrats de Plan, n'est pas dans une certaine mesure dommageable. Il existe en effet des décisions d'achats de matériels prises par les régions qui, pour avantageux qu'elles soient pour la ou les disciplines bénéficiaires, ne sont pas toujours pesées en fonction des besoins des autres disciplines.

A l'issue de cet échange, la parole a été donnée au Dr. Fotis C. KAFATOS.

*

Le Dr. Fotis C. KAFATOS, Directeur général de l'EMBL (European Molecular Biology Laboratory), a indiqué que l'EMBL, un TGE européen modelé sur l'exemple du CERN, rassemble 16 pays : Allemagne, Autriche, Belgique, Danemark, Espagne, Finlande, France, Grèce, Israël, Italie, Pays-Bas, Norvège, Portugal, Royaume Uni, Suède, Suisse. L'EMBL fondé en 1974, résulte d'une convention internationale intergouvernementale.

L'EMBL possède 5 implantations. La première, décidée en 1974, est opérationnelle à Heidelberg depuis 1978.

En 1975, la décision a été prise de créer une antenne de l'EMBL à Hambourg, dans l'enceinte de DESY (Deutsche Elektronen Synchrotron).

En 1976, la construction est décidée d'une autre antenne à proximité de l'ILL (Institut Laue Langevin) à Grenoble, ce qui débouchera sur la mise au point coopérative du premier diffractomètre neutronique.

En 1993, la bibliothèque de données de l'EMBL, la première au monde à rassembler systématiquement des séquences de nucléotides, est transférée d'Allemagne à Cambridge où elle deviendra en 1997 l'EBI (European Bioinformatics Institute) sur le campus du génome du Wellcome Trust.

Enfin, un nouveau programme de génétique de la souris est lancé en 1999 à Monterotondo, à proximité de Rome.

Ces installations certes très différentes de celles de la physique sont-elles des très grands équipements ? Assurément, dans la mesure où elles sont absolument nécessaires pour toute recherche en biologie moléculaire.

La biologie moderne requiert de fait de nombreux instruments mais aussi d'autres investissements, comme par exemple des équipements de bioinformatique, en particulier, des bases données globales, complexes et interopérables. Si l'on cumule tous ces matériels et logiciels, l'on atteint l'échelle des TGE classiques, à quoi il faut bien entendu rajouter les chercheurs et les ingénieurs qui les construisent, les exploitent et assurent leur développement.

Mais pour traiter de la question des TGE nécessaires à l'avenir en biologie, il convient d'examiner l'avenir de cette discipline. En tout état de cause, il serait inconséquent de ne se préoccuper que de biologie appliquée et de laisser dans l'ombre la biologie fondamentale. L'exemple des Etats-Unis mérite d'être cité à ce sujet, où les chercheurs américains ont convaincu le Congrès de doubler le budget du National Institute of Health en 5 ans.

Au demeurant, si elle est désormais au centre de la biologie, la génomique est non pas une invention moderne mais bien plutôt une évolution de la question centrale et ancienne qui est la relation des gènes et de leurs fonctions.

Quoi qu'il en soit, le XXI e siècle sera celui de la génomique fonctionnelle.

Le séquençage du gène est certes une réalisation " passionnante " mais ce n'est qu'un " commencement " .

Sur un plan méthodologique, il convient de mettre au point une approche méthodologique pour déterminer comment le génome assure une multitude de fonctions. Or la biologie est une discipline éminemment complexe. Plusieurs niveaux successifs doivent être étudiés : le niveau moléculaire sur les plans chimiques et structuraux, les associations de molécules, le niveau sub-cellulaire, la cellule et l'organisme. En conséquence, il s'agit d'analyser comment le gène fonctionne à tous ces niveaux mais aussi de comprendre les interactions entre ces différents niveaux.

Une approche multidisciplinaire mise en _uvre par des spécialistes de chacun des niveaux indiqués est donc obligatoire.

Les compétences indispensables sont nombreuses en génomique fonctionnelle. Ce sont en réalité l'ensemble des disciplines qu'il faut rassembler, avec un rôle particulier joué par la bioinformatique. En outre, le séquençage du génome humain ne saurait suffire. Il doit être complété par le séquençage des génomes de la souris, d'autres animaux et des plantes, afin de permettre des études comparatives. En effet, l'évolution des organismes vivants depuis 4 milliards d'années donne des instruments utiles pour comprendre le génome humain.

En définitive, la biologie a besoin de centres d'excellence ayant une masse critique, dotés de très grands équipements et recourant systématiquement à la multidisciplinarité. On peut se demander à cet égard si une telle démarche peut intervenir dans un cadre national.

Au demeurant, la question centrale est simple. L'Europe dispose d'une fenêtre d'opportunité de 2 à 3 ans pour rattraper son retard et prendre place dans la compétition mondiale en tant qu'acteur de premier rang doté d'une puissance suffisante. Faute de relever ce défi en temps utile, l'on assistera dans le domaine de la biologie à la formation d'un monopole scientifique et industriel des Etats-Unis voire à celle d'un duopole Etats-Unis - Japon.

Dans cette compétition, l'Europe n'est pas démunie d'atouts, bien au contraire, avec une capacité d'innovation très importante. Ainsi, la première base de données de grande ampleur sur les séquences de nucléotides a été créée par l'EMBL, un an avant le NIH américain. Au surplus, le démarrage de la base américaine a été très lent. Mais, désormais, son budget est trois fois et demi supérieur à celui du projet de l'EMBL.

En dernière analyse, la question financière est donc d'une importance critique. Comment, dans ces conditions, ne pas relever que les efforts en faveur de la biologie sont très inférieurs à ceux bénéficiant aux autres disciplines ? La contribution de la France au budget de l'EMBL s'élève annuellement à 46 millions de francs, alors qu'elle est de 616 millions de francs pour le CERN. Globalement, les dépenses consenties pour ce que l'on pourrait appeler les TGE biologiques, représentent environ 1 % du total de 4,580 milliards de francs consacrés à l'ensemble des TGE.

Quelles ambitions donner dans ce contexte à l'EMBL pour les 5 prochaines années ?

Au plan global, des efforts importants sont aujourd'hui engagés tant en France, qu'en Allemagne, en Suisse et bien sûr au Royaume Uni, ce qui démontre une prise de conscience du caractère stratégique et même vital de la biologie pour le XXI e siècle. Pourtant, deux motifs d'inquiétude doivent être mentionnés.

En premier lieu, les niveaux d'investissement ne doivent pas être fixés par référence au passé mais en fonction des enjeux.

En second lieu, il existe malheureusement pour le moment un défaut de conceptualisation en biologie qui apparaît dans certains projets. Ceci constitue sans nul doute un frein à l'augmentation pourtant nécessaire des efforts.

Une des difficultés de la situation actuelle est qu'en réalité, il est difficile de " forcer " la recherche en biologie, c'est-à-dire d'en accélérer le rythme. Plus encore peut-être que pour les autres disciplines, la qualité des recherches y dépend en effet étroitement de celle des individus et de leur liberté d'action.

*

Dans la discussion qui s'est engagée après cette présentation, M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, a remarqué que le concept de centre d'excellence apparaît régulièrement dans les propos tenus lors des auditions. Le Directeur de la recherche a clairement indiqué que les futurs TGE ne pourraient plus à l'avenir être implantés " n'importe où " . Le responsable du LETI a également souligné l'importance d'une concentration de moyens sur un même site. Ces considérations sont de nature à changer la réflexion en cours sur les TGE, puisque aussi bien les TGE pourraient bien n'être à l'avenir qu'un élément constitutif parmi d'autres d'un grand centre d'excellence.

Le Professeur Henri KORN a souligné l'importance de cette remarque qui met en évidence une difficulté souvent rencontrée dans le dialogue entre les scientifiques et les politiques. Si la communauté scientifique est capable de se penser en terme d'excellence, ce discours, pourtant nécessaire, n'est pas toujours recevable et reçu par les politiques.

M. Pierre TAMBOURIN a confirmé que le monde politique accorde dans le domaine des investissements de recherche un poids important aux exigences de l'aménagement du territoire. Aujourd'hui, il convient au contraire de ne pas dissocier l'implantation des TGE de l'impératif de constitution de centres d'excellence.

A propos des critères de localisation d'un TGE, M. René TRÉGOUËT, Sénateur, rapporteur, a rappelé que l'Office parlementaire, s'il n'a pas préconisé de site particulier pour le nouveau synchrotron national, a toutefois énoncé des critères de choix qui lui ont semblé essentiels pour une utilisation optimale du synchrotron tant en termes d'accessibilité que de synergie avec la recherche et l'enseignement. Pour autant, il appartient au Gouvernement, et à lui seul, de trancher.

S'agissant du nouveau problème à résoudre par l'Office, il importe sans doute de repenser la définition des TGE de façon à rendre compte de deux réalités nouvelles et fondamentales, d'une part les TGE en réseau et d'autre part les pôles d'excellence. Au reste, il est loisible de se demander si un pôle d'excellence peut être constitué d'entités travaillant en réseau ou bien au contraire s'il est indissociable d'une concentration de ressources humaines.

Mme Claudine LAURENT, membre du groupe de travail, a remarqué que si l'on commence à évoquer la notion de TGE pour la biologie, c'est en raison d'un phénomène déjà observé dans d'autres disciplines, à savoir le rôle croissant qu'y joue la technologie.

Le Dr. Fotis C. KAFATOS a approuvé cette remarque. Depuis deux générations, les chercheurs en biologie mobilisent des moyens techniques croissants. Quant à l'EMBL, dès sa création, 40 % de son budget d'investissement ont été consacrés à la mise en place de réseaux et à l'acquisition de moyens techniques de pointe. Dans ce domaine, il n'existe pas de grand équipement unique et centralisé structurant la recherche mais au contraire des technologies multiples à rassembler, dont la plupart sont à base d'électronique. La constitution de centres d'excellence est à tous égards indispensable.

Le Professeur Dino MORAS a estimé que des grands instruments " de taille moyenne " sont certes nécessaires aux progrès de la biologie mais que les investissements vitaux pour la biologie sont au premier chef les investissements en ressources humaines multidisciplinaires qu'il faut impérativement rassembler autour des plateaux techniques. Une certaine diversification peut se faire selon les centres mais chacun d'entre eux doit être construit autour d'un projet fédérateur.

Le Professeur Pierre CHAMBON a pour sa part averti que la communication électronique entre biologistes grâce aux réseaux informatiques ne saurait pallier leur éloignement les uns des autres.

Les grands centres de recherche disposent de plateaux techniques qui ne peuvent être éclatés. Sur un même site, doivent être rassemblés les ingénieurs et techniciens qui ont usage quotidien des équipements et les spécialistes qui développent ces mêmes outils. Au demeurant, les échanges directs entre chercheurs sont irremplaçables. Un grand centre d'excellence ne peut trouver son équivalent dans plusieurs centres en réseaux.

Au reste, ce qui fait progresser la science, c'est la technologie, au-delà des " coups de génie " . La biologie bénéficie certes d'une évolution technologique, mais les grandes avancées ne datent que de 25 ans. Pour l'ensemble de ces raisons, on ne peut extrapoler l'évolution des autres sciences pour prévoir les besoins de la biologie.

M. René TRÉGOUËT, Sénateur, rapporteur , a estimé qu'il ne saurait toutefois suffire pour les biologistes de revendiquer des budgets en forte croissance sans détailler leurs besoins et sans les inclure dans un programme d'ensemble.

De toute évidence, il est nécessaire de changer d'échelle pour les investissements relatifs à cette discipline qui seuls pourraient permettre de rattraper le retard européen, à l'image de l'effort exceptionnel consenti dans le spatial par les Etats-Unis pour combler leur retard sur l'Union soviétique à l'époque des spoutniks.

On doit toutefois convenir que les biologistes américains ont su quant à eux convaincre le Congrès de l'importance de leurs projets. La cohésion de la communauté scientifique joue certainement un rôle dans ce succès.

Le Professeur Henri KORN a noté que " le consensus est rare chez les scientifiques " . S'agissant des sciences du vivant, si l'on a parlé avec raison de la génomique et de ses besoins en très grands équipements, il existe un autre pôle de recherche, les neurosciences, dont la génétique et la biologie moléculaire ne devraient pas livrer la clé du fonctionnement.

Le retard de la France dans le domaine des neurosciences est considérable. La situation est identique pour la physiologie, pourtant si importante pour le post-génome.

Ce sont le manque de moyens et une organisation trop étroite de la recherche qui sont la cause du retard des neurosciences dans notre pays. Le retard de la discipline elle-même n'est que marginal. En revanche, le déficit en nombre de chercheurs, les carences en équipements et l'insuffisance des coopérations avec les autres disciplines sont incontestables.

Le précédent ministre de la Recherche, M. Claude ALLÈGRE, avait confié au Professeur Henri KORN une mission de recensement des besoins de la recherche française en imagerie cérébrale, la technique fondamentale pour l'étude du fonctionnement du cerveau. La conclusion de cette étude tient en trois points. Pour l'imagerie cérébrale de l'homme, la situation de notre pays n'est pas trop mauvaise. L'imagerie des primates est quant à elle un domaine en souffrance. Quant aux moyens d'imagerie du petit animal, ils sont inexistants. Ces conclusions et leurs considérants sont en droite ligne des conceptions du Dr. Denis LE BIHAN.

La parole a ensuite été donnée à ce dernier.

*

Le Dr. Denis LE BIHAN, Directeur de recherche au Laboratoire de neuro-imagerie anatomique et fonctionnelle du Service hospitalier Frédéric Joliot à Orsay (CEA), a exposé que, si l'intérêt de l'imagerie dans les sciences cognitives justifie un éventuel projet national, il convient au préalable de faire un état de lieux puis de définir les moyens nécessaires.

Quels sont les enjeux de la recherche dans le domaine des neurosciences ?

Le premier enjeu est celui de la santé, avec la mise au point de traitements des maladies neurologiques, le développement de la neurochirurgie et les progrès de la psychiatrie. Un autre enjeu considérable également est la lutte contre le vieillissement cérébral et le développement des techniques de rééducation. La recherche en neurosciences peut également contribuer à améliorer la connaissance du développement de l'enfant, le lien entre la génétique et les sciences cognitives étant au demeurant à approfondir. Les applications en sont nombreuses, allant de l'apprentissage des langues étrangères à l'analyse des modes de communication entre individus, en passant par celle des interfaces homme-machine. Outre ces enjeux pratiques d'une importance considérable, les neurosciences participent bien évidemment du défi cognitif général de l'humanité. Il est à noter, à cet égard, que la communauté scientifique américaine a su convaincre le Congrès des Etats-Unis qu'il s'agit là d'un enjeu national, à l'instar de la génomique, dans le cadre du programme " The Decade of the Brain " puis du programme actuel " The Human Brain Project " .

En quoi l'imagerie cérébrale est-elle une technique incontournable pour les neurosciences et quels sont ses différents domaines ?

L'imagerie est une technique irremplaçable pour deux raisons.

La première résulte du fait qu'il existe une relation entre la localisation anatomique et la fonction des aires corticales.

La deuxième raison est qu'il s'agit d'un moyen non invasif qui permet l'étude non seulement de patients mais aussi de sujets normaux, voire d'enfants.

De surcroît, l'imagerie appliquée aux animaux, en particulier aux primates, permet de faire le lien entre les données électrophysiologiques enregistrées au niveau de quelques neurones et celles plus globales obtenues par l'imagerie chez l'homme.

L'imagerie contribue également à l'étude de l'expression des gènes chez l'animal, en particulier sur les souris transgéniques.

Au reste, l'imagerie cérébrale des animaux est de plus en plus utilisée pour développer des médicaments, car elle permet le suivi dans le temps de leurs effets sur un nombre restreint d'animaux.

C'est pour l'ensemble de ces raisons que 12 centres d'imagerie cérébrale appliquée aux petits animaux dotés de plusieurs types d'équipements ont été créés récemment aux Etats-Unis, le total devant atteindre la vingtaine dans les prochaines années.

La France, quant à elle, dispose de quelques instruments isolés, souvent anciens, mais ne possède encore aucun centre regroupant l'ensemble de ces instruments, à part celui du CEA à Orsay dont le parc, qui comprend déjà des caméras à positons, et deux IRM à 1,5T et 3 T, demande toutefois à être complété. L'Allemagne et le Royaume Uni pour leurs parts, possèdent quelques centres et ont des projets ambitieux.

De quels moyens la France dispose-t-elle déjà et quels sont les moyens supplémentaires dont elle devrait se doter ? Deux types sont à distinguer, aussi indispensables l'un que l'autre, les " imageurs " et les ressources humaines.

En matière " d'imageurs " , on distingue classiquement les équipements lourds des moyens mi-lourds.

Les caméras à positons qui permettent de mettre en évidence les phénomènes de neurotransmission ainsi que l'expression génétique représentent la première catégorie d'équipements lourds. D'un coût d'environ 10 millions de francs, les caméras à positons supposent la production sur place d'isotopes, l'utilisation d'un cyclotron et la présence d'un laboratoire de radiochimie. Il en existe en France quatre utilisées en recherche, ce qui semble satisfaisant pour la recherche en neurosciences mais est insuffisant pour les protocoles cliniques.

La deuxième catégorie est constituée par les machines de magnéto-encéphalographie, qui donnent des informations fines sur les localisations. Les machines actuelles valent environ 12 millions de francs. Le coût des machines de nouvelle génération qui comportent un grand nombre de capteurs, devrait doubler pour atteindre 24 millions de francs.

La troisième catégorie, celle de l'imagerie et de la spectroscopie par RMN (résonance magnétique nucléaire), comprend trois familles d'équipements.

Les " imageurs " à 1,5 Tesla dont le coût est de 12 millions de francs sont des machines destinées en priorité aux examens cliniques. Faute de moyens suffisants, les mêmes imageurs sont aussi utilisés en France pour la recherche, ce qui pose des problèmes pour l'expérimentation.

Les " imageurs " à 3-4 Tesla d'un coût de 24 à 25 millions de francs sont considérés comme des équipements de pointe en France pour l'étude du fonctionnement cérébral, alors qu'ils se banalisent aux Etats-Unis pour les applications cliniques. Les machines à très hauts champs, c'est-à-dire à 7-10 Tesla, d'un prix de 60 millions de francs, commencent à être installées aux Etats-Unis, alors qu'il n'en est pas encore question dans notre pays.

La troisième famille est celle des imageurs pour les petits animaux et les primates qui mettent en oeuvre des champs de 4 à 17 Tesla, pour des coûts allant de 10 à 25 millions de francs.

A tous ces équipements lourds et complémentaires, il faut ajouter les matériels d'informatique et de télécommunications indispensables. Un examen IRM à 1,5 ou 3 Tesla peut produire 10 à 20 000 images par heure. Il faut donc des lignes de transfert à haut débit, des puissances de calcul et des dispositifs d'archivage très importants. Une alternative à l'équipement autonome de chaque centre serait de disposer d'un ou deux centres de calcul nationaux auxquels les centres d'imagerie seraient connectés.

A ces différents équipements lourds, il faut ajouter les " imageurs " mi-lourds au nombre desquels on compte les équipements d'imagerie gamma ou infrarouge.

Si l'ensemble de ces équipements lourds et mi-lourds sont indispensables, il faut aussi des compétences multidisciplinaires pour en tirer parti. Les problèmes d'acquisition et de traitement du signal, par exemple, nécessitent l'intervention de physiciens. Ainsi, l'étude des processus cognitifs fins qui se caractérisent par des signaux d'amplitude très faible, comparable au bruit, constitue un problème qui est du domaine du traitement du signal, comme en ont l'habitude les astrophysiciens, mais ne trouve pas de solution aisée faute d'une coopération interdisciplinaire bien établie. De même le dialogue entre méthodologistes et cliniciens s'avère parfois difficile, y compris au sein d'un même laboratoire.

L'expérience montre qu'il faut une unité de lieu pour les instruments d'imagerie pour atteindre la masse critique nécessaire et favoriser les interactions entre développeurs et utilisateurs. Ces sites doivent être à proximité des équipes de neurosciences et du milieu hospitalier.

D'une manière générale, la France manque cruellement de personnels d'interfaces, spécialistes des équipements scientifiques, _uvrant à leur développement et transférant les connaissances aux utilisateurs.

Sur la base des techniques disponibles et des besoins afférents en personnel, quels pourraient être les contours d'un projet national ambitieux en imagerie cérébrale ?

L'un des objectifs technologiques de ce programme devrait être la mise au point dans les 10 ans à venir au plus, de nouveaux systèmes d'imagerie permettant l'étude l'activité de quelques dizaines de neurones avec une résolution temporelle passant de 1000 à 100, voire 10 millisecondes, afin de mieux comprendre le cerveau humain.

La France, qui possède des spécialistes très performants en physique et en traitement d'image est capable de mener à bien un tel projet.

S'agissant des instruments, l'état des lieux pour l'imagerie cérébrale auquel il a été procédé dans les derniers mois montre qu'on ne part pas de zéro. La France possède déjà deux pôles techniques où l'on trouve des moyens lourds, l'Ile-de-France avec Orsay (CEA) et l'hôpital de la Salpêtrière, et, Rhône-Alpes avec l'ensemble constitué par Lyon et Grenoble. Ces deux pôles, dont les masses critiques sont insuffisantes, constituent toutefois des bases de départ incontournables.

Ces deux pôles nationaux sont complétés par des centres régionaux, qui ne disposent pas chacun de tous les instruments mais détiennent des plateaux techniques respectables. Ainsi l'Est de la France est doté en instruments de magnéto-encéphalographie, en caméra à positons et en IRM, de même que Marseille, l'ensemble Toulouse-Bordeaux, l'Ouest avec l'ensemble Rennes-Caen.

Un plan national devrait comporter deux axes, le premier concernant la mise à niveau du parc existant en terme de compétitivité et le deuxième visant à prendre de l'avance en anticipant les évolutions technologiques.

S'agissant de l'augmentation de compétitivité du parc existant, la mise à jour des équipements anciens représente une enveloppe budgétaire de 100 millions de francs environ.

Un autre effort est à consentir pour les dépenses de fonctionnement, qui représentent annuellement de 5 à 10 % de l'investissement.

Les personnels desservant ou utilisant ces machines doivent eux aussi être renforcés. L'on constate trop souvent en effet que les financements, notamment ceux des collectivités locales, ne prévoient rien au delà de l'achat des matériels. Il faut donc une politique de ressources humaines coordonnée non seulement dans le cadre des contrats de Plan Etat-régions mais aussi entre les organismes de recherche. Au-delà, une coordination nationale est indispensable, en incluant dans les prévisions des budgets de fonctionnement et de personnel suffisants.

S'agissant de l'innovation technologique, la création d'un Centre national ou européen d'imagerie cérébrale est envisageable. L'investissement correspondant représente 150 millions de francs par an sur au moins 5 années.

Il s'agit en l'occurrence d'investir pour innover, avec, en particulier, la mise au point d'IRM à très haut champ, c'est-à-dire 10 Tesla pour l'homme et 14 à 17 Tesla pour l'animal.

Un tel investissement représenterait-il une dépense exceptionnelle ?

A titre d'exemple, la seule université de Harvard a récemment décidé la création d'un institut comprenant 2 " imageurs " de 3 Tesla, une machine de 7 Tesla et deux machines de 14 Tesla pour la souris. D'autres institutions ont une démarche similaire, en particulier le NIH à Bethesda, San Diego et à l'université du Minnesota. Par ailleurs, un pôle du même type a été financé à Londres par le Wellcome Trust.

D'autres domaines d'innovation sont ceux de l'utilisation de l'imagerie à des fins thérapeutiques et le développement d'autres instruments correspondant à des techniques émergentes. L'importance des équipes de chercheurs et d'ingénieurs et techniciens assurant le fonctionnement du Centre national ne doit pas être sous-estimée.

A l'issue de cette présentation, le Professeur Pierre CHAMBON , a fait le constat que les différentes équipes potentiellement concernées par un tel plan dépendent d'organismes différents qui ne savent pas travailler ensemble. Il a estimé en conséquence que la pérennisation de l'organisation actuelle conduirait à un échec.

Au reste, les neurosciences ressortissent de la génomique fonctionnelle, de même que le fonctionnement d'un organe comme le foie. Les instruments que les neurosciences mettent en _uvre sont certes d'une technicité plus élevée que pour les autres disciplines et l'interprétation des relevés expérimentaux plus complexe. Mais il faudrait que le Centre national d'imagerie soit implanté sur un site actif dans la génomique fonctionnelle, de façon que l'ensemble atteigne une masse critique. La question des ingénieurs et techniciens capables d'exploiter et de développer les instruments est évidemment capitale.

Le Dr. Denis LE BIHAN a ajouté qu'il ne s'agit pas d'un manque de coordination entre organismes, des réflexions concertées existant entre les directions de ces organismes. Il s'agit plutôt d'un manque de coordination entre les collectivités locales qui investissent dans des instruments en fonction de critères régionaux ou locaux sans lien avec les structures nationales qui doivent mettre à disposition le personnel nécessaire et assurer le fonctionnement.

D'autre part, s'il est vrai que toute la biologie peut être ramenée à la génomique, il reste que l'imagerie biomédicale a des spécificités propres, qui méritent d'être identifiées et reconnues. Le regroupement local ou en réseau de ressources d'imagerie représente des investissements, des coûts et des ressources humaines qui entrent dans le cadre des Grands Instruments en Biologie.

La parole a ensuite été donnée à Mme Geneviève ROUGON.

*

Mme Geneviève ROUGON , Directeur scientifique adjoint au Département des sciences du vivant du CNRS, a indiqué qu'elle souscrivait aux propos de MM. CHAMBON et TAMBOURIN. Il faut bien constater que le Département des sciences du vivant qui reconnaît pourtant l'importance de la génomique fonctionnelle, fait preuve d'une certaine impuissance à agir rapidement. La même communauté de vue avec MM. CHAMBON et TAMBOURIN existe également pour les très grands équipements.

Par exemple, un équipement actuel du CNRS qui pourra, après sa montée en puissance, entrer dans la catégorie des grands équipements des sciences du vivant est le centre d'Orléans pour la transgenèse et la conservation de lignées de souris mutantes.

S'agissant des plateaux techniques comprenant des animaleries et des moyens d'analyse de la fonction des gènes ainsi que des moyens techniques de découverte et d'analyse de molécules actives dans le cadre du " drug design " , le CNRS considère qu'ils recouvrent ce que l'on désigne sous le nom de génopoles. Cependant, le CNRS souligne qu'il possède en particulier des laboratoires performants dans les sciences du vivant et la génomique fonctionnelle qui n'appartiennent pas aux génopoles.

Les recherches sur la diversité et les écosystèmes ne sauraient être oubliées par le CNRS, y compris la réalisation d'un " écotron " .

En matière d'imagerie, le projet exposé par le Dr. LE BIHAN rencontre l'adhésion du CNRS qui souhaite aussi concentrer ses forces dans ce domaine. Pour autant, il ne faudrait pas " brouiller le paysage " . Le développement des neurosciences s'inscrit naturellement dans le programme de génomique fonctionnelle. A cet égard, la position du CNRS est que la connaissance des gènes permettra d'avancer dans la connaissance du cerveau.

La nécessité de projets est incontestable, de même que la constitution de réseaux.

Au demeurant, le CNRS considère indispensable de considérer les très grands équipements sous tous leurs aspects. Les dépenses doivent de toute évidence comprendre l'investissement, le fonctionnement mais également, et c'est sans doute le plus important, les rémunérations des personnels compétents de toutes les disciplines qu'il faut rassembler autour des TGE.

Le CNRS a parfaitement conscience que la concertation et la coopération entre grands organismes de recherche doivent s'accroître, y compris au niveau européen et participe activement aux réflexions avec les autres organismes dans le cadre des réunions RIO.

M. Jean-Claude THIERRY, chargé de mission au département des sciences du vivant, a approuvé la description faite par M. Pierre TAMBOURIN de la problématique des TGE au CNRS. Les sciences du vivant ont connu depuis 30 ans une explosion technique qui constitue aujourd'hui à la fois une opportunité et un défi.

Parmi les points critiques actuels, la bioinformatique constitue un enjeu d'une importance particulière en ce qu'elle touche toutes les sous-disciplines de la biologie, d'où la nécessité de mettre en place des outils de puissance et de bien en distribuer les accès.

S'il est nécessaire de cibler les défis tant ils sont importants et nombreux, il convient en premier lieu d'insister sur la pluridisciplinarité, car la biologie avec sa complexité extraordinaire s'étend à des champs de plus en plus étendus. Au demeurant, l'intégration fonctionnelle des gènes et leurs dépendances mutuelles ajoutent encore à la difficulté de l'analyse. La constitution de pôles d'excellence est dans ces conditions impérative.

Le CNRS est tout à fait conscient de ces enjeux. Malgré les difficultés, il souhaite " bien faire " et s'y engage totalement. En tout état de cause, le CNRS a déjà commencé à avancer, notamment dans le domaine de la bioinformatique.

La parole a ensuite été donnée au Professeur Patrice DEBRÉ.

*

Le Professeur Patrice DEBRÉ , directeur scientifique auprès du Directeur général de l'INSERM , a déclaré que cet organisme rejoint globalement les conclusions énoncées sur l'urgence de l'effort à engager sur les sciences du vivant, même si ses spécificités le conduisent à des positions particulières sur certains points.

En tout état de cause, s'il est question d'une politique nationale pour les très grands équipements, l'INSERM doit participer à leur conception ainsi qu'aux décisions relatives à leur répartition. A cet égard, il doit tenir toute sa place au sein de la coordination des directeurs généraux des grands organismes souvent dénommée RIO par référence à leurs réunions. La participation à la réflexion inter-organismes représente le premier engagement de l'INSERM à la mise en _uvre d'une politique de TGE. L'action est ici d'ordre stratégique.

Le deuxième volet de l'action de l'INSERM dans ce domaine concerne l'accroissement de l'usage des TGE par ses personnels. Les chercheurs de l'INSERM sont de tradition moins formés à l'utilisation des TGE que ceux du CNRS. Plus proches des préoccupations cliniques, il s'agit désormais de réduire le fossé qui sépare ces chercheurs de terrain d'une utilisation fréquente des technologies d'avant-garde en les mettant en relation étroite avec les ingénieurs et techniciens en charge de ces équipements. L'action est ici dans le domaine de l'information et de la formation.

Pour l'INSERM, il s'agit non seulement d'identifier en son sein les chercheurs volontaires pour travailler sur les TGE mais aussi de les mettre en réseau. Il convient également de trouver des partenariats (hôpital, université, autres EPST, fondations caritatives) sur des sujets de recherche ayant trait à des pathologies pouvant tirer bénéfice des moyens expérimentaux apportés par les TGE, ces deux actions relevant du domaine de l'animation.

La quatrième préoccupation de l'INSERM en matière de TGE est d'être partie prenante des processus de décision concernant leur localisation. L'INSERM devant être plus volontiers implanté au contact des malades et donc sur des sites hospitaliers ou à proximité, il convient en premier lieu d'_uvrer pour que cette contrainte soit prise en considération lors du choix des sites de TGE. Ainsi, il est nécessaire que les centres d'imagerie dont le développement pourrait être décidé, soient effectivement à proximité d'établissements hospitaliers dotés de services ad hoc tels ceux dédiés au traitement des maladies neurologiques pour l'imagerie cérébrale.

Réciproquement, l'INSERM devrait tenir compte de la localisation des TGE pour l'implantation de ses laboratoires de recherche sur les différentes pathologies.

A l'issue de cette présentation, la parole a été donnée à M. Michel VAN DER REST.

*

M. Michel VAN DER REST, Directeur de l'IBS (Institut de Biologie Structurale) de Grenoble, représentant le Professeur André SYROTA, Directeur du Département des sciences du vivant du CEA, a estimé que la spécificité d'un très grand équipement (TGE) est de mettre en _uvre d'une manière concertée et coopérative un ensemble de moyens techniques au service d'une communauté large d'utilisateurs.

Le Département des sciences du vivant du CEA compte 600 chercheurs, ce qui est naturellement peu de choses par rapport aux forces du seul CNRS. Toutefois, la force de ce département est supérieure à ce que pourraient laisser supposer ses effectifs, grâce à un nouveau ciblage de ses travaux.

Par ailleurs, la capacité du CEA à se redéployer rapidement est illustrée par la publication récente dans Science d'une étude sur les enzymes de réparation cellulaire par une équipe dont ce n'était pas la spécialité deux ans auparavant.

En tout état de cause, les axes de recherche fondamentaux du Département des Sciences du vivant du CEA sont aujourd'hui le marquage isotopique - une des spécialités de la médecine nucléaire traditionnelle au CEA -, la biologie structurale, l'ingéniérie des protéines, ainsi que la radiobiologie et la toxicologie nucléaire, domaines indispensables pour permettre une " cohabitation " du nucléaire et du vivant.

Le CEA participe à RIO, un lieu de concertation dont il convient toutefois de noter qu'il est récent. Il participe également aux génopoles, notamment pour les travaux de protéomique et les recherches sur le transcriptome. Ce qui résulte de l'évolution récente de la recherche, c'est évidemment qu'il faut définir les TGE de manière collective.

Les applications croisées de la microélectronique et de la biologie avec les biopuces fournit un bon exemple de l'interdisciplinarité croissante entre les disciplines de pointe. Deux approches seraient possibles en la matière, l'une privilégiant la fabrication des biopuces, l'autre s'efforçant d'aller au-delà de cette application en vue de réaliser des hybridations à haut débit et de réaliser de véritables " labopuces " , ce qui suppose l'utilisation des technologies issues non seulement de la biologie, de la microélectronique mais aussi de la microfluidique utilisée dans le nucléaire.

En tout état de cause, le Pôle d'innovation en micro et nanotechnologies de Grenoble devrait être considéré comme un TGE.

Un aspect essentiel d'une politique de TGE devrait être par ailleurs la prise en considération des besoins d'amont. Ainsi, en ce qui concerne le synchrotron, il est indispensable de renforcer les structures de production des protéines. Dans cette perspective, le CEA a repris près de 50 membres du personnel de CisBio, une société du groupe CEA Industries vendue à Schering, afin de monter une structure de production de protéines, notamment pour ses travaux d'expression de protéines impliquées en toxicologie nucléaire.

Au vrai, il existe un besoin urgent non seulement pour la production de macromolécules mais aussi pour l'analyse des structures, ces besoins portant non seulement sur les infrastructures matérielles mais également et surtout sur les personnels.

On reconnaît généralement au CEA la capacité de prendre des décisions fortes en matière de ses activités. Le CEA fournit en outre un exemple d'organisation intéressant, dans la mesure où il reste à la Direction des sciences du vivant pour son fonctionnement et ses investissements une part très significative de son budget après le paiement des charges salariales, contre moins de 20 % au CNRS.

Cette capacité particulière de décision du CEA serait d'autant mieux utilisée que son budget ne ferait pas peser sur lui une contrainte trop forte.

Un débat s'est ensuite engagé sur la coordination des activités des grands organismes de recherche.

Le Professeur Patrice DEBRÉ , après avoir estimé que la coordination dans les sciences du vivant est plus facile à dire qu'à réaliser, s'est félicité de son existence.

Mme Geneviève ROUGON a indiqué que l'on dispose des informations rassemblées par ce groupe au sujet des animaleries, de l'imagerie cérébrale, des biopuces et de la génomique fonctionnelle.

M. René TRÉGOUËT, Sénateur, rapporteur, en a demandé communication.

Mme Claudine LAURENT a rappelé qu'il existe également au niveau européen des réunions de coordination des directeurs des grands organismes de recherche.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur , sur l'existence éventuelle d'une coordination aux Etats-Unis, le Dr. Denis LE BIHAN a précisé que les deux grands organismes fédéraux dispensateurs de crédits dans le domaine des sciences de la vie sont le NIH (National Institute of Health) et la NSF (National Science Foundation), à quoi il faut ajouter des ministères comme le Department of Energy. Pour autant, il n'existe pas de coordination entre les agences gouvernementales, la recherche universitaire et la recherche privée. Les laboratoires sollicitent l'ensemble des sources de financement sur la base des projets qu'ils mettent au point.

M. Robert COMÈS a souligné l'importance du rôle des armées dans le financement de la recherche aux Etats-Unis.

Le Professeur Henri KORN a par ailleurs précisé que 95 % de la recherche sur la défense est réalisée aux Etats-Unis par des laboratoires universitaires ou publics.

M. Michel VAN DER REST a estimé que s'agissant de la situation française, une meilleure coordination serait possible avec une agence de moyens dotée de ressources fortes. Sur la question des réseaux de recherche, il a indiqué que le Canada développe des centres d'excellence en créant des réseaux de laboratoires et en dégageant des moyens nationaux pour des projets communs.

A l'issue de cette présentation, une discussion est intervenue sur la notion de centre d'excellence.

*

M. Jean GALLOT, membre du groupe de travail, a considéré que la question des liens entre centres d'excellence et aménagement du territoire devait être traitée en profondeur. Les critères évoqués pour le choix de leur localisation sont nombreux. L'Office les a énoncés dans son rapport sur le synchrotron. Deux autres aspects ont été énoncés au cours de l'audition, la proximité des sites hospitaliers d'une part et le contact avec un tissu de jeunes entreprises.

Il ne faudrait pas toutefois que la notion de centre d'excellence soit par trop rattachée à la situation existante. En réalité, on constate une dynamique dans la vie des centres d'excellence : certains disparaissent, d'autres partent de rien pour monter rapidement et s'imposer au niveau national. Les liens entre la constitution de centres d'excellence et l'aménagement du territoire doivent donc examinés plus en détail que n'y oblige la simple lecture d'une situation à une date donnée.

Au demeurant, les scientifiques doivent d'eux-mêmes aborder le problème de la diversification des implantations et de l'aménagement du territoire. Seuls certains équipements requièrent en effet une accumulation de moyens sur un même site.

En tout état de cause, dans une situation où les crédits budgétaires sont insuffisants, les ressources financières vont naturellement aux équipements existants et, parmi ceux-ci, à ceux dont la taille est la plus importante. Cette automaticité doit être remise en cause dans le cadre d'une réflexion sur l'aménagement du territoire lié à la politique des centres d'excellence. L'exemple de Grenoble démontre avec éclat que la science peut progresser ailleurs que dans ses implantations traditionnelles.

M. Roger BALIAN, membre du groupe de travail, a, pour sa part, estimé qu'il faut concentrer les moyens dans un petit nombre de centres. Le développement de la physique au CEA le démontre. Cette discipline s'est développée rapidement car les équipes ont été rassemblées sur deux sites, Saclay et Grenoble. D'une manière générale, c'est la concentration de moyens intellectuels qui est essentielle.

M. Jean GALLOT a précisé que, selon lui, il ne peut y avoir d'automaticité entre centres d'excellence existants et centres d'excellence futurs.

M. Roger BALIAN a souligné que les scientifiques français ne sont pas assez nombreux pour être répartis sur tout le territoire et que la liste des grands centres scientifiques d'excellence, c'est-à-dire ceux qui sont compétitifs à l'échelle mondiale dans plusieurs disciplines, s'arrête à l'Ile-de-France, à Grenoble, à Toulouse et à Strasbourg, une concentration au demeurant comparable à ce qui existe à l'étranger.

Par ailleurs, une lourde erreur a été commise avec la création d'universités de plein exercice sur tout le territoire, alors qu'il aurait fallu se limiter à la création d'antennes. Ceci a eu pour conséquence de créer des laboratoires sans moyens réels, matériels ou humains. En tout état de cause, la concentration est nécessaire à moyens constants mais aussi lorsque ceux-ci s'accroissent.

M. René TRÉGOUËT, Sénateur, rapporteur, a remarqué que la France connaît un nouveau fonctionnement de l'Etat, à la suite de la décentralisation.

M. Roger BALIAN a estimé que celle-ci est une " catastrophe " en ce qui concerne la recherche fondamentale.

M. René TRÉGOUËT, Sénateur, rapporteur, a mis au contraire en avant les financements nouveaux apportés par les régions, soulignant que le futur synchrotron national se fera grâce à l'apport des régions.

Sur ce dernier point, le Professeur Pierre CHAMBON a estimé qu'un investissement de 2 milliards répartis sur 8 ans correspondant à la construction d'un synchrotron est, somme toute, peu important et que le débat médiatique qui a entouré l'examen de ce projet n'était ni sensé ni opportun.

Pour M. René TRÉGOUËT, Sénateur, rapporteur, la régionalisation existe et il s'agit de trouver des synergies entre les actions de l'Etat et celle des régions.

Au reste, dans le domaine scientifique, c'est aujourd'hui la notion d'interfécondation qui est fondamentale. L'étude de l'Office sur le synchrotron l'a clairement mis en évidence. Si les disciplines ont été longtemps verticales et compartimentées, ce qui est nouveau et fondamental dans les sciences du vivant comme dans les sciences et technologies de l'information et de la communication, c'est la fécondation croisée. Cette nouvelle approche doit sous-tendre une nouvelle politique des TGE.

M. Roger BALIAN a noté que cette nouvelle réalité est une raison supplémentaire en faveur de la concentration des moyens.

Le Professeur Pierre CHAMBON a souligné que les Génopoles regroupent sur un même site les équipes travaillant sur un problème donné. La sélection des projets des Génopoles est faite par des experts français et étrangers, sans tenir compte du ou des laboratoires d'appartenance. L'évaluation est également conduite, dans le cadre des Génopoles, par des experts indépendants.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé par ailleurs que du fait d'une définition inadéquate des TGE, il ne faudrait pas retomber sur une image statique de ceux-ci. Si un TGE se trouve sur un site donné, on ne saurait accepter comme un fait acquis sa pérennité sur le même site pour plusieurs générations. An contraire, il est nécessaire de pouvoir se redéployer en permanence, y compris au plan géographique, même si la fixité géographique pose un vrai problème dans notre pays.

M. Gilles COHEN-TANNOUDJI , membre du groupe de travail, s'est ensuite fait l'écho d'un projet de grand équipement formulé à Lyon et destiné à l'hadron-thérapie. Seul le Japon dispose pour le moment d'une machine de ce type. Les traitements consistent en l'utilisation d'ions carbone dirigés pour détruire les tumeurs. Le projet de recherche a pour but le traitement d'un grand nombre de malades afin de déterminer l'efficacité du traitement sur des bases statistiques suffisantes.

Mme Claudine LAURENT, membre du groupe de travail , a précisé que la partie technique de ce projet nécessite d'être complétée par la création d'un service hospitalier dont on peut se demander s'il revient au budget de la recherche d'en supporter le coût.

M. Roger BALIAN est ensuite revenu sur la question de la fédération des efforts de recherche. Ce qui fédère les énergies, c'est non pas une technique, y compris l'informatique, mais au contraire un but ou un projet. La géographie peut également fédérer les travaux des chercheurs, comme le montre l'exemple de Grenoble.

*

La discussion a ensuite porté sur le sujet des " post docs " .

M. Roger BALIAN a jugé nécessaire que le problème des " post docs " ne soit pas traité d'une manière uniforme, quelles que soient les disciplines. Il faudrait au contraire avoir le courage de décider qu'il convient en priorité de créer des postes de " post docs " longs pour la biologie, compte tenu du fait que les autres disciplines n'ont pas le même besoin.

M. Robert COMÈS a noté que la vraie difficulté relative aux " post docs " en France, c'est qu'il n'existe pas de postes de ce type ailleurs qu'au CEA.

Le Professeur Pierre CHAMBON a pour sa part indiqué au contraire que les génopoles proposent des contrats à durée déterminée de 18 mois attribués à des titulaires de doctorats.

Le Professeur Patrice DEBRÉ a confirmé l'exception que constitue à cet égard le secteur de la santé puisque l'ANRS (Agence nationale de recherches contre le Sida) le fait également.

*

En conclusion à la réunion, M. René TRÉGOUËT, Sénateur, rapporteur, a remercié les participants pour leur participation à ce tour d'horizon enrichissant et a de nouveau appelé à l'établissement d'un plan d'ensemble explicite pour les sciences du vivant dans le domaine des TGE.

Il faut que la communauté des biologistes définisse un plan d'investissement global traitant explicitement de la question des TGE pour les sciences du vivant.

Pour le Professeur Pierre CHAMBON , il paraît nécessaire de fragmenter les projets, un projet global paraissant difficile à mettre au point. Le Génopole d'Evry constitue à lui seul un très grand équipement. Mais il convient aussi de traiter des différentes composantes de l'imagerie, de la génomique fonctionnelle, de la bioinformatique et de la biologie structurale en France. Sans doute faut-il aussi sortir la recherche française hors des frontières de l'hexagone.

M. Robert COMÈS a noté qu'un plan couvrant tous les besoins du secteur reviendrait à réinventer un grand organisme de recherche.

Le Professeur Pierre CHAMBON a évoqué la solution consistant à créer un Haut Commissariat à la Biologie et aux Biotechnologies, qui, parmi ses avantages, présenterait celui de pouvoir être périodiquement remis en question.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné qu'il serait intéressant de présenter des projets de TGE pour les axes d'avenir. En tout état de cause, il faut des projets pour convaincre, ainsi que le montre l'exemple américain.

Pour M. Christian CUVILLIEZ, Député, rapporteur, il faut que le rapport de l'Office propose une définition systémique et dynamique des TGE.

Le Professeur Pierre CHAMBON a posé la question de l'étendue de la concertation nécessaire pour élaborer un programme d'équipement, une concertation élargie pouvant conduire à une dispersion trop grande dans les propositions.

En tout état de cause, pour M. René TRÉGOUËT, Sénateur, rapporteur, la France et l'Europe n'ont plus que quelques années pour relever le défi des sciences du vivant. Il est capital que la communauté des biologistes fournisse des arguments et propose " une démarche réaliste et unitaire " . Il s'agit, pour être compris, de fixer des objectifs et de montrer en quoi le programme proposé permet d'atteindre avec efficacité les buts proposés.

5. Les sources de neutrons, le magnétisme à hauts champs et la RMN - mercredi 21 juin 2000

CEA :

• M. René PELLAT, Haut Commissaire à l'énergie atomique

• M. François GOUNAND, Directeur des sciences de la matière

• Mme Françoise FABRE, Adjointe au directeur des sciences de la matière

• M. Bernard SALANON, direction de la stratégie

• M. Pierre TRÉFOURET, Chef du service des affaires publiques

CNRS :

• M. Alain FONTAINE, directeur scientifique adjoint, Département des Sciences physiques et mathématiques

• M. Dominique GIVORD, directeur du service des champs magnétiques pulsés, Toulouse

• M. José TEIXEIRA, directeur-adjoint du Laboratoire Léon Brillouin

• Mme Dominique VIOLLET, Chargée des relations avec les élus

Institut LAUE-LANGEVIN :

• M. Christian VETTIER, directeur adjoint

GHMFL (Grenoble High Magnetic Field Laboratory) / LCMI (Laboratoire des Champs Magnétiques Intenses) :

• M. Peter WYDER, Directeur

• M. Gérard MARTINEZ, Directeur-adjoint (CNRS)

• M. Claude BERTHIER, responsable des programmes RMN (CNRS)

M. Christian CUVILLIEZ, Député, rapporteur, a remercié les participants à la présente audition sur " les sources de neutrons, le magnétisme à hauts champs, la RMN et l'imagerie cérébrale " , audition qui s'inscrit dans le cadre de la préparation du rapport de l'Office sur les très grands équipements.

Ce rapport, qui sera publié au début 2001, prolonge l'étude précédente sur les conditions d'implantation d'un nouveau synchrotron qui a contribué, comme on sait, à infléchir la position du Gouvernement sur le projet SOLEIL.

M. René TRÉGOUËT, Sénateur, rapporteur, a ensuite demandé qu'en préalable aux interventions des représentants des différents organismes, un point soit effectué sur l'intérêt particulier des sources de neutrons comparé à celui du rayonnement synchrotron.

*

Il ressort des indications données par M. François GOUNAND , Directeur des sciences de la matière du CEA , par M. Michel SPIRO, membre du groupe de travail , par M. Alain FONTAINE, directeur scientifique adjoint au Département des Sciences physiques et mathématiques du CNRS , par M. Christian VETTIER , Directeur-adjoint de l'Institut Laue-Langevin (ILL) et par M. Dominique GIVORD, directeur du service des champs magnétiques pulsés du CNRS à Toulouse , que les sources de neutrons sont davantage complémentaires que substituables au rayonnement synchrotron, du fait des propriétés particulières des neutrons.

Les propriétés du rayonnement électromagnétique que constitue le rayonnement synchrotron résultent des interactions entre les photons et le cortège électronique des atomes.

Au contraire, les neutrons interagissent avec les noyaux des atomes. La masse et la vitesse des neutrons utilisés en font une sonde unique pour l'étude des structures de la matière, à des échelles qui vont de l'atome au micron. Simultanément, les neutrons donnent accès à la dynamique de ces structures.

Par ailleurs, les neutrons sont neutres, ce qui a pour conséquence que l'interaction avec la matière n'est pas corrélée avec le numéro atomique. En conséquence, les neutrons sont sensibles aux éléments légers, ces derniers n'étant pas masqués par les atomes lourds. On peut utiliser la substitution isotopique, où les atomes d'hydrogène sont remplacés par les atomes de deutérium. Enfin, comme l'interaction avec la matière est faible, il est possible d'analyser des échantillons très massifs.

En tant que particules dotées d'un moment magnétique, les neutrons sont également une excellente sonde magnétique.

Les applications des sources de neutrons sont en conséquence multiples.

Les sources de neutrons sont utilisées pour des applications industrielles non seulement pour des traitements mais également pour des études en volume, notamment pour sonder au c_ur des échantillons. Les sources de neutrons sont également des outils d'une grande importance pour les études de la matière molle, pour les études de magnétisme et de microélectronique, dont on sait le rôle majeur dans les sciences et technologies de l'information et de la communication (STIC).

Au demeurant, étant donné l'absence de " mini-sources " de neutrons propriétaires, c'est-à-dire à la portée d'un seul laboratoire, les expériences réalisées sur les sources de neutrons ne peuvent pas être préparées en amont avec autant de précision que celles réalisées sur les synchrotrons, qui font souvent l'objet de pré-manipulations avec des tubes à rayons X. Cet aspect s'ajoute à un flux des faisceaux de neutrons inférieur à celui des rayons X d'un synchrotron, pour porter à une journée au minimum le temps d'exposition d'un échantillon à une source de neutrons, alors que cette durée peut être de quelques dizaines de minutes pour les synchrotrons de 3 ème génération.

Dans le domaine de la biologie, si le rayonnement synchrotron est particulièrement performant pour l'étude des macromolécules cristallisées et en particulier des protéines, en revanche les sources de neutrons sont bien placées pour l'étude des protéines en solution ainsi que pour l'étude de parties de molécules réalisée avec des procédés de marquage.

A cet égard, la Fondation européenne de la science (ESF) a publié en 1998 un rapport remarqué sur les besoins de la biologie européenne en termes de rayonnement synchrotron. Dans ce même rapport, il était reconnu que les sources de neutrons ont un rôle important à jouer. Au reste, les limites rencontrées actuellement dans l'utilisation de ces grands instruments en biologie, tient essentiellement à l'insuffisance des temps d'accès que finissent par décourager les biologistes d'y recourir.

Après ces éléments introductifs, la parole a été donnée à M. François GOUNAND.

*

M. François GOUNAND, Directeur des sciences de la matière du CEA , a indiqué qu'après l'arrêt en décembre 1997 du réacteur SILOE de 35 MW, sont opérationnelles sur le sol français les sources de neutrons du Laboratoire Léon Brillouin (réacteur Orphée de 14 MW) et de l'Institut Laue-Langevin (réacteur de 57 MW).

La procédure de démantèlement de SILOE est une procédure longue, complexe et coûteuse. La réflexion sur l'opportunité d'arrêter cette machine a commencé en 1994. Soumise à la procédure de déclassement des INB (Installations nucléaires de base), cette procédure comprend plusieurs étapes, la première étape comprenant la mise à l'arrêt définitif et aboutissant à la fermeture sous surveillance (niveau 1).

Le coût total du démantèlement est estimé à 350 millions de francs, la Direction des sciences de la matière en prenant une partie à sa charge.

Le personnel à reclasser a été redéployé en partie à Grenoble, principalement à l'Institut Laue-Langevin. Les instruments les plus performants ont été transférés sur cette machine, soit directement soit après une remise au niveau des meilleures performances actuelles. Les expérimentations auparavant prises en charge par SILOE sont désormais réalisées à l'ILL, en ce qui concerne la diffusion des neutrons.

La parole a ensuite été donnée à M. Christian VETTIER.

*

M. Christian VETTIER, Directeur-adjoint de l'Institut Laue-Langevin (ILL) a indiqué que cet institut de recherche international a été créé en 1967 sous la forme d'une société de droit civil français, par deux membres fondateurs associés, la France et l'Allemagne, rejoints par le Royaume Uni en 1973, après la mise en exploitation du réacteur en 1972. Depuis lors, différents pays ont adhéré : l'Espagne (1987), la Suisse (1988), l'Autriche (1990), la Russie (1996), l'Italie (1997) et la République tchèque (1999), l'adhésion donnant droit à un temps de faisceau supérieur.

Situé dans le polygone scientifique de Grenoble, à proximité de l'ESRF, l'ILL a reçu trois missions : d'une part servir les besoins scientifiques des pays membres en accès à des faisceaux de neutrons, en accueillant les utilisateurs et en favorisant les échanges, d'autre part développer les techniques de la neutronique et, enfin, assurer la formation des scientifiques utilisateurs.

Le budget de l'ILL pour 2000 est de 355 millions de francs, la contribution française s'élevant à 104 millions de francs. Les dépenses de personnel représentent 57 % du total, le fonctionnement 19 %, l'investissement 11 %, le cycle de l'élément combustible 13 %.

Ainsi que l'a précisé M. François GOUNAND, Directeur des sciences de la matière au CEA , l'ILL est une machine dédiée à la production de faisceaux. Le réacteur Orphée produit certes des faisceaux mis à la disposition du Laboratoire Léon Brillouin pour la recherche fondamentale mais a, de plus, une activité industrielle au service de la microélectronique, de la neutronographie et de l'irradiation d'échantillon en vue de leur analyse par activation.

En tout état de cause, en 1999, l'ILL a assuré 208 jours de fonctionnement réacteur sur ses 25 instruments et sur les 8 instruments CRG (Collaborative Research Group).

Ceci correspond à 4500 jours-instruments accordés. Le nombre d'expériences correspondant est de 750, le nombre de chercheurs visiteurs atteignant annuellement 1200. Ces derniers proviennent de 300 laboratoires disséminés dans toute la France et en Europe. Comme on peut s'y attendre, ce sont la France, l'Allemagne et le Royaume Uni qui bénéficient des quotas d'heures les plus importants.

Au reste, les installations de l'ILL sont loin de satisfaire la demande, puisque celle-ci s'établit à 8200 jours-instruments pour 1000 expériences.

Les installations de l'ILL sont ouvertes 24 h sur 24. Les temps d'expérimentation se répartissent en trois grandes catégories. La première correspond aux expériences exécutées en une journée. La deuxième correspond aux expériences plus longues mais d'une durée inférieure à une semaine, pour certains types d'application comme la diffusion inélastique qui nécessite des temps d'exposition de plusieurs dizaines d'heures ou le test de séries d'échantillons. La troisième catégorie est celle des expositions de plusieurs mois pour la recherche fondamentale, par exemple en physique des particules. La demande s'exerce principalement sur des durées moyennes de 6 jours.

Deux facteurs limitent la durée des expériences acceptées à l'ILL.

Comme l'a indiqué M. José TEIXEIRA, Directeur-adjoint du Laboratoire Léon Brillouin (LLB) , le premier est une contrainte technique, à savoir le rapport signal / bruit, qui dépend lui-même de facteurs technologiques. En conséquence, la prolongation d'une expérience au-delà d'une certaine limite n'apporte pas d'information supplémentaire.

M. Christian VETTIER a par ailleurs précisé la nature du deuxième facteur de limitation des durées d'expérimentation, à savoir la pression de la demande qui oblige à octroyer le temps minimum aux projets sélectionnés pour en augmenter le nombre d'accès aux installations.

Les chercheurs désireux d'accéder aux faisceaux de neutrons de l'ILL soumettent leurs projets de recherche au comité scientifique qui se réunit deux fois par an. A cet égard, il n'existe pas de concertation autre qu'informelle entre l'ILL et l'ESRF.

Les applications des neutrons à l'ILL concernent la physique pour 28 % du total, la chimie pour 20 %, la matière molle pour 14 %, les sciences des matériaux pour 12 %, la biologie pour 12 %, les liquides et les verres pour 8 % et la physique des particules pour 6 %. Une réserve doit toutefois être faite sur l'exactitude de ces statistiques, en raison du mode d'imputation des projets qui comporte des marges d'erreur.

Quelle est l'évolution de la répartition des applications ? S'il n'existe pas de données homogènes sur une durée de 5 ans, on peut néanmoins constater qualitativement une diminution de la part de la physique, une stabilité des projets de chimie et de sciences des matériaux et au contraire, une augmentation du nombre d'études portant sur la " matière molle " . Quant aux projets biologiques, après un pic il y a 3 à 4 ans, leur nombre a diminué, le manque de faisceaux disponibles et suffisamment efficaces ayant exercé un effet dissuasif sur les chercheurs.

Quelle est la compétitivité de l'ILL par rapport aux autres sources mondiales ?

Les sources de neutrons sont de deux types, d'une part les réacteurs comme l'ancien SILOE, Orphée (Laboratoire Léon Brillouin) et l'ILL, et, d'autre part, les sources pulsées, comme ISIS au Rutherford Appleton Laboratory (Royaume Uni) ou IPNS (Intense Pulsed Neutron Source) à Argonne (Etats-Unis).

L'ILL met en _uvre l'une des toutes premières sources de neutrons du monde, tous types confondus. C'est en effet la première source de neutrons continue du monde. Par ailleurs, en terme de flux moyens, l'ILL dépasse les sources pulsées les plus puissantes, qu'elles soient en fonctionnement ou en projet aux Etats-Unis ou au Japon. En définitive seul le projet ESS (European Spallation Source) devrait conduire à une machine plus puissante dans les dix années à venir.

Mais quel est l'avenir à court-moyen terme de l'ILL ?

La valeur capitalisée de l'ILL, qui est de l'ordre de 10 milliards de francs, et les résultats scientifiques obtenus incitent non seulement à en pérenniser le fonctionnement mais également à le faire progresser sur un plan technique.

Mis en service en 1972, le réacteur a bénéficié à partir de 1991 de travaux de modernisation, de sorte que l'on peut considérer que le réacteur redémarré en 1995 correspondait à une installation neuve. Un programme de modernisation de 5 instruments s'étale sur la période 1996-2001, pour un montant de 25 millions de francs. Un autre programme d'instrumentation de 42 millions de francs est prévu pour la période 2000-2005. Il s'agit d'obtenir des gains en acquisition de 5 à 10 dont les objectifs scientifiques sont d'accroître la résolution spatiale, de favoriser les études résolues en temps et de développer de nouvelles méthodes expérimentales.

Cette modernisation se justifie également par les résultats scientifiques obtenus. Les travaux de recherche ayant utilisé les moyens de l'ILL ont donné lieu en 1999 à 437 publications, dont 282 articles de revues scientifiques et 154 comptes rendus, livres ou rapports.

Un échange est ensuite intervenu sur l'avenir à moyen et long terme des sources de neutrons en Europe et dans le monde.

*

Pour M. Christian VETTIER , la recherche européenne a un besoin croissant en faisceaux de neutrons. Le nombre d'utilisateurs connaît en effet une croissance forte. Il était de 3800 chercheurs en 1998 et devrait s'élever à 5000 en 2000.

Or quelles sont les prévisions en matière de sources de neutrons ?

Le nombre de sources du parc européen, qui est de 13 actuellement, ne devrait pas dépasser 7-8 après 2010. Les sources majeures seront à cette date le LLB et l'ILL sur le territoire français, la source allemande du HMI à Berlin et le réacteur de Munich, la source pulsée ISIS au Royaume Uni, éventuellement avec sa deuxième source si ce projet est approuvé. Une ou deux sources en Russie sont également à citer.

Différents projets ont été élaborés dans les années récentes. Certains d'entre eux ont été abandonnés, comme le projet américain ANS de 350 MW, le projet allemand SNQ et le projet autrichien Austron encore en suspens.

Il reste en réalité trois programmes ayant une forte probabilité d'aboutir.

Tableau 1 : Sources de neutrons en projet dans le monde

projet

puissance

date de mise en service

budget (milliards d'euros)

ISIS-2

(Royaume-Uni)

0,25 MW

2004

0,12

Austron

(Autriche)

0,5 MW

?

?

SNS

(Etats-Unis)

2 MW

2006

1,4

JHF/NSP

(Japon)

1 MW

2006

?

ESS

(Europe)

5 MW

> 2015

1

La source britannique ISIS-2, de 0,25 MW devrait entrer en service en 2004, pour un coût d'investissement de 0,12 milliards d'euros. Le projet américain SNS (Spallation Neutron Source) à Oak Ridge, d'une puissance de 2 MW devrait être opérationnel en 2006, pour un budget de 1,4 milliard d'euros. Le projet japonais JHF/NSP se caractérise par une puissance de 1 MW, une date de mise en service de 2006 et un budget d'un milliard d'euros.

Alors que le projet ESS (European Spallation Source) avait débuté bien avant le projet SNS américain, ce dernier qui en est le décalque, l'a aujourd'hui rattrapé. Du fait des retombées importantes d'une telle source, il est essentiel non seulement de ne pas l'abandonner mais d'en accélérer la réalisation.

M. René PELLAT, Haut commissaire à l'énergie atomique , a estimé que pour les dix prochaines années, il sera nécessaire de se contenter des moyens actuels. Ceux-ci devraient continuer d'être opérationnels, à condition toutefois que l'approvisionnement en uranium enrichi utilisé dans les réacteurs auprès de la Russie ne soit pas remis en cause. Au total, les ressources du LLB et de l'ILL seraient suffisantes, de sorte qu'il est inutile de prévoir des faisceaux dédiés aux recherches analytiques sur le futur RJH (réacteur Jules Horowitz) actuellement en cours de définition par le CEA.

Il convient toutefois de préparer la décennie suivante par un projet ambitieux. Ce projet est celui de l'ESS (European Spallation Source).

Ainsi que l'a précisé M. René PELLAT , les premières applications de l'ESS seraient opérationnelles vers 2015, l'ensemble des moyens se mettant en place entre 2010 et 2020. Au reste, l'exploitation de l'ILL pourrait continuer selon toute vraisemblance jusqu'en 2020,

M. Christian VETTIER a indiqué qu'en tout état de cause, des limites technologiques obligent à changer de principe pour la génération suivante de machines. Les réacteurs, qui produisent des neutrons en continu, se heurtent en effet à des limites technologiques pour l'évacuation de la chaleur. Les sources pulsées, au contraire, permettent, avec une basse fréquence de répétition et une faible puissance moyenne, d'obtenir des flux élevés pendant des durées courtes.

L'ILL représente l'optimum de puissance pour une source de neutrons sous forme de réacteur. Les Etats-Unis, qui ont tenté de mettre au point une source continue plus puissante, ont abandonné ce projet, un " monstre " dont le coût est rapidement apparu comme rédhibitoire, en raison des difficultés techniques rencontrées pour l'évacuation de la chaleur. La solution est bien la spallation : un accélérateur propulse des particules à haute énergie qui vont casser des noyaux lourds, la rupture de ces derniers libérant des neutrons. Le problème thermique est alors dilué dans le temps.

En tant que source pulsée, l'ESS apporterait un gain d'un facteur 100 à 200 selon la longueur d'onde pour les diffractomètres, de 2 à 20 pour la diffusion inélastique, de 1 à 20 pour la diffusion aux petits angles et des performances comparables pour la diffusion inélastique sur 3 axes.

M. Gilles COHEN-TANNOUDJI a alors fait le constat qu'il existe une tendance à privilégier les sources pulsées comportant un accélérateur et recourant au phénomène de la spallation, toutes techniques éloignées de celles des réacteurs.

Il s'agit là d'une évolution importante, qui comporte des bénéfices secondaires non négligeables, dans la mesure où les sources pulsées sont multi-usages, une même source ouvrant la voie à différents types d'applications.

Au reste, la France dispose dans les technologies des accélérateurs d'atouts de premier niveau, comme le montre la qualité de ses équipes dans le domaine connexe des synchrotrons. Pour autant, il semble aussi que les sources de neutrons continues gardent un intérêt de complémentarité avec les sources pulsées.

M. Robert COMÈS a enfin souligné qu'à l'inverse des synchrotrons qui peuvent varier d'énergie et être optimisés pour tel ou tel type d'application, il n'existe pas de gamme de sources de neutrons.

*

M. Christian VETTIER est alors revenu sur le type d'applications que pourraient permettre des sources de neutrons de nouvelle génération telles que l'ESS.

Les applications concernées seront au premier chef les études temporelles, notamment de cinétique chimique, souvent plus faciles avec les neutrons, du fait de leur pouvoir de pénétration, qu'avec le rayonnement synchrotron. Les études de biologie devraient également progresser avec l'ESS. Enfin, avec une résolution spatiale meilleure, les études de magnétisme devraient encore être facilitées.

M. Alain FONTAINE, directeur scientifique adjoint au Département des sciences physiques et mathématiques du CNRS, a insisté en premier lieu sur les applications des sources de neutrons pour l'étude de la matière molle et des polymères. L'importance de ce domaine ne doit pas être sous-estimée, bien au contraire, compte tenu de l'extension considérable des usages des matières plastiques dans différents secteurs, en particulier dans la construction automobile où les matières plastiques représentent près de 50 % en volume des matériaux utilisés.

Les propriétés de structure et du magnétisme des nano-objets relèvent des méthodes de diffraction et de spectroscopie sensibles à la surface que le rayonnement synchrotron permet de mettre en _uvre. Mais pour les matériaux massifs, le magnétisme et la supraconductivité sont des propriétés déterminantes pour l'étude desquelles les sources de neutrons irremplaçables.

Enfin, les neutrons ont un intérêt majeur pour l'étude des systèmes biologiques.

L'eau, qui joue un rôle fondamental dans les tissus, peut en effet facilement être mise en évidence par les neutrons, ainsi que les atomes légers comme l'atome d'hydrogène. Un des axes d'étude prometteurs pour l'avenir est sans conteste l'analyse du rôle de l'eau dans des systèmes vivants confinés. En outre, l'apport des sources de neutrons est considérable pour les études dynamiques des mouvements locaux ou collectifs d'atomes ou de groupes d'atomes.

Ces raisons justifient de repousser les limites actuelles des sources de neutrons en concevant de nouveaux projets.

*

Selon M. René PELLAT , il existe un véritable intérêt en Europe pour le projet ESS. Le CEA, convaincu de son importance scientifique, a organisé au début de l'année 2000 une réunion de l'ensemble des partenaires potentiels. Le projet d'accélérateur, la pièce maîtresse de la source, a été accepté par l'ensemble des participants. Un travail informel, destiné à rattraper le retard accumulé, se déroule désormais sur ce sujet, en coopération avec le CERN et sous la direction de M. Jean-Louis LACLARE. Au reste, une application supplémentaire de la source ESS est envisagée avec l'utilisation d'un faisceau pour la transmutation des actinides mineurs et des produits de fission présents dans les combustibles irradiés.

Le projet ESS est porté par le ministère de la recherche, qui, non seulement, le soutient mais également souhaite l'héberger en France, concurrençant ainsi le Royaume Uni qui est également candidat pour son implantation.

Au demeurant, selon M. René PELLAT , l'Allemagne n'est pas pour le moment en mesure de s'engager dans le projet ESS, car elle procède à un examen interne de ses investissements lourds de recherche, ce qui gèle toute décision.

*

Un débat est ensuite intervenu sur les conditions d'une action déterminée des pouvoirs publics en faveur des sources de neutrons.

M. Robert COMÈS, membre du groupe de travail, a remarqué que la communauté française de la neutronique a bénéficié de facilités particulières du fait de l'importance des programmes atomiques militaires et civils dans notre pays. Ce temps est aujourd'hui révolu.

La communauté des neutroniciens devra désormais se mobiliser pour obtenir les grands instruments nécessaires à son activité, de même que les spécialistes et les utilisateurs des synchrotrons ont toujours dû le faire, en France comme dans tous les autres pays dotés de ces équipements. Au reste, la fermeture d'un site suffit à assurer le financement d'une nouvelle source de neutrons.

M. François GOUNAND a indiqué que le démantèlement de l'ILL devrait représenter une dépense de l'ordre du milliard de francs.

M. Christian VETTIER a confirmé cet ordre de grandeur, puisque l'estimation couramment acceptée est de 3 budgets annuels. Au-delà de cette période, les contributions des pays membres, à supposer qu'elles soient prolongées, pourraient financer la construction d'une nouvelle source.

Quoi qu'il en soit, pour le moment, aucune provision n'est distraite du budget annuel de l'ILL pour préparer le remplacement de l'installation.

La pérennité de l'ILL à Grenoble devrait toutefois être favorisée, tant cette institution a joué et joue encore un rôle important pour l'économie régionale.

En premier lieu, l'existence préalable de l'ILL a joué un rôle très important dans le choix de Grenoble pour y implanter le synchrotron européen ESRF. En deuxième lieu, le taux de retour des dépenses françaises pour l'ILL est proche de 3, puisque pour un franc versé à l'ILL par le CEA et le CNRS, il s'ajoute deux francs de contributions étrangères, le total de trois francs étant dépensé en quasi-totalité sur place.

En définitive, si le projet de source ESS ne consistait pas en un accélérateur multi-usages dévoreur d'espace, l'ILL pourrait faire acte de candidature pour accueillir la future source européenne.

En réponse à une observation de M. Jérôme PAMELA, membre du groupe de travail , sur la contradiction entre le coût de 1 milliard d'euros pour l'ESS et la quasi-proportionnalité du coût affiché pour les autres projets avec leur énergie, M. Christian VETTIER a précisé que l'estimation d'un milliard d'euros date de 1996.

M. René PELLAT a, pour sa part, indiqué que les estimations actuelles du coût de l'ESS sans ligne hybride n'incluent pas les coûts de fonctionnement.

*

La discussion a ensuite porté sur l'évolution prévisible des avantages spécifiques des sources de neutrons par rapport aux autres méthodes d'analyse fine de la matière.

Pour de nombreux orateurs, des progrès substantiels des sources de neutrons sont peu vraisemblables.

Mais, de toute évidence, il est difficile de faire des pronostics dans un tel domaine.

M. José TEIXEIRA a ainsi rappelé que nul n'avait imaginé, avant les synchrotrons de 3 ème génération, que les applications du rayonnement synchrotron pourraient s'élargir au magnétisme.

M. Jochen SCHNEIDER, membre du groupe de travail , a noté que, précisément, les sources de neutrons semblent de plus en plus concurrencées par le rayonnement synchrotron.

Il y a dix ans, ce dernier ne pouvait pas servir à des études de magnétisme et avait un pouvoir de pénétration réduit. Avec les sources de 3 ème génération, le rayonnement synchrotron a pris à son compte des études auparavant réservées aux neutrons. Le nombre de chercheurs en physique étant limité, on peut s'interroger sur les raisons pour lesquelles il faudrait poursuivre le développement d'une méthode désormais très concurrencée.

M. Christian VETTIER a observé que le saut quantitatif d'un facteur de 10 000 en terme de brillance entre les synchrotrons de 2 ème et de 3 ème générations semble hors de portée des sources de neutrons, puisque le passage à l'ESS devrait au mieux conduire à une amélioration d'un facteur 200. A titre indicatif, ceci se traduirait en résolution latérale par une diminution de la largeur minimale du faisceau mais celle-ci passerait au mieux d'un dixième de millimètre à un micron. Il ne s'agit donc pas d'une révolution de la technique des neutrons. Toutefois, on ne peut exclure des progrès dépassant les prévisions.

M. Dominique GIVORD a fait remarquer que les sources de neutrons permettent d'aborder des problèmes d'une grande importance et qu'il convient donc de ne pas les sous-estimer.

Ainsi c'est avec cette seule technique, en particulier avec les neutrons " chauds " produits par le futur ESS à des niveaux d'énergie supérieure à ceux résultant des sources actuelles, qu'il sera possible d'étudier le magnétisme des métaux de transition. Si ces corps, à savoir le fer, le cobalt et le nickel, sont parmi les mieux connus, la compréhension des interactions de leurs moments magnétiques dont on ignore tout pour le moment, pourrait conduire à des applications d'une grande importance.

Après avoir estimé " fabuleux " les progrès faits par les synchrotrons, M. René PELLAT , à son tour, a souligné qu'au fur et à mesure de la marche du progrès, des domaines jugés initialement hors de portée deviennent accessibles.

En tout état de cause, il ne faut pas opposer les méthodes ou les technologies. Même si la nature et le rythme des progrès faits sur les sources de neutrons devaient être différents de ceux observés pour le rayonnement synchrotron, progrès qu'au demeurant, personne n'avait prévu, on peut affirmer que le domaine des neutrons bénéficiera également d'avancées.

La parole a ensuite été donnée à M. José TEIXEIRA.

*

M. José TEIXEIRA, Directeur adjoint du Laboratoire Léon Brillouin (LLB) , est revenu sur les angles d'analyse qu'il convient d'adopter pour juger de l'intérêt particulier des sources de neutrons. Il convient à cet effet de les comparer avec le rayonnement synchrotron, avec la RMN ou la microscopie électronique.

Au demeurant, si les sources de neutrons sont des grands équipements, au même titre d'ailleurs qu'un synchrotron, il faut aussi rétablir la vérité de leur coût.

L'ordre de grandeur du budget d'une installation comme l'ILL est de 300 millions de francs, avec lequel elle réalise de 800 à 1000 expériences par an, ce qui met le coût d'une expérience au niveau de 300 000 francs. Si l'on admet que le coût annuel d'un poste de chercheur est de l'ordre du million de francs, ceci signifie que chaque chercheur réussit trois expériences de haut niveau par an.

La productivité d'un tel grand instrument est donc excellente et peut être comparée favorablement à celle de tout autre investissement de recherche.

S'agissant des machines elles-mêmes, il faut, comme on l'a vu distinguer les sources continues, à savoir les réacteurs, des sources pulsées mettant en _uvre le phénomène de la spallation. Il faut également faire une différence entre les sources nationales et les sources européennes voire internationales.

A cet égard, une question importante est la suivante : en quoi un pays comme la France doit-il posséder une source nationale ?

Le réacteur Orphée proprement dit, qui fonctionne avec une régularité et un niveau de performances remarquables depuis plus de 20 ans, est de la responsabilité du CEA. Le laboratoire Léon Brillouin, laboratoire national financé conjointement par le CNRS et le CEA a, quant à lui, la responsabilité d'exploiter les 25 instruments installés autour du réacteur Orphée. A cet égard, tant le LLB que l'ILL disposent de la plus grande densité d'instruments au monde pour des installations de ce type.

En tout état de cause, le LLB est compétitif par rapport à l'ILL mais aussi par rapport à la source pulsée britannique ISIS du Rutherford Appleton Laboratory.

Le réacteur Orphée a été conçu pour servir à des opérations industrielles sans pour autant perturber les faisceaux du LLB.

Parmi ces opérations, il faut citer l'irradiation de matériaux comme celle du silicium dopé au phosphore, la neutronographie des matières organiques notamment, où l'on met à profit la sensibilité de la transmission des neutrons à la présence d'atomes d'hydrogène, le contrôle de pièces dont la fiabilité doit être de 100 % comme les cordons de sièges éjectables ou les dispositifs de séparation des étages d'Ariane.

Les trois missions du Laboratoire Léon Brillouin sont de mettre des faisceaux de neutrons et l'instrumentation afférente à la disposition de la communauté scientifique française, de former les chercheurs à l'utilisation des techniques neutroniques et de conduire une recherche propre de qualité. Aussi les chercheurs du LLB exercent-ils un double métier d'accueil et de recherche.

En tout état de cause, le LLB joue le rôle d'une source nationale, irremplaçable en réalité pour la communauté scientifique nationale, comme on l'a vu a contrario avec l'Italie, qui, en perdant sa source propre, a perdu sa compétitivité dans ce domaine.

Même si les sources de neutrons étrangères sont ouvertes aux chercheurs étrangers, toutes filtrent en effet les demandes par des processus de sélection sévères.

En réalité, si l'on veut une école de neutronique nationale, il faut pouvoir réaliser de nombreuses manipulations qui ne seraient pas acceptées ailleurs, sauf moyennant une contribution financière.

En cas de fermeture du LLB, le report sur l'ILL, qui, de toute façon, ne serait que partiel, ne pourrait qu'atténuer et en aucun cas supprimer les conséquences négatives sur la science française.

Le Laboratoire Léon Brillouin est régi par une convention entre le CEA et le CNRS. Ce dernier organisme l'ayant récemment dénoncée, la convention est en cours de renégociation.

Le budget annuel de l'ensemble constitué par le réacteur et le Laboratoire Léon Brillouin s'élève à 130 millions de francs, frais de personnel compris mais hors amortissement du réacteur.

Le budget hors salaires du LLB est de 23 millions de francs. Ce budget est financé à hauteur de 14 millions de francs par des contributions à parité du CNRS et du CEA. Le complément est assuré par des contrats avec l'industrie, par les contributions des CRG (Collaborative Research Group) et par le contrat " Access to Large Facilities " de l'Union européenne qui finance l'accès de chercheurs étrangers à ses installations. Les effectifs du laboratoire atteignent 150 postes à temps plein, à quoi il faut ajouter 57 postes pour le réacteur.

Le LLB a, en 1999, assuré 4 200 jours-instruments, ce qui correspond à 500 expériences par an. Les expériences ressortissent à hauteur de 55 % à la physique de la matière condensée, de 28 % à la chimie, de 10 % aux sciences de l'ingénieur et aux matériaux et de 7 % à la biologie.

Le nombre de publications correspondant à des expériences réalisées au Laboratoire Léon Brillouin est de 300 par an en moyenne.

En 1999, 750 chercheurs visiteurs ont utilisé ses installations, dont 70 % de chercheurs français et 30 % d'étrangers.

L'utilisation des installations du LLB est bien entendu le fait de l'ensemble des grands organismes de recherche français.

L'écart entre la demande de temps d'accès à ses faisceaux et le temps effectivement mis à disposition est en moyenne de 30 %. Mais pour certains instruments, la demande peut excéder l'offre d'un facteur 2 voire même 3. En réalité, un équilibre doit être trouvé entre la fourniture d'une gamme d'instruments la plus étendue possible et l'accroissement du nombre de spectromètres les plus demandés.

La part de l'utilisation directe des instruments du LLB par l'industrie ne dépasse pas 4 % du total, dans la mesure où les entreprises y accèdent le plus généralement par l'intermédiaire des contrats de recherche avec des laboratoires publics. L'industrie y traite de questions relatives aux matériaux, notamment le contrôle de soudures ou de pièces massives, et à la matière molle. Parmi les clients réguliers du LLB, on peut citer l'IFP (Institut français du pétrole), la SNECMA, la SNCF ou Peugeot SA.

Démontrant la compétitivité du LLB par leurs demandes d'accès, les chercheurs étrangers sont nombreux dans ce laboratoire : ils représentent près 30 % des chercheurs visiteurs et sont pour moitié européens. Les deux pays les mieux représentés sont l'Italie et l'Allemagne, ce dernier pays ayant d'ailleurs fourni 3 spectromètres et comptant des personnels à plein temps sur le site.

L'accès aux faisceaux de neutrons est gratuit pour les recherches publiées. Dans le cas contraire, par exemple pour les usages industriels privatifs, le prix facturé est de 25 000 francs par jour. Ceci correspond au prix réel hors amortissement, puisque le budget annuel est du LLB et du réacteur Orphée s'élève à 130 millions de francs, pour 200 jours de fonctionnement de 25 instruments, soit 25 000 F par jour et par instrument. M. Christian VETTIER a indiqué, pour sa part, que le prix de revient d'une journée de faisceau à l'ILL est proche de 50 000 F.

M. José TEIXEIRA a par ailleurs fait état d'inégalités de contribution pour les pays étrangers, notamment pour l'Italie dont la participation financière n'est pas proportionnelle à son utilisation de la machine.

Fait plus important, le mode de fonctionnement du Laboratoire Léon Brillouin est remis en cause depuis trois ans. Si son existence n'est pas menacée, en revanche la répartition de son financement est âprement discutée par le CEA et le CNRS. La responsabilité des dépenses de combustible et de démantèlement fait l'objet de controverses. Deux autres débats sont sous-jacents, celui de la proportionnalité entre l'utilisation et la contribution financière et celui du pouvoir de décision attaché à cette dernière.

A cet égard, l'entrée d'un partenaire étranger, recommandée par le ministère de la recherche, présenterait certes l'avantage d'alléger la charge financière mais réduirait aussi le pouvoir de décision du CEA et du CNRS. Au reste, les coopérations étrangères sont rendues difficiles par la mauvaise desserte de Saclay pour les transports et l'hébergement.

*

A l'initiative de M. René TRÉGOUËT, Sénateur, rapporteur , un débat s'est alors engagé sur l'adéquation de la formule de cofinancement par le CEA et le CNRS d'un grand équipement comme le Laboratoire Léon Brillouin. Au contraire, ne faudrait-il pas envisager une structure spécifique pour les très grands équipements, analogue au CLRC (Central Laboratory of Research Councils) britannique ?

M. Alain FONTAINE a estimé que le cofinancement par les deux organismes nationaux est la formule la plus pertinente.

S'agissant du Laboratoire Léon Brillouin, le CNRS a vocation à piloter les programmes mixtes CNRS - universités. Quant au CEA, outre ses propres programmes scientifiques, sa vocation est d'assurer le fonctionnement du réacteur Orphée et plus généralement des sources nationales de neutrons.

En tout état de cause, la structure d'une coopération étroite des organismes de recherche est la plus adaptée car c'est celle qui assure la plus grande fluidité d'accès pour les chercheurs des deux institutions.

Au reste, les expériences de ticket modérateur qui ont pu être faites à l'étranger ou en France, se sont soldées par un échec. C'est ainsi que l'on a pu, en France notamment, précipiter la fin de centres de calcul. Le mécanisme est en effet très simple : la mise en place d'un ticket modérateur exerce un effet dissuasif sur les utilisateurs ; leurs demandes d'accès diminuent, ce qui renchérit les coûts unitaires et accélère encore le déclin du centre considéré.

Par ailleurs, l'absence d'amortissement des très grands équipements, s'il tient aux caractéristiques de la comptabilité publique, correspond aussi à une réalité fondamentale de la politique de la recherche, à savoir que le renouvellement d'un très grand équipement ne saurait être automatique.

En définitive, il est conforme à la logique de la recherche que seuls le CEA et le CNRS puissent abonder le financement de grandes opérations.

En outre, les très grands équipements sont des coopératives au service des laboratoires. Il convient en conséquence que les coopérateurs soient en liaison étroite avec ces derniers, pour avoir une capacité de réaction rapide. Tout organisme de gestion interdirait d'aller aussi vite.

M. René TRÉGOUËT, Sénateur, rapporteur, a demandé plaisamment si la question du financement du LLB faisait l'objet d'une " partie de ping-pong " administratif entre le CEA et le CNRS.

M. Alain FONTAINE a affirmé que les sources de neutrons constituent bien une orientation stratégique des Départements en charge des sciences de la matière au CNRS et bénéficient, en tant que telle d'une priorité.

La preuve en est que le CNRS a réglé sa participation en février 2000 dès que le ministère l'a demandé, à la suite d'une requête de l'administrateur général du CEA auprès de la direction de la recherche du MENRT.

Au vrai, il faut rappeler qu'en toile de fond, figure l'exigence répétée trois années de suite d'une diminution de 10 % des crédits consacrés aux TGE, posée en principe par le ministère de la recherche. Au printemps 2000, la direction de la recherche a relâché cette contrainte.

Les rejets mutuels de responsabilité du CEA et du CNRS doivent être réfutés. Le véritable " ping pong " intervient entre le ministère et les organismes de recherche.

En définitive, s'il existe aujourd'hui une volonté de piloter la recherche par le FNS (Fonds national de la science) et le FRT (Fonds de la recherche technologique), il a manqué une volonté politique de soutenir les très grands équipements.

Mme Françoise FABRE, adjointe au directeur des sciences de la matière, a rappelé, pour sa part, que les tutelles demandent que les contributions des organismes de recherche au financement de très grands équipements se rapprochent de l'utilisation qu'ils en ont.

En vérité, la difficulté essentielle provient du fait que les universités n'abondent pas suffisamment les budgets du LURE (Laboratoire pour l'utilisation du rayonnement électromagnétique) et du LLB.

En outre, un problème est posé par le CEA, celui du financement du démantèlement futur du réacteur Orphée.

M. Alain FONTAINE a estimé que le réacteur Orphée lui appartenant, le CEA est compétent pour son démantèlement. Le CNRS estime au surplus que le démantèlement constitue une mission de recherche du CEA. Le CNRS ne saurait être concerné par ce problème.

*

La discussion a ensuite porté sur la coexistence de personnels à statuts différents au sein d'un même laboratoire.

M. Philippe LAREDO, membre du groupe de travail , s'est interrogé sur les conséquences de la mixité des statuts en ce qui concerne les chercheurs et les personnels techniques.

M. Alain FONTAINE a observé que le statut d'unité mixte du Laboratoire Léon Brillouin répond à la nécessité de disposer d'un territoire commun pour la communauté nationale des chercheurs. La mixité, qui est un atout et un grand succès, favorise également l'interdisciplinarité.

S'agissant des personnels exploitant les machines, Mme Françoise FABRE a précisé que si le CEA a la responsabilité technique du Laboratoire Léon Brillouin, le CNRS assume celle du LURE. La cohabitation des personnels à statuts différents se produit donc pour les chercheurs résidents et bien entendu pour les chercheurs visiteurs.

M. Alain FONTAINE a jugé que l'absence de différences de statuts entre utilisateurs internes et utilisateurs externes est également essentielle car l'appartenance aux mêmes organismes favorise les transferts de connaissances. L'approche peut être toutefois différente pour les personnels qui assurent le fonctionnement technique des installations.

Au vrai les structures actuelles se sont imposées d'elles-mêmes, démontrant ainsi leur intérêt.

M. Gilles COHEN-TANNOUDJI, membre du groupe de travail , a estimé que, plutôt que de parler de source " nationale " , il conviendrait de parler de source de " proximité " . La portée de cette remarque dépasse la stricte sémantique pour toucher en réalité à la question des différents statuts envisageables pour un très grand instrument.

Il paraît en effet naturel qu'une source de proximité soit un laboratoire mixte géré en direct par les organismes de recherche qui en assurent le financement et la direction technique.

M. Christian VETTIER a, pour sa part, noté que l'ILL et l'ESRF sont régis par des statuts de sociétés civiles de droit français, ce qui démontre également qu'il existe une autre solution opérationnelle. Au reste, la dénomination de source nationale présente l'inconvénient de fermer toute possibilité de participation financière extérieure. On pourrait à cet égard regretter que le Laboratoire Léon Brillouin, en tant que source nationale " protégée " , n'ait pas à diversifier son financement, tandis que, deux poids deux mesures, l'ILL, pourtant déjà largement internationalisé, doive se fixer comme objectif de trouver encore de nouveaux contributeurs.

M. Alain FONTAINE s'est interrogé sur la viabilité à long terme d'une telle solution. Il n'est pas en effet satisfaisant qu'un chercheur reste 35 ans dans de telles installations. Pour ce faire, il faut que le très grand équipement soit intimement lié à des grands organismes de recherche et aux universités. Ces liens organiques manquent à l'ILL et à l'ESRF.

M. Roger BALIAN a estimé que la coexistence au sein d'une même entité de recherche de personnels appartenant à des organismes différents est un facteur d'enrichissement pour l'ensemble. Il existe en effet de réelles différences culturelles entre organismes, dont un laboratoire mixte tire parti. Au reste, les différences de statuts entre personnels peuvent être réelles sur des points particuliers mais les avantages s'équilibrent entre le CEA et le CNRS.

M. Alain FONTAINE a reconnu les besoins spécifiques des très grands instruments en personnels techniques et informatiques travaillant en horaires décalés. Mais s'il y a société civile, celle-ci doit en tout état de cause être étroitement connectée avec les organismes de recherche des pays associés, pour le bon déroulement de la carrière des chercheurs détachés ainsi que pour la diffusion des connaissances acquises sur un très grand instrument.

M. Christian VETTIER a estimé que le temps de séjour d'un chercheur sur un très instrument devrait être inférieur à 10 ans. A qui revient la responsabilité de la mobilité insuffisante que l'on constate pour certains chercheurs de l'ILL ? A l'évidence, ce sont les organismes de recherche qui en sont la cause, en se refusant à détacher des personnels avec une garantie de retour. Ainsi, le CNRS n'a pas su récupérer des chercheurs détachés à l'ILL et installés à Grenoble au-delà du nécessaire.

M. Dominique GIVORD a exposé qu'un très grand instrument a la double fonction de développer ses propres laboratoires de recherche et de desservir l'ensemble de la communauté scientifique soit directement par une aide à l'utilisation de ses installations, soit par la formation des utilisateurs. Pour ce faire, deux méthodes ont été mises en pratique.

L'ILL avait clairement opté au départ pour une présence limitée de ses chercheurs sur le site, ceux-ci devant regagner leur laboratoire d'origine une fois formés aux techniques des neutrons. Cette politique n'a pas réussi pour les raisons déjà évoquées.

L'ESRF a, quant à lui, mis en _uvre une politique différente. L'ESRF possède certes un noyau de permanents mais aussi un nombre important de post-docs recrutés sur des contrats de 5 ans. Sans assurance de réintégration automatique dans leur laboratoire d'origine ou sans perspective de trouver un poste de recherche en fin de contrat avec l'ESRF, leur situation n'est pas enviable et dissuade probablement des chercheurs de grande valeur de rejoindre l'ESRF.

La bonne réponse à cette question de statut des personnels des TGE est rien moins qu'évidente et se trouve probablement dans un juste milieu entre les deux méthodes.

Les débats se sont ensuite orientés vers les questions budgétaires

*

M. Jérôme PAMELA, membre du groupe de travail, a observé que la formulation d'éventuelles contraintes budgétaires qui pourraient peser sur les très grands instruments ne peut faire abstraction de la structure de leurs dépenses.

Une contrainte budgétaire ne peut être seulement " vue d'en haut " , sans que ses conséquences ne soient correctement évaluées. En réalité, dans le budget d'un très grand instrument, il existe des postes non linéaires ou incompressibles. En réalité, il faudrait une clarification des structures pour avoir une vision claire des dépenses de fonctionnement pur et de dépenses liées à l'utilisation scientifique du grand instrument.

M. René TRÉGOUËT, Sénateur, rapporteur , a souligné qu'il s'agit là d'une question importante. En tout état de cause, il convient de savoir s'il existe des budgets incompressibles avant d'exercer une contrainte budgétaire générale. Au reste, on peut également se demander s'il est justifié que les très grands instruments se trouvent en première ligne pour les efforts budgétaires.

A cet égard, M. Alain FONTAINE a rappelé que les crédits des TGE de la physique n'ont augmenté que de 16 % de 1989 à 1999, quand le BCRD a, lui, augmenté de 22 % sur la même période de dix ans. Ceci démontre qu'il existe une réelle maîtrise des très grands instruments qui s'est traduite notamment par des fermetures de structures anciennes compensant et au delà les ouvertures de nouveaux grands équipements.

Au demeurant, les ordres de grandeur doivent être rappelés. Les crédits annuels des sources de neutrons s'élèvent en 2000 à 274 millions de francs et ceux des sources de rayonnement synchrotron à 271 millions de francs, soit un total largement inférieur aux crédits des TGE des seules sciences de la terre, alors que ces instruments desservent toute la communauté scientifique française. En tout état de cause, des budgets de cet ordre de grandeur sont " pilotables " par les grands organismes, même si la question peut être posée pour des budgets très supérieurs.

M. Robert COMÈS a insisté sur le fait que le budget d'un très grand équipement comprend des lignes incompressibles. S'agissant des demandes de réduction de crédits sur le chapitre des TGE adressées par le ministère aux grands organismes, il semble bien que l'on ait oublié de prendre en compte les personnels.

S'agissant de participations étrangères dans les budgets des instruments nationaux, celles-ci peuvent sembler justifiées à première vue en raison de la présence d'environ un tiers de chercheurs étrangers parmi les utilisateurs. Mais il faut remarquer que cette situation existe dans tous les pays du monde, l'idée d'une ouverture bénéficiant finalement à tous étant communément partagée. On ne voit pas en quoi la situation pourrait être améliorée par la comptabilisation des usages étrangers et par des échanges monétaires. A condition de borner ces échanges informels, il semble donc que l'on puisse s'en tenir au schéma actuel.

Le cas de l'ESRF et de l'ILL ne peut être comparé avec celui des installations de proximité dont le personnel est essentiellement français. Mais, en tout état de cause, il importe au plus haut point de mettre en place pour ces sociétés civiles non seulement des budgets clairement articulés avec les budgets nationaux mais également des liens forts avec les organismes de recherche pour résoudre la question du retour des personnels détachés.

M. René TRÉGOUËT, Sénateur, rapporteur , a rendu compte qu'au cours de l'audition du ministre de la recherche par l'Office parlementaire d'évaluation des choix scientifiques et technologiques, le 20 juin 2000, celui-ci s'est engagé à proposer, au cours de la présidence française de l'Union européenne, le cofinancement des très grands équipements européens par la Commission, non seulement pour l'investissement mais aussi pour leur fonctionnement.

*

La question de l'extension des capacités des sources de neutrons sur le sol français a ensuite été abordée par plusieurs orateurs.

M. Jérôme PAMELA a demandé confirmation des possibilités d'extension du nombre de faisceaux de neutrons tant au Laboratoire Léon Brillouin qu'à l'ILL, puisque, aussi bien, une seule expérience est accordée sur deux demandées.

M. Christian VETTIER a rappelé à ce sujet que la limitation du nombre d'instruments à l'ILL résulte de la renégociation en 1991-1992 de la convention signée par la France, l'Allemagne et le Royaume Uni, à la demande de ce dernier qui souhaitait réduire sa participation. Du fait de la compression du budget qui en est résulté, le nombre d'instruments a été limité à 25, à quoi s'ajoutent les équipements des CRG (Collaborative Research Group), pour atteindre un total de 30 à 33 instruments en fonction toute l'année.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que les difficultés rencontrées par l'ILL posent la question de savoir si des accords dans le cadre des institutions de l'Union européenne, à condition qu'ils soient rendus possibles, ne seraient pas mieux adaptés aux TGE, dans la mesure où ils procureraient davantage de stabilité dans la durée à ces derniers que des accords bi- ou multilatéraux.

M. Christian VETTIER a ensuite remarqué que l'ILL a effectivement vécu une période difficile à la suite de la menace de retrait britannique. Toutefois, ces menaces sont aujourd'hui conjurées. Au contraire, l'Allemagne et même le Royaume Uni souhaiteraient amplifier les moyens de l'ILL.

La parole a ensuite été donnée à M. Gérard MARTINEZ.

*

M. Gérard MARTINEZ, Directeur-adjoint du Laboratoire des champs magnétiques intenses (LCMI) / Grenoble High Magnetic Field Laboratory (GHMFL) a indiqué que ce laboratoire mixte franco-allemand géré par le CNRS et le Max-Planck-Institut für Festkörperforschung s'est vu confier trois missions, la première portant sur la production de champs magnétiques continus les plus performants, la deuxième sur une recherche propre relative au développement des meilleures conditions spécifiques expérimentales et la troisième consistant en la mise à disposition de ses instruments à la communauté scientifique internationale.

Le personnel du LCMI/GHMFL se compose de 66 membres permanents, dont 46 ingénieurs, techniciens et administrations et 20 scientifiques, et de 10 " post-docs " et 20 doctorants.

Les investissements réalisés au LCMI/GHMFL représentent un total de 200 millions de francs environ.

Le budget annuel est de 48 millions de francs, dont 23 millions de francs pour le fonctionnement et 25 millions de francs pour les salaires et les charges. Ce montant de 48 millions de francs comprend l'ensemble des dépenses, à l'exception des amortissements qui ne sont pas comptabilisés. Le budget est pris en charge à 95 % et à parts égales par le CNRS et la Max-Planck-Gesellschaft (MPG), les 5 % restants étant financés par l'Union européenne.

Le LCMI/GHMFL n'a pas la personnalité juridique mais son mode de fonctionnement se rapproche de celui d'une société civile. Un comité d'administration composé à parité de représentants du CNRS et de la MPG se réunit chaque année pour évaluer l'activité scientifique, contrôler l'exécution du budget de l'année précédente, voter le budget de l'année en cours et approuver les budgets prévisionnels des années suivantes. Il est à noter que chaque organisme gère séparément le personnel qu'il met à disposition du laboratoire.

Les installations du LCMI/GHMFL, qui ont été développées par ses propres équipes techniques, sont réparties sur 2000 m 2 et représentent une puissance électrique cumulée de 24 MW. Spécificité du laboratoire, la puissance électrique est répartie sur quatre alimentations pouvant délivrer chacune une intensité de 16500 A, avec une stabilité de l'ordre de 5.10 -6 .

Les 7 sites d'aimants résistifs se composent d'une part de 5 aimants absorbant 10 MW et délivrant des champs jusqu'à 25 Tesla dans un diamètre de 50 mm, et, d'autre part, de 2 aimants absorbant 20 MW et délivrant des champs jusqu'à 30 Tesla dans le même diamètre. Deux sites de 10 Tesla peuvent donc être exploités en parallèle mais un seul de 20 MW.

Par ailleurs, le laboratoire réalise actuellement un aimant hybride pouvant délivrer 40 Tesla dans un diamètre de 34 mm. Le budget d'investissement correspondant atteint 30 millions de francs.

Deux caractéristiques techniques distinguent les expérimentations avec de hauts champs magnétiques de celles réalisées avec d'autres très grands équipements comme les synchrotrons ou les sources de neutrons. La première est que, compte tenu des puissances électriques requises, on travaille en série et non pas en parallèle. La deuxième est que " l'on amène les manipulations là où il y a le champ magnétique " .

Le LCMI/GHMFL assure en moyenne 5000 heures de fonctionnement par an, les personnels pouvant travailler en horaires décalés et le laboratoire fermant un mois par an.

La répartition des utilisateurs est particulière : la recherche propre représente 37 % du total, les chercheurs français du CNRS et allemands de la MPG 15 %, les utilisateurs aidés par l'Union européenne 14 %, les autres utilisateurs 24 % et la réserve technique 10 %.

Plus de 80 projets scientifiques sont réalisés annuellement, dont 38 % sur les métaux, 32 % sur les semi-conducteurs, 16 % sur le magnétisme et 14 % sur la matière molle. Il est à noter que la résonance paramagnétique électronique (RPE) représente 4 à 5 % du total. Toutefois, cette technique qui s'applique à l'étude des radicaux libres, n'a pas été, jusqu'à présent, sollicitée par les biologistes au LCMI/GHMFL, alors qu'elle l'est par les chimistes.

Comme pour les autres très grands équipements, tous les projets sont examinés par le comité international de programme qui se réunit deux fois par an.

Au plan scientifique, la production du LCMI/GHMFL est de haut niveau.

Ce sont en effet 120 publications par an dans des revues à comité de lecture, dont 10 dans Physical Review Letters ou Nature, qui résultent de travaux qui y sont menés . De surcroît, le Prix Nobel de physique a été décerné en 1985 à K. VON KLITZING pour sa découverte de l'effet Hall quantique réalisée au LCMI/GHMFL.

Mais en quoi les champs magnétiques intenses présentent-ils un intérêt pour la recherche ?

A titre indicatif, les champs magnétiques que l'on observe généralement, sont faibles : 5.10 -5 Tesla pour le champ magnétique terrestre, 10 -15 Tesla pour l'activité cérébrale. Les très hauts champs s'observent dans les objets cosmiques comme les pulsars où ils atteignent 5.10 8 Tesla.

Comme on l'a vu précédemment, les champs magnétiques les plus intenses que l'on produit dans des laboratoires comme le LCMI/GHMFL peuvent atteindre 44 Tesla pour les champs continus et 70 Tesla pour les champs pulsés.

Les sondes magnétiques se caractérisent par plusieurs avantages considérables. Elles mettent en jeu des énergies très faibles : un champ magnétique de 1 Tesla correspond en effet à une énergie de 0,58.10 -4 eV, ce qui permet des analyses non destructives. Mais par ailleurs, les champs magnétiques pénètrent tous les matériaux en profondeur.

Or la matière est constituée de particules chargées, les noyaux atomiques et les électrons, qui possèdent un moment cinétique propre - le spin, dont les interactions commandent les propriétés. Le champ magnétique en agissant sur le spin et en quantifiant les états électroniques, influence profondément les propriétés de corrélation de la matière, ce qui en fait un outil idéal d'étude de ses propriétés.

Quelles sont les applications des hauts champs magnétiques ?

En premier lieu, ces techniques sont essentielles pour la mise au point de conducteurs à faible résistivité et à forte résistance mécanique. L'objectif dans ce domaine est la mise au point de matériaux pour les câbles supraconducteurs à fort champ et courant critique qu'il faut mettre au point pour développer la RMN à 1 GHz.

Le deuxième domaine est celui des méthodes de croissance pour la préparation de nouveaux matériaux, les champs magnétiques intenses permettant d'augmenter leur structuration, d'éliminer les phénomènes de convection et d'obtenir, grâce au phénomène de lévitation magnétique, des méthodes de croissance analogues à celles mises en _uvre en état d'apesanteur, et ceci pour des coûts évidemment beaucoup plus réduits.

Parmi les nombreuses applications industrielles des champs magnétiques intenses, on peut citer les conséquences des études fondamentales sur les systèmes bidimensionnels qui ont conduit l'industrie à développer les lasers solides, les transistors à effet de champ et à hautes fréquences, dispositifs au c_ur des nouvelles technologies de l'information et de la communication. Il faut également citer le développement de systèmes unidimensionnels dans les nanotechnologies, dont les applications seront probablement très nombreuses. Or pour étudier les phénomènes quantiques et les corrélations dont l'importance augmente quand on réduit les dimensions, il est nécessaire de recourir à des champs magnétiques très intenses.

Autres applications des hauts champs magnétiques, la résonance paramagnétique électronique (RPE) et la résonance magnétique nucléaire (RMN) sont des techniques d'une importance capitale pour les sciences du vivant.

*

M. Gérard MARTINEZ a par ailleurs comparé les performances de la RMN et des sources de neutrons .

La RMN (résonance magnétique nucléaire) et les sources de neutrons sont complémentaires à de nombreux points de vue.

Le point le plus important concerne la dynamique des protéines, que seules ces deux techniques permettent d'aborder.

Les neutrons permettent d'avoir des informations globales sur la mobilité interne de la protéine, notamment en ce qui concerne les chaînes latérales et les molécules d'eau adsorbées. Or la mobilité interne de la protéine gouverne son aspect fonctionnel et ceci quelle que soit sa taille. La RMN apporte également ce type d'information mais de manière plus ciblée et plus locale, ce qui est extrêmement précieux pour l'étude des interactions protéines-ligand et protéines-ADN.

Les échelles de temps de ces deux techniques sont très complémentaires. Elles varient en effet de la picoseconde (10 -12 s) à la nanoseconde (10 -9 s) pour les neutrons, de la nanoseconde à quelques millisecondes pour la RMN.

Un autre domaine où les deux techniques sont appelées à jouer un rôle complémentaire, avec le développement de la RMN à haute résolution pour les solides, est celui des objets non cristallisables comme les protéines membranaires, les membranes et les micro-tubules.

Enfin, il faut évoquer la question des gros assemblages de protéines en interaction, dont les neutrons sont les seuls à permettre d'obtenir une structure basse résolution. L'accroissement de la sensibilité de la RMN laisse espérer dans le futur, une étude des interactions locales entre les protéines impliquées dans ces complexes.

En ce qui concerne les structures haute résolution des protéines cristallisées, les neutrons pas plus que la RMN, ne sont compétitifs avec l'utilisation du rayonnement synchrotron. Ils peuvent néanmoins apporter des informations spécifiques sur la position des protons, qui, lorsqu'ils gardent une mobilité locale, restent inaccessibles aux rayons X.

*

En définitive, il n'est pas usurpé de dire que " le magnétisme est un outil qui joue et jouera un rôle direct et indirect de plus en plus important dans la maîtrise des matériaux complexes et nouveaux, ainsi qu'en biochimie et en pharmacie ".

Performant sur le plan scientifique et consacrant ses efforts à un domaine d'une très grande importance pour l'avenir, le Laboratoire des champs magnétiques intenses (LCMI/GHMFL) voit pourtant son existence menacée au delà de 2004.

La convention passée entre le CNRS et la MPG pour la gestion des installations du LMCI expire en effet en décembre 2004. Or  la MPG a fait connaître son intention de ne plus participer à la gestion du laboratoire dans le cadre d'une convention bipartite avec le CNRS, tout en laissant la porte ouverte à toute solution impliquant plus de deux partenaires.

La participation de nouveaux partenaires apparaît possible et même souhaitable. En tout état de cause, il est indispensable que les responsables de la recherche française engagent des contacts de haut niveau pour concrétiser l'intérêt évident de plusieurs pays européens pour ce laboratoire.

L'élargissement du partenariat suppose toutefois des modifications de structure du LCMI. En effet, depuis l'origine, ce laboratoire est doté, comme on l'a vu, de deux groupes de personnels et de deux comptabilités différentes. Une telle organisation ne peut servir de modèle pour l'avenir.

La direction du LCMI/GHMFL préconise en conséquence une nouvelle structure opérationnelle avec " un statut de droit privé incluant la gestion propre du personnel " . Un tel changement nécessite une décision politique.

En réponse à M. René TRÉGOUËT, Sénateur, rapporteur, demandant pour quelles raisons la MPG envisage son retrait partiel ou complet, M. Peter WYDER, Directeur du LCMI/GHMFL a précisé que son laboratoire est en réalité " victime de son succès " .

Il fait partie de la politique de la MPG de renouveler ses activités et de fermer certaines installations pour en ouvrir d'autres. Son engagement dans le LCMI est considéré comme un succès mais la MPG a décidé de redéployer, au moins en partie, les financements qui lui ont été consacrés.

Une discussion est alors intervenue sur l'organisation du système de recherche outre-Rhin.

*

M. Gérard MARTINEZ a expliqué que le système allemand de recherche est structuré en quatre pôles.

Le premier pôle est la Deutsche Forschungsgemeinschaft (DFG), agence de moyen du type de la NSF américaine (National Science Foundation), pour les opérations individuelles de recherche dans les universités. La DFG dépend entièrement du ministère de la recherche, le BMBF (Bundesministerium für Bildung und Forschung), qui couvre l'ensemble des domaines scientifiques et techniques.

Le deuxième pôle est la Max-Planck Gesellschaft (MPG), société de droit privé subventionnée à hauteur de 50 % de ses dépenses par le BMBF mais aussi par les Lander et par des legs. Le MPG gère directement ses instituts de recherche.

Le troisième pôle second est celui du Helmholtz (Hermann von Helmholtz-Gemeinschaft Deutscher Forschungszentren - HGF), association d'instituts recevant chacun directement leurs ressources du BMBF et gérés de façon autonome.

Le quatrième pôle est le Wissenschaftsgemeinschaft Gottfried Wilhelm Leibnitz, association d'instituts issus de la fameuse " Blaue List " , subventionnés à 50 % par le BMBF et à 50 % par les Lander.

M. Jochen SCHNEIDER, membre du groupe de travail a précisé que la Max-Planck Gesellschaft s'est développée essentiellement sous la forme d'instituts créés autour de personnalités marquantes afin de servir leurs thèmes de recherche privilégiés. Au contraire, un organisme comme le CEA a des buts prédéfinis et recrute les spécialistes en conséquence.

L'organisme LEIBNITZ réunit quant à lui les instituts de la " Blaue List " , d'importance moyenne, de financement diversifié - les crédits publics représentent moins de la moitié du total de leurs ressources - et d'une certaine antériorité alors que leur but initial n'était pas d'être pérennisés.

L'institut HELMHOLTZ (HGF) rassemble quant à lui de grands centres de recherche travaillant sur des sujets variés, dont le centre DESY de Hambourg. On estime généralement qu'il reste au HGF à trouver une identité.

*

En réponse à une question de M. Gilles COHEN-TANNOUDJI sur les possibilités d'atteindre des champs magnétiques plus élevés qu'actuellement, M. Gérard MARTINEZ a précisé qu'avec des champs magnétiques pulsés, il sera probablement possible d'atteindre 100 Tesla, la limite actuelle étant de 60 Tesla. En matière de champs continus, la limite actuelle est de 50 Tesla, obtenue avec un doublement de la puissance qui se traduit par un gain de 10, 20 ou 30 %.

M. Dominique GIVORD a expliqué qu'au-delà de 50 Tesla, les champs magnétiques transitoires représentent une voie d'avenir. Pour le moment, la limite technique est représentée par une durée de 0,5 seconde pour un champ de 100 Tesla. Au-delà de cette limite, les problèmes de tenue mécanique des matériaux deviennent très difficiles à résoudre. Le laboratoire des champs magnétiques pulsés de Toulouse a pu créer un champ de 80 Tesla pendant 300 ms. Un champ de 60 Tesla pendant une seconde a été obtenu à Los Alamos. Des champs de 250 Tesla ont été obtenus en Allemagne et au Japon.

L'objectif recherché en augmentant l'intensité du champ magnétique est l'étude des couplages directs entre moments magnétiques. Avec des intensités supérieures à 100 Tesla, on atteint en effet les niveaux de couplage naturels des atomes. On espère ainsi progresser dans la connaissance de la supraconductivité, notamment pour la production de champs magnétiques plus intenses.

M. Claude BERTHIER, responsable des programmes RMN au LCMI/GHMFL a précisé qu'il existe des matériaux dont les champs critiques sont supérieurs à 100 Tesla mais qu'on rencontre de grandes difficultés pour leur mise en forme.

*

M. Gérard MARTINEZ a ensuite traité de la prospective de la RMN à hauts champs.

Un atome spécifique soumis à un champ magnétique est soumis à une résonance dont la fréquence dépend de l'intensité du champ qui lui est appliqué, de son rapport gyromagnétique spécifique, de son moment cinétique propre (spin) et de son environnement électronique et nucléaire.

La résonance magnétique nucléaire (RMN) est donc une sonde locale qui a une spécificité chimique. Avec une résolution suffisante, la méthode permet de sélectionner l'espèce chimique étudiée et de recueillir des informations structurales y compris dynamiques, sans qu'il soit nécessaire de travailler sur des cristaux.

En conséquence, la RMN présente un intérêt exceptionnel pour l'étude des protéines et de leurs fonctionnalités. En effet, il est fondamental de connaître non seulement la structure de la molécule mais également comment varie cette structure selon sa fonctionnalité et donc son environnement.

Or la RMN permet de résoudre les structures dans un environnement solide ou liquide, ce qui met à sa portée l'étude des protéines membranaires par exemple. Au reste, pour les protéines qui ne cristallisent pas, en particulier les protéines membranaires et les protéines hétérogènes, la RMN est la seule méthode disponible. De plus, cette méthode permet également d'étudier les mouvements moléculaires et de les corréler à la cinétique chimique favorisée ou inhibée par les protéines. La RMN peut enfin servir à caractériser des complexes binaires ou ternaires et des protéines hétérogènes.

Compte tenu de ces atouts, la RMN connaît des développements à la fois méthodologiques et technologiques.

En augmentant les champs magnétiques appliqués, on augmente le déplacement chimique et la largeur de raie pour chaque transition, pour une espèce particulière comme l'atome d'hydrogène. Une autre technique consiste à envoyer des trains d'impulsion de radiofréquences appropriées basées sur deux échelles de temps variables. Cette méthode, intitulée RMN 2D, permet d'identifier les interactions entre deux espèces chimiques différentes, par exemple la liaison carbone-hydrogène. Il est également possible de faire aujourd'hui de la RMN 3D.

En tout état de cause, la RMN semble repousser régulièrement ses limites techniques par l'invention de nouvelles méthodes, de sorte que la taille des molécules qu'elle permet d'étudier s'accroît régulièrement. A cet égard, l'augmentation des champs magnétiques appliqués ne procure que des avantages.

Le " prix à payer " dans cette évolution vers des champs d'intensité plus élevée, c'est la qualité de ceux-ci. Il ne sert en effet à rien d'augmenter le champ magnétique si l'on perd de son homogénéité.

Les meilleurs spectromètres commerciaux sont actuellement à 800 MHz, ce qui suppose l'utilisation de supraconducteurs.

De fait, dans ces conditions, l'utilisation de la RMN est limitée à l'étude de molécules de poids moléculaire inférieur à 40 000 Dalton 3 .

En tout état de cause, le rayonnement synchrotron ne présente pas cette limitation, bénéficie d'une meilleure précision et d'une plus grande rapidité. Mais il est limité aux molécules cristallisées.

La RMN, quant à elle, est certes limitée à des poids moléculaires relativement faibles pour des protéines. Mais hormis cette limitation de poids moléculaire, la RMN présente l'avantage non seulement de pouvoir être appliquée à des molécules non cristallisables comme les protéines membranaires et disponibles en faible quantité, mais également d'ouvrir le champ des études dynamiques.

En l'état actuel des techniques, la RMN et le rayonnement synchrotron apparaissent donc comme complémentaires.

Qu'en sera-t-il à l'avenir ?

Les technologies actuelles permettent d'ores et déjà de faire de la RMN à 900 MHz. Plusieurs pays ont déjà commandé des machines de ce type, dont l'Allemagne qui devrait être équipée de 2 exemplaires à la fin 2000. La France n'a pas encore, quant à elle, passé de commande.

En progressant à 1 GHz, la limite de poids moléculaire devrait passer à 80 000 Dalton.

Le passage à 1 GHz représente de fait un saut technologique. De nouveaux matériaux supraconducteurs sont en effet nécessaires, ainsi que des techniques nouvelles. Le prix estimé d'un tel spectromètre devrait être de 15 millions de dollars, sans compter l'infrastructure nécessaire.

Il semble donc que la RMN et le rayonnement synchrotron vont continuer d'être, pour au moins quelques années encore, des techniques complémentaires plutôt que substituables.

Pour autant, il semble nécessaire d'approfondir les recherches sur la mise au point de spectromètres à 1 GHz. A la suite d'une demande du ministère de la recherche en date de mai 2000, le LCMI/GHMFL a étudié les conditions d'un tel programme et devrait rendre ses conclusions à la fin de l'année.

La mise au point d'un spectromètre de RMN à 1 GHz à finalité biochimique nécessiterait des recherches sur 5 ans pour un investissement cumulé de l'ordre de 200 millions de francs. Le prototype pourrait être installé à Grenoble, l'objectif étant la réalisation de 5 centres d'excellence en Europe dotés chacun dans un premier temps de spectromètres à 900 MHz puis ultérieurement d'une machine à 1 GHz. Un tel plan rejoindrait la stratégie américaine qui prévoit, elle, la création de 10 centres d'excellence pour la RMN équipés selon ce schéma.

*

Le Dr. Denis LE BIHAN, membre du groupe de travail , a indiqué que l'une des questions clés en matière d'imagerie cérébrale est l'étude moléculaire in situ. La difficulté technique essentielle est de créer des champs magnétiques homogènes sur un volume important correspondant au corps des animaux d'expérimentation, l'observation des primates nécessitant en particulier des aimants plus grands. Le retard de la France en équipements modernes est à cet égard important. Alors qu'aux Etats-Unis, il existe des imageurs à 14 Tesla pour l'observation des animaux, il n'en existe pas à 7 Tesla en France.

Le retard est similaire pour les imageurs utilisés pour l'homme. Les Etats-Unis disposent d'imageurs dans la gamme 7 à 10 Tesla pour la recherche. Les meilleures machines pour la recherche appartiennent au contraire à la catégorie des machines de 3 Tesla avec des entrefers de 60 à 80 cm utilisées en clinique outre-Atlantique.

Dans ces conditions que conviendrait-il de développer en France ?

La mise au point d'une machine à 10 Tesla pour l'animal serait un bon objectif de développement et constituerait en soi un projet de l'envergure d'un très grand équipement.

Un autre axe de recherche est digne d'intérêt. Il s'agit des blocs opératoires placés dans des hauts champs magnétiques, une technique qui permet de visualiser les tissus. Il existe d'ores et déjà 11 prototypes dans le monde.

Il semble important qu'une réflexion soit entamée sur cette question dans notre pays.

Un débat est alors intervenu sur la faisabilité des spectromètres et des imageurs à hauts champs magnétiques.

*

M. Gérard MARTINEZ a indiqué que la recherche française possède des compétences dans la conception de matériels de ce type. En revanche, faute de compétences dans la fabrication des matériaux supraconducteurs, il sera nécessaire de s'appuyer sur des entreprises comme Bruker, Magnex ou Kobe Industry qui maîtrisent les technologies de ce type.

En réponse à une demande de M. Jochen SCHNEIDER , M. Christian VETTIER et M. Gérard MARTINEZ ont accepté de fournir aux Rapporteurs et aux membres de leur groupe de travail, une étude comparative sur les avantages et les inconvénients respectifs des sources de neutrons et de la RMN à hauts champs.

M. Claude BERTHIER a précisé que deux types de contraintes pèsent sur la RMN à hauts champs. Il s'agit en premier lieu de la nécessité d'avoir un champ magnétique homogène. Il faut de surcroît que ce dernier soit stable. En tout état de cause, les deux conditions doivent être réunies simultanément. En effet, l'homogénéité n'a aucun intérêt s'il n'y a pas de stabilité dans le temps. Il faut donc des bobines supraconductrices qui ne génèrent pas de fluctuations.

A cet égard, il existe un verrou technologique à faire sauter pour passer des machines à 900 MHz déjà commercialisées à la prochaine génération de machines à 1 GHz.

Mais l'histoire de la RMN est faite de progrès inattendus, en particulier méthodologiques, qui ont permis sans cesse de repousser plus loin les limites de cette technique.

Les projets de RMN ne figurent pas pour le moment au chapitre des très grands équipements. Il faut toutefois constater une tendance nouvelle à la constitution de grands centres de RMN qui pourraient, une fois réalisés en France, appartenir à la catégorie des TGE.

*

En conclusion à la réunion, M. René TRÉGOUËT, Sénateur, rapporteur, a remercié les participants à la réunion pour la qualité des informations données et s'est félicité de la passion manifestée par les orateurs pour leurs domaines de recherche respectifs.

6. Politique générale des TGE - Politique des TGE pour l'analyse fine de la matière, les STIC et les sciences du vivant - mercredi 28 juin 2000

Compagnie de Saint Gobain

• M. J-C LEHMANN, Directeur de la recherche de Saint Gobain

Ministère de la Recherche : Direction de la Recherche

• M. Michel FOUGEREAU, Conseiller du Directeur de la Recherche pour les sciences de la vie, la biologie et la médecine

• M. Jacques HAIECH, Directeur du Programme national de génomique

• M. Claude PUECH, Conseiller du Directeur de la Recherche pour les Mathématiques et l'Informatique

• Mme Michèle LEDUC, Conseiller du Directeur de la Recherche pour la Physique et les Sciences de l'Ingénieur

Ministère de la Recherche : Direction de la Technologie

• M. Jean-Alexis GRIMAUD, Directeur du département bio-ingéniérie

• M. Maurice FISCHER, Conseiller pour les technologies de l'information

• M. Bernard FROIS, Directeur du département énergie, transports, environnement, ressources naturelles

• M. Philippe LECONTE, Conseiller à la Direction de la Technologie

M. René TRÉGOUËT, Sénateur, rapporteur, a ouvert la réunion en remerciant M. Jean-Claude LEHMANN d'avoir bien voulu revenir devant le groupe de travail s'exprimer sur " le rôle des très grands équipements dans la recherche publique et privée en France et en Europe " , après avoir déjà donné un point de vue remarqué sur la première partie de l'étude, à savoir " les conditions d'implantation d'un nouveau synchrotron ".

Sans doute à l'occasion de ce nouvel exposé serait-il utile au groupe de travail d'avoir son opinion sur la définition des TGE, les processus de décision sur l'établissement des priorités et les modalités d'une participation accrue de l'industrie à leur construction.

La parole a été donnée à M. Jean-Claude LEHMANN.

*

M. Jean-Claude LEHMANN, Directeur de la Recherche de la Compagnie Saint Gobain, a commencé son intervention en indiquant qu'à la lumière des comptes rendus des réunions déjà tenues par le groupe de travail, il semble nécessaire de redéfinir les très grands équipements, une notion au demeurant limitative. Au vrai, pour quelles raisons a-t-on été conduit à ce concept ?

La première raison est qu'il est nécessaire de caractériser les équipements à vocation collective. On se souvient à cet égard que le premier très grand équipement à avoir été réalisé est le grand électroaimant de Bellevue, construit avant-guerre par l'Académie des sciences.

La deuxième raison est d'ordre financier avec la prise en compte d'investissements très importants et pluriannuels. Il s'agit donc de réconcilier les budgets annuels concernés avec la nécessité d'une programmation pluriannuelle.

La troisième raison correspond à l'obligation de définir et de respecter un équilibre entre le financement des très grands équipements et la prise en charges des équipements mi-lourds des laboratoires et de leurs frais de fonctionnement.

Enfin, en tant que quatrième raison d'élaborer une définition des TGE, figure la nécessité d'avoir une vision à long terme de la planification de ces derniers, du fait de l'importance des investissements qu'ils requièrent et de leur poids relatif par rapport aux autres types d'investissements.

En tout état de cause, si l'on veut un outil de conduite de la politique de la recherche, il faut bien une définition des TGE.

Bien entendu, la tentation est grande d'inclure dans la catégorie des TGE des dépenses de plus en plus nombreuses, dans la mesure où l'enveloppe budgétaire des TGE semble garantie et où, ce faisant, elles pourront sembler protégées à leur tour.

Toutefois, avec une telle méthode, on procéderait à l'inverse de ce qu'il convient de faire. Il faut en tout état de cause une dichotomie et en respecter les fondements.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur la condition de l'unité de lieu pour l'appartenance à la catégorie des TGE et sur l'inclusion d'une structure éclatée comme RENATER 2, M. Jean-Claude LEHMANN a estimé qu'un réseau physique résultant d'un investissement lourd répond effectivement à la même logique et peut donc être considéré comme un TGE mais qu'un réseau de laboratoires ne peut l'être.

M. Roger BALIAN s'étant interrogé sur l'usage nécessairement collectif du TGE et en conséquence sur la nature du CERN, M. Jean-Claude LEHMANN a souligné que le CERN sert toute la collectivité de la physique des particules et que sa définition d'un TGE exclut l'obligation qu'il soit pluridisciplinaire. Dans ce registre, l'usage collectif peut être national ou international, tandis que les équipements mi-lourds comme la RMN rayonnent sur la communauté scientifique à l'échelon local.

En réponse à une question de Mme Claudine LAURENT sur la catégorie d'appartenance de SOHO, M. Jean-Claude LEHMANN a estimé que le spatial excipe d'une autre catégorie que celle des TGE. Les équipements spatiaux sont à l'évidence des moyens lourds mais ils représentent une catégorie en soi dans la politique de recherche nationale, catégorie qu'il faut traiter en tant que telle. Il convient en tout état de cause de ne faire pas de la catégorie des TGE un fourre-tout comprenant des infrastructures disparates, les bibliothèques en particulier ne pouvant y figurer.

Une fois définie la catégorie des TGE, quel poids budgétaire doit-elle avoir ?

En premier lieu, la composition des TGE ne doit pas être considérée comme immuable. A cet égard, on ne saurait refuser que la part de la physique nucléaire décroisse en valeur relative, alors que la montée des besoins des sciences et technologies de l'information et de la communication et celle des sciences du vivant seraient établies. Ainsi, deux écueils doivent être évités, d'une part la continuité absolue, et, d'autre part, la banalisation de la notion.

De toute évidence, il semble impossible d'échapper à une vraie réflexion sur le poids à accorder aux TGE dans la politique de la recherche. Comme, par ailleurs, les TGE sont analogues à un lourd navire dont les changements de cap sont nécessairement lents, cette réflexion doit être permanente.

Ce travail permanent de réflexion sur l'enveloppe globale des TGE semble revenir au Conseil supérieur de la recherche et de la technologie (CSRT) qui rassemble des représentants de la recherche publique, de l'industrie et des syndicats, et non pas à une commission parlementaire. Il s'agit d'analyser les grandes tendances de la recherche et d'examiner quels sont les grands équilibres à respecter. Au demeurant, les avis du CSRT peuvent éclairer également les réflexions du Parlement.

A ce niveau de la réflexion, une fois l'enveloppe globale déterminée, il s'agit d'allouer les sommes disponibles aux différents TGE et d'établir une programmation à long terme.

Pour contribuer à la réflexion sur la répartition entre les différentes disciplines de l'enveloppe des TGE, faut-il recréer le précédent Conseil des grands équipements ?

Le Conseil des grands équipements avait un rôle, non pas dans la définition du budget global alloué aux TGE mais dans l'examen du détail des projets, en vue de faire des propositions au Gouvernement.

La disparition du Conseil des grands équipements a incontestablement introduit une faiblesse supplémentaire dans le dispositif. La définition d'une masse globale ne semble pas obéir à une règle prédéfinie, sa répartition non plus, ce qui laisse libre cours aux rivalités entre disciplines.

En tout état de cause, il faut une structure qui permette " de voir venir de loin " les projets. Ceux-ci mettent en effet dix ans à se monter, avec les phases nécessaires de mise au point technique, de justification scientifique et de lobbying. Seul un Conseil spécialisé peut peser les arguments des différents projets et proposer des choix au Gouvernement.

Une discussion s'est alors engagée sur la méthodologie à suivre pour déterminer la part optimale des TGE dans les crédits de la recherche.

*

M. Michel SPIRO, membre du groupe de travail, a estimé qu'une autre méthode devrait être utilisée. Le point de départ de la démarche doit être une répartition discipline par discipline des crédits disponibles. C'est une fois cette répartition faite qu'à l'intérieur de chaque discipline, l'arbitrage entre les très grands équipements et les autres dépenses doit être fait.

Pour M. Jean-Claude LEHMANN , " on dépasse au XXI e siècle la notion de discipline " . Il faut en conséquence une démarche globale, fondée sur la consolidation de l'expression de la communauté scientifique relative aux différentes disciplines, consolidation qui débouche ensuite sur la définition de l'équilibre entre très grands équipements et autres investissements. En tout état de cause, la détermination d'un équilibre répondant aux besoins scientifiques est fondamentale, une réflexion sur la gestion des priorités ne pouvant être évitée.

M. Jean GALLOT, membre du groupe de travail , a relevé qu'une question supplémentaire doit être posée. S'il est nécessaire de traiter d'une part la question du poids des TGE dans l'enveloppe globale de la recherche et d'autre part celle de la ventilation entre disciplines des crédits réservés à ces derniers, il convient également de savoir comment on définit l'ampleur de l'enveloppe globale attribuée à la recherche. Cette dernière question doit, elle aussi, être traitée par la communauté scientifique. La mise en place d'une méthode de décision plus rationnelle pour les TGE exige en tout état de cause que les besoins scientifiques soient injectés, en tant que paramètre essentiel, dans la détermination de l'enveloppe globale de la recherche.

M. Jean-Claude LEHMANN a souligné que la définition de l'enveloppe TGE indépendamment de l'enveloppe globale serait une aberration. Il appartient au CSRT ou à une autre structure importante de conduire une réflexion permanente à ce sujet. Au demeurant, il faut bien constater une inertie considérable de nombreuses lignes des budgets de recherche, ceci créant des difficultés que connaissent bien les entreprises soumises certaines années à des diminutions brutales dans ce domaine.

M. Gilles COHEN-TANNOUDJI, membre du groupe de travail , a remarqué que la définition des TGE a une dimension " temporelle " importante. L'évolution technique peut faire qu'un instrument n'entre pas pendant longtemps dans la catégorie des TGE, connaisse ensuite une évolution technique qui l'y fasse entrer, puis une évolution en sens inverse qui l'en fasse sortir. Les gros ordinateurs peuvent relever un temps de cette catégorie, puis se banaliser du fait du progrès technique et de l'abaissement des coûts dans l'industrie informatique. Par ailleurs, une tendance forte de l'évolution des grands instruments est souvent celle de la diminution de leur taille. Ainsi, après la mise au point de l'ESRF, il n'est pas question de construire un " super ESRF " mais d'égaler ou presque ses performances avec un équipement d'une énergie très inférieure.

M. Jean-Claude LEHMANN a approuvé cette vision des choses, en soulignant qu'il existe effectivement des technologies qui se développent tout en enregistrant une diminution de leurs coûts.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé nécessaire d'approfondir la réflexion sur un processus déficient, à savoir la situation créée tant par les limites de l'action du Conseil des grands équipements que par celle de sa dissolution.

Il a pu être reproché à l'Office de conduire une étude sur les TGE qui ne représentera qu'une vision instantanée d'une question s'étendant au contraire sur plusieurs années.

En réalité, par nature, l'Office parlementaire d'évaluation des choix scientifiques et technologiques doit éclairer le Parlement sur des choix durables et porteurs d'avenir.

Après 17 années de travaux de l'Office, il est temps que l'exécutif et la communauté scientifique réalisent que le Parlement porte une attention forte aux questions scientifiques et techniques. Ce dernier doit être intégré dans le processus relatif aux TGE.

En amont, lorsque le Parlement débat des orientations budgétaires, les élus doivent faire connaître au Gouvernement le degré de priorité donnée à la recherche par la Nation.

Mais " c'est aussi au Parlement de dire les priorités de recherche " . La communauté scientifique et technique ayant fait connaître ses préférences en termes de types de moyens dont elle souhaite disposer, il convient que l'Office fasse des recommandations à cet égard, en intégrant bien entendu les contraintes budgétaires.

Le rôle du Parlement n'est pas seulement d'intervenir en matière budgétaire. Il est également d'exprimer, avec l'aide de l'Office, des choix scientifiques et technologiques.

Le Congrès a joué un rôle capital dans l'effort massif engagé par les Etats-Unis dans le domaine des sciences du vivant. Ce rôle doit être pris en exemple.

En définitive, il convient d'intégrer l'Office parlementaire d'évaluation des choix scientifiques et technologiques dans le processus de décision relatif aux très grands équipements.

Au demeurant, l'Office ayant une démarche consensuelle et pouvant se situer dans la durée, ses avis ne peuvent être pris à la légère.

M. Jean-Claude LEHMANN a fait connaître son accord avec cette analyse. De fait, il existe en France un manque de dialogue entre la science, la technologie et le monde politique, comparativement à ce que l'on rencontre au Royaume Uni et aux Etats-Unis.

Si le rôle du CSRT peut être d'ores et déjà jugé comme important, il est indispensable que ses travaux soient réellement portés à la connaissance du Parlement et qu'il contribue, le cas échéant, au dialogue entre ce dernier et la communauté scientifique.

M. Roger BALIAN a estimé que le rôle attribué par M. Jean-Claude LEHMANN au Conseil des grands équipements est rétrospectivement quelque peu idyllique.

Contrairement à ce qui a été obligeamment dit, le Conseil des grands équipements ne pouvait avoir de vision à long terme, dans la mesure où les projets de TGE étaient portés à sa connaissance une fois qu'ils étaient " mûrs " .

De plus, il n'avait pas de vision globale dans la mesure où il ne pouvait avoir de vision politique.

En conséquence, le rapport du Conseil des grands équipements jouait essentiellement le rôle d'inventaire et d'état des lieux.

En outre, en tant qu'organe de consultation à la disposition du ministre, le Conseil n'avait pas de pouvoir d'auto-saisine. C'est ainsi qu'il n'a pu évoquer le rayonnement synchrotron que par la bande, car les projets n'étaient pas " arrivés " jusqu'au Conseil. En tout état de cause, son pouvoir d'évocation se limitait aux projets dont il était saisi.

M. Jean-Claude LEHMANN a de nouveau fait remarquer que, compte tenu de l'importance des engagements financiers, il faut d'abord déterminer un équilibre entre les TGE et les autres dépenses de recherche, puis instruire les dossiers de TGE. Par ailleurs, s'il importe que le Parlement soit partie prenante de la réflexion sur les grands équilibres, il n'en demeure pas moins qu'une structure de suivi à long terme des TGE est indispensable.

*

Deux autres aspects ont ensuite été abordés par M. Jean-Claude LEHMANN , la dimension nationale ou internationale des TGE et l'intérêt de l'industrie pour ces derniers.

Le passage à l'échelle européenne semble indispensable dès que les TGE atteignent une certaine dimension. Mais ceci ne concerne pas tous les TGE.

Il faut donc une programmation au niveau européen, tout en sachant que les difficultés d'un tel exercice n'épargnent pas les Etats-Unis qui sont souvent loin, eux aussi, de l'optimum.

Par ailleurs, il convient de ne pas sous-estimer le caractère ardu de négociations internationales dans un tel domaine.

Ce sont des structures spécialisées qui devraient intervenir, composées de spécialistes rompus aux négociations, avec la difficulté que les communautés scientifiques restent principalement nationales.

Sur la question de savoir si la création d'un Conseil des grands équipements européens est opportune, la réponse est positive, en tout cas pour le rayonnement synchrotron.

Sur le plan de son implication dans les TGE, l'industrie est loin d'être au bout de sa réflexion sur les deux points essentiels qui sont, d'une part, les bénéfices que la recherche industrielle pourrait tirer d'une utilisation accrue des TGE, et, d'autre part, les modalités de sa participation à la création ou à l'exploitation de ces installations.

Dans des domaines de plus en plus nombreux de la recherche, par exemple la biologie, la science des matériaux ou l'informatique, les entreprises mondiales sont de plus en plus confrontées à la nécessité d'accélérer leurs processus de développements technologiques. Il est incontestable que des instruments comme les synchrotrons ou les sources de neutrons, grâce à leurs performances exceptionnelles, permettent, par exemple, d'élucider des structures complexes beaucoup plus rapidement que les équipements de laboratoire. Toutefois, l'industrie n'est pas " au bout de cette logique " . Les TGE peuvent être la clé pour résoudre plus vite des problèmes ardus. On peut imaginer à cet égard une généralisation de leur emploi si une ou plusieurs entreprises d'un secteur fortement concurrencé découvrent que les TGE accélèrent le rythme de leur recherche.

S'agissant de la participation de l'industrie à la vie des TGE, il convient de réaliser que les grandes entreprises internationales considèrent leur accès aux moyens de recherche publique de façon globale. Une entreprise comme la Compagnie Saint Gobain souhaite privilégier la France pour ses accès au rayonnement synchrotron mais peut tout aussi bien recourir aux équipements américains.

Mettant en _uvre une politique scientifique globale, les entreprises implantent leurs laboratoires de recherche dans l'environnement le plus favorable, même si celui-ci se trouve dans différents pays. A cet égard, la contiguïté d'un TGE et de laboratoires de recherche profite aux deux.

En dehors de l'obligation de posséder au moins un laboratoire aux Etats-Unis et au Japon, les entreprises mondiales répartissent le plus intelligemment possible leur recherche dans différents pays. A cet égard, les entreprises britanniques sont les plus mondialisées. Tout en réalisant une part accrue de leur recherche à l'étranger, des entreprises françaises comme Saint Gobain souhaitent conserver, voire agrandir leur implantation de recherche en France. La qualité et l'originalité de la formation délivrée en France constituent par ailleurs la principale raison pour laquelle les entreprises étrangères implantent un laboratoire en France.

Il importe en conséquence que la France garde son potentiel intellectuel au niveau le plus élevé possible, car c'est son principal atout.

Faut-il, dans ces conditions, concevoir et exécuter toute la politique de recherche et son volet " grands équipements " au niveau de l'Europe ? Assurément pas : il faut au contraire garder en France un potentiel de recherche dans tous les secteurs.

S'agissant de la participation de l'industrie à l'investissement dans les très grands équipements et à leur dépenses de fonctionnement, M. Jean-Claude LEHMANN a noté qu'il y a peu d'industriels dans notre pays intéressés par les TGE. Il y en a en tout cas moins que dans d'autres pays. A cet égard, l'intérêt de Total Fina Elf pour le futur synchrotron semble lié à son éventuelle implantation en Aquitaine.

Considérant que le niveau des impôts est élevé en France, les entreprises entendent que l'Etat apporte en retour de multiples services, dont l'accès à des très grands équipements. Au reste, une entreprise comme Saint Gobain n'investit pas pour le moment dans ce domaine.

Néanmoins, il faut bien constater la sensibilité des entreprises françaises aux avantages fiscaux. Le crédit impôt recherche est, à cet égard, une mesure positive, qui s'est révélée beaucoup plus efficace qu'une subvention. Le crédit d'impôt recherche a en effet contribué à convaincre les directions financières que les dépenses de recherche ont au moins l'utilité de générer des avantages fiscaux.

Dans la mesure où la fiscalité est un puissant facteur de motivation dans notre pays, il serait sans nul doute utile d'imaginer des mesures fiscales permettant de surmonter le blocage des entreprises françaises vis-à-vis du financement de la construction des TGE.

Si la France est en retard pour l'investissement dans les TGE, elle l'est également pour la participation à leurs dépenses de fonctionnement.

Les chercheurs de l'industrie participent certes à des expérimentations sur les grands instruments, mais le plus souvent par l'intermédiaire d'équipes universitaires ou d'organismes de recherche.

En réalité, dans les laboratoires de l'industrie, il n'existe pas assez de scientifiques aptes à réaliser ces expériences par eux-mêmes. De toute façon, une barrière psychologique et un manque de temps pour se former s'opposent à une utilisation directe. Enfin, le système d'accès aux grands instruments est organisé de manière telle que le coût d'utilisation est, dans ces conditions, inférieur à celui d'un accès direct.

Pour autant, les entreprises industrielles ont l'habitude de payer les services qui leur sont véritablement utiles.

Si dans le domaine des investissements, une incitation fiscale permettrait sans doute de débloquer les réticences des entreprises à participer au financement d'équipements directement opérationnels comme des lignes de lumière sur un synchrotron, il convient que, dans le domaine de l'accès aux installations, de véritables offres de service globales soient mises au point, évitant le passage par les comités de programme et apportant un service personnalisé dans des délais très courts, avec un encadrement étroit des chercheurs de l'entreprise. Ces deux aspects se rencontrent fréquemment aux Etats-Unis. Des progrès ont déjà été faits sur certaines installations, comme l'ESRF.

*

Un échange est alors intervenu sur les moyens d'impliquer davantage l'industrie dans les TGE.

M. Philippe LAREDO a indiqué que l'utilisation des bassins de carènes par l'industrie, dans le cas de la construction navale, ne s'est développée qu'à partir du moment où des services ont été proposés en parallèle avec l'accès à l'équipement considéré.

M. Roger BALIAN , observant que la constitution d'une " cellule entreprises " a été demandée au Laboratoire Léon Brillouin, a estimé que le passage par des équipes de laboratoires publics se justifie par une troisième raison, à savoir l'absence de compétences propres en recherche dans un nombre croissant d'entreprises qui adoptent la solution de l'externalisation complète de cette fonction.

M. Jean-Claude LEHMANN a confirmé que cette tendance se développe et qu'il conviendrait sans doute, en conséquence, de créer des " universités de service " aux entreprises.

M. Robert COMÈS est revenu sur les difficultés de création de cellules commerciales auprès des TGE et sur les questions de tarification.

Il est incontestable que l'ESRF a su mettre en place un service efficace d'assistance aux utilisateurs. Le même objectif a été poursuivi au LURE mais la valorisation insuffisante des fonctions correspondantes par les organismes de recherche dissuade les chercheurs les plus capables de s'y engager. S'agissant de la tarification de l'accès direct aux TGE, il convient dans le cas des synchrotrons de remarquer une hétérogénéité très grande dans les prix pratiqués, ceux-ci allant de la gratuité comme pour le synchrotron de Brookhaven au coût réel pour les installations constituées en société commerciale comme Bessy à Berlin.

Un marché des lignes de lumière est ainsi en cours de création sur des bases toutefois peu claires.

M. Jean-Claude LEHMANN a confirmé que les industriels attendent un accueil professionnel de la part des exploitants des TGE, ce qui suppose la création de fonctions nouvelles et que celles-ci soient occupées par des scientifiques de premier niveau, contrairement à la situation présente.

Précisant à la demande de M. Philippe LAREDO quel est le niveau de responsabilité optimum, français ou européen, pour les très grands équipements, M. Jean-Claude LEHMANN a estimé qu'en réalité les deux sont nécessaires. Il est certes important de parvenir à un équilibre en Europe mais il existe au plan national des collectivités scientifiques qui ont des besoins d'accès à satisfaire. En définitive, il faudrait d'une part un Conseil des grands équipements au niveau national et, d'autre part, une structure pour chaque type d'équipement au niveau européen.

M. Philippe LAREDO a remarqué que les montants des subventions pour la recherche provenant des fonds structurels européens dépassent les crédits du PCRD. Pour autant, l'utilisation de ces fonds structurels finançant des infrastructures n'est jamais discutée, alors qu'elle est au coeur de la politique européenne. On peut donc faire une fois de plus le constat que les organismes de recherche français devraient être plus présents dans les instances européennes.

M. Robert COMÈS a présenté le cas particulier des sources de neutrons comme crucial. Il existe en effet des réacteurs sous-performants en Europe. Par ailleurs, il semble que l'on ne tire pas actuellement tout le parti possible du LLB et de l'ILL et qu'il existe de grandes difficultés à lancer l'ESS.

Ces éléments concourent à créer un déficit de l'offre préjudiciable pour de nombreuses disciplines.

Après cet échange de vues, la réunion a été consacrée à l'exposé de la politique du ministère de la recherche par ses représentants, dans le domaine des sciences et technologies de l'information et de la communication (STIC), des sciences du vivant et des méthodes d'analyse fine de la matière.

*

M. Bernard FROIS, Directeur du département énergie, transports, environnement, ressources naturelles à la Direction de la Technologie du Ministère de la Recherche , a souhaité resituer l'effort de recherche en faveur des TGE dans le cadre de la promotion de la technologie.

La Direction de la Technologie, une entité récente au demeurant, a pour but de favoriser les partenariats entre la recherche publique et l'industrie dans un cadre pluridisciplinaire, d'où l'importance donnée, par exemple, aux incubateurs d'entreprises de haute technologie.

La Direction de la Technologie intervient sur un grand nombre de disciplines mettant en oeuvre des grands instruments, comme l'océanographie, les réseaux de communication, les bases de données, le spatial, toutes installations qui ont en commun, de coûter cher, d'être utilisées par des chercheurs d'horizons différents et de se situer dans une concurrence mondiale.

L'échelle de temps des TGE est d'une trentaine d'années. Il faut en effet environ 5 ans de réflexion pour la conception du projet et 5 autres années pour leur construction, pour une durée d'exploitation de 10 à 20 ans.

La Direction de la Technologie considère que l'initiative d'un TGE doit partir de la communauté scientifique, dans la mesure où celle-ci saura seule repousser les frontières techniques, ce qui est l'objectif essentiel d'un nouveau grand instrument.

Mais il existe une réelle difficulté d'articulation de celle-ci avec le Parlement et le Gouvernement, difficulté qu'au demeurant les Etats-Unis ont su résoudre. Une autre difficulté existe pour l'articulation de notre politique et de nos projets avec l'Europe, alors que nombre de problèmes ont une dimension continentale, comme le montrent les réseaux technologiques sur l'eau et la pollution marine.

S'agissant des sources de neutrons, utiles à de nombreuses disciplines, en tant que sondes indispensables de la matière, l'ILL (Institut Laue Langevin) est géré dans le cadre d'une structure de société civile dont l'exemple est certainement à suivre.

Sur un plan technique, on ne voit pas à portée de main d'amélioration pour les réacteurs. La spallation constitue sans nul doute la voie à suivre. D'ailleurs, les sources pulsées semblent aujourd'hui être la voie privilégiée par tous les pays, les Etats-Unis comme le Japon, avec, pour ce dernier, le projet ambitieux d'accélérateur de protons multi-usages.

Le projet européen ESS (European Spallation Source) connaît certes des difficultés de démarrage, dans la mesure où le Royaume Uni a le projet de construire ISIS-2 et où l'Allemagne est en pleine phase de réflexion sur ses grands équipements.

Mais le but d'une entrée en service d'ESS en 2015-2020 doit néanmoins être poursuivi. Pour ce faire, il faut mettre au point avec soin la collaboration tripartite indispensable. A cet égard, l'avant-projet de machine multi-usages que développe le CEA peut être utile pour le démarrage d'ESS.

En tout état de cause, les efforts de l'Office parlementaire d'évaluation des choix scientifiques et technologiques sont utiles pour faire démarrer les projets.

Quoi qu'il en soit, la France est bien équipée en sources de neutrons, même s'il existe une difficulté résultant de l'absence transitoire de contrat entre le CEA et le CNRS pour le Laboratoire Léon Brillouin.

M. Roger BALIAN a estimé, qu'après la période d'opposition factice entre le CEA et le CNRS, opposition suggérée et entretenue par le précédent ministre de la recherche, devait venir le temps d'initiatives prises par la nouvelle équipe, en faveur d'un rapprochement entre ces deux organismes.

La parole a ensuite été donnée à Mme Michèle LEDUC.

*

Mme Michèle LEDUC, Conseiller du Directeur de la Recherche pour la Physique et les Sciences de l'Ingénieur, a souhaité exposer le point de vue de la Direction de la Recherche sur les très grands équipements de la physique, c'est-à-dire le rayonnement synchrotron, les sources de neutrons, les lasers de puissance et la RMN à hauts champs.

Au vrai, l'élargissement de la notion de TGE est à l'ordre du jour non seulement en France mais également en Europe.

La création de groupes européens de coordination à géométrie variable sur différents sujets, a été décrite par M. Vincent COURTILLOT, Directeur de la Recherche, lors d'une audition précédente. L'on sait que le concept de groupes à géométrie variable a rencontré l'intérêt du Commissaire à la Recherche, M. Philippe BUSQUIN.

Le groupe sur les méthodes d'analyse fine de la matière, qui comprend la France, le Royaume Uni, l'Allemagne, l'Espagne et l'Italie, a été mis en place à Londres en début d'année et a déjà tenu deux réunions. Un rapport d'étape sur le rayonnement synchrotron a été présenté lors d'une réunion tenue le 22 juin à Rome.

Un rapport d'étape de ce groupe sera présenté au Colloque organisé les 18 et 19 septembre prochains à Strasbourg sur les grandes infrastructures de recherche. D'autres communications importantes, élaborées par d'autres panels de spécialistes, seront présentées à cette occasion, l'une sur l'extension éventuelle de la notion de TGE aux réseaux informatiques ou aux grandes animaleries de la biologie et l'autre sur la participation de l'Union européenne au financement des grands équipements. Ce dernier point doit être examiné avec soin dans la mesure où il s'agit d'éviter d'une part qu'un nouveau mécanisme de ce type ne vienne concurrencer le programme " Access to Large Facilities " qui donne toute satisfaction, et d'autre part, que la Commission européenne, du fait de ses contributions financières, n'ajoute des pesanteurs bureaucratiques au fonctionnement des TGE, voire n'en prenne la direction.

S'agissant du rayonnement synchrotron, le groupe technique des cinq pays européens, dans son rapport d'étape, estime que l'Europe de l'Ouest a besoin d'un synchrotron supplémentaire en plus de DIAMOND dont la construction est prévue en Angleterre et préconise de lui donner un statut international comme celui de l'ESRF. Cette recommandation a été transmise au ministre de la recherche, M. Roger-Gérard SCHWARTZENBERG. S'agissant d'un éventuel nouveau synchrotron sur le territoire national, un autre rapport d'experts doit contribuer à la prise de décision.

Au plan global, il n'existe pas au ministère de la recherche de substitut au précédent Conseil des grands équipements. Les grands instruments sont examinés discipline par discipline.

Dans le domaine des méthodes d'analyse fine de la matière, il est important de noter qu'il existe un continuum entre les très grands instruments afférents, de type généraliste, et les moyens des laboratoires, le niveau intermédiaire étant constitué par les instruments mi-lourds.

En tout état de cause, il faut " réfléchir à l'ensemble du continuum " . Ainsi, une discipline comme la chimie attache une grande importance à la mise en place de la RMN à hauts champs en réseau. Il n'existe pas pour le moment à la direction de la recherche de comité de coordination pour les instruments de la physique et de la chimie. Mais le Directeur de la recherche réfléchit à en créer un, avec le CEA et le CNRS.

M. Michel SPIRO a approuvé une méthode de décision qui met la science en avant.

La parole a ensuite été donnée à M. Philippe LECONTE, Conseiller à la Direction de la Technologie.

*

Ancien directeur-adjoint de l'Institut Laue-Langevin , M. Philippe LECONTE a souligné que la répartition des temps d'accès dans un grand instrument international n'est pas toujours facile à réaliser. Deux contraintes, qui peuvent être contradictoires, sont en effet à respecter : d'une part les quotas issus des contributions financières et d'autre part la priorité à donner aux meilleurs projets de recherche, quelle que soit leur nationalité. Des collaborations de dernière minute permettent opportunément de contourner d'éventuels obstacles. Il reste que la question de la répartition des temps d'accès " empoisonne la vie " d'un très grand équipement international.

L'accès des industriels aux TGE est une autre question d'une très grande importance. La sélection des projets par un comité de programme qui est une obligation incontournable, constitue un problème à cet égard. Un seul exemple suffit à montrer l'intérêt des sources de neutrons pour l'industrie : elles permettent de calculer les distances interatomiques, ce qui permet de mettre en évidence les contraintes subies par un matériau. Il faudrait donc développer sur les TGE des instruments particuliers pour l'industrie. Cette possibilité n'est pas encore suffisamment développée. En tout état de cause, il convient d'impulser une autre culture au sein des très grands instruments.

Après que M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que l'approche culturelle des TGE doit changer à l'avenir, M. Robert COMÈS, membre du groupe de travail, a jugé, pour sa part, que le problème des quotas pour les TGE ne doit pas être exagéré. S'agissant de la participation du Royaume Uni à l'ILL, sa diminution de 50 millions de francs par an s'est traduite logiquement par la diminution corrélative de ses temps d'accès, alors que les besoins de la communauté britannique restent les mêmes.

La parole a ensuite été donnée à M. Jean-Alexis GRIMAUD.

*

M. Jean-Alexis GRIMAUD, Professeur des universités, Directeur du département bio-ingéniérie de la Direction de la Technologie, en prolongement des présentations déjà faites devant l'Office, par MM. COURTILLOT et CHAMBON et par Mme BERGER, a confirmé que la nature des projets dans le domaine des sciences de la vie est en train de changer, ce qui doit nécessairement modifier la façon dont la communauté scientifique travaille. A cet égard, le travail en réseau est à la fois une évidence et une obligation.

La recherche sur le génome, tout en obligeant à une coopération en réseau, va devoir mobiliser des moyens considérables dont on ne soupçonne pas encore l'ampleur. Le post-génome pose en effet des problèmes cruciaux, tant en ce qui concerne la nature des projets que la culture de la recherche. En particulier, il n'est plus possible de faire abstraction des rapports entre la recherche publique et la recherche privée, de même que les retombées sur la santé sont à prendre en étroite considération. Le fossé entre les deux recherches se réduit déjà, la loi sur l'innovation produisant déjà des effets positifs en termes d'investissements de valorisation. Mais il s'agit d'aller plus loin et de faire fonctionner ensemble les deux communautés.

Au plan scientifique, le post-génome se trouve confronté à la nécessité d'explorer et d'exploiter les données brutes schématiques produites par le séquençage du génome.

Deux approches complémentaires devront être développées, l'exploration du phénotype, c'est-à-dire l'analyse de l'expression des gènes et de leurs caractéristiques, ainsi que l'exploration fonctionnelle. C'est le domaine des animaleries transgéniques et de l'analyse clinique de la souris. En aval de ces équipements, il faut des centres dotés de capacités de traitement considérables, travaillant de surcroît en réseau. En tout état de cause, l'exploration du phénotype et l'exploration fonctionnelle en permettant la validation de séquences, conduiront à l'identification génétique de maladies et à la mise au point de produits thérapeutiques.

Mais il faut également développer une approche en termes de ressources biologiques, constituées de collections d'échantillons d'ADN et de tissus ainsi que de bases de données. Il existe des techniques modernes pour faire fonctionner un tel grand équipement, techniques faisant appel à la conservation par le froid et à la gestion des échantillons par radiofréquences. L'objectif est ainsi de créer une " très grande biothèque du vivant " , dont la vocation sera fondamentalement collective, intéressant à la fois les biologistes, les généticiens et les médecins. Une réflexion est en cours en Europe et au sein de l'OCDE pour offrir aux scientifiques ce très grand équipement qui devra tout à la fois posséder une dimension européenne et être constitué en réseau.

Les enjeux du post-génome sont énormes pour l'Europe. Pour autant, celle-ci possède l'atout de poids que lui donne son système de soins en termes de traçabilité. A cet égard, les Etats-Unis sont beaucoup moins bien armés. Or il ne suffira pas de mettre en évidence des séquences ou des gènes dans la causalité de maladies. Il faudra aussi les valider sur des échantillons de malades.

Par ailleurs, la communauté de la biologie est en train de se structurer, le travail en réseau contribuant également à en réduire le morcellement.

Au plan européen, le 5 ème PCRD (Programme cadre de recherche et développement) octroie un soutien insuffisant aux infrastructures de recherche. Toutefois, un montant de deux milliards d'euros est alloué aux actions clés qui pourraient bénéficier aux grands équipements, une meilleure coordination étant assurée en contrepartie.

La phase du séquençage a démontré l'importance des équipements dans le domaine de la biologie. Il importe de ne pas de se trouver dans la même situation qu'il y a dix ans où les premiers succès n'ont pas eu de retombées suffisantes.

M. Jacques HAIECH, Professeur des universités, Directeur du programme national de génomique, a indiqué que si la problématique des très grands équipements a pendant longtemps été étrangère à la biologie, il n'en est plus de même aujourd'hui avec la génomique. Trois facteurs participent à cette évolution.

En premier lieu, le séquençage du génome et la post-génomique ont bien pour objectif de livrer l'exhaustivité de la connaissance du " livre de la vie " . Par ailleurs, les problèmes du post-génome sont attaqués en parallèle et nécessitent une approche industrielle, qui passe par une mutualisation des plateaux techniques dépassant l'échelle des laboratoires, des UFR et même des régions. Enfin la connaissance dans ce domaine est proche de la valorisation, ce qui oblige à prendre soin des interfaces entre la recherche publique et la recherche privée, tout en plaçant les nouveaux très grands équipements de la biologie au plus près du développement.

En réalité, il existe un continuum dans la mutualisation des moyens des laboratoires vers le niveau régional, avec une exception constituée par le synchrotron national. Sur ce dernier point, il faut être attentif à ce que des goulots d'étranglement ne se créent pas en amont des synchrotrons, pour la préparation des cristaux de protéines, et en aval pour l'analyse des données dont le volume est en augmentation exponentielle. Il faut remarquer également que le continuum dans la mutualisation arrive au niveau européen. Un facteur est particulier à la biologie, c'est l'importance des réseaux.

Mais quels sont les défis du post-génome ?

Le premier défi est la structuration et la clarification des données à stocker au demeurant dans des bases de données de grande taille. Mais il s'agit aussi de conduire un travail de théorisation et de prédiction, en vue, peut-être, de déboucher sur une théorie standard du vivant.

En tout état de cause, de descriptive essentiellement, la biologie est en passe de devenir prédictive, ce qui, entre autres problèmes, ne peut manquer de rendre nécessaire une réflexion éthique.

Mais à court terme, les deux priorités sont bien de gérer l'acquisition des données et la mutualisation des efforts et des équipements, en veillant aussi à leur ouverture.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé qu'en matière de sources de neutrons, la demande de temps d'accès a rattrapé et aujourd'hui dépassé une offre auparavant excédentaire. Au reste, cette situation pourrait s'accentuer, si comme il est souhaitable, la valorisation est encore plus proche de la recherche.

Par ailleurs, l'annonce orchestrée au plan mondial de l'achèvement du séquençage du génome humain résulte de la concurrence qui fait rage dans ce domaine. Le rythme de la recherche est fixé par les perspectives d'application et de valorisation des résultats, le doublement des crédits du NIH en 5 ans fixant les enjeux à cet égard. Ce qui est en cause aujourd'hui, c'est la place de l'Europe dans le concert mondial. Faut-il un accord dans ce domaine avec les Etats-Unis ? A vrai dire, on peut redouter que les Etats-Unis, prêts à coopérer dans le spatial dans la mesure où les retombées des recherches menées dans ce domaine ne sont pas immédiates, n'envisagent pas d'accord avec l'Europe dans les sciences du vivant.

Il faut donc une réflexion sur les applications dérivées de la recherche et leur valeur ajoutée dans l'économie.

Une discussion s'est ensuite engagée sur la notion de très grand équipement.

*

M. Gilles COHEN-TANNOUDJI a estimé qu'un problème de méthode se pose quand on compare deux types de TGE qui peuvent appartenir à des espaces différentes.

Soit l'on utilise une approche par discipline, au terme de laquelle on traite par exemple des très grands équipements de la biologie, soit l'on est dans le champ des grandes techniques instrumentales.

On peut ainsi légitimement comparer les sources de neutrons au rayonnement synchrotron. Mais la comparaison entre un éventuel très grand équipement de la biologie et un synchrotron est impossible, car ils appartiennent à des espaces différents. Ainsi, une animalerie présente un intérêt pour la biologie mais n'en a pas pour les techniques instrumentales.

M. Jacques HAIECH a repris ensuite la définition des TGE. Pour être défini comme tel, un TGE doit-il nécessairement servir plusieurs disciplines ? Un centre de séquençage est-il un TGE ?

Dans la mesure où il offre des services, où il contribue au développement de techniques instrumentales et où sa mise en _uvre est très onéreuse, la réponse à cette question semble bien positive, même s'il est spécifique à la biologie. Une animalerie pour laquelle il existe une mutualisation des budgets et qui rend des services à la collectivité, devient par là même un TGE.

En définitive, un TGE peut être spécifique à une discipline.

M. Gilles COHEN-TANNOUDJI est ensuite revenu sur les moyens requis par la post-génomique. S'il existe deux approches complémentaires, la génétique physiologique et la biochimie, ce sont ces deux démarches qu'il faut comparer. Mais on peut se demander jusqu'où il sera est possible d'aller dans le domaine de la génétique physiologique et quelles seront les limites posées par l'acceptabilité sociale des recherches, notamment pour les animaleries. Il conviendrait sans doute qu'il y ait un débat à ce sujet.

Mme Michèle LEDUC a rappelé qu'en ce qui concerne la physique, une distinction est traditionnellement faite entre d'une part les très grands équipements généralistes, tels que le rayonnement synchrotron et les sources de neutrons, et, d'autre part, les très grands équipements spécialisés qui, comme le CERN, desservent essentiellement la communauté de la physique des hautes énergies.

En tout état de cause, il est important que les très grands instruments soient examinés discipline par discipline. Ainsi, il est légitime que l'on compare dans le domaine de la physique fondamentale les investissements réalisés au CERN par rapport à ceux faits pour la physique gravitationnelle, étant admis que les TGE généralistes participent d'un autre point de vue.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que le facteur temps doit également intervenir dans la décision. A cet égard, il convient sans doute de donner une priorité aux TGE qui se caractérisent par un retour sur investissement très court.

Pour M. Jean-Alexis GRIMAUD , l'acceptabilité est un élément clé pour tous les problèmes de santé. Le public demande non seulement une transparence totale des recherches dans ce secteur mais également une protection maximale de la nature et des animaux. Pendant les années récentes, l'exploration cellulaire a pris le pas sur l'étude des organismes vivants. Mais la clé des découvertes futures au niveau moléculaire comme la clé de la validation de celles-ci se trouve au niveau de la physiologie intégrée et donc au niveau de l'étude de l'animal.

Les applications de la connaissance des gènes seront par ailleurs nombreuses mais mobiliseront des techniques différentes. A cet égard, les biopuces et les microlaboratoires nécessitent des approches pluridisciplinaires.

M. Gilles COHEN-TANNOUDJI s'est interrogé à cette occasion sur le point de savoir si les techniques correspondantes relèvent des très grands équipements. Les deux conditions essentielles de la programmation pluriannuelle et de la concentration de moyens ne semblent en effet pas réunies.

Pour M. Roger BALIAN , ces techniques peuvent être isolées en différents éléments et ressortissent d'une collection d'objets plutôt que d'un TGE.

M. Jean-Alexis GRIMAUD a jugé, pour sa part, que la programmation pluriannuelle est en tout état de cause essentielle dans ces domaines.

M. Philippe LAREDO, membre du groupe de travail, a rappelé que la France, au début des années 1990, été en avance lors des premiers pas de la génomique, grâce au Téléthon et à la concentration de moyens qui a été choisie.

Après l'identification des gènes, il existe un risque réel de dispersion des efforts contre lequel il faut lutter. Pour la nouvelle étape que représente le post-génome, il convient sans doute de passer de la notion de très grands instruments à celle de " projets instrumentés " , la structuration des grands organismes de recherche étant au demeurant une question capitale.

A cet égard, M. Jean-Alexis GRIMAUD a indiqué que l'on est actuellement dans une phase de construction des outils du post-génome.

Après ces échanges, la parole a été donnée à M. Michel FOUGEREAU.

*

M. Michel FOUGEREAU, Professeur des universités, conseiller du Directeur de la Recherche pour les sciences de la vie, la biologie et la médecine, a estimé que le public attend du biologiste qu'il progresse dans la voie des guérisons mais le considère également comme un démiurge, responsable de surcroît des mauvais traitements infligés aux animaux de laboratoire ainsi que de la présence d'OGM dans l'alimentation.

De toute évidence, le débat scientifique de fond est biaisé. Il ne faut pas s'étonner des réactions du public dans la mesure où l'enseignement de la biologie dans notre pays est déficient et où les horaires correspondants sont réduits à portion congrue.

Par ailleurs, les récentes déclarations fracassantes faites sur le génome ne sont pas empruntes de la modestie qui conviendrait si l'on se plaçait sur un plan strictement scientifique.

Autre idée évoquée par plusieurs orateurs, la nécessité d'un rapprochement entre la recherche fondamentale et la recherche appliquée n'est pas une nouveauté, puisque aussi bien Louis PASTEUR estimait qu'il n'existe pas de recherche appliquée mais seulement des applications de la science. En tout état de cause, les entreprises pharmaceutiques françaises sont insuffisamment dynamiques, ce qui nuit d'ailleurs au développement de la biologie elle-même. Pour autant, il convient de ne pas relâcher, bien au contraire, les efforts en recherche fondamentale, dont la justification est, selon Jacques MONOD, " la quête de la connaissance pour le seul éclat de sa lumière " .

S'agissant des très grands équipements, il est certes utile d'avoir un débat sur la répartition des investissements entre TGE et équipements mi-lourds. Toutefois, la vraie question est celle du coût de la recherche.

En ce qui concerne la biologie, tant le Gouvernement français que la Commission européenne ont admis la nécessité de créer une notion d'infrastructure différente de celle de TGE mais propre à rendre compte des besoins de la biologie. Au reste, l'évaluation des besoins en TGE s'effectue désormais au plan européen avec une méthodologie commune même si elle se place dans un cadre à géométrie variable. En tout état de cause, la vocation et le projet scientifique du TGE sont d'une importance décisive.

Le changement majeur en biologie est que cette discipline change de dimension et d'échelle. Avec au minimum 35 000 gènes dans le génome humain, le champ de découvertes à réaliser est immense. Les gènes codant les protéines, il s'agit certes d'élucider les structures de protéines mais il s'agit aussi en dernière analyse de connaître les réponses en terme de physiologie. Le post-génome va nécessiter de sortir du réductionnisme moléculaire pour adopter une approche globale où l'utilisation de l'animal est incontournable. S'il faut se conformer à des impératifs de transparence et d'explications données au public, il faut aussi se convaincre que le recours aux animaleries est incontournable.

Le nombre de 35 000 gènes et la durée de reproduction des souris obligent à trouver les moyens d'accélérer l'étude de l'influence des gènes. Ceci est d'autant plus indispensable que, même dans le cas d'un gène simple comme celui qui code l'insuline, son influence par l'intermédiaire de cette molécule s'exerce sur un nombre important de cellules.

A cet égard, les animaleries transgéniques constituent pour la biologie des " accélérateurs de souris " , tout aussi indispensables que les accélérateurs de particules pour la physique. On y modifiera des gènes et l'on explorera les modifications intervenues sur les souris concernées.

De même, l'analyse des effets enregistrés sur les primates est incontournable.

Enfin, l'étude des maladies génétiques de l'homme nécessitera le suivi de cohortes étendues de patients, qui seront d'autant plus grandes qu'il existe un grand nombre de maladies multifactorielles.

En définitive, il convient de ne pas se focaliser outre mesure sur les très grands équipements. Il est au contraire primordial de globaliser le financement de la recherche, notamment parce que la biologie est à l'interface de nombreuses disciplines. Il convient de plus de mutualiser au plan européen les plates-formes nécessaires à des approches qui ont changé d'échelle.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur un éventuel partage des tâches pour l'étude des gènes, M. Michel FOUGEREAU a répondu que rien de tel n'existe au plan mondial.

M. Robert COMÈS s'est interrogé sur la possibilité de faire entrer dans l'enveloppe TGE des équipements à plusieurs localisations avec toutefois une unité de commandement.

M. Michel FOUGEREAU a indiqué que, dans le cadre du 5 ème PCRD, la prise en charge des animaleries avait été marginalisée, contrairement à ce qui était fait par le 4 ème PCRD. Le problème du financement n'est le seul à résoudre. Il faut également une réflexion commune débouchant sur une harmonisation des choix scientifiques qui n'existe pas pour le moment.

A la demande de M. René TRÉGOUËT, Sénateur, rapporteur, M. Michel FOUGEREAU a ensuite abordé la question de la brevetabilité du vivant, au regard de la position européenne telle qu'elle ressort de la directive sur le sujet.

Le génome dans son état actuel n'est pas brevetable. On peut toutefois se demander si un fragment de gènes synthétisable ne sera pas brevetable, ce qui constituerait une brèche dans le principe général.

Si les gènes ne sont pas brevetables, leurs fonctions le sont à condition que leur mise en évidence soit accompagnée d'un aspect inventif d'applicabilité. En réalité, le brevet suppose une invention, qui diffère de la découverte. Mais il existe des zones floues.

M. Pierre POINTU, membre du groupe de travail, a remarqué que, si la recherche fondamentale est nécessaire pour avancer dans l'ordre de la connaissance et pour la dignité de l'homme, les budgets de recherche sont également votés pour répondre à une utilité sociale perçue et voulue. Le changement d'échelle voulu pour la biologie a pour but l'accélération de recherches à fins essentiellement sociales. S'il n'était question que d'augmenter les connaissances, la longueur du processus de recherche ne serait pas considérée comme un facteur critique.

Au reste, les très grands équipements se répartissent en trois grandes catégories.

La première catégorie correspond aux TGE qui, comme le CERN, répondent aux besoins d'une discipline particulière.

La seconde catégorie correspond aux grands instruments qui ont un rôle structurel pour l'efficacité de la recherche dans un grand nombre de disciplines.

Les TGE appartenant à la troisième catégorie répondent, à partir d'une utilité sociale comme la santé, à un projet et comportent plusieurs volets : équipements, recherche de base, formations et développement industriel. Ce type de TGE nécessite à l'évidence une grande cohérence. Mais, comme pour toutes les questions posées par la société, une approche transdisciplinaire est indispensable.

M. René TRÉGOUËT, Sénateur, rapporteur, a alors estimé que cette troisième catégorie correspond davantage à un grand projet qu'à un grand équipement.

M. Jacques HAIECH est, quant à lui, revenu sur la question du changement d'échelle.

Peut-on dire que le changement d'échelle a pour cause la seule demande sociale de mise au point de thérapeutiques nouvelles et qu'il ne s'imposerait pas s'il ne s'agissait que de recherche fondamentale ?

Jusqu'à présent, la biologie a recouru d'une part au réductionnisme moléculaire et d'autre part à une approche holistique dans laquelle le corps est figuré par une boîte noire. La grande nouveauté est que l'on réduit désormais l'écart entre les deux.

Le post-génome répond à la fois à des préoccupations de recherche fondamentale, à l'objectif de mieux soigner l'être humain et enfin au souci de connaître l'évolution du vivant, les trois dimensions étant étroitement liées.

Sur un plan pratique, le réseau de génopoles s'attache à l'étude du fonctionnement des gènes mais aussi à l'analyse de l'association des gènes aux maladies. La génétique fonctionnelle doit nécessairement recourir à des moyens à grande échelle tant la complexité des problèmes est grande. C'est en effet au plan de la cellule et de l'organisme entier qu'il faut analyser les perturbations produites par la modification d'un ou plusieurs gènes. La mise en évidence des interactions nécessite par elle-même des moyens de grande ampleur.

M. Roger BALIAN a estimé que, même si l'on se place sur le terrain de la seule connaissance pour la connaissance, l'étude du vivant présente plus d'intérêt que celle d'objets célestes lointains comme les supernovae.

Il existe assurément aujourd'hui un problème majeur, le vivant, ce qui justifie que des ressources prioritaires lui soient allouées.

S'agissant de l'approche dite réductionniste utilisée en biologie, il faut se garder de lui donner une connotation restrictive et négative. La physique est familière de cette approche dont il ne faut pas oublier l'élément essentiel, " l'émergence " , changement qualitatif des phénomènes et des concepts selon l'échelle, ce qui nécessite une étude globale rendue fructueuse par des allers et retours systématiques entre le " haut " et le " bas " .

M. Gilles COHEN-TANNOUDJI a précisé qu'il ne met évidemment pas en cause l'intérêt d'étudier les conséquences d'une modification génétique mais que l'on peut s'interroger sur la pertinence d'une approche systématique.

M. Jacques HAIECH a alors indiqué que cette remarque serait à prendre en considération sur la recherche fondamentale était nettement disjointe de la recherche appliquée. Mais en réalité, les deux sont " dans la même dynamique " . L'accélération des recherches a été provoquée par la firme Celera Genomics mais les techniques de séquençage ont été développées par la recherche fondamentale, qui réciproquement a profité de la recherche appliquée.

*

M. Jean GALLOT a alors souligné l'importance de caractériser les besoins globaux en crédits budgétaires pour la recherche scientifique. On peut se demander à cet égard si la catégorie des TGE est pertinente, dans la mesure où l'on mélange les dimensions collectives et financières.

En réalité, l'on ne peut éviter de réfléchir aux besoins financiers de la recherche et à son rôle dans la société.

Toutes les disciplines ont des besoins de financement qui augmentent. C'est pourquoi, en période d'insuffisance de crédits comme celle que l'on connaît depuis plusieurs années, il existe un débat sur la priorité à donner aux équipements mi-lourds plutôt qu'aux TGE, débat qui n'a pour justification que de réduire les demandes de crédits. Mais en réalité, il faut une avancée simultanée sur tous les fronts, tant au niveau de la recherche fondamentale qu'à celui de la recherche appliquée.

Pourquoi la communauté scientifique serait-elle vouée à ne s'occuper que du partage des ressources et non pas du volume de celles-ci ? A cet égard, il faut que s'approfondissent les relations entre la communauté scientifique et les élus pour que des solutions soient trouvées.

A l'issue de ces échanges, la réunion a porté sur la politique du ministère de la recherche dans le domaine des sciences et des technologies de l'information et de la communication (STIC), telle qu'elle a été exposée par M. Maurice FISCHER.

*

M. Maurice FISCHER, Conseiller pour les technologies de l'information à la Direction de la Technologie du ministère de la Recherche , a indiqué que le débat sur les priorités respectives données à l'avancement des connaissances ou à l'utilité sociale est commun à toutes les disciplines scientifiques. Les sciences et technologies de l'information et de la communication n'y échappent pas, bien qu'il s'agisse de disciplines émergentes, comparées à la biologie. Quoi qu'il en soit, les STIC ont commencé par privilégier l'utilité sociale. Leur dialogue avec la recherche fondamentale reste difficile.

Les sciences de l'information n'ont pas été concernées jusqu'à maintenant par la problématique des TGE, en raison de la jeunesse de ces technologies et de leur développement rapide qui s'accompagne d'un renouvellement tout aussi précipité. De surcroît, la recherche publique n'a pas joué de rôle moteur dans les ruptures technologiques, sauf en amont pour les briques technologiques de base, notamment pour les semi-conducteurs.

Les sciences de l'information font l'objet d'investissements massifs dans la recherche, en particulier dans la sphère privée. Est-on entré dans une nouvelle phase comparable à celle que connaît la biologie ? L'objectif est-il de l'ordre de l'utilité sociale ? Faut-il en conséquence des très grands équipements pour la recherche publique ?

Le secteur des STIC est à l'origine d'un équipement assimilable à un TGE. C'est le réseau à très haut débit RENATER 2 et son équivalent européen, en cours de construction. L'Europe et la France ont incontestablement accumulé un retard important dans les réseaux, faute d'une coordination suffisamment efficace et du fait de rivalités entre opérateurs. RENATER 2 commence à combler ce retard.

Le réseau RENATER 1 en service opérationnel actuellement a été créé pour fournir des ressources en télécommunications aux chercheurs mais ne constitue pas un outil de développement des sciences de l'information. La structure de gestion de RENATER 1 est au demeurant un GIP (groupement d'intérêt public), dont le but est essentiellement utilitaire. Les projets d'expérimentation à 3 ans rencontrent en conséquence des réticences de la part des membres du GIP.

Au-delà de RENATER 2, la situation est actuellement favorable à la création d'un grand équipement au niveau européen permettant de relier les scientifiques de toutes disciplines et offrant aux chercheurs en sciences de l'information la possibilité de tester le passage à l'échelle pour de nouvelles applications.

Ce réseau devra fournir des ressources en télécommunications et en puissance de calcul, avec une masse critique suffisante, tout en préparant la nouvelle génération d'équipements qui lui succéderont.

En tout état de cause, il convient d'éviter la coupure qui s'est produite en France entre les laboratoires de recherche en informatique et les centres de calcul, coupure qui a été dommageable pour la recherche en sciences de l'information dans notre pays. Il faut remarquer à cet égard que cette coupure n'existe pas aux Etats-Unis où les centres de calcul sont utilisés pour tester la sûreté et la fiabilité des logiciels, tout en permettant le passage à l'échelle en matière de calcul et de télécommunications.

M. Pierre POINTU a souligné que le couplage entre l'amont et l'aval est généralement bien assuré aux Etats-Unis, quel que soit le domaine. En revanche, le type de coupure observée en France entre la recherche relative aux STIC et les centres de calcul existe dans d'autres disciplines. Au vrai, c'est le progrès parallèle de la connaissance dans un métier et l'approfondissement d'une approche transversale qui s'avèrent difficiles. Il ne semble pas possible d'apporter une réponse à un tel défi par la seule entremise du choix de la structure la mieux adaptée.

C'est là où l'apport des TGE interdisciplinaires est le plus important. Les TGE sont en effet le support idéal de projets transversaux.

La parole a ensuite été donnée à M. Maurice FISCHER.

*

M. Maurice FISCHER, Conseiller pour les technologies de l'information à la Direction de la technologie a estimé que ce qui a manqué à la recherche en informatique, c'est de se polariser sur un sujet et de l'approfondir sans crainte de laisser de côté les autres domaines. Mais le défi le plus urgent que les STIC ont à relever, c'est de réduire le fossé entre la recherche et les applications industrielles. Pour autant, les deux réseaux nationaux de recherche en télécommunications et en technologies logicielles qui ont été récemment créés ont pour objectif de faire travailler en commun les laboratoires publics et l'industrie.

Outre les réseaux de télécommunications nationaux ou européens, les STIC requièrent-elles d'autres TGE ?

M. Claude PUECH, Conseiller du Directeur de la Recherche pour les Mathématiques et l'Informatique, a estimé que, bien que les montants financiers ne soient pas du même ordre de grandeur que les TGE classiques, on peut considérer que les centres de calcul de grande puissance appartiennent à cette catégorie, quelle que soit la technologie à laquelle ils recourent : calcul parallèle, calcul vectoriel ou à puissances réparties sous la forme de stations de travail reliées.

Les entrepôts de données et les outils de gestion de quantités énormes d'information ou de documents électroniques provenant de la biologie ou de la numérisation pourraient représentent un autre type d'équipement atteignant la taille des TGE.

On pourrait enfin faire entrer dans la catégorie des TGE les plates-formes de visualisation de données et d'immersion dans la réalité virtuelle.

Dans chacun des cas précédents, il s'agit d'équipements mis à la disposition de communautés scientifiques larges, informaticiens, climatologues, spécialistes de la dynamique moléculaire ou de la mécanique des fluides ou réseau des maisons des sciences de l'Homme.

Si les projets sont nombreux à lancer, il existe toutefois une base de départ qui n'est pas négligeable.

RENATER 2, en tant qu'infrastructure de télécommunications, est en cours de réalisation. Les centres de calcul CINES et IDRIS ont récemment vu leurs puissances de calcul multipliées respectivement par 6 et 10.

Au vrai, la mise au point d'une grille de calcul qui permettra de livrer des ressources rassemblées d'une manière totalement transparente pour l'utilisateur pose des problèmes de développement importants, notamment pour la confidentialité et la sécurité des données, pour la gestion des accès et la visualisation des résultats.

Il faut noter que les Etats-Unis conduisent des projets de cette nature, notamment le projet GLOBUS, financé par le DARPA, la NSF, le DOE et la NASA, des projets de simulation d'explosion nucléaire ou de physique des hautes énergies au CalTech.

A cet égard, la France élabore actuellement un projet de grille de calcul, en liaison avec d'autres pays européens.

Pour M. Maurice FISCHER , il reste que la notion de TGE est relativement mal adaptée aux STIC. L'obsolescence est en effet extrêmement rapide dans ce domaine. A supposer que l'on place dans cette catégorie les plates-formes du réseau national de recherche en télécommunications et la plate-forme virtuelle du réseau national de recherche en technologies logicielles, plates-formes qui seront au demeurant reliées, il faudra qu'elles passent en opérationnel dans les deux à trois ans, ce qui est évidemment contradictoire avec le statut de TGE au sens actuel du terme.

Malgré ces difficultés conceptuelles, il reste que le statut de TGE est intéressant pour pérenniser les financements.

Pour Mme Sylvie JOUSSAUME, membre du groupe de travail, des moyens de calcul de grande puissance sont un TGE et doivent, comme tels, être pérennisés.

A cet égard, le renouvellement des machines de l'IDRIS est une évolution positive, encore qu'il soit intervenu deux années trop tard, ce qui a handicapé les climatologues. Pour autant, la situation ne saurait être considérée comme définitivement rétablie. Il règne en effet dans la seule discipline de la climatologie une compétition acharnée, qui verra notamment le Japon multiplier par 100 la puissance d'un de ses centres de calcul les plus avancés. Dans ces conditions, on peut s'interroger sur la façon dont l'Europe va suivre cette course à la puissance et s'il ne faudrait pas regrouper les moyens, y compris ceux de l'industrie.

M. Maurice FISCHER est convenu qu'il faut dans la pratique doubler la puissance d'un centre de calcul tous les deux ans. Faut-il dans ces conditions pérenniser ces derniers en tant que TGE ?

Si, pour RENATER, ceci est incontestablement justifié, en revanche, pour le calcul, la frontière est difficile à tracer entre la compétence locale au niveau du laboratoire, l'université, le territoire national et l'Europe. Il faut à cet égard une structure de coordination.

L'Allemagne a récemment proposé de programmer la mise en place de ces équipements au niveau européen, sachant qu'on est loin de pouvoir l'envisager pour le moment. Au vrai, une telle coordination n'existe même pas entre les cinq plus grands centres de calcul français que sont l'IDRIS, le CINES, le CEA civil, le CEA militaire et la Météorologie nationale, centres qui suivent chacun des politiques d'équipement autonomes.

On peut remarquer que les grands centres de calcul ne sont pas une solution prisée par la recherche privée française, contrairement à la situation observée en Allemagne où les plus gros centres sont l'apanage de l'industrie automobile et des universités.

M. Pierre POINTU a observé que la notion de TGE correspondait à une situation ancienne de la recherche. De la notion ancienne, on peut garder le fait qu'il s'agit d'investissements qui ne peuvent se décider au niveau des organismes en raison de leur coût et de leur durée de vie. On peut également reprendre la notion de cohérence à respecter. Mais au total, l'évolution technique oblige à modifier cette définition.

M. Maurice FISCHER a estimé que la pérennité de la ressource et du service doit être prise en compte, même si les machines changent.

M. Michel SPIRO a noté que la mise en grille faciliterait de facto la pérennité ainsi que la coordination.

Mme Sylvie JOUSSAUME a souligné combien la notion de coordination voire de regroupement est nécessaire, les structures des organismes devant permettre d'y parvenir. Mais, en tout état de cause, la mise en grille n'apportera pas de réponse à tous les besoins.

Pour M. Philippe LAREDO , lors de la conception d'un TGE, les étapes critiques sont l'organisation et l'anticipation.

M. Maurice FISCHER a par ailleurs noté que dans le domaine des STIC, les instances de programmation et de coordination des investissements sont différentes.

Pour la programmation de la montée en puissance des centres de calcul, il semble que la situation soit mûre pour évaluer collectivement l'ensemble des besoins pour les codes vectoriels et pour les codes parallèles. A la mutualisation des besoins pourrait répondre la mutualisation de l'offre. L'établissement d'une grille de calcul facilitera les choses à cet égard.

Mais l'essentiel est bien de créer en France une instance assurant à la fois la programmation et la coordination des investissements.

M. Philippe LAREDO s'est interrogé sur les possibilités effectives de coordination entre les organismes de recherche. On peut se demander par ailleurs pourquoi la Fondation européenne de la science (ESF - European Science Foundation), au demeurant la seule structure " bottom-up " faisant émerger les besoins de la communauté scientifique, n'a pas joué ce rôle.

Selon M. Maurice FISCHER , il serait possible aujourd'hui de mettre en place une structure de programmation et de coordination placée au dessus des organismes de recherche, de façon à éviter que les centres de calcul ne décident de leur politique d'investissement sans la concertation qui est indispensable.

*

Après avoir souligné que les TGE ne résument pas à eux seuls les problèmes d'organisation et de coordination de la recherche française, M. Christian CUVILLIEZ, Député, rapporteur, a remercié les participants à la réunion pour leur précieux concours et a levé la séance.

7. Physique des particules et physique du noyau - mercredi 13 septembre 2000

CERN

• M. Luciano MAIANI, Directeur général

• M. Claude DÉTRAZ, Directeur de la recherche

CEA

• M. François GOUNAND, Directeur des sciences de la matière

• M. Pierre TRÉFOURET, Chef du service des affaires publiques

CNRS-IN2P3

• M. Jean-Jacques AUBERT, Directeur scientifique

• M. Guy WORMSER, Directeur scientifique adjoint

GANIL

• M. Daniel GUERREAU, Directeur

• M. Dominique GOUTTE, Directeur adjoint

• M. Laurent BEAUVAIS, Secrétaire général

• M. Jean-Pierre GRANDIN, CIRIL (Centre interdisciplinaire de recherche Ions lourds Lasers)

Après avoir souligné que la récente décision du ministre de la recherche, M. Roger-Gérard SCHWARTZENBERG, de lancer la construction du synchrotron SOLEIL va dans le sens des conclusions de l'Office présentées dans la première partie du rapport, M. Christian CUVILLIEZ, Député, rapporteur a ouvert la réunion en précisant que l'étude en cours, correspondant à la deuxième partie du rapport, a pour but d'établir un panorama des besoins en très grands équipements et de rechercher d'éventuelles priorités ainsi que les coopérations à établir.

Remerciant les représentants du CERN, du GANIL, du CEA et du CNRS d'avoir bien voulu participer à la présente audition sur les très grands équipements dans le domaine de la physique des particules, M. Christian CUVILLIEZ a donné la parole à M. Luciano MAIANI, Directeur général et à M. Claude DÉTRAZ, Directeur de la recherche du CERN (Organisation européenne pour la recherche nucléaire).

*

M. Luciano MAIANI, Directeur général du CERN , a indiqué que le CERN, s'il travaille essentiellement à repousser les limites de la connaissance en physique des particules et conduit actuellement le grand projet du LHC (Large Hadron Collider), apporte aussi, de ce fait, une contribution essentielle aux technologies de l'informatique, de l'électronique et de l'acquisition de données, et enfin joue un rôle très important de formation.

*

M. Luciano MAIANI a commencé son exposé par une description des structures du CERN.

Le CERN a été fondé en 1954 sous l'impulsion déterminante d'une part de la France, avec Pierre AUGER, alors responsable de la Science à l'UNESCO, et Léo KOWARSKY du CEA, et, d'autre part, de l'Italie, avec E. AMALDI. La mission assignée au CERN était et est toujours de rassembler les ressources européennes dans le domaine de la recherche sur la physique des particules afin de rattraper puis dépasser le cas échéant les Etats-Unis dans ce domaine.

Le CERN compte aujourd'hui 20 Etats membres qui contribuent à son budget proportionnellement au revenu national net ( " net national income " ), ce qui conduit à des participations inégales. Les cinq principaux contributeurs sont l'Allemagne, la France, la Grande-Bretagne, l'Italie et l'Espagne.

La structure suprême du CERN au niveau politique est le Conseil où chaque pays membre compte deux représentant et possède une voix selon le principe " un pays, un droit de vote " . Le Conseil est lui-même conseillé par le Comité des Finances qui a, notamment, dans ses attributions les procédures d'adjudication, et le Comité des Directives Scientifiques , dont les membres sont nommés intuitu personae indépendamment de la représentation de leur pays et dont certains sont d'origine américaine ou russe par exemple.

A côté des pays membres, le CERN comprend également des pays observateurs, comme Israël, qui peuvent participer au Conseil sans toutefois disposer de droit de vote. Le projet LHC s'est accompagné de la création d'un nouveau type de statut. Les Etats-Unis, le Japon et la Russie qui ont apporté une contribution financière au projet, participent au Conseil avec droit de vote dès lors que celui-ci traite du LHC.

La responsabilité opérationnelle appartient au Directeur général qui propose le programme scientifique et le budget au Conseil , et les exécute une fois l'autorisation obtenue. Le Directeur général est assisté par un Directoire , composé de 7 Directeurs, la structure inférieure étant constituée de divisions.

Il faut également mentionner l'existence au CERN d'un Comité de gestion et surtout d'un Conseil de la recherche , qui rassemble les responsables des divisions et dont la mission est de donner un avis au Directeur général, comme par exemple sur une éventuelle prolongation du LEP (grand collisionneur électron-positon).

En réponse à deux questions de M. Roger BALIAN , membre du groupe de travail, M. Luciano MAIANI a précisé que le Comité des Finances et le Comité des Directives scientifiques ne sont pas des sous-ensembles du Conseil tant dans leur composition que dans leurs méthodes de travail.

Ces deux comités travaillent d'une manière plus informelle et ne recourent pas à des votes, recherchant plutôt un consensus. Par ailleurs, il existe bien au CERN une procédure où les pays dont la contribution financière est la plus élevée pèsent davantage que les autres : elle s'applique quand le Comité des finances examine les projets sous l'angle budgétaire et ne les transmet au Conseil que s'ils ont été adoptés à la majorité qualifiée des contributions.

Le budget annuel du CERN représente environ 1 milliard de francs suisses, soit 4,3 milliards de francs français. La contribution française en 1999 s'est élevée à 148 millions de francs suisses, soit environ 640 millions de francs, représentant 16,22 % du total. Après une augmentation temporaire dans les années 1970 correspondant à la construction de l'accélérateur SPS, le budget du CERN est légèrement décroissant en volume. Il faut signaler que malgré leur complexité et leurs performances croissantes, notamment en énergie, les accélérateurs SPS, LEP et LHC qui ont été construits successivement, ont représenté des investissements équivalents en francs constants à 10 % près.

Au reste, les dépenses annuelles du CERN se composent à parts à peu près égales de frais de personnel et de dépenses en matériels. La grande majorité des chercheurs en physique des particules dans le monde sont utilisateurs des installations du CERN qui leur sont par définition ouvertes.

L'évolution des effectifs du CERN est soigneusement maîtrisée. Un premier plan a fixé comme limite le chiffre de 3000 personnes en 2000. Par ailleurs, en contrepartie de la décision positive de lancer le projet LHC en 1995, l'objectif a été fixé de passer à 2000 postes en 2005. Toutefois, une révision du plan correspondant à 2150 postes au lieu de 2000 est proposée par le Directeur général, dans la mesure où une réduction trop importante des effectifs compromettrait la capacité du CERN à conduire par ses propres moyens des travaux de recherche et développement pour les projets futurs, le transformant ainsi en simple laboratoire de réalisation.

Ainsi que l'a indiqué M. Claude DÉTRAZ , le personnel permanent du CERN comprend seulement 5 % de chercheurs physiciens, d'ingénieurs et d'administratifs. Pour M. Luciano MAIANI , la baisse constatée du personnel d'exécution est parallèle à l'importance croissante du recours à l'externalisation de travaux.

Au plan matériel, l'installation majeure du CERN consiste en un anneau de 27 km de circonférence, enterré à 100 mètres de profondeur, et entrecoupé de 4 halls souterrains. Le surdimensionnement initial du tunnel se révèle aujourd'hui un choix particulièrement judicieux puisqu'il pourra abriter le LHC après le démantèlement du LEP, avec une durée d'utilisation prévisible d'au moins 20 ans.

La communauté des utilisateurs du CERN rassemble près de 7000 scientifiques, chercheurs, ingénieurs, techniciens et étudiants.

Cette communauté provient majoritairement des Etats membres mais s'étend désormais au-delà de l'Europe, à la Russie, aux Etats-Unis, au Canada, au Japon et plus généralement à l'Asie dont les pays manifestent un intérêt croissant pour les installations du CERN.

Le CERN joue également un rôle important dans la formation scientifique. La distribution de l'âge des utilisateurs montre un pic vers l'âge de 30 ans, correspondant aux nombreux étudiants en doctorat ou Ph.D. Le nombre de thèses correspondant à des travaux réalisés dans les 4 expériences du LEP, soit ALEPH, DELPHI, L3 et OPAL, s'élève à près de 1000 sur une période de 10 années. Plus de la moitié des titulaires de doctorats obtenus sur la base de travaux conduits au CERN essaiment dans l'industrie, en particulier dans les secteurs de l'informatique et de la finance. Les anciens du CERN ont comme point fort particulier la capacité à travailler en équipe sur des problèmes complexes.

*

M. Luciano MAIANI a ensuite présenté brièvement les recherches conduites au CERN.

L'actualité des travaux du CERN est en cette fin d'été 2000 concentrée sur ses tentatives de mise en évidence du Boson de Higgs, un élément fondamental du modèle standard permettant de conférer une masse aux particules. Des indices expérimentaux de l'existence du Boson de Higgs ont été obtenus à la fin juillet 2000, sans toutefois autoriser une conclusion définitive.

L'arrêt du LEP avait été prévu pour la fin septembre afin de permettre le démarrage des travaux de réalisation du LHC, tout délai supplémentaire repoussant d'autant la mise en service de ce dernier. Une éventuelle décision de report d'un mois de la fermeture du LEP devrait être prise par le Directeur général et annoncée le 14 septembre 2000, après avis du comité des expériences LEP et du Conseil de la recherche .

Un autre volet des travaux conduits au CERN est à la pointe de l'actualité. Il s'agit des résultats obtenus avec le décélérateur d'antiprotons, à savoir l'extraction d'antiprotons de basse énergie, l'étude de leurs propriétés physiques ainsi que les recherches subséquentes sur la symétrie matière / antimatière.

Autre domaine de recherche, le CERN produit dans son installation ISOLDE des faisceaux de noyaux instables et étudie leurs propriétés avec des retombées dans des domaines allant de la médecine à l'astrophysique. L'installation " Neutron Time of Flight " a pour but la production par spallation de neutrons de toutes énergies et trouve des applications en physique nucléaire, en astrophysique ainsi que dans l'étude de systèmes sous-critiques tels que celui proposé par le Pr. Carlo RUBBIA. L'Union européenne contribue d'ailleurs par un financement direct aux études sur la spallation.

*

M. Luciano MAIANI a ensuite exposé les projets du CERN pour les années à venir.

La nouvelle frontière du CERN est bien sûr la construction du grand collisionneur de hadrons LHC, qui, grâce à des collisions de protons à des énergies dix fois supérieures à celles obtenues jusqu'ici, devrait permettre de répondre à des questions fondamentales non résolues par le LEP et d'aborder des domaines nouveaux de la physique.

Localisé dans le tunnel du LEP, le LHC représentera 27 km d'aimants supraconducteurs, accélérant en sens contraire, jusqu'à des énergies de 7 TeV, deux faisceaux de protons destinés à entrer en collision.

Les deux détecteurs ATLAS et CMS devraient mettre en évidence le Boson de Higgs ainsi que les particules prévues par la supersymétrie.

L'installation ALICE sera consacrée à l'étude des plasmas quarks-gluons. Le LHC-B devrait permettre de produire des particules contenant des quarks bottom ou " beauté " , eux-mêmes mettant en évidence l'effet de rupture de symétrie de la violation de CP que l'on pense à l'origine de la dissymétrie entre matière et antimatière dans l'Univers.

L'ensemble de ces installations représente un programme de construction et d'exploitation considérable, les seules expériences ATLAS et CMS mobilisant chacune environ 1500 physiciens et chercheurs et occupant des cavités où logeraient des immeubles de 6 étages.

L'ampleur des travaux de génie civil correspondant nécessite des précautions en terme d'aménagement des paysages et une concertation étroite avec les élus des collectivités locales concernées.

Au reste, le LHC représente une série de défis technologiques de haut niveau, qui seront relevés avec la collaboration de tous les pays partenaires.

Les aimants supraconducteurs quadrupôles, qui s'ajouteront aux 1200 dipôles, existent pour le moment à l'état de prototypes réalisés par le CEA et l'IN2P3, dans le cadre d'une contribution spécifique de la France au LHC.

Les installations de cryogénie dans les dimensions requises par le LHC sont également très innovantes.

La collaboration internationale pour le LHC s'étendra pour la première fois à des Etats non membres. Les trois laboratoires américains de Berkeley (LBL), de Chicago (FNAL) et d'Upton (BNL) sont parties prenantes. Quatre laboratoires russes sont associés, notamment pour la mise au point et la fourniture de dipôles et quadrupôles magnétiques. Un laboratoire canadien et un laboratoire japonais sont également impliqués.

Il s'agit en tout état de cause d'une réalisation mondiale, conduite grâce à une ingénierie internationale rendue possible par le réseau Internet et le Web (World Wide Web) issu des travaux du CERN.

L'un des défis majeurs à relever est celui de la puissance de calcul et des télécommunications. Le CERN a choisi de produire des faisceaux de la plus grande luminosité possible. En contrepartie, le flux de données à gérer et à interpréter sera considérable.

On estime actuellement qu'une seconde d'expériences réalisées avec le LHC produira un volume de données équivalent aux données échangées pendant une seconde de fonctionnement du réseau téléphonique mondial ou bien au total des données ayant transité sur le Web pendant la totalité du mois de janvier. Les puissances de calcul nécessaires devront donc être multipliées par 100 d'ici à 2005. De même, il sera nécessaire de développer de nouvelles infrastructures de réseaux à hauts débits.

Ainsi, l'installation CMS concernera 1800 physiciens appartenant à 150 organismes différents répartis dans 32 pays. Il sera nécessaire de créer une puissance de calcul distribuée entre plusieurs pays et plusieurs institutions, système intitulé Grille de calcul, elle-même conditionnée par l'existence de liaisons à hauts débits. Le premier niveau du réseau sera le CERN lui-même, le deuxième celui des pays partenaires du LHC (France, Italie, Etats-Unis, Japon) et le troisième niveau celui des universités ou organismes de recherche locaux. L'Union européenne contribue au financement des recherches relatives à ce projet de Grille de calcul, à cause de son grand intérêt pour le développement des technologies de l'information.

Un autre projet important du CERN est celui du faisceau de neutrinos produits au CERN et dirigés vers les installations de l'INFN (Institut national de physique nucléaire) au Gran Sasso, à l'est de Rome, à travers 730 km des roches du sous-sol, en particulier sous les Alpes. L'objectif est de déterminer si les neutrinos ont une masse et s'ils peuvent se transformer d'une forme de neutrino en une autre.

Il s'agit enfin pour le CERN de préparer la future génération des collisionneurs. Avec les technologies actuelles, il faudrait un anneau irréalisable, car passant par Genève et Londres, pour atteindre une puissance dix fois supérieure à celle du LEP. Une alternative réaliste est le projet CLIC (Compact Linear Collider), étudié en collaboration avec différents pays. Le CERN prévoit de construire sa troisième installation test de 2001 à 2003.

*

M. Luciano MAIANI a enfin traité des retombées économiques du CERN pour la France.

Avec un montant de 148 millions de francs suisses, soit 638 millions de francs français en 1999, la France a pris à sa charge 16,22 % du budget total du CERN, soit une part comparable à celle de la Grande-Bretagne, mais inférieure à celle de l'Allemagne.

Les personnels français employés au CERN représentaient à la même date 1184 personnes, soit 43 % du total, dont 247 physiciens, ingénieurs et cadres administratifs.

Les salaires injectés dans l'économie locale française, représentaient 340 millions de francs suisses en 1993 (près de 1,2 milliard de FF).

Les ordres passés à l'industrie française représentaient en 1998 un montant de 49,5 millions de francs suisses (environ 210 millions de FF) pour les approvisionnements et de 45,5 millions de francs suisses (environ 195 millions de FF) pour les services. De surcroît, la construction du LHC s'accompagnera de commandes de services d'ingénierie et de matériels de haute technologie, auxquelles la France pourra sans nul doute accéder compte tenu des bonnes positions de son industrie.

Il n'est pas donc illégitime de dire que la France est un pays " suréquilibré " , ce qui signifie que les retombées en sa faveur dépassent sensiblement sa contribution. C'est pour tenir compte de cette situation particulière que la France apporte à la construction du LHC une contribution spéciale de 64,5 millions de francs suisses (environ 280 millions de FF) et verra sa contribution annuelle indexée de 1 % par an, de même d'ailleurs que la Suisse.

*

Pour terminer sa présentation, M. Luciano MAIANI est revenu sur le statut particulier du CERN. Le CERN est une organisation internationale depuis sa création en 1954. Ce qui apparaissait comme normal et nécessaire à cette date l'est-il encore aujourd'hui ?

Ce statut a fait que les pays membres considèrent le CERN comme leur propre laboratoire, le caractère international de l'organisme lui permettant également d'attirer les meilleurs chercheurs et ingénieurs. Ce statut particulier permet aussi au Directeur général du CERN de négocier directement avec les gouvernements des pays non-membres, ce qui a été précieux pour rendre possible la réalisation du LHC.

Mais il existe un changement important depuis quelques années : la " globalisation " , c'est-à-dire la participation de pays non européens aux activités du CERN. A cet égard, pour mettre au point la prochaine génération d'accélérateurs, une collaboration internationale s'étendant au-delà de l'Europe sera indispensable. De nouveaux instruments juridiques seront donc nécessaires

*

Dans la discussion qui a suivi, à la demande de M. Gilles COHEN-TANNOUDJI , membre du groupe de travail, M. Luciano MAIANI a précisé que l'acronyme ECFA désigne le comité des pays membres du CERN qui sert de forum de discussion pour les développements futurs.

En réponse à une question de M. Roger BALIAN sur le niveau de la contribution spéciale de la France susceptible de rétablir l'équilibre vis-à-vis des autres pays dont les retombées sont moindres, M. Luciano MAIANI a précisé que la discussion a été dure à ce sujet. Le CERN publie chaque année des statistiques sur le taux de retour de chacun des pays membres. Les taux diffèrent sensiblement d'un pays à un autre et il existe des procédures de rééquilibrage de la répartition.

M. Michel SPIRO , Président du Conseil scientifique du LEP et membre du groupe de travail, a précisé qu'il n'existe pas au CERN de règle de " juste retour " , qui serait contraire à l'optimisation des ressources.

M. Luciano MAIANI a estimé à cet égard que l'instauration d'une règle de juste retour serait " mortelle " pour le CERN.

M. Jean-Jacques AUBERT , directeur de l'IN2P3-CNRS, a fait valoir que la notion de juste retour recevrait une meilleure application par une implantation équilibrée des grands équipements de recherche en Europe que par un partage des commandes relatives à chacun de ces derniers. La contrainte d'un juste retour sur chaque outil entraînerait à coup sûr une augmentation considérable des coûts. Au reste, si la France bénéficie pour le CERN d'un fort volume de commandes, ce n'est pas seulement dû à la localisation de ce dernier mais aussi et surtout à la compétitivité de son industrie de haute technologie.

Sur cette importante question, M. Luciano MAIANI a noté que l'Allemagne ne bénéficie pas d'un taux de retour satisfaisant et que cette situation commence à poser problème.

M. Michel SPIRO a fait valoir que l'équilibre des avantages obtenus par chacun des pays membres ne doit pas être évalué au cas par cas mais au contraire sur un plan global.

M. Luciano MAIANI a indiqué que dans le cas du LHC, les pays non-membres mais participant au projet, comme les Etats-Unis et le Japon ont clairement demandé que leurs entreprises industrielles participent au projet. Le résultat de ces demandes ne sera pas négatif, bien au contraire, puisque l'élargissement de l'éventail des fournisseurs à des entreprises quelquefois plus compétitives que les seules entreprises européennes permettra des économies évaluées à 30 %.

M. René TRÉGOUËT, Sénateur, rapporteur, est ensuite revenu sur les conséquences de la formulation du budget du CERN en francs suisses et non pas en euros. Il y a bien sûr un avantage pour le CERN à disposer de ressources calculées dans une monnaie forte, ce qui lui assure en réalité à budget constant une croissance de celles-ci converties en euros. Pour autant, l'on doit se poser la question d'un calcul du budget du CERN en euros dans les prochaines années.

M. Luciano MAIANI a confirmé que la convention internationale constituant le CERN prévoit que le budget de ce dernier est établi en francs suisses. Un budget établi dans une monnaie forte est évidemment avantageux, en particulier lorsque le CERN fait un effort d'investissement important comme actuellement pour la construction du LHC. Il est incontestable toutefois qu'une difficulté surviendrait si la dérive de l'euro se prolongeait, entraînant un renchérissement sensible de la contribution financière des pays membres. Faut-il pour autant rattacher le CERN à l'Union européenne ? Une telle réforme n'irait pas dans la bonne direction dans la mesure où le statut actuel facilite la participation d'autres pays et que l'élargissement du CERN est nécessaire.

Mme Claudine LAURENT , membre du groupe de travail, a signalé que la France avait rencontré une difficulté identique avec le télescope France-Canada-Hawaii dont le financement a dû être assuré en pleine ascension du dollar au début des années 1980. Au demeurant, la lourdeur de gestion d'une convention internationale rend difficile toute évolution de ses dispositions puisque les Parlements nationaux doivent les ratifier.

Pour M. Luciano MAIANI, il n'est pas opportun, en tout état de cause, de mettre à l'ordre du jour la question d'une éventuelle reformulation du budget du CERN en euros plutôt qu'en francs suisses, avant la fin de la construction du LHC. Celle-ci, dont le principe a été décidé en 1994, devrait être achevée dans 5 ans. D'ici là, le CERN ne dispose d'aucune marge de sécurité pour le financement de cette opération. Au demeurant, tout changement d'unité de compte nécessiterait une révision de la convention internationale.

En réponse à M. Roger BALIAN qui s'interrogeait sur la part des pays de la zone euro dans le financement du CERN, M. Luciano MAIANI a précisé que celle-ci s'élève à environ 80 %. S'agissant de l'investissement dans le LHC, M. Claude DETRAZ a indiqué que le budget du CERN en assure les trois quarts.

*

Sur la suggestion de M. Jochen SCHNEIDER , membre du groupe de travail, M. Luciano MAIANI a alors évoqué les perspectives à 10 ans de la physique des particules .

Au-delà du LHC, c'est-à-dire au-delà d'un horizon à 15 ans, l'avenir appartient selon toute probabilité aux collisionneurs linéaires à électrons dans la même région d'énergie. A cet égard, les Etats-Unis, le Japon et l'Allemagne avec DESY à Hambourg commencent à mettre au point leurs propres projets. Toutefois, " on ne construira pas plus d'un accélérateur linéaire dans le monde " . En tout état de cause, l'Europe ne pourra assumer seule un nouveau projet de la taille de celui du LHC, d'autant que les Etats-Unis, dont la communauté des physiciens des particules est pourtant très importante, n'auront contribué qu'à environ 5 à 10 % des dépenses relatives au LHC.

C'est pourquoi le CERN propose un plan à étapes successives, avec comme première perspective le projet CLIC déjà évoqué. L'objectif est de commencer la construction de l'installation correspondante lorsque le LHC commencera d'être opérationnel, de façon à la voir entrer en service environ 15 ans après le démarrage du LHC. Ce projet, qui ne recourrait pas au tunnel circulaire du LEP et du LHC, paraît être une réponse appropriée pour mettre à la disposition des physiciens des particules une machine dont l'énergie serait de 3 à 5 fois supérieure à celle du LHC.

M. François GOUNAND , Directeur des sciences de la matière au CEA, a estimé lui aussi que le prochain projet de grand accélérateur devrait être réalisé dans un cadre mondial. Remarquant que le Japon et les Etats-Unis participent à la conception et à la fabrication des détecteurs du LHC, il s'est par ailleurs demandé si ces mêmes pays participeront également à leur fonctionnement.

M. Luciano MAIANI a souligné que la part des Etats-Unis dans la mise au point des détecteurs est très importante, l'intervention de pays non-membres pour ce travail dépassant les 50 %. La participation au fonctionnement fait l'objet d'études et d'une négociation entre le CERN et les Etats-Unis sur la base d'une égalité de traitement entre les Etats-Unis et les pays membres. De fait, le coût des expériences est désormais comparable à celui des accélérateurs. C'est pourquoi la question se pose de savoir si le coût des opérations doit être inclus ou exclu du budget du CERN. L'intérêt des pays membres est d'intégrer ces dépenses au budget des collaborations, en créant une comptabilité séparée spécifique aux grandes expériences.

M. René TRÉGOUËT ayant demandé des explications sur la gestion de la période intérimaire séparant l'arrêt du LEP et le démarrage du LHC, M. Luciano MAIANI a exposé que les personnels du LEP s'emploieront précisément à la mise au point du LHC mais aussi d'autres programmes sur les différentes installations du CERN en service durant cette période. La recherche et le développement sur le futur à long terme du CERN ne pourront toutefois se faire qu'avec du personnel et des ressources supplémentaires.

M. Michel SPIRO a ajouté que, parmi les utilisateurs français du LEP, certains travailleront au développement du LHC, tandis que d'autres, notamment ceux dont les recherches portent sur le Boson de Higgs, utiliseront les installations américaines, tant il est vrai qu'il s'agit d'une recherche conduite à l'échelle mondiale.

M. Claude DÉTRAZ a souligné que les accélérateurs du CERN se répartissent en trois étages. Le premier étage est celui du synchrotron à protons (PS) qui alimente les autres accélérateurs avec toutes sortes de particules - proton, électrons, noyaux. Le deuxième étage, celui du supersynchrotron à protons (SPS), construit dans les années 1970, fonctionne depuis comme accélérateur à protons mais aussi comme collisionneur protons-antiprotons, accélérateur d'ions lourds et injecteur d'électrons/positons pour le LEP, troisième étage de l'ensemble.

Si le LEP va effectivement être arrêté avant la fin 2000, en revanche les deux premiers étages pourront continuer à fonctionner.

La contrainte budgétaire fait que la construction du LHC oblige à arrêter le LEP pour redéployer les crédits et les personnels afférents.

En réalité, le CERN a pris les dispositions nécessaires pour continuer, en tant que laboratoire de haut niveau, à produire des résultats scientifiques de qualité, y compris après l'arrêt du LEP. Avec les faisceaux du PS et du SPS, les programmes scientifiques ont ainsi permis de frapper récemment trois grands " coups " , d'une part dans l'étude des plasmas protons-gluons, d'autre part dans les recherches sur l'antimatière et enfin sur l'étude de la symétrie matière - antimatière et l'effet de rupture de symétrie de la violation de CP.

M. Michel SPIRO a ajouté que, du fait de la nécessité absolue de planifier les recherches, le CERN n'a qu'un choix à la marge sur la date d'arrêt d'une installation comme le LEP. Le contexte est toutefois celui d'une compétition entre différents centres de recherche comme ceux de Stanford et de Chicago aux Etats-Unis. En réalité, les chercheurs choisissent les meilleures installations pour conduire leurs travaux. En tant que centre d'excellence, le CERN attire environ 6000 chercheurs par an. Il s'agit d'un critère essentiel. On ne saurait toutefois nier que pendant les 5 ans de la construction du LHC, les Etats-Unis auront un pouvoir d'attraction encore accru.

Pour M. Jean-Jacques AUBERT , les programmes de recherche ont été préparés de manière qu'il n'y ait effectivement pas de " trous " , le dynamisme des équipes étant conservé notamment par la possibilité qui leur sera donnée d'accéder à d'autres équipements.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné la mobilité croissante des chercheurs et a redouté que les 5 années de construction du LHC ne conduisent à la dislocation des équipes du CERN.

M. Luciano MAIANI a indiqué que la construction du LHC est en soi un objectif mobilisateur même sur 5 ans et que le CERN a réussi à attirer les meilleures équipes mondiales pour la mener à bien.

A cet égard, M. Claude DÉTRAZ a rappelé que dans le domaine de la physique des particules, la constante de temps est d'environ 15 ans. Les recherches sur les détecteurs du LHC ont commencé il y a quinze ans. Les travaux sur le traitement des données qui seront récupérées en 2005 ont commencé il y a plus de 5 ans. Au total, environ 1800 chercheurs seront mobilisés à plein temps pour chacune des 4 expériences du LHC. Il est toutefois vrai que le maintien de la capacité d'attraction du CERN pendant les 5 ans à venir est une question essentielle. L'institution elle-même doit s'attacher à maintenir au plus haut niveau son impact et sa crédibilité scientifiques. Après l'arrêt du LEP, les autres installations du CERN y pourvoiront, comme par exemple les faisceaux de neutrons, ceux d'antiprotons et le séparateur ISOLDE qui attirent un nombre de chercheurs visiteurs comparable à celui du LURE, soit près de 1000 chaque année.

M. Jean-Jacques AUBERT a confirmé l'importance du CERN pour l'IN2P3, y compris dans la période intérimaire allant de l'arrêt du LEP à l'entrée en service du LHC. Ainsi que l'a indiqué M. MAIANI, les chercheurs " n'obéissent pas " et " vont où ils veulent " . Mais il reste un travail considérable à mener notamment pour l'acquisition de données. De surcroît, il est capital que le CERN se projette dans le futur. Si un organisme de recherche n'offre pas ce qui est à la frontière ultime de la connaissance, les chercheurs s'en détournent immanquablement et vont sur d'autres installations.

*

A ce stade de la discussion, M. Michel SPIRO a voulu revenir sur les points forts du CERN.

Le premier acquis du CERN est de représenter la collaboration européenne la plus poussée qui soit dans le domaine scientifique, cette collaboration se faisant avec des règles saines, notamment l'absence de juste retour et l'ouverture au reste du monde. Le CERN a, de fait, promu la culture de la transparence dans la recherche scientifique.

Le deuxième acquis est d'avoir des structures et un processus de décision exemplaires. Selon une démarche scientifique, les projets venant de la base sont examinés et validés par des experts, puis transmis à un comité scientifique qui lui-même les présente au directorat, celui-ci la soumettant ensuite aux commissions budgétaires et scientifiques et enfin au Conseil , organe suprême du CERN. Une telle démarche est un atout dans le domaine des très grands équipements (TGE). Elle introduit une rigueur exemplaire dont ne font pas toujours preuve les disciplines n'utilisant pas de TGE. Au reste, il importe de remarquer qu'il existe aussi au CERN une culture de consensus large. Deux caractéristiques importantes résument en définitive le processus de décision du CERN : rigueur et consensus.

Le troisième point fort du CERN est d'avoir développé une nouvelle dimension dans la conduite de projets. Le modèle antérieur était celui d'un développement spatial ou localisé mis en _uvre par une structure hiérarchisée. La méthode mise au point par le CERN pour le LHC est celle du développement en réseau avec une ingénierie globale. Si, comme on peut le penser, le LHC est un succès, la méthode pourra devenir un modèle.

Sur le sujet de la globalisation, M. Luciano MAIANI a indiqué que 80 % des accélérateurs du LHC sont réalisés au CERN et 20 % ailleurs, la délocalisation étant plus importante pour certains équipements comme les détecteurs. Alors que la taille des projets augmente, le CERN ne peut quant à lui s'étendre plus avant. L'objectif doit donc être que la moitié du travail correspondant aux projets du futur soit réalisée à l'extérieur. La construction du futur accélérateur linéaire sera donc nécessairement une entreprise globale, les espaces nationaux bénéficiant de transferts de technologie.

En tout état de cause, la stratégie du CERN est bien une stratégie " bottom-up " et non pas une stratégie " top down " comme celle retenue pour ITER.

M. René TRÉGOUËT, Sénateur, rapporteur, s'étant inquiété de savoir si tous les pays du monde jouent sans réticence le jeu d'une mise en réseau des connaissances, M. Luciano MAIANI a indiqué que les succès de la physique des particules au plan mondial sont basés sur une transparence effective et généralisée.

M. Guy WORMSER , directeur scientifique adjoint de l'IN2P3, a confirmé l'ouverture croissante des scientifiques américains à la culture de la transparence, y compris vis-à-vis de chercheurs russes qui participent d'ailleurs à la construction d'accélérateurs aux Etats-Unis.

M. Pierre POINTU , membre du groupe de travail, s'étant interrogé sur le rôle éventuel du CERN dans l'évaluation des réacteurs nucléaires sous-critiques, M. Luciano MAIANI a précisé que si l'idée de tels réacteurs trouve effectivement son origine au CERN, notamment auprès de Carlo Rubbia, le CERN ne s'investit pas dans leur mise au point. Si un projet européen de réacteur sous-critique voyait le jour, le CERN, en tant que source de savoir-faire, pourrait toutefois contribuer au développement de l'accélérateur indispensable à leur fonctionnement. L'installation du CERN intitulée " neutron time of life facility " est en l'occurrence parfaitement adaptée aux études fondamentales qu'il serait nécessaire de faire au préalable.

Après avoir indiqué que le groupe de travail de l'Office sur les TGE était honoré d'avoir reçu les plus hauts dirigeants du CERN et les avoir remerciés chaleureusement pour leur participation, M. René TRÉGOUËT, Sénateur, rapporteur, a donné la parole aux représentants du GANIL.

*

M. Daniel GUERREAU , Directeur du GANIL (Grand Accélérateur National d'Ions Lourds), après avoir indiqué le plan de son exposé, a souligné que la physique nucléaire comprend quatre principaux domaines, l'étude des constituants de la matière, l'étude du degré de cohésion des noyaux en fonction du nombre et de la nature de leurs constituants, le comportement de la matière dans des conditions extrêmes et l'étude de l'origine des éléments dans l'Univers.

Le GANIL est présent dans chacun de ces domaines, à quoi il faut ajouter l'utilisation des outils de la physique nucléaire dans d'autres disciplines.

Faisant un bref commentaire sur le CERN, M. Daniel GUERREAU a estimé que cette organisation est le type même d'une réalisation aboutie.

Mais il importe de savoir que la physique nucléaire française a su, elle aussi, au plan national, se restructurer et acquérir une dimension européenne.

En tout état de cause, un très grand équipement comme le GANIL n'est pas venu s'ajouter purement et simplement à un parc initial maintenu en fonctionnement.

Au contraire, alors que la première expérience du GANIL est intervenue en 1983, au cours des 15 années suivantes, de 1983 à 1997, la physique nucléaire française a su fermer différentes installations considérées comme obsolètes, tels l'accélérateur linéaire d'électrons de Saclay (ALS), l'accélérateur d'ions lourds Alice d'Orsay, l'accélérateur national Saturne de Saclay, l'accélérateur Sara de l'Institut des sciences nucléaires de Grenoble, et redéployer vers la protonthérapie le synchrocyclotron d'Orsay.

Quelles sont les installations comparables au GANIL dans le monde ? En Europe, il faut citer le GSI de Darmstadt en Allemagne, une installation au demeurant plus complémentaire que concurrente. La Russie dispose avec Dubna d'un accélérateur d'ions lourds comparable. Les Etats-Unis et le Japon en possèdent chacun un également (MSU, RIKEN).

Le GANIL peut se définir comme un laboratoire d'accueil et un outil pluridisciplinaire. Il comprend un ensemble d'accélérateurs (cyclotrons) fournissant des faisceaux d'ions lourds dans une très large gamme de masse, du carbone à l'uranium, et d'énergie. Il délivre également des faisceaux dits exotiques, c'est-à-dire essentiellement instables, de haute énergie.

En 1999, le GANIL a fourni 5100 heures de faisceaux à haute énergie et 1700 heures à moyenne énergie. Il dispose d'équipements expérimentaux performants. Le nouvel ensemble de production et d'accélération de faisceaux exotiques appelé SPIRAL est en cours d'achèvement. Une enquête publique tardive et des compléments d'information au dossier de sûreté ont entraîné un retard dans le démarrage de l'installation. Le programme scientifique est élaboré en concertation avec les partenaires européens du GANIL.

Après que la décision de construction a été prise en 1975, la première expérience est intervenue en 1983. Le coût de la construction initiale s'est élevé à 641 millions de francs 1983, soit 938 millions de francs 1999. Le coût des modifications et compléments apportés entre 1983 et 1999 s'est élevé au total à 911 millions de francs 2000.

Le statut juridique du GANIL est celui d'un GIE, à parité entre la direction des sciences de la matière (DSM) du CEA et l'IN2P3 du CNRS.

Le GIE a été créé en 1976 pour une durée de 30 ans. Les avantages de ce statut sont de permettre à la fois une rigueur budgétaire et une souplesse de gestion supérieure à celui d'une UMR. Les personnels, soit 230 personnes chercheurs, ingénieurs, techniciens et administratifs, continuent d'être gérés directement par la DSM et l'IN2P3. L'essentiel du personnel (ingénieurs et techniciens) contribue au fonctionnement de l'installation et le nombre de chercheurs permanents sur le site est faible - environ 20. Le GANIL compte annuellement une communauté d'environ 600 utilisateurs extérieurs.

Le budget 2000 du GANIL s'élève à 52 millions de francs, dont 44,4 millions apportés par les membres du GIE (IN2P3 et DSM). Les autres directions du CEA utilisatrices du GANIL contribuent financièrement à des investissements dans le domaine des recherches pluridisciplinaires.

L'une des questions fondamentales que le GANIL souhaiterait voir régler au plan budgétaire, serait de pouvoir disposer d'une programmation pluriannuelle de son budget.

En 2000, la région Basse Normandie aura apporté une subvention de 1,5 million de francs et l'Union européenne une contribution de 2,5 millions de francs. En réalité, ces financements permettent de compenser, mais en partie seulement, la diminution des apports du CEA et du CNRS, qui se sont réduits de 25 % en francs constants sur une période de 10 années.

Pour l'avenir, à côté des recherches en physique nucléaire qui se poursuivent, l'un des axes forts de développement du GANIL est la pluridisciplinarité. Il s'agit là certes d'un projet scientifique important mais aussi d'une stratégie de diversification de ses sources de financement. En complément aux 4 millions de francs apportés en 2000 par la région et l'Union européenne, s'ajoutent déjà 3,6 millions de francs d'investissements provenant d'activités nouvelles hors budget.

La discussion a ensuite porté sur les conditions d'accès au GANIL. M. Daniel GUERREAU a indiqué que tout utilisateur du GANIL y a un accès gratuit. M. Roger BALIAN s'étant interrogé sur l'opportunité de créer un ticket modérateur, M. Jean-Pierre GRANDIN a indiqué que cette situation existe de facto car certains chercheurs visiteurs construisent par leurs propres moyens une instrumentation complémentaire de celle du GANIL.

*

Après ces informations sur les structures du GANIL, M. Daniel GUERREAU a présenté les principaux thèmes des recherches qui y sont menées.

Si le GANIL a été construit pour servir la physique de la matière nucléaire et l'étude du noyau de l'atome, et si les chercheurs de cette discipline représentent la majorité de ses utilisateurs, soit 400 sur 700, les activités du GANIL ne sauraient se résumer à ce champ d'étude.

L'étude de la matière nucléaire au GANIL comporte plusieurs points forts qui ont tous trait à l'étude du comportement de la matière nucléaire portée dans des conditions extrêmes.

La production et l'étude des noyaux exotiques représentent l'un de ces points forts. Il s'agit de noyaux comportant des proportions de neutrons et de protons très différentes de celles caractérisant l'état stable. L'objectif est d'étudier au plan fondamental les problèmes de cohésion du noyau, ce qui conduit à remettre en cause certains concepts fondamentaux de la physique.

Aujourd'hui, des résultats très marquants ont été obtenus tels la production de plusieurs noyaux dits " magiques " qui ont été mis en évidence au GANIL, dont l'étain 100 et le nickel 48, qui comporte 28 protons et 20 neutrons, soit le noyau le plus riche en protons qui puisse exister.

D'autres résultats concernent la mise en évidence de noyaux à halos de neutrons, l'identification de nouvelles structures dans les noyaux, dont des formes de polymères avec des liaisons covalentes assurées par des neutrons en excès ou encore le domaine de la recherche des noyaux superlourds, liée à la création de nouvelles espèces chimiques de numéro atomique supérieur à celui de l'uranium, l'élément le plus lourd existant dans la nature.

La meilleure connaissance du comportement des noyaux placés dans des conditions de température et de pression très élevées permet aussi l'étude de la transition de phase liquide-gaz récemment mise en évidence à travers la capacité calorifique négative dans le milieu nucléaire.

Enfin, les études menées au GANIL permettent de progresser dans notre connaissance de la genèse des éléments dans l'univers.

*

A cet égard, M. Roger BALIAN a remarqué que la physique nucléaire a fait des progrès considérables en 10 ans. Il s'agit pourtant d'une des disciplines malheureusement les plus méconnues. Au vrai, cette discipline a la réputation injustifiée d'être " vieillotte " et pour certains, " diabolique " puisque touchant au nucléaire.

Mme Claudine LAURENT a estimé qu'il y a effectivement une réflexion à conduire à ce sujet.

M. Daniel GUERREAU a déclaré à son tour qu'il serait préférable de désigner cette physique sous l'appellation de " physique du noyau " .

Un changement de terminologie est en tout état de cause nécessaire pour mieux décrire la réalité de cette discipline et supprimer le lien abusif qui peut être fait par le public entre ces recherches fondamentales et les applications civiles ou militaires du nucléaire. D'autres nouvelles appellations sont à l'heure actuelle mises en avant, comme la physique des faisceaux exotiques ou bien des faisceaux rares, ainsi que cela est fait aux Etats-Unis.

Le CIRIL (Centre interdisciplinaire de recherche ions-lasers) est en particulier chargé d'accueillir les utilisateurs du GANIL, pour les applications autres que la physique nucléaire et pour des recherches très diverses dans les domaines liés à la physique atomique et moléculaire, à la physique de la matière condensée et des matériaux, à la radiobiologie. Cette dernière catégorie comprend par exemple l'étude des effets des rayonnements cosmiques sur la santé, ces rayonnements étant constitués d'ions lourds et pouvant représenter un obstacle considérable pour les projets de vols habités d'exploration de la planète Mars.

Si les études sur les effets des rayonnements électromagnétiques ne figurent pas dans son domaine de recherche, le GANIL étudie en revanche les effets des rayonnements ionisants sur différents types de matériaux, notamment la création de défauts, la modification de structures et la création de nouveaux types de matériaux.

Le premier axe est relatif à l'étude de l'endommagement des métaux et d'alliages sous l'effet d'une irradiation. Ce thème d'étude est d'une importance fondamentale dans l'industrie nucléaire pour qui le vieillissement des réacteurs et la tenue des matrices de stockage des matières irradiées sont des variables critiques. Le GANIL collabore à cet égard avec EDF, le CEA et la Cogema. D'autres études importantes portent sur le test de composants électroniques embarqués, leur exposition à des ions lourds pouvant perturber leur fonctionnement. Mais le GANIL utilise également ses sources d'irradiation pour préparer des matériaux particuliers, comme des membranes microporeuses.

Le GANIL inscrit également dans ses objectifs les transferts de technologie et l'essaimage.

La société Biopore a produit et commercialisé de 1986 à 1990 des membranes microporeuses, jusqu'à ce que la production de ces dernières en recourant à des accélérateurs de moindre taille se révèle plus compétitive. La société Ganelec en a fait de même de 1989 à 1993 pour des modules électroniques. Depuis 1991, la société Pantechnik produit et commercialise des sources d'ions et d'autres dispositifs utilisés dans les accélérateurs de particules. La société X-ion, créée en 1998, a eu comme point de départ les travaux de recherche fondamentale du GANIL dans le domaine de l'irradiation et utilise des faisceaux d'ions multichargés très lents pour la modification de substrats de silicium pour la microélectronique. Enfin, le GANIL est à l'origine de la création d'un incubateur d'entreprises qui, avec la participation complémentaire de l'ISMRA et de l'Université de Basse-Normandie, sera opérationnel fin 2000.

L'évaluation des recherches et des projets du GANIL est le fait du Conseil scientifique et de deux Comités d'évaluation des expériences, dont l'un est compétent pour la physique nucléaire et l'autre pour les recherches interdisciplinaires. En outre le projet SPIRAL a été encadré par un Comité de pilotage présidé par le Professeur suédois B. MOTTELSON, Prix Nobel. De fait, le GANIL n'hésite pas à placer ses activités sous l'examen d'experts étrangers. Le Comité d'évaluation des expériences de physique nucléaire est présidé par un chercheur britannique, tandis que le GANIL s'est prêté en 1997 à un audit international sous la conduite du Professeur néerlandais Siemssen et qu'un audit de l'installation a été mené par l'Union européenne dans le cadre du 5 ème PCRD.

Au demeurant la production scientifique du GANIL se chiffre à 1421 publications, dont plus de la moitié dans des revues à fort facteur d'impact.

A la demande de M. René TRÉGOUËT, Sénateur, rapporteur , s'enquérant de l'insertion locale du GANIL, M. Daniel GUERREAU a indiqué en premier lieu que la région Basse-Normandie apporte son aide éventuelle pour le financement d'investissements particuliers mais en aucun cas pour les dépenses de fonctionnement.

Parmi les 600 utilisateurs annuels du GANIL, 96, soit 16 %, sont des chercheurs locaux hors GANIL, dont la plupart appartiennent à l'ISMRA, une école d'ingénieurs qui accueille l'ensemble des laboratoires de physique et chimie de Caen (UMR associées à l'Université et au CNRS).

Au demeurant, l'installation du GANIL a été le point de départ de la création ex nihilo d'un véritable pôle scientifique à Caen, qui comprend désormais l'UFR de Sciences, l'IUT, deux écoles d'ingénieurs (ISMRA et travaux publics de Caen), le centre Cyceron d'imagerie médicale avec sa caméra à positons ainsi qu'une technopole d'entreprises.

Au surplus, près de la moitié des dépenses de fonctionnement et d'investissement du GANIL bénéficient à des fournisseurs locaux, à quoi il faut ajouter l'impact des salaires versés au personnel.

Le GANIL a su devenir en tout état de cause un laboratoire national, dont les équipements sont essentiels pour les 50 laboratoires utilisateurs, appartenant au CEA, au CNRS ou aux universités. Il ne peut exister d'équipements " propriétaires " ou d'équipements de laboratoire comparables à ce niveau d'investissements. Le GANIL peut donc être considéré comme un équipement de base pour ces laboratoires.

Le contrat de plan Etat - Région Interrégional (Basse Normandie, Haute Normandie, Ile de France), s'attache à amplifier le succès du GANIL à cet égard, en finançant à hauteur de 10 millions de francs la reconnaissance de celui-ci en tant que pôle interrégional leader pour l'étude des interactions ions-matière.

La pression de la demande d'accès aux faisceaux du GANIL est un autre signe de succès. La demande de temps de faisceau est au moins deux fois supérieure au temps de fonctionnement disponible du GANIL. Entre le dépôt dune demande d'expérimentation et la réalisation de celle-ci, il s'écoule de quelques mois à 18 mois ou 2 ans. La sélection des demandes s'effectue deux fois par an, la direction se réservant toutefois 10 à 15 % du temps total pour des attributions discrétionnaires destinées à faire face à des demandes urgentes de qualité.

*

Une discussion est alors intervenue sur les contraintes de fonctionnement résultant du statut juridique du GANIL ou du statut des personnels.

M. Daniel GUERREAU a indiqué que le GANIL fonctionne en 3x8, dimanches et jours de fêtes compris, sauf en période de maintenance. Il est donc nécessaire de rémunérer des heures supplémentaires ainsi que des heures passées en astreinte. Il existe bien entendu des moyens légaux pour le faire mais ceux-ci se caractérisent parfois par une certaine complexité. Le paiement des heures supplémentaires et la prise en compte des horaires décalés sont relativement aisés pour les personnels CEA, ce qui a conduit à un recrutement des opérateurs de machines uniquement dans le cadre CEA. Au contraire les procédures de compensation pour astreintes et heures supplémentaires des personnels IN2P3 sont plus complexes.

M. René TRÉGOUËT, Sénateur, rapporteur , s'étant interrogé sur l'avantage éventuel d'une société civile par rapport à un GIE, M. François GOUNAND a estimé que le statut de société civile est particulièrement adapté à une européanisation d'un grand équipement, au contraire du GIE qui se prêterait mal à une ouverture à des partenaires étrangers. Au demeurant, la gestion des équipements communs au CEA et au CNRS n'est actuellement pas facilitée par le fait que le CEA est passé effectivement aux 35 heures, au contraire du CNRS.

Selon M. Jean-Jacques AUBERT , il convient de ne pas surestimer les difficultés résultant de la coexistence au sein d'un GIE de personnels de statuts différents.

M. Daniel GUERREAU a toutefois indiqué que si la loi des 35 heures n'était pas appliquée dans la fonction publique, l'on irait alors vers des problèmes sérieux au GANIL.

*

La discussion a ensuite porté sur l' ouverture du GANIL aux autres laboratoires nationaux ou européens.

M. Daniel GUERREAU a précisé que sur les 600 utilisateurs du GANIL en 1999, 16 % viennent de la région, 44 % du reste de la France, 26 % des autres pays de l'Union européenne, 9 % de l'Europe orientale et 5 % des Etats-Unis, du Japon et de la Chine.

M. Roger BALIAN ayant estimé que l'Italie, l'Allemagne et la Grande-Bretagne envoient peu de chercheurs au GANIL en dépit d'une tradition nucléaire forte et s'intéressent de fait peu à cet équipement, M. Daniel GUERREAU a fait remarquer que les installations du GANIL seraient saturées au-delà de 40 % d'utilisateurs étrangers.

Au reste, le GANIL bénéficie du programme européen " Access to Large Facilities " , qui prend en charge d'une part le défraiement des chercheurs étrangers visiteurs - doctorants ou post-docs et étudiants - et d'autre part contribue modestement aux frais correspondants de fonctionnement des accélérateurs. Au demeurant, l'implication du laboratoire dans de grands programmes européens est croissante, notamment pour le développement de détecteurs de nouvelle génération, pour la conception de l'accélérateur du futur et le développement de la physique du noyau. D'ailleurs, le GANIL est l'un des 10 laboratoires reconnus comme Grande Infrastructure par l'Union européenne, en physique nucléaire et sa part dans les contrats de type RTD, réseaux et " Marie Curie training site " du 5 ème PCRD représente 25 % du total des contrats européens en physique nucléaire.

M. François GOUNAND a ajouté que l'ouverture européenne du GANIL devrait s'accompagner d'un changement de statut permettant une meilleure répartition des frais de fonctionnement entre tous les utilisateurs.

M. Jean-Jacques AUBERT a jugé que si le GANIL n'est pas sans rival aujourd'hui dans le monde, en revanche l'entrée en service de SPIRAL lui donnera une avance sur tous les autres grands accélérateurs d'ions lourds.

*

M. Daniel GUERREAU a alors brossé les perspectives d'activité du GANIL, à court, moyen et long terme , perspectives qui seront notablement élargies par l'entrée en service de SPIRAL.

L'objectif de SPIRAL, un projet de 120 millions de francs hors salaires dont le démarrage est prévu pour la fin 2000, est, au moyen de la production et de l'accélération de faisceaux exotiques et à l'aide de nouveaux grands détecteurs, d'étudier l'origine de la liaison nucléaire, la stabilité des noyaux en fonction de leur nombre de protons et de neutrons et la formation des éléments dans l'univers.

Si la physique des particules est organisée depuis les années 1950, la physique nucléaire a fait d'importants progrès dans la coordination, notamment grâce à NuPECC (Comité européen de collaboration en physique nucléaire), comité d'experts de la Fondation européenne pour la science. La construction éventuelle de SPIRAL a reçu un avis positif de sa part. Le forum MegaScience de l'OCDE consacré à la physique nucléaire a quant à lui conclu en 1999 à la nécessité d'instruments de 2 ème génération pour les faisceaux exotiques, à l'échelle de chaque continent.

Les deux nouveaux grands détecteurs de SPIRAL, d'un coût total de 50 millions de francs, ont été financés à hauteur de 55 % par des partenaires européens.

Les perspectives à moyen terme du GANIL sont d'augmenter la gamme de faisceaux disponibles avec SPIRAL, selon un programme de R & D développé en commun avec la Belgique, les Pays-Bas et la Finlande, dans le cadre du projet SPIRAL Phase II. Un avant projet sommaire sera prêt d'ici à l'été 2001. Ce programme permettra aussi de conduire des études fondamentales liées au développement de programmes innovants dans le domaine de l'incinération des déchets nucléaires.

Le long terme de SPIRAL et donc du GANIL porte ainsi sur la définition d'une installation de 2 ème génération où les intensités des faisceaux d'ions exotiques produits seraient accrus de deux à trois ordres de grandeur.

L'avenir du GANIL sera européen ou ne sera pas. C'est pourquoi GANIL participe en tant que coordonnateur au grand programme EURISOL, en collaboration avec tous les grands laboratoires européens, qui vise à définir un avant-projet de machine de 2 ème génération tirant parti des premières années de fonctionnement de SPIRAL. Ces développements sont liés à la mise au point d'accélérateurs de très hautes intensités qui sont nécessaires également à d'autres disciplines, par exemple pour la production de neutrons par spallation, pour les réacteurs hybrides, l'irradiation ou la production de neutrinos.

M. Roger BALIAN a alors demandé si le traitement des déchets radioactifs par transmutation représente pour les chercheurs du GANIL une voie d'avenir au plan scientifique.

M. Daniel GUERREAU a alors rappelé que la loi du 30 décembre 1991 sur la gestion des déchets radioactifs comporte deux voies de recherche. La première est celle du stockage, qui voit une implication croissante du GANIL notamment pour le test d'irradiation de matériaux pour le compte de la DRN (direction des réacteurs nucléaires) et la DCC (direction du cycle du combustible) du CEA. Un équipement dédié est en cours de construction au GANIL (IRRSUD). S'agissant de la deuxième voie, celle de la séparation poussée et de la transmutation, il n'existe pas pour l'instant de recherche spécifique au GANIL. Il existe toutefois des physiciens du GANIL impliqués dans des travaux de métrologie.

M. Roger BALIAN ayant souligné l'importance de recherches sur la transmutation de noyaux par des neutrons, M. Jean-Jacques AUBERT a souligné que 57 chercheurs de l'IN2P3 travaillent sur l'aval du cycle, sur les 210 chercheurs de cet organisme travaillant sur la physique nucléaire. Reflétant l'intérêt sociétal croissant de ces questions, une prise de conscience forte s'effectue dans le milieu.

A la demande de M. Michel SPIRO , M. Daniel GUERREAU a précisé que la production et l'étude de noyaux superlourds représente un thème du futur programme, le fait de disposer de faisceaux de plus en plus riches en neutrons étant un gros atout. Les chercheurs américains, russes et allemands travaillent également sur cette question complexe et dont les résultats récents sont controversés, ainsi en ce qui concerne les noyaux de numéro atomique 116 et 118 dont la production annoncée aux Etats-Unis n'a pas été confirmée par les autres laboratoires (GANIL, GSI et RIKEN).

M. Gilles COHEN-TANNOUDJI a remarqué que la notion d'installation multi-applications est à l'ordre du jour. Un avant-projet intitulé CONCERT est en cours de mise au point. Il conviendrait de consacrer une audition à ses responsables, car il s'agit d'une approche nouvelle du concept de très grand instrument.

*

Une discussion s'est ensuite engagée sur le Vivitron de Strasbourg, à l'invitation de M. Roger BALIAN , qui a rapporté les interrogations de différents chercheurs européens sur les résultats obtenus avec cet instrument.

M. Jean-Jacques AUBERT a indiqué que le seul critère en la matière est de savoir quelle science est produite avec cet équipement, qui est un détecteur de photons de grande acceptance (EUROBALL). Des résultats intéressants ont d'ores et déjà été obtenus. Lorsque cet équipement aura achevé son cycle d'expérimentation, la qualité des projets qui seront présentés pour sa prorogation ou son remplacement déterminera la décision à prendre.

*

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur , sur les causes du retard dans la mise en service de SPIRAL, M. Daniel GUERREAU a précisé que le GANIL étant une installation nucléaire de base (INB), il a fallu intégrer a posteriori les évolutions de réglementation intervenues depuis le début de la construction en 1994 et tenir compte de la décision prise en 1999 par la Direction de la sûreté des installations nucléaires de réaliser une enquête publique.

Une discussion est alors intervenue entre les participants sur l'opportunité d'appliquer une seule et même réglementation à des INB comme les réacteurs électronucléaires ou les équipements de recherche.

M. Robert COMÈS a souligné que les personnels des DRIRE sont souvent désormais dépourvus d'expérience et appliquent sans nuance la réglementation.

Pour M. Daniel GUERREAU , les procédures de radioprotection se sont incontestablement alourdies dans les années récentes.

M. Claude DÉTRAZ a estimé que, confronté aux contraintes du démantèlement du LEP, le CERN a tenu à traiter les questions de radioprotection avec le plus grand professionnalisme, tant ces questions sont sensibles dans la population.

M. Jean-Jacques AUBERT a fait remarquer qu'il existe des difficultés spécifiques aux installations de recherche mais aussi des difficultés réglementaires comme l'absence de seuil de radioactivité et l'interrogation sur la possibilité de diluer éventuellement des déchets radioactifs et enfin des difficultés dues à une perception irrationnelle des différents risques.

A cet égard, M. René TRÉGOUËT, Sénateur, rapporteur , a indiqué que ces remarques sur la réglementation en matière de radioprotection seront transmises au Président de l'Office et qu'il sera demandé à l'Office de plaider en faveur de réglementations distinctes selon les différents types d'installations nucléaires de base.

*

M. René TRÉGOUËT, Sénateur, rapporteur , a souligné que le Parlement ne prend pas de décision sur le fonctionnement et les investissements du GANIL et a indiqué qu'il serait souhaitable de mieux connaître les mécanismes des décisions relatives à ce grand équipement.

M. Jean-Jacques AUBERT a estimé que le problème des TGE est un faux problème. Le vrai problème est celui des moyens à consacrer aux différents champs scientifiques, les chercheurs de chaque discipline déterminant ensuite s'il est important ou non d'investir dans des TGE. Comme tout autre TGE, le GANIL n'est un outil intéressant que s'il ouvre de nouveaux champs de découvertes, ce qu'il fait incontestablement.

Dans le cadre d'un budget donné, une enveloppe globale est attribuée à chaque discipline. Il s'agit alors de tenir compte des besoins et des équilibres et de déterminer quels sacrifices seraient nécessaires et tolérables pour le financement d'un ou plusieurs TGE.

En réalité, la priorité appartient aux arbitrages entre différentes disciplines et, entre différents projets, au sein de chacune d'entre elles. L'objectif est en tout état de cause d'atteindre la meilleure efficacité possible dans chaque champ de recherche.

M. François GOUNAND, rappelant l'évolution défavorable du budget de la DSM, a souligné que le maintien de la subvention de la DSM au GANIL pour son fonctionnement est la marque d'un fort support et d'un fort intérêt envers ce grand instrument. La DSM est en l'occurrence gênée par l'absence de programmation budgétaire pluri-annuelle, le problème étant identique pour suivre les engagements au LHC. En l'occurrence, il est plus facile de financer des investissements que d'assurer, bon an mal an, le financement du fonctionnement.

M. René TRÉGOUËT, Sénateur, rapporteur a souligné l'importance des réseaux dans la science moderne. Un très grand équipement présente la caractéristique d'être indissociable et d'avoir une masse critique telle que les organismes de recherche doivent mettre en commun leurs ressources pour financer sa construction.

Mme Claudine LAURENT s'interrogeant sur la notion de TGE a indiqué que différents critères de définition peuvent être envisagés, comme l'intervention du Parlement, la notion de programmation pluri-annuelle, la communauté desservie ou bien encore l'objectif. L'important, en tout état de cause, est de savoir quelles conséquences sont induites par l'attribution du label TGE, notamment en ce qui concerne les contrats et les partenaires éventuels.

A propos de la notion d'engagement pluriannuel, M. Guy WORMSER a indiqué que la participation annuelle de l'IN2P3 à la seule expérience ATLAS du LHC est supérieure à la subvention annuelle qu'il verse au GANIL. Or comment se déterminent les engagements des participants au LHC ? Le coût total d'ATLAS se chiffre à environ 500 millions de francs suisses, soit environ 2,2 milliards de francs. Les engagements des différents partenaires se sont faits sur la base d'un " memorandum of understanding " assorti d'obligations pluriannuelles. La participation à une expérience du CERN comme ATLAS appartient à la catégorie des TGE du fait que son coût dépasse un certain seuil. Il faut rappeler toutefois qu'une expérience comme ALICE en a fait partie également puis a été sortie de ce cadre. Il manque donc une certaine clarté à la notion de TGE.

Mme Claudine LAURENT a confirmé que des grands équipements peuvent appartenir à la catégorie des TGE, comme les satellites, sans que les expériences associées soient rangées dans cette catégorie. Il existe donc une ambiguïté de la notion.

M. Jean-Jacques AUBERT a remarqué que les années récentes ont vu une certaine " diabolisation " de la notion de TGE. Les TGE possèdent la caractéristique d'être visibles et identifiables. Mais le poste des dépenses de recherche qui reste le plus élevé en France, c'est celui des salaires. La variable clé est donc l'efficacité avec laquelle les salaires sont dépensés. La décision de placer l'accent sur telle ou telle discipline appartient au champ politique. Il importe ensuite de ne pas arrêter la réflexion aux seuls postes de dépenses les plus visibles.

*

Une discussion s'est alors engagée sur les conditions à respecter en parallèle avec les augmentations de crédits consenties à la biologie. Pour M. Roger BALIAN , une dispersion des efforts est à redouter dans cette discipline en raison de la grande hétérogénéité des équipes de recherche. Mme Claudine LAURENT a fait remarquer qu'un nombre très important d'organismes de recherche s'intéressent à la biologie. M. Jean-Pierre GRANDIN , Directeur du CIRIL a estimé que les équipes de recherche en biologie sont trop morcelées. M. Jean-Jacques AUBERT a remarqué qu'une faible partie des enseignants en biologie, un quart précisément, ont présenté leur candidature pour obtenir une prime d'encadrement doctoral, ce qui démontre l'hétérogénéité de la recherche universitaire dans ce domaine.

*

Remerciant les participants pour leur contribution à l'information de l'Office, M. Christian CUVILLIEZ, Député, Rapporteur a souhaité d'une part une harmonisation de la nomenclature des TGE, et, d'autre part, après l'intervention de la région Ile-de-France dans le financement de SOLEIL, l'instauration de règles pour une répartition optimale des interventions de l'Etat et des régions pour les investissements dans les TGE.

8. Fusion - mercredi 20 septembre 2000

CEA

• M. René PELLAT, Haut-Commissaire à l'énergie atomique

• M. Guy LAVAL, Directeur de recherche

• M. Jean JACQUINOT, Directeur de recherche

• M. Michel CHATELIER, Directeur de recherche

• M. Pierre TRÉFOURET, Chef du Service des Affaires publiques

CNRS

• M. Dominique ESCANDE, Directeur de recherche au CNRS - Laboratoire de physique des interactions ioniques et moléculaires

ITER

• M. Robert AYMAR, Directeur

JET

• M. Jérôme PAMELA, Responsable du JET

Après avoir accueilli et remercié les participants d'avoir accepté l'invitation de l'Office, M. Christian CUVILLIEZ, Député, rapporteur, a donné la parole à M. René PELLAT, Haut-commissaire à l'énergie atomique, pour une présentation générale des acquis et des perspectives des recherches sur la fusion contrôlée.

*

M. René PELLAT , Haut-commissaire à l'énergie atomique, a indiqué qu'au terme de quatre décennies de recherche sur la fusion contrôlée, les Etats-Unis et la Russie ont cédé le leadership du domaine à l'Europe. Le JET (Joint European Torus), entré en service en 1983, enregistre des performances supérieures d'une part à celle de la machine japonaise JT-60 d'une taille équivalente et, d'autre part, à celles de la machine américaine TFTR. En tout état de cause, avec le JET, l'énergie dégagée par la réaction de fusion est du même ordre de grandeur que l'énergie fournie, avec un confinement suffisant pour susciter l'intérêt de passer d'une réaction de quelques secondes à quelques minutes.

La coopération en matière de recherche sur la fusion a pris une dimension mondiale depuis la fin des années 1980 à la suite d'un sommet du G8. Avec un horizon à plusieurs dizaines d'années pour l'obtention de résultats industrialisables, l'absence de concurrence et de retombées immédiates en matière de fourniture d'énergie, un accord international a pu être signé entre les Etats-Unis, le Japon, l'Europe et la Russie, les recherches en cours au plan national se poursuivant toutefois.

Le programme ITER (International Thermonuclear Experimental Reactor) subséquent a connu une première étape au terme de laquelle le projet a été jugé surdimensionné et coûteux. Le projet a connu ensuite une phase difficile mais positive dans la mesure où l'on est parvenu à élaborer une version simplifiée du projet.

Depuis 1998, la France, par la voix du CEA et de son Haut-commissaire, a jugé nécessaire de relancer ITER, en présentant un projet de taille raisonnable et dont l'objectif plus modeste est d'apporter la démonstration scientifique finale de la faisabilité d'une réaction de fusion thermonucléaire intervenant dans un plasma, avec des conditions de durée, d'énergie et de confinement suffisantes pour envisager la construction de réacteurs.

La question du lieu d'implantation fait déjà l'objet d'une proposition de différents pays membres d'ITER. Le Japon s'est proposé en raison de ses acquis scientifiques dans le domaine de la fusion. Le Canada qui dispose d'une hydroélectricité d'un coût peu élevé et de ressources en tritium issues des réacteurs Candu, a, lui aussi, des atouts.

Considérant qu'il serait anormal que l'Europe ne propose pas à son tour un site, le Haut-commissaire a convaincu le ministre de la recherche, M. Roger-Gérard SCHWARTZENBERG, que le CEA présente la candidature du site de Cadarache au nom de la France, étant entendu que l'Union européenne devra apporter à son tour son soutien.

L'accueil du Japon et du Canada à la proposition française semble positif dans la mesure où celle-ci est une marque d'intérêt pour le projet et renforce la communauté de la fusion. Mais l'essentiel est d'obtenir la décision d'engager des études pendant la présidence française de l'Union européenne et de préparer l'inscription du projet au 6 ème PCRD qui débutera en 2001.

En réponse à une question de M. Michel SPIRO sur la position actuelle des pays de l'Union européenne, M. René PELLAT a jugé positives les positions de l'Allemagne, de l'Italie, de l'Espagne et du Portugal. L'Allemagne alloue une partie de ses ressources dans ce domaine à une machine de type stellarator située dans un land de l'ex-Allemagne de l'Est et ne semble pas pouvoir aller au delà. En tout état de cause, il ne conviendrait pas de fermer le JET installé en Grande-Bretagne avant d'avoir mis le projet ITER sur les rails. Par ailleurs, les Etats-Unis, en l'absence de politique fédérale sur la fusion, rencontrent des difficultés sur ce sujet mais devraient rejoindre à terme la communauté internationale comme ils l'ont d'ailleurs fait pour le LHC.

M. Roger BALIAN ayant noté que la fusion a une vocation applicative qui peut en faire un enjeu politique, au contraire du CERN dont la vocation est clairement la recherche fondamentale, M. René PELLAT a regretté que les recherches sur la fusion n'aient pas pour cadre une organisation internationale comparable.

Il convient toutefois de ne pas changer de contexte au moment de la décision sur ITER.

EURATOM apporte en Europe une continuité budgétaire avantageuse qu'il ne faut surtout pas détruire. Prenant appui sur la présidence française, la possibilité d'un accord international est actuellement explorée, avant de passer à l'étape de l'action auprès de la Commission et du Parlement européen.

Le Commissaire à la recherche, M. Busquin, semble favorable mais traverse une passe délicate notamment dans ses relations avec le Parlement européen. La présidence suédoise qui prendra la suite de la française, sera moins favorable que la période actuelle pour faire avancer les choses, au moment où vont commencer les discussions sur le 6 ème PCRD.

*

Après cette présentation générale, M. Jean JACQUINOT , Directeur de recherche a résumé les progrès accomplis dans les recherches sur la fusion magnétique.

L'une des caractéristiques des recherches sur la fusion est qu'il est indispensable de valider la théorie par des expériences en vraie grandeur, les plasmas étant dominés par des effets collectifs non-linéaires.

Il apparaît clairement que les conditions physiques d'un réacteur de fusion ne peuvent être obtenues que dans un appareil de grande taille succédant au JET. Cette condition est rendue nécessaire par la qualité recherchée du confinement, qualité qui augmente rapidement avec la taille de l'appareil.

Par rapport à l'ensemble des machines servant dans le monde à l'étude de la fusion, Tore Supra est la seule grande installation à mettre en _uvre la technologie des aimants supraconducteurs. Dans la répartition de facto des sujets de recherche relatifs à la fusion, Tore Supra s'est spécialisé dans l'étude des temps longs et détient le record de l'énergie extraite. La modernisation en cours, qui s'achèvera en 2008, a pour objectif l'accès à la physique et à la technologie des décharges performantes et de longue durée, c'est-à-dire de 1000 secondes environ. En tout état de cause, on peut considérer qu'en 2004, le programme Tore Supra sera arrivé à maturité.

M. Michel CHATELIER , adjoint du chef du département de recherches sur la fusion contrôlée au CEA , a complété la présentation précédente sur différents points.

Le tokamak Tore Supra de Cadarache est issu du regroupement des équipes travaillant sur les machines TFR (tokamak) de Fontenay-aux-Roses, Petula (tokamak) et Wega (stellarator) de Grenoble. La construction de Tore Supra a duré 7 ans, le premier plasma ayant été obtenu en 1988. Elle a conduit à l'obtention de plasma de 20 m 3 sur des durées de deux minutes, à comparer à ceux de 1 m 3 des machines de la génération précédente, le JET avec ses 100 m 3 correspondant lui aussi à un saut quantitatif important mais sur des durées courtes.

Tore Supra a exercé un effet d'entraînement dans le domaine du magnétisme et de la cryogénie. C'est pour cette installation qu'ont été développés des aimants supraconducteurs, dont la technologie a ensuite été utilisée au CERN, ainsi que des techniques cryogéniques appliquées ultérieurement au domaine médical.

Le budget annuel de 1999 de Tore Supra a représenté 31 millions d'euros, dont 18 de frais de personnel, 9 de frais de fonctionnement et 4 d'investissement. Le personnel attaché à Tore Supra représente 356 personnes, dont 282 appartenant au CEA, 24 présents dans le cadre d'EURATOM et 16 thésards.

*

M. Jérôme PAMELA , Responsable du JET , a ensuite présenté l'organisation des recherches sur la fusion en Europe puis le programme et les réalisations du JET (Joint European Torus), le tokamak le plus performant au monde, installé en Grande-Bretagne, à Culham près d'Oxford.

Sur un plan général, les activités de l'Union européenne dans le domaine de la fusion sont coordonnées dans le cadre du traité EURATOM. Jusqu'à la fin du 4 ème PCRD, les recherches correspondantes étaient conduites dans le cadre d'un programme spécifique fusion, la direction fusion de la DGXII assurant la coordination pour le compte d'EURATOM. La gestion du JET était assurée par le JET Joint Undertaking. Cette organisation a récemment changé.

D'une part le JET Joint Undertaking a été arrêté comme prévu le 31 décembre 1999.

D'autre part, dans le cadre du 5 ème PCRD, le programme de recherche sur la fusion fait l'objet d'une " action clé fusion ". Afin d'être alignée sur l'organisation mise en place pour le reste des activités du PCRD, la gestion a été partagée entre plusieurs directions de la DGXII Recherche, ce qu'il convient de déplorer.

L'action clé fusion est mise en _uvre dans le cadre des activités EURATOM, sur la base de recommandations du Conseil consultatif EURATOM-Fusion (CCE-Fu).

Les recherches sont assurées par les " Associations " , organismes nationaux contractuellement associés à l'EURATOM, qui bénéficient à cette fin de financements à hauteur de 25 % du total par EURATOM et de 45 % s'il s'agit d'actions à support préférentiel, c'est-à-dire d'actions faisant l'objet d'une évaluation préalable.

Deux des principaux objectifs de l'action clé fusion du 5 ème PCRD sont la pleine exploitation du JET et la consolidation des bases scientifiques d'ITER.

La plupart des activités transverses, telle que l'utilisation du JET, le programme des technologies de la fusion et la participation européenne au projet ITER sont gérées dans le cadre de l'accord EFDA (European Fusion Development Agreement), signé par l'EURATOM représenté par la Commission et plus de 20 organismes de recherche des pays membres de l'Union et d'autres pays européens. Ce regroupement d'activités dans le cadre de l'EFDA a permis de renforcer la coordination des recherches.

Les activités EDFA sont mises en place dans le cadre de contrats passés entre les laboratoires et la Commission.

La décision de construction du JET fut prise en 1978 par le Conseil des ministres de la CEE, sa construction en Grande-Bretagne durant de 1978 à 1983, date à laquelle le premier plasma a été obtenu. Seul instrument à fonctionner avec un mélange deutérium-tritium, le JET a une capacité unique et joue un rôle clé dans la préparation d'ITER.

Le Jet présentant encore un fort potentiel, son utilisation a été prolongée jusqu'à la fin 2002 et est envisagée jusqu'à la fin du 6 ème PCRD. Un investissement supplémentaire a été proposé dans ce sens, consistant dans l'augmentation de puissance de chauffage du plasma, afin d'affiner les scénarios de fonctionnement d'ITER, de finaliser l'ingénierie de différents dispositifs essentiels de ce dernier et de progresser dans la recherche fondamentale sur la physique des plasmas.

Sur un plan juridique, le JET n'est plus une entité légale depuis le 1 er janvier 2000, mais une machine utilisée dans un cadre fortement coopératif. A ce titre, les laboratoires signataires de l'EFDA envoient leurs équipes au JET participer à des campagnes expérimentales de quelques semaines, ces équipes revenant ensuite dans leur laboratoire d'origine pour analyser les résultats.

Dans cette nouvelle structure, l'opérateur de la machine est l'UKAEA, l'équivalent britannique du CEA, dans le cadre d'un accord spécifique avec la Commission, tandis que les personnels, qu'ils soient mis à disposition pour plusieurs années ou visiteurs de courte durée, gardent leur statut d'origine. Les taux d'indemnisation des personnels en mission à Culham sont les mêmes, quelle que soit leur nationalité d'origine.

Le budget du JET s'est élevé à 77 millions d'euros en 1999, assumés à 80 % par EURATOM, 10 % par l'UKAEA et 10 % par les organismes de recherche utilisateurs. Il est de 67,5 millions d'euros en 2000, financé à 73 % par EURATOM, à 21 % par un Joint Fund que se partagent à parts égales l'UKAEA et les Associations, et à 6 % par les organismes de recherche. La participation directe du CEA au Joint Fund représente 1,4 million d'euros.

L'une des difficultés actuelles provient de l'établissement du budget en euros, alors que les dépenses sont réglées pour la plupart en livre sterling, une monnaie qui s'est valorisée de 15 % par rapport à l'euro depuis l'établissement du budget pour la période 2000-2002.

Les retombées du JET sont considérables pour le Royaume Uni. L'ensemble des contrats passés entre 1984 et 1999 sous le JET Joint Undertaking, a représenté 1,2 milliard d'euros. Le Royaume Uni a bénéficié de 59 % du total, l'Allemagne de 15,8 % et la France de 8 %. S'agissant des seuls contrats de haute technologie, qui ont représenté 540 millions d'euros, soit 45 % du total, le Royaume Uni a bénéficié de 29 % du total, l'Allemagne de 27 % et la France de 15 %.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur le souhait prévisible du Royaume Uni de voir le JET pérennisé en tant que tel ou de le voir remplacé sur place par ITER, compte tenu des retombées très importantes dont l'économie locale bénéficie.

En tout état de cause, pour M. Jean JACQUINOT , il est bien clair qu'en cas de retard sur la poursuite d'ITER, le JET continuera d'être exploité.

M. Jérôme PAMELA a jugé raisonnable que l'exploitation du JET continue jusqu'à la production du premier plasma d'ITER. Au demeurant, pour le moment, rien n'indique qu'il existe une volonté politique de la part du Royaume Uni de réclamer l'implantation d'ITER sur son sol.

Pour sa part, M. Robert AYMAR a précisé qu'en 1978, au moment du choix du site d'Oxford pour le JET, le Royaume Uni s'est engagé par écrit à ne pas s'opposer à ce que l'équipement qui en prendrait la suite soit construit dans un autre pays.

*

M. Robert AYMAR , Directeur d'ITER , a rappelé qu'à la suite d'une proposition faite en 1986 par M. GORBATCHEV aux présidents MITTERRAND et REAGAN, une étude a été réalisée de 1988 à 1990 sur les perspectives de la fusion, qui a conclu à une communauté de vue sur la stratégie à suivre. Celle-ci repose sur la construction d'un appareil unique, de dimensions et de performances largement supérieures aux machines en fonctionnement. Cette machine intégrerait les différents objectifs physiques et techniques et permettrait d'atteindre un plasma en combustion, dans lequel la puissance dissipée dans le plasma par la réaction de fusion, soit 1/5 ème de la puissance totale, maintient la température du milieu.

C'est pourquoi un accord international a été signé en 1992 entre l'Europe, les Etats-Unis, le Japon et la Russie afin de démontrer en commun la faisabilité scientifique et technologique de l'utilisation civile de l'énergie de fusion. Le même accord définit les objectifs détaillés, l'organisation et les moyens pour établir en six ans au plus le design détaillé et complet d'ITER.

Le projet, qui n'a pas de personnalité légale, est conduit par un Conseil et un Directeur, les contributions des partenaires étant égales et les bénéfices potentiels entièrement partagés.

Les six années d'études ont coûté 800 millions d'euros, essentiellement pour la recherche et le développement en technologie, les dépenses de recherche en physique n'étant pas comptabilisées. Elles ont été menées par une équipe centrale de 150 scientifiques répartis sur les 3 sites de Garching (Allemagne), San Diego (Etats-Unis) et Naka (Japon), et par des équipes nationales de chacun des quatre partenaires comprenant au total un nombre identique de chercheurs, soit un montant total de 2200 hommes x années.

Elles se sont conclues par la définition détaillée du projet ITER-FDA, dont le coût ressort à 6 milliards de dollars, égal au plafond fixé six années plus tôt.

En 1998, au moment de la décision et bien que le devis initial ait été respecté, une révision à la baisse des objectifs a semblé indispensable aux quatre partenaires, en raison des difficultés économiques et financières rencontrées en Europe et au Japon, de contraintes budgétaires accrues aux Etats-Unis et de la crise économique russe.

A la faveur de la reprise des réflexions, il est apparu clairement que la stratégie poursuivie visant l'obtention d'un plasma en combustion est une nécessité. Toutefois le nouvel objectif pour le gain en puissance a été fixé à 10 ou plus, le coût de la nouvelle machine, intitulée ITER-FEAT, devant être très inférieur, notamment grâce à la réduction de volume d'un facteur deux.

C'est alors que, malgré la révision à la baisse des objectifs, les Etats-Unis se sont retirés du projet. Ce retrait en 1999 ne se produit pas pour des raisons scientifiques mais politiques, du fait de conflits récurrents entre le Congrès et le Department of Energy. Pour autant, il ne fait pas de doute que les Etats-Unis réintègreront ITER, dès que la décision de construction sera prise.

En l'état actuel des choses, la Commission européenne ne semble pas avoir les atouts pour participer à la négociation autour d'ITER. Il paraît capital que les pays de l'Union fasse efficacement pression sur la Commission pour qu'elle soit plus active. Le rôle de la Présidence française est à cet égard déterminant dans les négociations, tant pour le lancement du projet que pour le choix du site.

*

Pour M. Dominique ESCANDE , Directeur de recherche au CNRS, la maîtrise de la fusion contrôlée passe sans aucun doute par la recherche fondamentale. Si elle se fonde sur des résultats incontestables, la proposition d'une nouvelle machine constitue néanmoins un pari.

La conception d'un réacteur à fusion de type tokamak suppose résolus différents problèmes de confinement, de stabilité magnétohydrodynamique, de modélisation du bord du plasma et du divertor utilisé pour évacuer l'énergie produite, de physique des particules rapides ou des chauffages additionnels ou bien encore des diagnostics, ainsi que la mise au point de scénarios de fonctionnement et de contrôle du plasma.

La réalisation d'ITER permettrait incontestablement d'avancer sur tous les problèmes cités, en comparant les performances réelles et les performances anticipées.

Au demeurant, il est indispensable d'aborder l'étape où l'énergie apportée au plasma vient essentiellement des particules alpha. Toutefois, le changement de taille du plasma et le chauffage par les particules alpha ont des conséquences qui ne sont que partiellement prédictibles.

Au delà d'ITER, peut-on imaginer quel pourrait être le réacteur industriel ? Il est à noter, à cet égard, qu'il existe des solutions alternatives de confinement magnétique torique, avec le stellarator ou le " reversed field pinch " .

Mais l'essentiel est bien d'aborder dans les prochaines années l'étude des plasmas dominés par les réactions de fusion. A cet égard, ITER-FEAT est le projet le plus avancé. Les thèmes de recherche correspondants suscitent des contributions croissantes du CNRS et des universités.

*

Sur la base des informations données sur Tore Supra, sur le JET, le projet ITER, un débat s'est engagé sur la finalité réelle d'ITER, à l'initiative de M. Jochen SCHNEIDER .

Cette installation doit-elle apporter la démonstration scientifique de la fusion contrôlée ou bien constituer une étape décisive relative à la faisabilité de réacteurs industriels ? Et s'il s'agit de recherche fondamentale, quelles sont les probabilités de réussite ?

M. René PELLAT a indiqué qu'il s'agit bien d'une démonstration scientifique à apporter avec ITER, démonstration qui constitue en tout état de cause un défi " honorable " , assorti d'un risque scientifique " normal " .

M. Jean JACQUINOT, pour justifier les recherches sur la fusion, a cité les besoins en énergie, ainsi que la nécessité de préparer une nouvelle option énergétique. Le coût de l'électricité produite grâce à la fusion devrait néanmoins être supérieur à celui du kWh nucléaire. Il a remarqué que les coûts externes sur la santé et l'environnement sont faibles, ce qui en fait une source d'énergie compétitive quand ces contraintes sont prises en considération.

Pour M. Jochen SCHNEIDER , il semble donc qu'en plus d'une question de recherche fondamentale d'intérêt scientifique, il s'agit de préparer la mise au point une nouvelle source d'énergie. Au reste, il ressort clairement des propos de M. René PELLAT que si la démonstration scientifique d'ITER n'est pas concluante, il sera mis fin au projet.

Pour M. Robert AYMAR , le projet ITER est incontestablement justifié par l'objectif d'apporter une démonstration scientifique. Il est clair que les responsables scientifiques des recherches sur la fusion n'ont pas en tête la possibilité d'un échec mais s'intéressent plutôt la suite à donner à ITER. Il existe une continuité d'ITER avec les machines précédentes, mais ITER n'ouvrira pas, à lui seul, la voie à un réacteur électrogène, même en cas de succès.

Des tests complémentaires seront nécessaires, de même qu'une ingénierie de développement.

Mme Claudine LAURENT s'est demandée si un tel projet serait proposé au cas où il n'aurait pas pour objectif la production d'électricité.

M. Jean JACQUINOT a répondu par la négative.

M. Roger BALIAN a estimé en conséquence qu'il s'agit d'un projet de nature scientifique mais de motivation non scientifique, qui n'appartient pas en tout état de cause au domaine de la science fondamentale.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est alors interrogé sur la capacité des spécialistes de la fusion à se donner des obligations de résultat et à atteindre leurs objectifs.

Selon M. Robert AYMAR, les objectifs annoncés ont été atteints par le passé.

Certes, les scientifiques américains s'étaient imprudemment fixé comme objectif en 1975 l'obtention d'un gain en énergie de 1 (facteur Q = puissance de fusion / puissance fournie), qu'ils n'ont pas pu atteindre avec l'appareil TFTR.

Pour leur part, les chercheurs européens ne l'ont pas fait, notamment pour le JET à qui n'était assigné qu'un but qualitatif.

Mais les paramètres techniques de fonctionnement qui avaient été fixés au départ ont tous été atteints.

Selon M. Robert AYMAR , aujourd'hui l'objectif Q=10 qui est explicitement annoncé pour ITER, peut être considéré en toute confiance car de nouvelles connaissances ont été acquises. Diverses expériences ont été réalisées pour étudier les paramètres d'ITER-FEAT. Pour cette installation, il s'agira seulement d'extrapoler la taille, une opération qui comporte des incertitudes mais dont les aléas pourront être surmontés.

La discussion a ensuite porté sur les objectifs techniques et les défis technologiques à relever pour la mise au point d'ITER.

Ainsi que l'a souligné M. Jérôme PAMELA , le projet initial d'ITER, intitulé ITER-FDR, avait pour but de parvenir à l'ignition. Le coût total de la machine a été jugé, par de nombreuses parties prenantes et en premier lieu par les Etats-Unis, comme trop élevé. Le projet actuel, intitulé ITER-FEAT, possède des caractéristiques techniques et des ambitions revues à la baisse, ce qui se traduit par un coût égal à 56 % du coût d'ITER-FDR.

Alors qu'il s'agissait de parvenir à un gain en énergie infini du fait de l'ignition, l'objectif est de parvenir avec une probabilité très forte à un gain de 10, ainsi que l'a précisé M. Robert AYMAR.

En réponse à une interrogation de M. René TRÉGOUËT, Sénateur, rapporteur, sur la possibilité de moderniser le JET et d'augmenter ses performances, M. Jérôme PAMELA a indiqué qu'il existe une limite absolue de confinement pour cette machine et une limite indépassable de performance.

L'un des paramètres essentiels pour se rapprocher du régime attendu sur un réacteur électrogène est le taux de chauffage du plasma par les particules alpha formées lors de la réaction de fusion. L'ignition correspond à 100 % de chauffage alpha et constitue un objectif un peu chimérique. Un réacteur devrait fonctionner avec environ 90 % du chauffage provenant des alphas. L'objectif fixé pour ITER-FEAT est de parvenir au moins à 67 % de chauffage alpha et ce dans des conditions stationnaires. Or le mieux que l'on pourrait atteindre avec le JET serait de 15 % voire de 20 %, mais dans des conditions très transitoires.

M. Gilles COHEN-TANNOUDJI , membre du groupe de travail, a remarqué que le magnétisme des hauts champs constitue d'une part une technique instrumentale d'une importance décisive pour de nombreuses disciplines y compris pour la fusion et d'autre part un domaine dans lequel la France a des positions très fortes.

M. René PELLAT a fait le même constat pour la cryogénie.

En réalité, la fusion contrôlée comporte des défis technologiques à relever qui intéressent l'industrie et exerceront un effet d'entraînement.

Selon M. Jean JACQUINOT , il s'agit avec ITER de gagner un facteur 6 environ sur le produit densité x temps de confinement x température, et de faire en sorte que l'énergie dégagée par l'hélium formé lors de la réaction de fusion soit utilisée pour maintenir le plasma en l'état. ITER recourra à la technologie des aimants supraconducteurs.

Pour autant, les retombées technologiques de la fusion ne sauraient justifier la recherche elle-même.

Par ailleurs, le rôle de l'informatique et des réseaux de télécommunications pour l'analyse et le transfert des données expérimentales sera essentiel, comme c'est déjà le cas au JET, au CERN et pour la mise au point du projet ITER.

*

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur les déchets et les autres risques générés par la fusion, M. René PELLAT a souligné qu'en l'espèce, il ne s'agit pas de construire un parc de réacteurs producteurs d'électricité, mais seulement de résoudre une question scientifique.

Si dans les années 1990, la communauté de la fusion a pu entretenir une certaine ambiguïté sur l'application industrielle de ses travaux, il est clair aujourd'hui qu'en cas de décision positive sur sa poursuite, ITER ne donnerait ses premiers résultats que vers 2010-2020 et qu'après ajustements et progrès divers, la démonstration complète de la faisabilité de la fusion contrôlée ne serait apportée que vers 2030.

Le passage éventuel à l'échelle industrielle nécessitera ensuite que soient résolus des problèmes techniques, notamment de matériaux, ainsi que soit obtenue une acceptabilité sociale de cette filière.

Au demeurant, si les déchets radioactifs issus des réacteurs électronucléaires comportent certains éléments d'une durée de demi-vie de plusieurs milliers d'années, le tritium utilisé comme combustible dans la fusion a une période d'une dizaine d'années. Au final, seules les impuretés activées par les neutrons produits en même temps que l'hélium lors de la réaction peuvent présenter une radioactivité gênante.

Ceci laisse penser que les problèmes de déchets seraient beaucoup moins difficiles à résoudre avec la fusion en cas d'application industrielle qu'avec la fission.

M. Jean JACQUINOT a souligné que le réacteur ITER ne produira pas de déchets radioactifs de haute activité et à vie longue. La décroissance des matériaux radioactifs devrait permettre de les recycler en partie après 100 ans.

M. Robert AYMAR, Directeur d'ITER , a explicité les autres avantages de la fusion, d'une part la faible quantité de matière fournie pour la réaction, d'autre la sûreté intrinsèque passive découlant de l'impossibilité de tout emballement de la réaction et de son arrêt naturel automatique en présence de toute perturbation extérieure non contrôlée et enfin la possibilité de minimiser les déchets radioactifs formés en choisissant avec soin les matériaux utilisés dans le réacteur.

Au demeurant, M. Jean JACQUINOT a souligné qu'en cas d'accident, les 300 MégaJoule du plasma se dissiperaient sur les parois de la machine, entraînant seulement un endommagement partiel de celles-ci et en aucun cas une catastrophe.

Par ailleurs, selon M. Robert AYMAR , la dangerosité des champs magnétiques est très faible et selon M. Jean JACQUINOT , on ne connaît pas d'accident dû à des champs magnétiques.

Il est à noter enfin que les recherches sur la fusion par confinement magnétique n'ont aucune application militaire possible, les densités d'énergie étant très faibles au contraire de celles que les armes requièrent.

*

La discussion a ensuite porté sur l'ampleur de la communauté des spécialistes de la fusion .

M. Roger BALIAN , membre du groupe de travail, a souligné la difficulté de qualifier de strictement scientifiques les recherches conduites sur la fusion, tant il est vrai que la motivation de nombreux physiciens travaillant dans ce domaine est d'en trouver des applications. Au reste, la fusion a souffert d'annonces prématurées, dont M. René TRÉGOUËT, Sénateur, rapporteur, a souligné que ce domaine n'avait pas l'exclusivité, compte tenu des imbrications croissantes de la science et de la politique.

M. René PELLAT a estimé que la fusion, après avoir attiré de très grands noms de la recherche, souffre d'une désaffection relative imméritée, alors que ce domaine a des points communs avec nombre d'autres disciplines, comme l'astrophysique ou les techniques de simulation.

Pour l'heure, la communauté scientifique de la fusion compte de 2000 à 3000 chercheurs dans l'Union européenne, un peu plus de 3000 aux Etats-Unis, de 1500 à 2000 au Japon, à quoi il faut rajouter les scientifiques russes et chinois du domaine.

Cette communauté comporte deux ou trois " chefs d'orchestre " dans le monde, dont le Haut-commissaire à l'énergie atomique.

*

Des précisions ont ensuite été apportées sur les discussions en cours dans le domaine de la fusion.

M. Robert AYMAR a indiqué qu'il n'existe pas de coordination technique directe des recherches sur la fusion assurée par l'Union européenne, l'intervention de celle-ci se limitant à un financement par EURATOM.

Il existe toutefois un Comité Consultatif sur la fusion (CCE-Fu), présidé par M. René PELLAT, qui réunit les dirigeants techniques et administratifs de la recherche dans ce domaine. C'est le comité EFDA (European Fusion Development Association) qui traite des aspects techniques, le JET étant d'ailleurs géré dans ce cadre. Par ailleurs, il existe des contrats d'association de laboratoires avec EURATOM. On estime que l'apport de l'Union européenne au financement des recherches sur la fusion atteint 40 % du total en Europe.

Il s'agit là sans aucun doute d'un atout pour l'Europe car la coordination n'est pas aussi importante dans le monde. L'activité d'ingénierie conduite pour le projet ITER est réalisée sous le patronage de l'AIEA (Agence internationale pour l'énergie atomique).

Le Japon qui devrait regrouper en une seule organisation les deux qui conduisent des recherches dans ce domaine, manifeste un grand intérêt pour ITER. Il en est de même de la part de la Russie.

*

L'organisation et le financement des efforts à fournir ont ensuite été discutés.

M. René PELLAT a souligné qu'il est indispensable de considérer le très long terme comme l'horizon de temps pertinent pour les recherches sur la fusion et de ne pas se tromper d'échéance. L'important aujourd'hui est de faire la démonstration scientifique que la fusion contrôlée est possible. Si cet objectif semble modeste comparé aux annonces souvent faites dans le passé, en revanche il faut rassembler des moyens importants et les concentrer sur une même installation. En tout état de cause, les recherches actuelles disséminées sur plusieurs installations ne pourraient en aucun cas fournir la preuve de la faisabilité.

Peut-on aujourd'hui être optimiste sur l'issue de la démonstration à apporter, a demandé M. Jochen SCHNEIDER ?

M. René PELLAT a déclaré qu'il est en tout état de cause " confiant " .

M. Jochen SCHNEIDER s'est ensuite interrogé sur la meilleure solution pour organiser les recherches sur la fusion, à savoir la création d'une organisation internationale comme le CERN ou bien le simple renforcement du réseau des institutions existantes.

M. René PELLAT a indiqué que les dépenses actuelles pour la fusion sont déjà importantes. Dans l'Union européenne, EURATOM consacre environ 200 millions d'euros par an, à quoi il faut ajouter les 250 millions d'euros annuels de salaires dépensés directement par les pays membres, soit un total de 450 millions d'euros. Les sommes consacrées annuellement à ces recherches atteignent le même montant au Japon et environ 250 millions de dollars aux Etats-Unis. Le total des dépenses atteint donc environ 1,2 milliard d'euros par an, ce qui devrait rendre possible la construction d'ITER dont le devis actuel est de 3,5 milliards d'euros, en parallèle avec la fermeture progressive de certaines installations actuelles.

M. Jean JACQUINOT a remarqué que, depuis 1984, quatre machines ont été arrêtées. Les machines actuellement en service, au demeurant spécialisées, sont dans une phase de maturité.

Si le projet ITER est effectivement lancé, différentes expériences ou installations seront progressivement fermées. Le JET devrait être prolongé pendant la période de test et de montée en puissance d'ITER, compte tenu de son utilisation par un ensemble de pays européens.

Moyennant ces ajustements, le fonctionnement d'ITER-FEAT serait compatible avec les sommes actuellement dépensées pour la fusion. En revanche, il faudra bien disposer d'un budget supplémentaire pour sa construction.

M. Robert AYMAR a fait remarquer que l'investissement de 3,5 milliards d'euros serait étalé sur une période de 10 ans, la montant de 350 millions d'euros ne paraissant pas hors de portée de l'ensemble des pays partenaires, Europe, Etats-Unis, Russie et Japon.

Pour le partenaire hôte qui devrait prendre à sa charge 25 % du coût en plus d'une contribution aux 75 % restant à partager à parts égales entre les autres partenaires, il y aurait une période délicate correspondant à une avance en trésorerie. Toutefois, les commandes à l'industrie nationale puis, après l'entrée en service, les revenus provenant de l'exploitation, viendraient compenser la charge initiale. En tout état de cause, il faut souligner que, dans le cas de la candidature de Cadarache, candidat de l'Europe, c'est toute l'Europe et non pas la France seule qui aurait à assurer le financement de la part européenne de la construction.

A cet égard, M. Jean JACQUINOT et M. Michel SPIRO ont souligné le rôle structurant d'un très grand équipement pour une discipline et pour les laboratoires qui l'utilisent. M. René PELLAT a cité l'exemple de l'ESRF qui a restructuré les laboratoires et d'Ariane qui a restructuré l'industrie et les moyens d'essai. Il a estimé que si le projet ITER se réalise, conformément aux v_ux de la communauté mondiale de la fusion, alors l'ensemble de la discipline se restructurera autour de lui.

*

La localisation d'ITER a ensuite été discutée à la demande de M. René TRÉGOUËT, Sénateur, rapporteur, qui s'est interrogé sur les critères de choix de l'un des trois pays candidats et l'importance du critère du financement.

M. René PELLAT a fait connaître sa satisfaction que la France propose Cadarache. Le Canada est un bon candidat du fait de ses apports en nature potentiels, à savoir une électricité bon marché et une offre de tritium, mais il souffre d'une absence de compétences dans le domaine. Le Japon présente plusieurs atouts, dont l'existence de trois sites potentiels, une industrie puissante, un consensus sur l'importance de la fusion et des financements importants. Mais la longueur des déplacements depuis les Etats-Unis et l'Europe constitue un handicap presque décisif. Au total, si l'Europe est " allante " sur le projet ITER, alors le site de Cadarache devrait avoir de bonnes chances de l'emporter.

M. Robert AYMAR , Directeur du projet ITER, a rendu compte des discussions en cours sur les mécanismes de financement. Si le coût global d'ITER est approximativement connu, soit 3,5 milliards d'euros, en revanche il n'existe pas pour le moment d'accord pour le mode de financement.

Deux points sont toutefois mis en avant dans les discussions. D'une part, les contributions en nature devraient être possibles de la part des pays membres. D'autre part, le pays hôte devrait assurer une contribution supérieure de 20 à 25 % à celle des autres. Au final, 75% du coût total devrait être partagé équitablement entre les pays membres et 25 % pris en charge à titre de contribution supplémentaire par le pays hôte pour compenser les retombées dont il bénéficiera.

Ainsi un pays hôte " non scientifique " devrait assumer 25 % du coût total. Un pays " scientifique " aurait à sa charge la somme de ces 25 % et du pourcentage correspondant à sa part de pays membre. En considérant Cadarache comme site européen, comme on doit le faire, le coût d'ITER serait supporté à 50 % environ par l'Europe. Mais le coût d'ITER pour l'Europe n'atteindrait que 25 % du total si la machine était installée ailleurs, bien que n'ayant pas les avantages de l'hôte.

Pour financer la contribution européenne à la réalisation d'ITER, il conviendra certainement d'ajouter à la contribution du budget EURATOM de l'Union européenne, une contribution supplémentaire directe des pays constitutifs de l'Union, et en particulier de la France si le site de Cadarache est retenu. Les montants relatifs n'ont pas encore été discutés mais l'expérience antérieure du JET pourrait servir de base.

En tout état de cause, il ne faut pas mésestimer le fait qu'une contribution financière à très long terme importante sera nécessaire.

A cet égard, M. René PELLAT a estimé que le soutien de l'Office parlementaire d'évaluation des choix scientifiques et technologiques représente un élément essentiel dans la candidature de la France, telle qu'elle est actuellement avancée.

M. Jean JACQUINOT a fait part du fort intérêt de la région Provence-Alpes-Côte d'Azur pour l'installation d'ITER à Cadarache, intérêt qui s'est traduit récemment par une visite d'un Vice-président de celle-ci. La municipalité est également très favorable. Le centre du CEA possède encore de vastes terrains libres. L'acceptation par la population devrait être acquise au vu de la bonne coexistence de celle-ci avec les dix-huit installations nucléaires de base existantes, deux autres étant en cours d'instruction.

Au reste, ITER, dont les risques de criticité sont nuls et les rejets tritiés très réduits, ne devrait pas nécessiter d'augmentation de l'autorisation de rejets tritiés du site. En tout état de cause, le plan particulier d'intervention ne devrait pas être modifié.

*

Après avoir remercié les participants, M. Christian CUVILLIEZ, Député, Rapporteur a invité M. Guy LAVAL, qui a accepté, à présenter son exposé sur les applications civiles du Laser MegaJoule dans le domaine de la fusion avec confinement inertiel, lors de l'audition ultérieure du 4 octobre 2000.

9. Fusion avec confinement inertiel, physique gravitationnelle et géologie sous-marine - mercredi 4 octobre 2000

Laser MégaJoule

• M. Guy LAVAL, Directeur de recherche CNRS, Conseiller du Haut-commissaire à l'énergie atomique

Projet VIRGO (Physique gravitationnelle)

• M. Alain BRILLET, OCA - co-Directeur du projet VIRGO

• M. Claude BOCCARA, Directeur de recherche, Ecole supérieure de physique et chimie industrielles de Paris (ESPCI)

• M. Michel DAVIER, Professeur à l'Université de Paris-Sud (LAL), Membre de l'Académie des Sciences

• M. Jacques DUPONT-ROC, Directeur scientifique adjoint- CNRS - Département Sciences Physiques et Mathématiques

• M. Daniel ENARD, OCA - Directeur technique du projet VIRGO

• Mme Elisabeth GIACOBINO, Directrice de recherche, Laboratoire Kastler-Brossel, Université Pierre et Marie Curie

• M. Jean-Marie MACKOWSKI, INPL- SMA-VIRGO

• M. François RICHARD, Directeur du Laboratoire de l'accélérateur linéaire (LAL)

• M. Michel YVERT, Laboratoire d'Annecy-le-Vieux de Physique des Particules (LAPP)

OPD (Ocean Drilling Program)

• M. John LUDDEN, Directeur de recherche, CRPG-CNRS, Nancy

• M. Philippe PÉZARD, Directeur de recherche, Insteem-CNRS

• M. Philippe VIDAL, Directeur adjoint INSU-CNRS

*

Après avoir accueilli et remercié les participants pour leur présence, M. Christian CUVILLIEZ, Député, rapporteur, a rappelé l'objet du rapport et les réflexions du groupe de travail, qui portent notamment sur les éventuelles différentes catégories de TGE à créer, sur la nécessité, à discuter, de rétablir un comité d'instruction des projets et sur les conditions du développement de coopérations européennes dans ce domaine.

La parole a ensuite été donnée à M. Guy LAVAL pour une présentation des applications civiles du Laser MegaJoule dans le domaine de la fusion avec confinement inertiel.

*

M. Guy LAVAL , Directeur de recherche au CNRS, Conseiller du Haut-commissaire à l'énergie atomique, a exposé les principes d'une utilisation du laser MegaJoule pour des recherches civiles relatives à la fusion contrôlée avec confinement inertiel ainsi que les conditions de mise en place d'un tel programme.

Grâce à ses 240 faisceaux, le Laser MegaJoule, qui sera opérationnel en 2008, pourra déposer une énergie de 1,8 MJ en quelques milliardièmes de seconde sur une cible centimétrique, recréant ainsi à une échelle réduite les conditions de pression et de température de la fusion. L'installation correspondante, au Cesta de Bordeaux, comprendra deux bâtiments principaux, l'un pour les équipements principaux et l'autre pour les expériences de validation de la chaîne laser qui se dérouleront pendant deux années à partir de 2001. Cette chaîne laser de validation, qui va entrer en fonctionnement dans les prochains mois, sera dotée du laser le plus puissant au monde, avant l'entrée en service du laser MegaJoule proprement dit et de son équivalent aux Etats-Unis, le NIF (National Ignition Facility).

La construction et l'utilisation du laser MegaJoule répondent à des objectifs militaires liés à la simulation des armes nucléaires. Il est prévu dans ce cadre qu'une partie des 600 tirs annuels soient utilisés pour l'étude de la fusion par confinement inertiel. L'absorption du rayonnement laser par une cible de deutérium et de tritium conduira à des températures de plusieurs millions de degrés et des pressions de plusieurs millions de bars, d'où la compression brutale des matériaux fusibles et le déclenchement de la fusion nucléaire, le temps de réaction étant limité par le temps de dégradation de la cible, lui-même fonction de l'inertie de la matière. Le gain attendu entre l'énergie fournie, soit 2 MJ, et l'énergie de fusion, est d'un facteur 10, le tout pour des quantités de matière très réduites.

La fusion par confinement inertiel ne fait à l'heure actuelle l'objet d'aucun programme financé de recherche civile, sauf aux Etats-Unis, ce qui a pour conséquence un retard important de cette voie de recherche par rapport à la fusion par confinement magnétique, la seule explorée dans bien des cas et en particulier au CEA.

Deux raisons sont à invoquer, l'une d'ordre politique dans la mesure où la physique correspondante est proche de celle des armes nucléaires, l'autre d'ordre technique et économique, puisque le rendement des lasers est faible, de l'ordre de 1 %, ce qui a pour conséquence que, même avec un gain d'un facteur 10, l'énergie récupérée sera très inférieure à celle tirée du réseau électrique.

Il faut rappeler également que d'autres voies comme les faisceaux d'ions lourds, mise en oeuvre en Allemagne à Darmstadt, ou la striction magnétique explorée aux Etats-Unis, peuvent être utilisées pour créer les conditions de température et de pression extrêmes que nécessite la fusion.

Au delà des études sur la fusion proprement dite, une installation comme le Laser MegaJoule présente un intérêt considérable pour la physique fondamentale, au regard de questions comme la dynamique des implosions, l'étude des interactions rayonnement-matière et les équations d'état. Pour d'autres disciplines comme l'astrophysique, un tel dispositif permet la simulation d'événements violents comme l'explosion d'étoiles super novae. Les conditions technologiques de mise en _uvre d'un tel équipement étant très complexes, les recherches correspondantes sont d'un intérêt majeur pour d'autres projets comme par exemple le projet VIRGO de détection des ondes gravitationnelles.

De fait les équipes de recherche intéressées par l'utilisation du Laser MegaJoule sont très nombreuses, situées principalement à l'Ecole Polytechnique, à Orsay, au CEA ainsi qu'en Europe.

Si le ministère de la Défense souhaite que les installations du Laser MegaJoule soient utiles à la recherche civile, ce qui est un atout pour un grand nombre de chercheurs intéressés par les lasers de puissance, il reste que l'organisation pratique pour l'accès aux expériences et la délimitation du périmètre classé " secret défense " s'avèrent complexes à mettre au point. Un banc d'essai est offert à cet égard par la première ligne de validation de la chaîne laser. Il importe de mettre au point cette organisation, qui passe avant tout par la création d'une structure commune CEA-CNRS-Universités chargée de l'animation et de la coordination des recherches civiles conduites sur le Laser MegaJoule.

Dans la discussion qui a suivi cette présentation, M. Guy LAVAL a précisé, à la demande de Mme Claudine LAURENT , que le nombre de chercheurs, dans le domaine civil, concernés par les applications du Laser MegaJoule à la fusion avec confinement inertiel s'élève à environ 150 personnes, et, à la demande de M. Roger BALIAN , que la proportion des tirs réservées aux applications civiles n'a encore fait l'objet d'aucune décision.

Elle pourrait toutefois atteindre 20 % du total si l'on se base sur l'exemple de l'installation Phébus pendant ses deux dernières années d'existence.

En réponse à une question de M. Claude BOCCARA , Directeur de recherche à l'Ecole supérieure de physique et chimie industrielles de Paris , sur la génération suivante des lasers, M. Guy LAVAL a estimé que l'avenir était celui des lasers avec pompage par diode, une voie explorée actuellement pour tenter de lever les deux goulots d'étranglement que sont le taux de répétition des tirs lasers et le rendement du pompage.

A la demande de M. Philippe LAREDO , membre du groupe de travail, M. Guy LAVAL a indiqué que les sauts technologiques à réaliser dans le domaine des matériaux concernent l'amélioration de leur tenue aux flux de neutrons et aux rayonnements, pour éviter l'endommagement de la chambre de combustion.

S'agissant de la communauté de chercheurs s'intéressant à la technologie et aux applications générales des lasers de puissance, M. Guy LAVAL a précisé qu'elle est importante, encore mal structurée comme on peut s'y attendre, mais en croissance rapide, comme en témoigne l'exploitation de l'installation LULLI, qui est quatre fois plus demandée qu'elle ne peut offrir d'accès. A cet égard, les travaux sur les lasers de puissance ouvrent des perspectives inattendues, comme les sources X pulsées et les lasers à rayons X.

A cet égard, un débat s'est engagé sur les perspectives des lasers à rayons X et leur intérêt comparé à d'autres techniques.

M. Robert COMÈS a estimé que les lasers à rayons X sont cantonnés au domaine des X mous et ne peuvent concurrencer le rayonnement synchrotron.

M. Guy LAVAL a indiqué que des projets existent toutefois pour atteindre une longueur d'onde de 4 Å.

Ceci a été confirmé par M. Jochen SCHNEIDER en mentionnant un projet de laser à 1 Å au centre de recherche DESY de Hambourg.

Au demeurant, pour M. Jochen SCHNEIDER, les lasers à électrons libres, qui représentent la prochaine génération de synchrotrons, devraient garder la prééminence par rapport aux lasers à rayons X, tant en longueurs d'ondes qu'en puissance de crête intégrée en flux par stéradian.

Mme Elisabeth GIACOBINO, Directrice de recherche au Laboratoire Kastler-Brossel, a signalé, pour sa part, la nouvelle voie des lasers à rayons X et des sources X incohérentes reposant sur la technologie du bombardement de cibles métalliques par des lasers ultra brefs.

M. Guy LAVAL a indiqué que les développements actuels des lasers ultra brefs permettent d'envisager la mise au point de sources gamma pulsées.

Ainsi donc, le domaine des lasers de puissance " fourmille d'innovations " et se révèle très attractif pour les étudiants et les jeunes chercheurs. Au demeurant, comme le montre le montage de sources lasers sur les lignes de lumière des synchrotrons, ces technologies sont bien davantage complémentaires que concurrentes.

Après avoir remercié M. Guy LAVAL pour la clarté de son exposé sur le sujet difficile des recherches civiles conduites sur une installation à vocation militaire, M. Christian CUVILLIEZ a donné la parole aux représentants du projet VIRGO.

*

M. Alain BRILLET , Directeur de recherche à l'OCA (Observatoire de la Côte d'Azur), principal initiateur et co-directeur du projet VIRGO, a indiqué que ce projet a pour objet la détection des ondes gravitationnelles venant de l'espace. Il s'est agi de construire un appareil cumulant les défis technologiques et pouvant fonctionner 24 heures sur 24, puisqu'il s'agit de détecter des événements très courts, de l'ordre du millième de seconde, survenant dans l'Univers à des moments totalement imprévisibles.

La formulation des ondes gravitationnelles, qui doivent entraîner une déformation de l'espace anisotrope, résulte de la théorie de la relativité générale.

Le long de deux directions perpendiculaires, les distances entre des points fixes devraient augmenter dans une direction et diminuer dans l'autre durant le passage de l'onde. Le principe de leur mise en évidence avec VIRGO repose sur les variations de phase qu'elles sont supposées entraîner sur deux faisceaux lasers séparés, parcourant de très longs chemins optiques à l'intérieur de deux cavités, puis recombinés et analysés dans un interféromètre de Michelson. L'appareil, dont la construction s'achève près de Pise dans la plaine de l'Arno, possède deux bras de 3 km de long chacun et a les dimensions de la ville voisine.

L'étude de faisabilité de VIRGO s'est déroulée de 1982 à 1989, la collaboration avec l'Italie ayant démarré dès le milieu de la période. Une fois conçu, le projet est entré dans une phase d'évaluation en deux parties. La faisabilité de l'appareil a été approuvée en un an tant du côté français, au CNRS qu'italien à l'INFN alors que les laboratoires de l'IN2P3 réalisaient simultanément les études fondamentales d'ingénierie. La deuxième évaluation, commencée en 1992 et concernant l'estimation des ressources requises, a débouché sur une décision positive en 1994 et la signature d'un accord de réalisation par le CNRS et l'INFN.

La réalisation s'est traduite par l'installation des infrastructures entre 1994 et 1998, celle des équipements scientifiques à partir de 1999. La construction devrait être achevée en 2002 sans dépassement du budget de construction établi en 1994, et l'acquisition des données commencer en 2003.

La période de conception et de réalisation se sera donc étalée au total sur 25 ans, tandis qu'une amélioration de l'appareil est d'ores et déjà prévue en 2006.

L'ambition du projet et le défi technologique à relever sont de pouvoir détecter une variation relative de longueur de 10 -21 . A titre de comparaison, s'il s'agissait de mesurer la distance de la Terre au Soleil, il faudrait, pour atteindre le niveau de performances requises par VIRGO, avoir une précision de mesure de l'ordre du diamètre d'un atome.

En l'occurrence, il existe plusieurs autres phénomènes beaucoup plus banaux et d'une intensité beaucoup plus forte que les ondes gravitationnelles pour faire varier les longueurs parcourues par les faisceaux laser, en particulier les bruits sismiques, les fluctuations de puissance et de fréquence du laser et les fluctuations d'épaisseur de l'atmosphère. Des progrès considérables ont donc dû être faits dans les lasers de puissance, l'optique, l'isolation sismique, les matériaux, les techniques du vide.

Au final, VIRGO résulte d'une collaboration internationale entre la France et l'Italie, avec 11 laboratoires parties prenantes et 200 chercheurs. Ce projet pluridisciplinaire, impliquant les 4 départements de physique du CNRS, aura nécessité un budget de 500 millions de francs sur une période de 20 ans, l'Italie finançant 55 % du programme. Le budget annuel de VIRGO s'élève à 55 millions de francs, dépenses de personnel incluses, pris en charge à égalité entre la France et l'Italie. Les emplois générés représentent 1000 hommes x ans pour le CNRS et l'INFN et plus de 500 hommes x ans pour l'industrie.

*

M. Daniel ENARD , Directeur technique de VIRGO, a ensuite précisé que l'investissement total de 500 millions de francs ne comprend pas les coûts de personnel, non plus que le coût des infrastructures hors projet comme la préparation du site directement pris en charge par l'Italie et celui des infrastructures de Lyon attachées à la réalisation des couches minces.

Le démarrage de l'exploitation en 2001 s'assortira de la création d'un consortium franco-italien à parts égales, sous la forme d'une société civile de droit italien, prenant à sa charge le budget annuel de 8 millions d'euros incluant les coûts salariaux des 50 personnes du site.

Les retombées du projet VIRGO sont de 50 millions d'euros, soit 65,6 % de l'investissement total en contrats industriels de chaudronnerie, d'optique de haute précision, de mécanique, de techniques du vide et de génie civil, ainsi que de 15 millions d'euros, soit 19,7 % de l'investissement total, en achats de composants optiques et électroniques du marché.

Au demeurant, la question de la gestion des très grands équipements doit être examinée dans le cadre de la très vive concurrence internationale qui existe dans ce domaine. Les temps de réalisation des projets conduits en Europe sont supérieurs à ceux de projets nationaux, américains ou japonais, si l'on met à part le cas du CERN comme l'a demandé M. Michel SPIRO .

En tout état de cause, comme l'a indiqué M. Daniel ENARD , le projet arrivant à maturité le plus tôt a plus de chance de récolter les résultats avant les autres.

Dès lors, comment améliorer la situation ?

En premier lieu, la règle obligeant à passer des marchés publics pour les commandes supérieures à 300 000 francs, constitue un tel facteur de lourdeur et de ralentissement que les chefs de projet sont nombreux à devoir consacrer, au détriment de leurs autres tâches, une part importante de leur énergie à cette question.

En deuxième lieu, le coût du personnel n'étant pas inclus dans le coût d'investissement, il n'est pas aisé d'une part de repérer les retards éventuels d'un projet sur lequel les personnels travailleraient plus longtemps que prévu et d'autre part d'éviter les réalisations effectuées en interne à des coûts supérieurs à ceux qui pourraient résulter de commandes à l'industrie.

Le plus important est de ne pas gérer un très grand équipement comme un laboratoire.

Un groupe de projet doit être créé, en extrayant les équipes responsables et en les dotant de capacités de décision, comme l'on fait dans l'industrie et aux Etats-Unis pour les grands instruments. Avec une équipe autonome aux commandes de chaque TGE, la réalisation de ceux-ci s'effectuera beaucoup plus rapidement.

*

Un échange de vues s'est alors amorcé sur l'importance de la structure juridique adoptée pour un TGE.

M. Roger BALIAN, membre du groupe de travail, a rappelé que la différence entre l'échec de la fusée Europa et le succès d'Ariane tient à la création d'un groupe de projet dans le second cas.

Mme Claudine LAURENT, membre du groupe de travail, a indiqué que le récent rapport de l'Inspection générale de finances et de l'Inspection générale de l'éducation nationale et de la recherche, a pointé lui aussi l'importance de la création de groupes de projets mais a aussi recommandé celle de groupes d'administration et de gestion du personnel.

Quant aux effets pervers des règles des marchés publics, il faut ajouter celle qu'en cas de marché public, les soumissions des entreprises se font généralement à des prix et à des délais supérieurs à ceux observés dans les commandes de gré à gré, ainsi qu'on l'a constaté avec le satellite Rosetta.

M. Philippe LAREDO , membre du groupe de travail, a fait état des conséquences négatives en terme d'augmentation du coût des fournitures, de l'impossibilité pour les laboratoires de l'INSERM de choisir leurs fournisseurs et au contraire d'intégrer le système de négociation globale de cet organisme.

M. Philippe VIDAL , Directeur scientifique adjoint de l'INSU, a fait connaître que le seuil de déclenchement de l'appel d'offres va heureusement être bientôt porté à 100 000 euros. Par ailleurs, l'avantage des consortiums est de permettre le recrutement de personnel à des niveaux de rémunération davantage en rapport avec les tarifs du marché que ceux du CNRS.

M. Robert COMÈS , membre du groupe de travail, a noté un blocage complet de l'administration publique, qui oblige à adopter des solutions du privé, alors qu'il serait bien préférable de la réformer. En outre, l'adoption de mécanismes de plus en plus complexes nuit à l'efficacité du contrôle.

M. Christian CUVILLIEZ, Député, Rapporteur, a estimé que le problème devra être posé, d'autant que l'appel à la concurrence risque d'être imposé de plus en plus par la Commission européenne.

M. Philippe LAREDO a indiqué que la complexité des règlements ou des procédures incite les responsables à se couvrir et à faire remonter les décisions dans la hiérarchie, ce qui ralentit encore davantage les décisions. Au demeurant, on peut se demander si l'abandon du statut de la fonction publique pour les personnels de certains organismes de recherche ne permettrait pas un changement dans la vie de ces organisations.

M. Roger BALIAN a souligné à cet égard les avantages du contrôle a posteriori qui est mis en _uvre au CEA et qui favorise incontestablement la rapidité de réalisation.

Mme Claudine LAURENT a estimé que l'évolution actuelle du marché du travail constitue une lourde menace sur les recrutements futurs des organismes de recherche. A la disparité des salaires avec le secteur privé, s'ajoutent les recrutements effectués en France par des pays étrangers comme l'Irlande pour accélérer la montée en puissance de leurs organismes de recherche.

M. Michel SPIRO a souligné que les TGE ajoutent à leurs mérites celui de fonctionner dans le cadre de structures plus efficaces, ce qui conduit à une meilleure utilisation de l'argent public.

M. Pierre POINTU a indiqué que si des règles strictes sont nécessaires dans les activités régaliennes de l'Etat afin d'éviter des débordements dangereux, d'autres règles, notamment le contrôle a posteriori, seraient nécessaires dans les activités où l'Etat réalise ou fait réaliser. En réalité, comme la fonction publique ne connaît pas l'usage de la sanction, le contrôle a priori, pourtant contre productif, reste nécessaire.

*

Mme Elisabeth GIACOBINO, Directeur de recherche au Laboratoire Kastler-Brossel, a ensuite replacé le projet VIRGO et la détection des ondes gravitationnelles dans un ensemble plus vaste de recherches.

La détection interférométrique des ondes gravitationnelles fait l'objet du projet franco-italien VIRGO mais aussi des expériences LIGO aux Etats-Unis, GEO600 en Allemagne et TAMA au Japon. L'Allemagne ayant ouvert son projet à une coopération avec le Royaume Uni, les deux partenaires français et italiens travaillent à l'heure actuelle à développer les interactions avec GEO600. Une coopération est d'ores et déjà prévue pour préparer la génération suivante des détecteurs.

Le projet VIRGO s'inscrit dans un ensemble de recherches relatives à la détection des événements violents survenant dans l'univers. Parmi les événements susceptibles de créer des ondes gravitationnelles détectables sur Terre, on peut citer l'explosion de supernovae ou d'hypernovae, observées dans les longueurs d'ondes des rayons X ou des rayonnements gamma, la coalescence de deux étoiles à neutrons ou de deux trous noirs s'effondrant l'un sur l'autre.

L'objectif de VIRGO est de faire coïncider la détection des ondes gravitationnelles avec d'autres mesures, comme celles de rayonnements électromagnétiques de longueurs d'ondes variées.

Afin de mieux comprendre les événements cités plus haut, les résultats de VIRGO seront donc ajoutés à ceux d'autres expériences comme le satellite Glast, les télescopes gamma au sol, le projet ANTARES ou le projet AUGER de détection de particules cosmiques.

Pour synthétiser les principaux aspects de VIRGO, M. Michel SPIRO a souligné que, si ce projet paraît être un " monoprojet " , onéreux et conduisant à une seule mesure, il est en réalité multidisciplinaire, met en _uvre l'ensemble des compétences de la physique et se trouve de surcroît en réseau avec de nombreuses autres disciplines.

Un autre aspect positif de VIRGO est évidemment constitué par ses retombées technologiques.

Il s'agit d'un outil qui permet de se servir de l'Univers comme moyen de test d'une théorie essentielle, celle de la théorie de la relativité générale. Pour autant, peut-on dire que cette dernière n'a qu'une valeur abstraite et qu'elle ne sert à rien de concret ? En réalité, il n'en est rien, puisque les systèmes de positionnement par satellite GPS recourent à des équations issues de la relativité générale.

Mme Claudine LAURENT s'est interrogée sur l'appartenance éventuelle des projets ANTARES, AUGER et GLAST à la catégorie des TGE et sur le degré d'avancement des processus de décision correspondants.

M. Michel SPIRO a indiqué que la participation française au projet Auger est de l'ordre de 13 millions de francs et celle au projet ANTARES de 70 millions de francs, pour un total dans ce dernier cas de 120 millions de francs. Compte tenu de leur ampleur limitée, ces participations sont gérées par l'IN2P3 et financées par ce dernier sur son propre budget. En tout état de cause, ces projets apparaissent comme dans la quasi-totalité des cas, comme des projets " bottom-up " initiés par les chercheurs eux-mêmes et non pas imposés d'en haut. On note dans le cas du projet ANTARES, initié par la France, de détection au fond de la mer de particules cosmiques, une participation régionale au financement à hauteur de 70 % du total. Quant au projet GLAST, issu d'une collaboration NASA/DOE/université de Stanford, la France y participe avec une coopération CEA-IN2P3-CNRS.

M. Philippe LAREDO s'est demandé si les instances nationales de la recherche sont habilitées à juger de l'opportunité des investissements que les régions décident de faire dans des grands équipements de recherche.

*

Après que M. Claude BOCCARA , a souligné que la métrologie développée pour le projet VIRGO a eu des retombées dans les laboratoires de recherche et que des solutions apportées dans le domaine des matériaux pour VIRGO trouvent des applications pour le Laser MegaJoule, M. Michel DAVIER, Professeur à l'Université Paris-Sud, a souligné que le projet VIRGO présente un intérêt multiple et rassemble des physiciens venant d'horizons divers, au premier chef l'optique, les lasers, la physique des particules et l'astrophysique.

Ce projet sert l'étude des interactions fondamentales, permet le test de la théorie de la relativité générale, utilise l'Univers comme laboratoire et assure la convergence de disciplines. En outre, VIRGO permet de développer la maîtrise de l'ultra vide, du contrôle commande de systèmes complexes, de l'informatique de l'acquisition et du traitement de données, ainsi que celle de la logistique et de la gestion de grands projets.

Le CNRS est incontestablement particulièrement performant et adapté à l'éclosion de projets pluridisciplinaires mais il convient de s'appuyer sur des structures adéquates pour leur réalisation. C'est en l'occurrence la raison d'être des instituts nationaux que le CNRS a créés en son sein, en particulier l'IN2P3 et l'INSU.

Ces instituts ont été créés en premier lieu parce que les disciplines correspondantes devaient s'appuyer sur des très grands équipements. Dès lors, il était indispensable de disposer d'une part de compétences techniques souvent supérieures à celles du secteur privé et d'autre part de capacités techniques et administratives de gestion de ces équipements.

L'IN2P3 effectivement comprenait des personnels à statut particulier. Ce corps, maintenant en extinction, devrait pourtant constituer une solution aux problèmes évoqués au cours de la présente réunion au sujet du recrutement et de la rémunération des personnels nécessaires au démarrage et à l'exploitation d'un futur TGE comme SOLEIL.

L'INSU possède également des compétences pour la conception, la réalisation, le suivi, la gestion et l'utilisation de TGE.

Mme Claudine LAURENT a estimé que l'IN2P3 et l'INSU sont de création ancienne et devraient évoluer, notamment pour ne pas réaliser dans leurs laboratoires ou faire réaliser dans les autres laboratoires du CNRS ce qui pourrait être mieux fait ailleurs et à un moindre coût.

Sur le point de savoir si les services techniques de l'INSU sont compétents et compétitifs, M. Michel DAVIER a répondu qu'effectivement, il existe au sein de l'INSU des capacités de conception, d'innovation, de suivi industriel et de gestion de projet qui répondent aujourd'hui comme dans le passé aux exigences de la mise en _uvre des TGE.

M. Robert COMÈS a observé que le recours à l'IN2P3 permet de gérer les personnels et de traiter les problèmes de terrain avec une efficacité largement supérieure à celle du schéma classique du CNRS et de ses délégations régionales.

Pour M. Philippe LAREDO , il importe de ne pas mélanger les questions de compétences et d'organisation. Les instituts nationaux du CNRS ont effectivement joué un rôle central dans le passé. On peut se demander si actuellement leur rôle n'est pas davantage un rôle d'organisation qu'un rôle de support technique.

M. Roger BALIAN a estimé que les instituts nationaux du CNRS conservent actuellement des compétences techniques et des compétences de fabrication.

Après avoir remercié tous les intervenants pour leurs informations sur le projet VIRGO, M. Christian CUVILLIEZ, Député, Rapporteur, a donné la parole aux représentants du projet ODP.

*

M. Philippe PÉZARD , Directeur de recherche à l'Insteem-CNRS, a indiqué que le programme ODP (Ocean Drilling Programme) se trouve actuellement à la veille d'un changement considérable d'ambition, puisque, à partir de la situation actuelle où des forages de 1000 à 2000 mètres dans le plancher océanique sont opérés avec un seul navire, il s'agit de passer à des forages de 5000 mètres dans les sédiments sous-marins, pour une longueur de tige de 11 kilomètres, réalisés à partir de deux nouveaux bateaux.

Le programme ODP portant sur la période 1983-2003 représente le principal effort mondial actuel de forage scientifique des fonds océaniques et s'inscrit dans la ligne de travaux effectués depuis le milieu des années 1960, au terme desquels plus de 2000 forages ont déjà été réalisés dans les océans. Les Etats-Unis assurent actuellement près de 60 % du financement total du programme.

Parmi les réalisations majeures du navire actuellement en service, le JOIDES RESOLUTION, on peut citer la mise en place de bouchons instrumentés au fond de la mer, servant à l'enregistrement de données sismologiques de façon à disposer d'images précises du globe, et l'échantillonnage des sédiments sous-marins à différentes profondeurs. Le programme ODP porte également sur l'étude des interfaces noyau-manteau ou croûte-manteau.

M. John LUDDEN , Directeur de recherche à l'INPG-CNRS a indiqué que le budget annuel du programme ODP atteint 45 millions de dollars. La France, le Japon, l'Allemagne et le Royaume Uni contribuent chacun pour 3 millions de dollars, à quoi il faut ajouter un montant identique fourni par un consortium d'autres pays européens. Les Etats-Unis financent pour leur part 60 % du total du budget.

Selon M. Philippe PÉZARD , s'il s'est essentiellement agi jusqu'à maintenant d'explorer les océans pour accumuler des informations pour la tectonique des plaques, l'objectif est désormais d'élargir les recherches à d'autres sujets.

L'objectif est certes d'apporter des explications à des questions fondamentales de la géologie, comme les transferts de chaleur et de matière, les transects terre-mer, la déformation de la lithosphère, la dynamique du manteau et du noyau.

Mais il s'agit aussi de contribuer à l'étude des grands problèmes environnementaux comme l'évolution climatique. Les évolutions climatiques sont en effet enregistrées dans les sédiments, par l'intermédiaire de la proportion d'isotopes de l'oxygène, de la formation du plancton et des poussières qui y sont prisonnières. Les carottages effectués près du fond de l'océan permettent l'étude du passé récent. L'observation des récifs coralliens fournit par ailleurs des informations précieuses sur l'évolution du niveau des océans, puisque les coraux croissent à une vitesse supérieure à celle des phénomènes géologiques pour retrouver le niveau de la surface.

Il s'agit encore, à l'aide de forages sous-marins, de mieux connaître la biosphère cachée dans les sédiments. La découverte d'une vie anoxique sous forme de bactéries enfouies à plusieurs centaines de mètres dans les sédiments s'avère fondamentale puisqu'elle peut être corrélée à des formes de vie sur d'autres planètes, comme Mars.

Les forages profonds ont également pour objet l'étude des hydrates de gaz présents dans des couches superficielles recouvrant par ailleurs du gaz libre.

Ainsi que l'a exposé M. John LUDDEN , le nouveau programme décrit sous le nom d'IODP (Integrated Ocean Drilling Program), qui débutera en 2003, prendra d'abord appui sur une version modernisée de l'actuel navire océanographique américain, opérationnel à partir de 2004, après une rénovation d'un coût de dix millions de dollars. Mais, pour l'étude des fonds marins à grande profondeur, le Japon développe un nouveau navire permettant des forages sous des hauteurs d'eau de plus de 4000 mètres, dont le coût de construction atteint plusieurs centaines de millions de dollars.

Enfin l'Europe a la responsabilité de développer des moyens de forage en eaux peu profondes. C'est ainsi qu'en plus des possibilités apportées par le navire océanographique polaire Marion Dufresne, des plates-formes seront également développées afin de pratiquer des forages en eaux peu profondes, par exemple dans l'Arctique.

Afin de préparer la participation européenne au programme IODP, un comité européen a été créé afin d'arrêter les priorités scientifiques et définir les développements technologiques nécessaires. L'objectif est d'obtenir la création d'un réseau thématique européen et in fine de trouver les 25 millions de dollars annuels que l'Europe devra apporter au programme IODP, soit deux fois plus qu'actuellement pour le projet OPD. La Commission européenne semble en tout état de cause favorable à l'inscription de ce domaine de recherche au 6 ème PCRD.

M. Philippe VIDAL , Directeur adjoint de l'INSU-CNRS, a précisé les enjeux du changement de dimension du programme de forages profonds.

Les pays membres de l'Union européenne prennent actuellement à leur charge un peu moins du quart du budget d'ODP, soit au total 12 millions de dollars sur un total de 45 millions de dollars de coûts d'exploitation.

Le seul coût d'exploitation des deux futurs navires américain et japonais ressort à 140 millions de dollars par an. La France, l'Allemagne, le Royaume Uni doivent bien entendu accroître leur financement mais il reste indispensable que l'Union européenne engage un effort particulier.

A la demande de M. Jean GALLOT , membre du groupe de travail, M. Philippe PÉZARD a précisé que le coût total de fonctionnement d'une plate-forme de forage comprend deux tiers de coûts d'exploitation et un tiers de coût de personnel.

*

Après avoir remercié les participants pour leur contribution à l'information de l'Office, M. Christian CUVILLIEZ, Député, Rapporteur , a levé la séance.

10. Océanographie - mercredi 18 octobre 2000

IFREMER

• M. Jean-François MINSTER, Président-directeur général

• M. Daniel DESBRUYÈRES, Directeur du département de l'environnement profond

• M. Maurice HÉRAL, Directeur Ressources vivantes

• M. Philippe HUCHON, Professeur à l'Université Paris VI

CNRS

• M. Guy BOUCHER, INSU-CNRS

• Mme Pascale DELECLUSE, Laboratoire d'océanographie dynamique et de climatologie (LODYC) - CNRS / Université PARIS 6 / IRD

• Mme Laurence EYMARD, Présidente du groupe ad hoc Terre-Atmosphère-Océan-Biosphère du Comité des Programmes scientifiques du CNES

• M. Gérard JUGIE, IFRTP (Institut français de recherche et de technologie polaire) - CNRS / CNES / IFREMER / TAAF / Météo-France / EPF

• M. Laurent LABEYRIE, Laboratoire des sciences du climat et de l'environnement (LSCE) - CNRS / CEA, Directeur du programme IMAGES (International Marine Global Change Study)

• M. Christian LE PROVOST, Laboratoire d'études en Géophysique et océanographie spatiales (LEGOS) CNRS / CNES / Univ. Toulouse 3

• M. Frank ROUX, INSU, Chargé de mission pour la physique de l'océan et de l'atmosphère

• Mme Dominique VIOLLET, Chargée des relations avec les élus

CNES

• Mme Nicole PAPINEAU, Déléguée adjointe à l'observation de la Terre

• M. Philippe ESCUDIER, Chef de la division altimétrie et du projet JASON

• M. Arnaud BENEDETTI, Chargé des relations avec le Parlement

CEA

• M. Philippe JEAN-BAPTISTE, Direction des sciences de la matière

• M. Bernard SALANON, Direction de la stratégie

• M. Pierre TRÉFOURET, Cabinet de l'Administrateur général, chargé des relations avec le Parlement

*

M. René TRÉGOUËT, Sénateur, rapporteur, après avoir demandé à chaque invité d'indiquer brièvement son domaine de recherche, a donné la parole à M. Jean-François MINSTER pour une présentation générale de la recherche française en océanographie et de la politique de l'IFREMER (Institut français de recherche pour l'exploitation de la mer) dans le domaine des grands équipements.

*

M. Jean-François MINSTER , Président-directeur général de l'IFREMER, a indiqué que l'océanographie, avec 800 chercheurs appartenant au CNRS, aux universités, à l'IFREMER et à l'IRD (Institut de recherche pour le développement) et 1300 ingénieurs, techniciens, administratifs et marins, est un domaine de recherche où les grandes infrastructures jouent un rôle déterminant.

La mer et le littoral sont à l'évidence le siège d'activités économiques importantes, avec une valeur ajoutée cumulée de 100 milliards de francs par an et un chiffre d'affaires deux fois et demi supérieur. Si l'océanographie s'intéresse depuis toujours aux ressources vivantes, énergétiques et minérales tirées de la mer, elle porte une attention de plus en plus grande au rôle de la mer dans l'environnement planétaire et en particulier à son impact sur le climat.

Les moyens d'observation lourds jouent un rôle capital en océanographie et se composent de la flotte hauturière, des satellites, de la flotte côtière, des bassins d'essai et des réseaux de bouées d'observation.

La flotte océanographique hauturière représente un investissement cumulé de 500 millions de francs par navire, à financer pour la plus grande part sur les 5 ans de la construction et ultérieurement pour la modernisation, avec un coût annuel d'opération de 30 à 50 millions de francs, auquel il faut rajouter les coûts scientifiques. La flotte hauturière française comprend actuellement l'Atalante, le Suroît, le Thalassa et le Nadir, navires de l'IFREMER de plus de 50 mètres, et le navire polaire polyvalent Marion Dufresne, le plus grand du monde.

Le coût unitaire des satellites varie de 50 millions à 2 milliards de francs en investissement, pour une durée de vie moyenne de 5 ans, avec un coût d'opération de 30 millions de francs par an.

Les réseaux d'observation, principalement les bouées dont chaque exemplaire représente un investissement de 300 000 francs environ pour les engins modernes, peuvent atteindre un coût total d'investissement de 300 millions de francs, comme dans le cas des 3000 bouées du système ARGO, dont le coût annuel d'opération s'élève à 30 millions de francs.

Autre infrastructure indispensable, les moyens de calcul se chiffrent à environ 30 millions pour les investissements et à 20 millions de francs par an en exploitation, si l'on estime les besoins de calcul de l'océanographie au tiers de ceux de l'IDRIS.

A ces très grands équipements, il faut bien entendu rajouter d'autres grands outils, comme les bassins d'essais ou d'élevage, la flotte côtière avec ses navires de 20 à 40 mètres, dont 3 appartiennent à l'IFREMER, 4 à l'INSU, 2 à l'IRD (Institut de recherche pour le développement), 1 à l'IFRTP.

*

L'un des caractéristiques des navires océanographiques est la complexité de leur utilisation, qui nécessite non seulement une programmation soigneuse des déplacements et donc des expériences, mais aussi des équipements scientifiques diversifiés, des moyens de calcul et de transmission à bord, des équipes de soutien et, au final, des outils de gestion sophistiqués.

Les personnels navigants ou techniques s'élèvent à 10 pour l'IFRTP (Institut français de recherches et de technologies polaires), à 55 personnes pour l'INSU et à 220 inscrits maritimes pour l'IFREMER. Sur la base de 30 à 50 millions de francs par navire et par an pour l'IFREMER et de 40 millions de francs pour le Marion Dufresne, le coût annuel total de la flotte hauturière atteint donc 200 millions de francs par an. Le chiffre de l'IFREMER est resté stable depuis une dizaine d'années.

Grâce à une programmation complexe, avec des appels d'offres d'expériences scientifiques en novembre de chaque année, la flotte océanographique hauturière française fournit de 310 à 330 jours d'expérience par an, un chiffre supérieur aux moyennes de 300 des autres pays. Le Marion Dufresne offre quant à lui un nombre inférieur de 230 jours de recherche scientifique, en raison de ses autres types d'utilisation.

La production scientifique de la flotte hauturière représente environ 700 publications annuelles et de nombreuses thèses de DEA et de doctorat, soit la moitié du total des travaux français en océanographie.

Il est à remarquer que la pression de la demande est importante, avec une demande 3,5 fois plus forte que le temps navire disponible.

La situation actuelle de la flotte hauturière résulte d'un effort de rationalisation par remplacement et modernisation, effort qu'il convient de continuer. En 1980, la France possédait 8 navires. Avec une continuation des efforts de modernisation définis par le plan de 1985, la flotte ne comptera plus que 4 navires en 2003 mais ces 4 navires seront tous postérieurs à 1992. Il faut signaler à cet égard l'effort fructueux fait pour le Nadir par la marine nationale et l'IFREMER pour l'utiliser de concert, exemple probant de recherche duale.

Pour autant, pour poursuivre cette modernisation dans la durée, il reste à obtenir un financement annuel de 60 millions de francs. Après deux années d'interruption, le projet de loi de finances pour 2001 rétablit les autorisations de programme nécessaires, de même que le fera le projet pour 2002. Sur le long terme, une stratégie de capitalisation continue des autorisations de programme est préférable.

La couverture de tous les besoins en navires hauturiers exige au demeurant la mise en place d'une stratégie commune européenne voire mondiale . Les besoins très nombreux sont hors de portée d'un seul pays, portant en effet sur les navires brise-glace - l'Allemagne en possède un -, sur les navires foreurs - les Etats-Unis et le Japon en disposent -, sur les navires porte engins ainsi que sur des bâtiments polyvalents.

Peut-il y avoir une stratégie commune à tous les niveaux, pour l'investissement, l'opération et les objectifs scientifiques ?

Les investissements peuvent sans aucun doute faire l'objet d'une stratégie commune, une concertation internationale ayant déjà commencé à cet égard. Une des difficultés à lever est que les commandes ont souvent pour objet de soutenir les chantiers navals nationaux. Mais le cas du Thalassa, un investissement partagé avec l'Espagne, montre toutefois que des possibilités existent, essentiellement sans doute dans le cadre de coopérations à géométrie variable.

Une coopération européenne pour l'opération semble difficile et plus coûteuse a priori, en raison de l'inexistence d'un pavillon européen et de la multiplicité de statuts nationaux des gens de mer.

En revanche, une gestion scientifique commune plus poussée est certainement possible, avec notamment des appels d'offres communs, une répartition géographique harmonisée des missions et un échange plus important des temps d'accès aux navires en fonction des besoins de recherche.

Au surplus, il faut noter que 28 % des scientifiques embarqués sur les navires de l'IFREMER sont étrangers, la France détenant ainsi le record mondial d'ouverture de ses moyens océanographiques.

Au demeurant, l'effort de rationalisation des flottes hauturières allemandes et britanniques est inférieur à celui de la France.

*

Etroitement liés à la flotte océanographique, figurent différents types d' outils d'exploration .

La France possède deux sous-marins autonomes, le Cyana pour l'exploration des fonds jusqu'à 3000 mètres et le Nautile pour l'exploration à 6000 mètres, seuls les Etats-Unis et le Japon possédant des engins équivalents. Le Victor 6000 est un système téléopéré pour les grandes profondeurs, instrumenté et modulaire, de la catégorie des ROV (Remote Observation Vehicle), capables de rester plusieurs jours au fond.

L'observation in situ se fait également par des engins autonomes permettant de s'affranchir des navires, principalement des bouées, munis de capteurs et de dispositifs de transmission de données, dont la durée de vie est d'environ 4 ans et dont on cherche à abaisser le coût par une industrialisation.

Une des difficultés à résoudre est la pérennité de ces systèmes d'observation et celle de l'organisation à mettre en place pour une gestion à long terme des données.

*

Les satellites comprennent deux catégories, celle des observations pour la recherche et celle de surveillance opérant dans la durée.

Les satellites de recherche sont d'un coût élevé, en général supérieur à 500 millions de francs. Parmi ceux-ci, figurent les programmes GOCE relatif au champ de gravité, SMOS mesurant la salinité ou le projet VAGSAT mesurant la hauteur des vagues, dont la plupart sont développés dans le cadre de l'agence spatiale européenne ESA et éventuellement en coopération avec la NASA.

Il s'agit d'équipements qui connaissent une évolution technologique rapide, avec pour conséquence une taille et une masse de plus en plus réduites et une spécialisation accrue, ce qui induit une plus grande flexibilité de lancement et de gestion et donc un changement des méthodes de travail.

Les systèmes de surveillance mesurent par exemple la température de surface, la vitesse des vents ou les trajets des glaces de mer. Ils sont composés de série de satellites opérant dans la durée et sont toujours mis en _uvre dans le cadre de coopérations. Ils nécessitent des organisations pérennes et coopératives pour l'exploitation des données, comme EMEUTSAT, organisation européenne ou la NOAA américaine (National Oceanic and Atmospheric Administration).

*

A la demande de M. René TRÉGOUËT, Sénateur, rapporteur, qui s'interrogeait sur les procédures de concertation internationale pour les choix des thèmes de recherche, M. Jean-François MINSTER a indiqué que les programmes internationaux des Unions scientifiques internationales ont créé des comités scientifiques qui définissent par concertation une stratégie de recherche. Les instances nationales les reprennent dans des plans de réalisation nationaux et européens et en assurent le financement.

La stratégie d'investissement dans les satellites fait l'objet, de la part du CNES et de l'ESA, d'une définition progressive du type " bottom-up " à partir de colloques de prospective et ensuite d'une programmation soumise au comité des programmes scientifiques de ces organismes.

Quant aux données collectées par les satellites, leur utilisation s'appuie d'une part sur les investigateurs principaux, une vingtaine de chercheurs français dans le cas de TOPEX-POSEIDON, qui seuls disposent des données pendant une première période variable, et d'autre part sur une distribution ouverte ultérieurement à l'échelle mondiale.

Pour la flotte, la situation est plus floue, dans la mesure où une infrastructure comme un navire est moins attachée à une discipline qu'un satellite, grâce à son adaptabilité. Néanmoins, les instituts nationaux se concertent afin de développer la complémentarité de leurs moyens. En tout état de cause, les projets d'équipement de l'IFREMER sont visés par son comité scientifique.

*

La question des financements de l'IFREMER a fait ensuite l'objet d'un débat. A la demande de M. René TRÉGOUËT, Sénateur, rapporteur , M. Jean-François MINSTER a précisé qu'en tant qu'EPIC, l'IFREMER peut affréter ses navires à d'autres pays ou à des industriels, dans le cadre d'une démarche commerciale.

M. Philippe LAREDO s'est interrogé sur la date d'arrêt des autorisations de programme (AP) pour le renouvellement de la flotte, qui a interrompu le processus de capitalisation.

M. Jean-François MINSTER a indiqué que les AP, auparavant de 30 millions de francs par an, ont été mises à zéro pour 1999 et 2000 mais ont repris pour 2001 au niveau de 70 millions de francs et devraient se perpétuer au même niveau en 2002.

En tout état de cause, le renouvellement de la flotte exige une pérennisation des autorisations de programme à 60 millions de francs par an. Quant au financement du Marion Dufresne, il a été réalisé en partie par emprunt.

Plus généralement, la capitalisation des autorisations de programme est indispensable pour le financement de tous les systèmes d'observation in situ et les satellites. Il est donc crucial d'installer et de stabiliser un système durable.

M. René TRÉGOUËT, Sénateur, rapporteur , a estimé qu'il convient d'asseoir les plans à long terme d'autorisations de programme sur des décisions législatives claires.

En outre, il est indispensable de mettre au point une procédure pour les sécuriser à long terme, en dépit du fait que les techniques budgétaires actuelles ne facilitent pas les choses.

La réunion a ensuite été consacrée à l'exposé des perspectives de l'IFRTP dans le domaine de très grands équipements.

*

M. Gérard JUGIE , Directeur de l'IFRTP (Institut français pour la recherche et la technologie polaires), a indiqué que cet organisme gère 3 navires, d'une part le Marion Dufresne , bâtiment de logistique et de recherche scientifique d'une longueur hors tout de 120 m qui en fait le plus grand navire océanographique d'Europe, d'autre part la Curieuse, petit navire côtier assurant à la fois la logistique scientifique et les programmes de recherche océanographique et enfin l'Astrolabe, brise-glace de première catégorie.

Le Marion Dufresne, dont la construction a été décidée en 1991 et s'est achevée en 1995, assure une double mission de souveraineté sur les îles australes françaises Crozet, Kerguelen, Amsterdam, Saint-Paul, et de recherche scientifique.

A ces fins, armé par la Compagnie générale maritime CMA-CGM, il est affrété dans le cadre d'un GIP (Groupement d'intérêt public) par le Territoire des Terres australes et antarctiques françaises (Taaf) et par l'Institut français pour la recherche et la technologie polaires. Il est par ailleurs la propriété d'un GIE (Groupement d'intérêt économique) dont le TAAF détient la quasi-totalité des parts. Il est utilisé pour les missions de souveraineté par les TAAF et pour les missions scientifiques par l'IFRTP. Son utilisation comporte quatre rotations logistiques de desserte des archipels à partir de son port d'attache de la Réunion, dont une rotation légère en juillet-août correspondant à l'hiver austral.

En dehors des missions de souveraineté, le Marion Dufresne est utilisé, avec ses 650 m² de laboratoires scientifiques et ses divers apparaux, pour la recherche océanographique, en particulier pour les carottages de sédiments marins, qu'il est le seul au monde à pouvoir pratiquer sur des longueurs de 60 mètres, à toutes profondeurs.

Le Marion Dufresne, d'une polyvalence unique, peut accueillir 110 passagers, transporter 110 conteneurs, jouer le rôle de tanker, tout en comportant ses propres moyens de débarquement, à savoir deux vedettes, deux barges porte-conteneurs et un hélicoptère. C'est pourquoi il est parfois difficile de le remplacer pour la rotation de l'hiver austral.

Toutefois, pour accroître le temps dédié aux campagnes océanographiques, il serait possible de le remplacer par d'autres navires d'un usage moins onéreux, une rotation avec le Marion Dufresne revenant à 6 millions de francs, pour un coût journalier de 200 000 F.

M. Laurent LABEYRIE , Directeur du programme IMAGES (International Marine Global Change Study), a souligné que le Marion Dufresne est le seul navire au monde pouvant embarquer des équipes aussi nombreuses (plus de 50 scientifiques) pour des campagnes pluridisciplinaires de grande ampleur. De plus, le Marion Dufresne est le seul navire pouvant travailler dans un milieu aussi hostile que l'Antarctique.

Au demeurant, l'IFRTP dispose sur le Marion Dufresne d'un savoir-faire unique au monde pour réaliser des carottages de 60 m dans les sédiments.

Or l'analyse de ces sédiments à laquelle on procède en paléoclimatologie apporte des informations d'une importance exceptionnelle sur les parts respectives de la variabilité naturelle et de la variabilité récente, en partie anthropique du climat. Le rôle de l'océan dans l'évolution des teneurs de l'atmosphère en CO2 peut également être déterminé.

Par ailleurs, c'est avec les possibilités exceptionnelles de carottage de ce navire que l'on peut espérer étudier les monts sous-marins carbonatés très récemment découverts sur les marges océaniques de l'Europe entre 500 et 1500 m de fond. Ils sont couverts de coraux au milieu d'une faune très variée. Leur développement semble associé à la présence de grandes quantités d'hydrates de méthane. Ceux-ci sont d'autre part à l'origine, dans la région, d'éboulements sous-marins d'une ampleur considérable, à l'origine dans le passé, de tsunamis sur les côtes européennes. Une campagne soutenue par des financements européens est prévue pour l'étude de cette région en 2001.

Il est à noter que le Marion Dufresne a effectué en 1999 une campagne de prélèvements sur les côtes du Groenland et de la Norvège avec l'implication des chercheurs et le cofinancement de 13 pays, et qu'une campagne autour du Pacifique Nord est à l'étude pour 2001 ou 2002, en association avec le Japon, le Canada, les Etats-Unis et l'Allemagne.

Le Marion Dufresne voit toutefois son usage scientifique obéré par la nécessité de regagner tous les deux à trois mois La Réunion pour assurer ses campagnes de logistique.

M. René TRÉGOUËT, Sénateur, rapporteur , s'est demandé à qui appartient la décision d'emploi du Marion Dufresne.

M. Gérard JUGIE a indiqué qu'un arbitrage interministériel récent a permis d'obtenir que le nombre de jours " scientifiques " du navire passe à 235 jours en 2001.

Toutefois, le transfert budgétaire qui devait accompagner ce transfert de charges n'a eu lieu que partiellement et par ailleurs, la maîtrise d'ouvrage appartient encore aux Taaf.

M. Robert COMÈS s'est demandé si, compte tenu de l'importance de la recherche océanographique, notamment pour la lutte contre l'effet de serre, il ne serait pas opportun de construire un nouveau navire scientifique, cette fois partagé avec la marine nationale.

M. Jean-François MINSTER a déclaré qu'en effet, les recherches océanographiques sont souvent duales. Au demeurant, la population à laquelle les Taaf devraient consacrer tous leurs efforts est bien scientifique, puisque seuls les chercheurs habitent ces territoires.

M. Philippe LAREDO a rappelé que la décision de construction du Marion Dufresne a été prise dans l'urgence, sans qu'un système de décision clair ait été défini sur son emploi. Le recours à l'emprunt a été au demeurant indispensable. Le fait que la CGM soit l'opérateur du navire complique encore la situation.

Au vrai, les difficultés d'une valorisation scientifique maximale du Marion Dufresne reflètent les inconvénients de la balkanisation de la décision sur la recherche. Pourtant, si ce navire n'avait eu qu'une vocation logistique, son coût n'aurait été probablement que de 250 millions de francs, au lieu des 540 millions finaux, qui résultent des multiples possibilités d'expérimentation scientifique dont il a été pourvu.

Quant à l'absence d'un mécanisme fiable de capitalisation des autorisations de programme, elle fait cruellement sentir ses effets.

Mme Sylvie JOUSSAUME , directrice adjointe du LSCE , a souligné une autre anomalie.

La délégation française aux négociations récentes de Lyon et à la future conférence de La Haye dite CoP6 sur l'application des mécanismes du Protocole de Kyoto ne comprend pas les experts français appartenant au GIEC-IPCC (Groupe international d'experts sur le climat - International Panel on Climate Change). Aussi le lien est-il ténu entre la science et la Mission interministérielle sur l'effet de serre (MIES).

M. Jean-François MINSTER notant que la délégation américaine comprend au contraire les spécialistes américains du climat, a estimé que la procédure actuelle de préparation des positions françaises et européennes à la négociation est insuffisante.

La parole a ensuite été donnée à M. Guy BOUCHER, pour une présentation des moyens de l'INSU-CNRS dans le domaine de l'océanographie.

*

M. Guy BOUCHER , chargé de mission à l'INSU, a fait le point sur les équipements lourds de l'océanographie au CNRS.

Les quatre navires de façade de 20 à 25 mètres nécessitent un renouvellement régulier. Les navires côtiers des stations, d'une longueur de 15 à 20 mètres, doivent être rénovés, pour un montant de 3 millions de francs par an, tandis qu'un bâtiment d'estuaire est à remplacer pour un montant de 15 millions de francs. Il faut également prévoir la construction d'un navire de 35 mètres pour les opérations sur le plateau continental, soit un investissement de 50 millions de francs.

Le réseau national des 14 stations marines joue par ailleurs un rôle clé pour l'enseignement et la recherche sur l'océanographie en France. Avec un budget annuel de 17 millions de francs, les stations marines disposent de 540 personnels statutaires, accueillent chaque année environ 500 chercheurs, fournissent près de 7000 semaines-étudiants par an et donnent lieu à 250 publications de niveau international.

Ce réseau nécessite d'être entièrement rénové. Les dépenses estimées s'élèvent à 10 millions de francs par an pour les locaux et à 10 millions pour les structures expérimentales. Il convient également de l'équiper de moyens modernes d'acquisition et de transmission de données, ce qui correspond à 5 millions de francs par an.

L'ensemble de ces dépenses de rénovation de la flotte côtière et des stations marines représente un montant de 100 millions de francs par an à renouveler sur 4 ans au moins.

Au vrai, la flotte océanographique de façade et le réseau national des stations marines constituent pour le CNRS un grand équipement de recherche et d'enseignement.

Cet équipement présente la spécificité d'être réparti sur l'ensemble des côtes françaises. Mais, comme tout grand équipement, il est utilisé par un nombre élevé de chercheurs, résidents ou visiteurs, français ou européens et permet des recherches expérimentales nombreuses et différenciées qui portent sur les modèles marins, la biologie fondamentale ou les biotechnologies.

M. Franck ROUX , chargé de mission à l'INSU-CNRS, a ensuite exposé le rôle de l'INSU dans la recherche océanographique. L'INSU, institut national sous la double tutelle du ministère de la recherche et du ministère chargé des universités, a la responsabilité de 5 programmes conduits en coopération avec des organismes nationaux, européens ou internationaux.

Ces programmes portent sur la climatologie et les processus à petite échelle, la biologie marine, l'étude des flux, les zones côtières et l'exploitation des données satellitaires. Ils représentent une dépense annuelle de 5 à 20 millions de francs, incluant les coûts de mise en _uvre éventuelle de très grands équipements.

L'INSU a mis en place, par ailleurs, un service d'observation de l'océan et de surveillance des eaux côtières. On peut s'interroger sur le point de savoir si la pérennisation d'un tel système doit être financée sur les crédits de la recherche. La transition des travaux du CNRS vers des réseaux opérationnels apparaît bien comme un problème critique.

La parole a ensuite été donnée à M. Philippe JEAN-BAPTISTE, représentant du CEA.

*

M. Philippe JEAN-BAPTISTE , Directeur de recherche au Laboratoire des sciences du climat et de l'environnement du CEA-CNRS, a indiqué que les connaissances et le savoir-faire du CEA dans le domaine des radio-isotopes et de la métrologie l'ont conduit à s'intéresser aux recherches sur le climat du passé, en apportant une contribution à l'analyse et à la datation des calottes polaires et des sédiments marins.

De plus, compte tenu de l'implication étroite des choix énergétiques et de la lutte contre l'effet de serre, le CEA a renforcé son engagement dans la recherche climatique au plan général.

A ce titre, le CEA est l'un des utilisateurs des très grands équipements des autres organismes de recherche, en particulier de la flotte hauturière de l'IFREMER et du Marion Dufresne. Le CEA est partie prenante du programme IMAGES de paléo-océanographie et du programme POLDER d'observation spatiale dont un volet concerne spécifiquement l'océanographie, à savoir la mesure de la productivité primaire océanique ou " couleur de la mer " , dont la connaissance est essentielle pour l'étude du cycle du carbone océanique.

En outre, le CEA participe aux travaux de modélisation climatique, qui tendent à inclure les couplages entre l'atmosphère, l'océan, la cyosphère, c'est-à-dire les glaces, la végétation et les cycles biogéochimiques, en particulier le cycle du carbone.

A ce titre, les travaux du CEA consomment près de 20 % du temps de calcul de l'organisme. Rappelons à cet égard que le coût d'un super-ordinateur s'élève à 40-50 millions de francs et le coût d'un centre de calcul à 100 millions de francs.

La mobilisation du CEA sur l'effet de serre est importante et bien comprise des médias, qui sollicitent régulièrement son point de vue. En revanche, ses spécialistes du climat sont, de son point de vue, insuffisamment sollicités par les négociateurs français travaillant sur les mécanismes d'application du Protocole de Kyoto.

*

Un débat est ensuite intervenu sur le thème des moyens de calcul .

M. Jean-François MINSTER a relevé la différence de stratégie entre la France et les Etats-Unis. La France a adopté le principe de centres de calcul nationaux interdisciplinaires, en dépit des difficultés causées par les incompatibilités éventuelles des codes de calcul pour passer d'un centre à un autre en fonction des plans de charge de ces derniers.

Les Etats-Unis, au contraire, ont mis en place des centres de calcul spécialisés pour les calculs de climat. Il semble opportun d'étudier à l'avenir des projets de centres de calcul dédiés.

M. René TRÉGOUËT, Sénateur, rapporteur, a indiqué que la mise en réseau des centres de calcul est toutefois une nécessité, comme le prévoit le CERN avec son projet GRID. La syndication paraît la voie de l'avenir.

Mme Pascale DELECLUSE , Directeur de recherche au Laboratoire d'océanographie dynamique et de climatologie (LODYC) , a souligné que la mutualisation suppose des efforts de portabilité des codes de calcul et donc un accroissement des ressources humaines des laboratoires concernés, puisque ceux-ci doivent réaliser ces travaux en interne.

M. Franck ROUX , a estimé, qu'au-delà de la portabilité des codes qui est un problème résolu entre Météo-France et l'IDRIS par exemple, apparaissent, avec quelques années de retard, les questions posées par la valeur commerciale croissante des données océanographiques, à l'instar de ce qui est le cas pour la météorologie.

Mme Sylvie JOUSSAUME a précisé que les modèles climatiques recourent essentiellement au calcul vectoriel et que, donc, le recours aux techniques du massivement parallèle peut être difficile. Une autre difficulté essentielle du recours à une machine distante provient de la lourdeur des transferts de données, d'un volume considérable en climatologie.

Il paraît opportun dans ces conditions sinon de rassembler les moyens, au moins de les coordonner et de rationaliser les investissements du CINES, de l'IDRIS, des centres de calcul du CEA, de Météo-France et de l'ONERA.

Sur le sujet de l'opportunité de créer un centre de calcul dédié pour la climatologie, on peut remarquer que l'Allemagne en possède un, que le Royaume Uni envisage d'en créer un autre, que le Japon va disposer d'un accès privilégié à une machine surpuissante, qui fournira une puissance de calcul cent fois supérieure à celle de l'IDRIS, et enfin que les Etats-Unis travaillent à la mise en place d'un centre appartenant à plusieurs organismes.

Au demeurant, on pourrait s'inspirer de ce qui a été fait pour la physique des particules, avec la mise en place d'un centre de calcul commun au CEA et au CNRS, implanté à Lyon, qui constituera le relais français du projet GRID du CERN.

Mme Nicole PAPINEAU a exposé qu'il existe un groupe de travail INSU-CNRS / CNES sur les moyens de calcul et la gestion des bases de données, qui recommande d'adopter le principe d'une décentralisation.

M. Christian LE PROVOST , Directeur de recherche au Laboratoire d'études en Géophysique et océanographie spatiales, a précisé que la simulation à court ou à long terme du comportement climatique des océans exige le transfert et le stockage de très grands volumes de données. Les réseaux de transfert de données actuels sont insuffisants à cet égard.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné qu'il est urgent d'améliorer les choses.

M. Jean-François MINSTER et Mme Sylvie JOUSSAUME ont estimé que la mise en place de réseaux à hauts débits est indispensable mais que les puissances de calcul doivent également être augmentées. Comme la logique actuelle est une logique d'organismes, il convient d'accélérer les discussions en la matière.

*

Mme Nicole PAPINEAU , Déléguée adjointe à l'observation de la Terre au CNES , a indiqué que la communauté scientifique est étroitement associée au choix d'un satellite océanographique , tout au long d'un processus de décision au demeurant très long.

Le projet de satellite POSEIDON a démarré en 1981, en parallèle avec le projet américain TOPEX. Après qu'une convergence entre les deux et l'accord des deux communautés scientifiques ont été obtenus, la démonstration de certains dispositifs comme l'altimètre a été engagée et réussie.

Puis l'enjeu stratégique du lanceur, à savoir le recours à Ariane ou un lanceur américain, a été réglé au bénéfice du lanceur européen. La décision finale est intervenue en 1987 et le satellite a été lancé en 1992.

TOPEX-POSEIDON fonctionne toujours, une performance exceptionnelle puisque la durée de vie moyenne d'un satellite est de 5 ans. Ce satellite de topographie des océans joue un rôle important dans la recherche océanographique, en particulier pour les 15 investigateurs principaux qui ont eu un accès immédiat à ses données.

En conséquence, dès 1993, la communauté scientifique s'est préoccupée de son successeur, intitulé JASON, dont la construction a été arrêtée en 1996 et qui sera lancé au printemps 2001, au profit d'une communauté élargie à 70 investigateurs principaux.

A cette date, faute d'avoir décidé en 1993 de construire deux satellites comme c'était nécessaire, il sera déjà indispensable de prendre une décision pour JASON 2. Son financement devrait reposer sur un partage à parts égales entre les Etats-Unis et l'Europe. La part européenne serait répartie à égalité entre l'organisation internationale EMEUTSAT et le CNES comme chef de file français.

En réalité, le financement français, actuellement discuté par le Comité des directeurs des grands organismes scientifiques, pourrait provenir, selon un mécanisme à mettre en place, du budget du CNRS, du budget de la Défense pour le compte du SHOM (Service hydrographique de la marine), de l'IFREMER et de Météo-France.

Parmi les autres satellites intéressant la recherche océanographique et actuellement en fonctionnement, il faut également citer les satellites ERS-1, lancé en 1991, et ERS-2, lancé en 1995, de surveillance permanente et tout temps des océans, des terres émergées et des glaces polaires qui utilisent des techniques radar.

Quant aux projets de satellites servant les recherches de l'océanographie, ils sont nombreux.

Le satellite japonais ADEOS-2, embarquant l'instrument POLDER pour la surveillance du phytoplancton via le suivi de la couleur de l'eau, sera lancé à la mi-2001.

Le satellite ENVISAT, qui sera lancé en juin 2001, permettra l'observation de l'atmosphère, de la surface de la Terre et des océans.

Le satellite CRYOSAT, dont le lancement est prévu à la mi-2003, permettra l'étude des glaces.

SMOS, à lancer en mi-2005, mesurera l'évolution de la salinité des océans.

M. Philippe ESCUDIER , Chef de la division altimétrie et du projet JASON au CNES, a précisé que les mesures faites par TOPEX-POSEIDON concernent la surface des océans, mais qu'elles sont significatives de ce qui se passe sur la colonne d'eau correspondante. Ce satellite a notamment permis de montrer que les courants océaniques circulent autour de creux et de bosses, de même que les vents dans l'atmosphère circulent autour des dépressions et des anticyclones.

De telles mesures permettent en outre de remonter à la température et à la salinité des océans. Les mesures faites par TOPEX-POSEIDON sont une source d'informations irremplaçables pour les modèles climatiques.

Le défi technologique est celui de la précision des mesures. Le Gulf Stream correspond à une bosse d'un mètre seulement. Par ailleurs, la variabilité naturelle des océans, due aux effets de dilatation, est de l'ordre de 10 cm. Au reste, les variations de niveau des eaux pouvant résulter de l'effet de serre sont de l'ordre de 1 à 2 mm par an.

Le système DORIS mis au point par la France permet un positionnement absolu et donc la mesure du niveau des océans indépendamment du niveau des terres émergées. Le satellite TOPEX-POSEIDON permet ainsi de mettre en évidence les mouvements de la croûte terrestre. Ses acquis technologiques seront repris sur le système ENVISAT.

Le successeur de TOPEX-POSEIDON, JASON 1, aura la même fonction. Il est important de noter à cet égard que, si le projet ressort également d'une coopération franco-américaine, les rôles sont inversés par rapport à la situation antérieure, puisque la NASA fournira le lanceur et le CNES le satellite sur la base de la plate-forme multi-usages PROTEUS mise au point par Alcatel. JASON pèsera 500 kg contre 2500 kg pour son prédécesseur, avec un coût trois fois inférieur et des performances largement supérieures.

Au reste, l'ère de l'océanographie opérationnelle est proche grâce à la mise en service de satellites dérivés de la plate-forme PROTEUS.

*

Mme Laurence EYMARD a insisté sur l'importance de l'observation du niveau des mers. L'utilisation combinée de TOPEX-POSEIDON et du satellite ERS a permis d'atteindre une résolution suffisante pour suivre l'évolution de la circulation océanique à moyenne échelle, contribuant au développement de l'océanographie opérationnelle. ENVISAT emportant également un altimètre, le suivi altimétrique sera assuré mais il n'est pas prévu actuellement de mission altimétrique en orbite polaire au delà. Ce suivi du niveau des mers par deux altimètres est pourtant une priorité de la communauté scientifique. Parmi les autres priorités en matière d'observation spatiale de l'océan, le satellite ADEOS-2-POLDER permettra le suivi du plancton et la mission SMOS de mesure de la salinité est un ambitieux projet technologique.

On ne saurait trop souligner l'importance des mesures satellitaires pour l'alimentation des modèles et donc la nécessité à la fois d'un suivi continu dans le temps et d'émettre de nouvelles idées de mesures depuis l'espace.

Mais l'océanographie par satellite nécessite plus que jamais un cadre européen et international, puisque les contextes budgétaires ne sont pas favorables.

La parole a ensuite été donnée à M. Christian LE PROVOST, pour une présentation de l'océanographie spatiale opérationnelle.

*

M. Christian LE PROVOST , Directeur de recherche au Laboratoire d'études en géophysique et océanographie spatiales (LEGOS) du CNRS , a mis l'accent sur la notion fondamentale en océanographie de système intégré , qui comprend les navires de surface, les réseaux de mouillages et de bouées dérivantes et les satellites, l'ensemble permettant d'appréhender les évolutions climatiques à court et à long terme.

L'observation de l'océan, pour répondre aux besoins de couverture globale à long terme va reposer désormais sur des réseaux maintenus nécessairement en mode opérationnel.

La surveillance de la ceinture océanique équatoriale à partir d'un réseau de mouillages s'effectue dans le cadre d'une coopération internationale impliquant les Etats-Unis (NOAA), le Japon, le Brésil et la France. Comme les mesures satellitaires, les observations des bouées parviennent en temps réel dans les centres de traitement.

Le projet ARGO consiste en la création d'ici à 2003 d'un réseau de 3000 bouées dérivantes, destinées à la surveillance à long terme du contenu de l'océan en profondeur, celles-ci descendant périodiquement à 800 m puis à 2000 m et revenant ensuite en surface selon une technologie maîtrisée seulement par la France et les Etats-Unis.

Au final, les différentes observations faites par le système global alimenteront des centres qui en effectueront la synthèse. Ces centres sont en cours de création, dans le cadre de la concertation internationale GODAE (Global Data Assimilation Experiment).

Le projet français correspondant, qui s'intitule MERCATOR et est conduit par tous les acteurs concernés - CNES, CNRS/INSU, IFREMER, IRD, Météo-France, SHOM -, a pour objectif la création d'un centre qui, à l'image de Météo-France pour la météorologie, sera en mesure de prédire l'état de l'océan à 8 et 15 jours, afin de répondre aux besoins exprimés par les acteurs économiques.

En tout état de cause, l'évolution climatique de l'océan est complexe et doit faire l'objet d'une observation permanente et continue si l'on veut la comprendre et la prédire. La France dispose d'atouts considérables pour un tel projet.

La parole a ensuite été donnée à M. Maurice HÉRAL pour un exposé sur la recherche halieutique.

*

M. Maurice HÉRAL , Directeur des ressources vivantes à l'IFREMER, a précisé qu'une étroite coordination européenne régit la recherche halieutique réalisée en pleine mer et dans la zone économique de 200 miles.

Les campagnes correspondantes, cofinancées par l'Union européenne, représentent 20 % de l'activité de la flotte hauturière de l'IFREMER et sont concentrées sur le Thalassa, navire cofinancé par l'Espagne, qui en assume près de 70 %.

La recherche relative à la zone nationale de 15 miles est assurée par les trois navires de façade de l'IFREMER. L'un des trois navires, le Thalia, atteint l'âge limite de vingt années, et un autre, le Gwen Drez atteint 15 années de fonctionnement. Du fait de leur obsolescence, le renouvellement de ces navires d'environ 35 mètres est indispensable, en concertation avec l'INSU, pour un coût unitaire d'environ 50 millions de francs.

La recherche halieutique ne se limite plus ni à l'évaluation des stocks de ressources vivantes ni au contrôle des quotas de pêche.

Son objectif est aussi désormais de mesurer l'impact à long terme de la pêche sur les écosystèmes, en application de la convention de Rio de 1992 sur la biodiversité et d'évaluer les interactions entre la pêche, les autres activités humaines et le climat. Les recherches correspondantes déboucheront en 2002 sur une nouvelle politique européenne de la pêche et sur un code de conduite pour une pêche durable respectueuse de la biodiversité.

Les stations marines participent aux recherches halieutiques, notamment pour l'aquaculture et la conchyliculture. Le coût unitaire des systèmes expérimentaux permettant l'étude de la reproduction et des pathologies s'élève à 30 millions de francs. Ces systèmes devront davantage s'ouvrir à l'avenir, notamment aux universités, dans le cadre d'unités mixtes, et se fédérer dans un réseau européen.

En tout état de cause, les travaux scientifiques sont coordonnés par un conseil international de l'exploitation de la mer, qui porte une attention particulière au contrôle des populations. Les programmes nationaux en Europe sont financés à 70 % par la Direction générale Pêche de la Commission européenne, dans le cadre de contrats à 5 ans. La tâche primordiale est le recensement des ressources, puisque aussi bien 80 % des pêcheries européennes sont surexploitées.

M. Jean-François MINSTER s'est interrogé sur l'opportunité de pérenniser le financement actuel des recherches halieutiques par la DG pêche, suivant une procédure indépendante du financement des autres recherches.

*

M. Philippe HUCHON , Professeur à l'Université Paris VI , a ensuite exposé les grandes lignes des travaux réalisés par l'IFREMER en géosciences marines. Le premier objectif de ces disciplines est de répondre à un besoin d'exploration.

On peut dire à cet égard que l'océan est moins bien connu qu'une planète comme Mars. Des explorations récentes ont pu, par exemple, conduire à la découverte de récifs profonds.

Les géosciences marines répondent également au besoin d'observations sismiques globales et régulières ou à l'étude du champ magnétique terrestre.

En tout état de cause, les navires de la flotte hauturière de l'IFREMER sont indispensables pour installer et maintenir sur les fonds marins les capteurs de mesure, à l'aide d'outils téléopérés.

A cet égard, M. Jean-François MINSTER a signalé que la surveillance de la convention sur l'interdiction des essais nucléaires a nécessité la mise au point de mouillages acoustiques et d'hydrophones d'une très grande fiabilité. Il s'agit de systèmes in situ avec transmission des données par fibres optiques qui fournissent des mesures d'un intérêt scientifique certain, donnant un autre exemple d'une utilisation duale de dispositifs répondant initialement à une demande militaire.

M. Daniel DESBRUYÈRES , Directeur du département de l'environnement profond , a ultérieurement présenté les grandes lignes des travaux d'écologie et biologie marines conduits à l'IFREMER par une centaine de chercheurs.

La mer et les fonds sous-marins constituent le " grand égout " de l'humanité. Le principal objectif de la recherche est l'acquisition de données en vue de prévoir l'impact des activités anthropiques sur le milieu profond.

Une approche exploratoire est donc indispensable pour effectuer l'inventaire de la biodiversité, pour étudier la biomasse et la biosphère en sub-surface, y compris en dessous des sédiments. C'est dans le cadre de tels travaux qu'ont été découvertes, autour de sources hydrothermales, des molécules pré-biotiques, qui présentent un intérêt fondamental, notamment dans le domaine de la réparation des acides nucléiques et ouvrent peut-être des perspectives pour les biotechnologies.

Les submersibles habités ou non, sont l'outil principal de telles recherches. Une coopération bilatérale existe dans ce domaine avec les Etats-Unis. Depuis le 5 ème PCRD, un financement européen a été mis en place, contribuant au paiement du temps navire et à la prise en charge du coût de mise en _uvre des submersibles.

Comme on l'a vu précédemment, la France est le seul pays de l'Union européenne à posséder des engins comme le Cyana pour l'étude des fonds à moins de 3000 mètres, le Nautile pour les profondeurs inférieures ou égales à 6000 mètres ou le ROV Victor 6000.

Les Etats-Unis possèdent d'une part un sous-marin scientifique allant jusqu'à 4000 mètres de profondeur et doté d'un bras plus efficace que celui du Nautile, d'autre part un ROV à 6000 mètres, et, enfin, un autre sous-marin de l'US Navy pour les profondeurs de 6000 mètres.

Le Japon possède deux sous-marins, l'un descendant à 3000 mètres et l'autre à 6000 mètres, ainsi qu'un ROV pour des profondeurs allant jusqu'à 11 000 mètres. Quant à la Russie, ses deux submersibles à grande profondeur ne semblent pas réellement opérationnels.

En tout état de cause, si certaines études physiologiques demandent une intervention humaine, il ne fait toutefois pas de doute que les robots vont continuer de se perfectionner. Il reste que les sous-marins et les ROV devraient continuer d'être des outils complémentaires.

*

La discussion a ensuite porté sur les menaces de pollution des fonds sous-marins .

En réponse à une question de M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, sur l'intérêt scientifique de projets d'immersion dans les sédiments sous-marins de déchets radioactifs, M. Laurent LABEYRIE a souligné que les fonds sous-marins recèlent des fluides circulants avec des gradients de température importants et qu'en outre, le forage expose à la libération de méthane sous-marin.

M. Daniel DESBRUYERES a par ailleurs rappelé qu'une convention internationale interdit désormais l'immersion de déchets radioactifs. Au demeurant, il existe d'autres menaces, à savoir l'immersion à grande échelle de résidus d'incinération d'ordures ménagères (REFIOM)

A propos des menaces d'immersion ou de rejets en mer en tous genres, M. Jean-François MINSTER a indiqué que l'IFREMER est consulté pour toute opération touchant à l'environnement côtier. Sa doctrine est de préconiser le dépôt sur le continent si les déchets sont concentrés ou la dispersion en mer si ceux-ci sont peu concentrés.

M. Philippe JEAN-BAPISTE a signalé que semblent venir à maturité, aux Etats-Unis en particulier, les projets de capture, de liquéfaction et de stockage en mer du CO2 produit par des centrales électriques, dont les conséquences pourraient se révéler néfastes pour l'environnement marin.

En réponse à M. Roger BALIAN , M. Jean-François MINSTER a indiqué que les projets d'exploitation des nodules métalliques sous-marins ont fait long feu, pour des raisons économiques tenant à la baisse des cours des matières premières minérales et aux coûts élevés d'une exploitation à des profondeurs de plusieurs kilomètres de nodules dont la concentration ne dépasse pas 1 %.

Des projets d'exploitation d'autres types de dépôts métallifères existent dans les zones nationales de certains pays, ce qui rend d'ailleurs difficile l'accès des scientifiques à ces zones.

L'exploitation de l'énergie thermique des mers se heurte également à des obstacles économiques, bien que la faisabilité technique soit avérée, notamment autour des îles tropicales. Dans le secteur des énergies nouvelles renouvelables, l'éolien devrait apporter une meilleure réponse, mais les fermes " off shore " d'aérogénérateurs créent des conflits d'usage avec la pêche et le transport maritime.

*

A l'issue de la séance, M. René TRÉGOUËT, Sénateur, rapporteur , a remercié chaleureusement les participants et a estimé urgent d'améliorer les connexions du monde scientifique avec les autorités et les représentants politiques car ce sont bien les chercheurs qui éclairent l'avenir.

11. Météorologie - mercredi 25 octobre 2000

CNES

• M. Jean-Louis FELLOUS, Délégué à l'étude et à l'observation de la Terre

• M. Arnaud BENEDETTI, Chargé des relations avec le Parlement

CNRS

• M. Gilles BERGAMETTI, Laboratoire interuniversitaire des systèmes atmosphériques (LISA) - CNRS / Univ. Paris 7 / Univ. Paris 12

• Mme Laurence EYMARD, CNRS, Présidente du groupe ad-hoc Terre-Océan-Atmosphère-Biosphère du Comité des Programmes scientifiques du CNES

• M. Daniel GUEDALIA, Laboratoire d'aérologie - CNRS / Observatoire Midi-Pyrénées / Univ. Paul Sabatier Toulouse III, Président de la Commission spécialisée océan-atmosphère

• M. Franck ROUX, CNRS - INSU, chargé de mission pour la physique de l'océan et de l'atmosphère

• M. Michel VAUCLIN, Laboratoire d'études des transferts en hydrologie et environnement (LTHE) CNRS / Univ.Grenoble 1 / INP Grenoble / IRD

• Mme Dominique VIOLLET, Chargée des relations avec les élus

Institut Pierre-Simon Laplace (IPSL )-CETP, LMD, LODYC, LPCM, LSCE, SA-CNRS/Univ. P & M Curie Paris VI/Univ. Versailles-St Quentin-CEA-ENS-ORSTOM-CNES

• M. Gérard MÉGIE, directeur de l'IPSL

• Mme Danièle HAUSER, Centre d'étude des environnements terrestres et planétaires (CETP) - CNRS / Univ. Versailles, Présidente du comité scientifique du programme national de recherche sur l'atmosphère et l'océan

• M. Jean JOUZEL, Laboratoire des sciences du climat et de l'environnement LSCE-CNRS/CEA

• M. Hervé LE TREUT, Laboratoire de Météorologie dynamique - CNRS / ENS / Ecole Polytechnique / Univ.Paris 6

Météo-France

• M. Daniel CARIOLLE, Directeur de la recherche

Après avoir remercié les participants d'avoir accepté l'invitation de l'Office, M. Christian CUVILLIEZ, Député, rapporteur, a indiqué qu'après leur rapport sur le synchrotron qui a donné une deuxième chance au projet SOLEIL, les Rapporteurs de l'Office porte leur attention sur l'ensemble des très grands équipements (TGE) pour proposer des réponses à différentes interrogations sur la nécessité éventuelle de créer de nouvelles catégories d'équipements lourds pour la recherche en incluant par exemple les réseaux ainsi que sur l'opportunité de mettre au point des mécanismes de hiérarchisation des projets et d'introduire de nouveaux processus de coopération.

La parole a ensuite été donnée à M. Gérard MÉGIE pour une présentation générale de la météorologie et de la recherche sur l'atmosphère.

*

M. Gérard MÉGIE , Directeur de l'Institut Pierre-Simon LAPLACE, a indiqué que l'atmosphère est un milieu complexe qui est le siège de multiples interactions avec les océans et la biosphère. Une recherche interdisciplinaire est donc indispensable. A la nécessité d'une description des phénomènes globaux de l'atmosphère, s'ajoute celle de prendre en compte des mécanismes locaux. En outre, les échelles de temps à considérer vont du court terme, par exemple, pour les phénomènes de turbulences, au long terme, pour l'évolution de l'atmosphère. Par ailleurs, l'atmosphère est un milieu qui connaît des variations naturelles mais les conséquences des activités humaines se superposent à ces dernières. Enfin, l'étude scientifique de l'atmosphère met nécessairement en _uvre un couplage étroit entre les observations et les modèles qui intègrent ces dernières selon divers processus et qui présentent un degré de complexité extrême.

La recherche atmosphérique entreprend de répondre à plusieurs types de demandes. La prévision météorologique et ses débouchés opérationnels sont bien sûr le premier moteur des recherches conduites dans ce domaine. Mais l'étude du changement climatique et donc de l'environnement planétaire prend une importance accrue. Si l'évolution de l'atmosphère n'est pas la seule composante de l'évolution climatique, c'est toutefois la composante dont les changements sont les plus rapides et dont la compréhension est fondamentale dans la perspective de la lutte contre l'effet de serre. Par ailleurs, la recherche atmosphérique doit aussi répondre aux interrogations sur l'évolution de la couche d'ozone, sur la qualité de l'air et doit contribuer à la prévention des risques naturels.

La recherche atmosphérique représente une communauté d'environ 600 chercheurs et 400 ingénieurs, techniciens et administratifs, répartis entre le CNRS, les universités, le CEA, Météo-France, l'IRD (Institut de recherche sur le développement) et l'INRA.

Le budget total annuel consolidé de la recherche atmosphérique peut être estimé à hauteur de 1,2 milliard de francs. Ce montant approché inclut les dépenses de personnel, de fonctionnement et d'amortissement des équipements. Il sert à financer la conception et l'utilisation des outils et des réseaux d'observation de tous types, les travaux de modélisation et de simulation, ainsi que la programmation des instruments et des campagnes de mesure.

Quels sont les grands équipements de la recherche atmosphérique ?

Il en existe quatre types : la flotte aérienne, les satellites, les réseaux d'observation et les calculateurs.

La flotte aérienne a pour fonctions l'observation et l'échantillonnage. Les avions représentent la première composante de la flotte aérienne. L'investissement correspondant s'élève à 150 millions de francs, pour des équipements dont la durée de vie est de 5 à 10 ans. Les dépenses de fonctionnement s'élèvent à 15 millions de francs par an, en budget consolidé. Au total, sur période de 10 ans, la dépense consolidée s'élève à 300-400 millions de francs. Les ballons atmosphériques, seconde composante aérienne, entraînent une dépense de fonctionnement de 80 millions de francs par an, dont la moitié correspond aux activités de test des équipements satellitaires du CNES.

Les satellites météorologiques répondent au double objectif de l'observation globale et de la mise en cohérence des données. La dépense unitaire d'investissement varie de 50 millions à 3 milliards de francs selon le type de satellite, pour une durée de vie moyenne de 5 ans, qui va de 3 à 10 ans. L'intervalle de coût rend compte des différences de nombre et de complexité des fonctions des satellites. Le coût moyen annuel consolidé des opérations pour un engin de ce type est de l'ordre de 30 millions de francs.

Les réseaux d'observation ont pour objet la surveillance et la validation des modèles. Leur intérêt est de pouvoir fournir des séries longues, indispensables par exemple pour distinguer les parts respectives de la variabilité naturelle et de la variabilité anthropique du climat et approfondir la compréhension des systèmes incluant l'atmosphère.

En réalité, il est impossible de découpler l'approche par les observations au sol et l'approche satellitaire. L'investissement total qu'il est nécessaire de faire dans les réseaux d'observation atteint 100 millions de francs pour avoir des installations pérennes sur une dizaine d'années, le coût annuel de fonctionnement représentant quant à lui une dépense de 25 millions de francs en budget consolidé. Bien évidemment, les réseaux d'observation n'ont d'intérêt que s'ils sont insérés dans une coopération européenne et internationale.

Les calculateurs de puissance sont le quatrième type d'équipements lourds indispensables aux recherches atmosphériques. Leur fonction est de prendre en charge les modèles de simulation météorologique et de produire les prévisions correspondantes à court ou à long terme.

S'il est difficile d'attribuer à la seule recherche atmosphérique l'usage d'ordinateurs employés par ailleurs pour des études liées au couplage de l'atmosphère avec les océans et la biosphère, on peut néanmoins estimer le coût d'investissement cumulé à 40 millions de francs pour disposer, sur une durée de 5 ans, des ressources de calcul suffisantes, correspondant à une seule machine dédiée ou à du temps de calcul fourni par plusieurs ordinateurs distincts, comme c'est plutôt le cas actuellement. Du fait de l'explosion des besoins en temps de calcul, la durée de vie de cet investissement lourd ne peut excéder cinq années.

Les grands équipements de la recherche atmosphérique ont une fonction d'intégration fondamentale. Mais ils ne sauraient dispenser du développement d'outils de plus petites dimensions .

Les capteurs de télédétection sont omniprésents dans les satellites et la flotte aérienne, mais aussi dans les réseaux d'observation terrestre. L'augmentation de sensibilité de ces dispositifs est un objectif permanent, de même que l'élargissement de la gamme des mesures qu'ils peuvent effectuer. Les algorithmes de restitution des variables géophysiques à partir des mesures doivent aussi faire l'objet de développements constants, ce qui peut avoir des débouchés pour les services à forte valeur ajoutée dans le domaine de l'informatique.

Enfin, l'évolution technique doit être permanente dans le but de parvenir à une automatisation et à une miniaturisation accrues des composants et à une accélération de la transmission de données. Ces développements innovants trouvent un cadre optimal dans une coopération européenne et internationale, qui permet des progrès plus rapides et garantit la compatibilité des mesures.

*

Si l'on excepte les satellites, le plus souvent européens voire internationaux, les équipements de la recherche atmosphérique ressortissent d'investissements nationaux ou bilatéraux dans certains cas. La coopération européenne porte sur la coordination scientifique des outils en ce qui concerne les approches expérimentales, les codes de calcul et leur mise en oeuvre, ainsi que sur la définition d'une stratégie.

Au demeurant, les conventions internationales sur le changement climatique, la protection de la couche d'ozone ou les pollutions transfrontières induisent une liaison forte entre la recherche et la décision publique.

La recherche atmosphérique est ainsi étroitement liée à l'expertise, que celle-ci soit mise en oeuvre dans le cadre international de l'OMM (Organisation météorologique mondiale), du GIEC-IPCC (Groupe intergouvernemental d'experts sur le changement climatique - International Panel on Climate Change), du Programme des Nations Unies sur l'environnement, ou dans le cadre national. Il faut noter à cet égard une interaction forte entre la recherche atmosphérique et l'étude des conséquences économiques, sociales et juridiques du changement climatique.

Il faut également souligner l'accélération de l'ensemble du processus recherche - expertise - décision, qui correspond aux négociations sur l'application du Protocole de Kyoto. De nombreux points forts de la négociation, comme par exemple la notion de puits de carbone, font l'objet de controverses scientifiques quant à leur contribution réelle à la réduction des émissions de carbone. La recherche atmosphérique est directement interpellée à cette occasion, alors que le calendrier des décisions à prendre s'accélère.

Au total, il semble indispensable de rapprocher la recherche atmosphérique et l'expertise, de la décision politique. En prolongement d'une réflexion à conduire sur la nécessaire appropriation des résultats de la recherche par les responsables politiques, il convient de multiplier les lieux d'échange entre le monde politique et les chercheurs. Ces échanges conduiront d'ailleurs à la naissance d'idées nouvelles qui elles-mêmes se traduiront par le lancement de nouvelles études, selon un processus bénéfique à tous.

M. René TRÉGOUËT, Sénateur, rapporteur, a fait état des regrets de la communauté scientifique de l'océanographie de n'avoir pas été associée à la préparation de la conférence de La Haye.

M. Gérard MÉGIE a indiqué que la communauté des chercheurs en météorologie est dans la même situation.

Il existe une césure manifeste et dommageable entre les chercheurs et les experts scientifiques d'une part, et l'administration d'autre part, de sorte que la recherche amont et les études relatives aux mesures d'application du Protocole de Kyoto ne sont pas suffisantes.

Il convient donc de mettre en place un système de bouclage afin que la recherche éclaire efficacement la décision politique.

M. Jean JOUZEL , Directeur de recherche au Laboratoire des sciences du climat et de l'environnement (LSCE) - IPSL - CEA/CNRS, a confirmé qu'il n'a pas été invité à faire partie de la délégation française à la Conférence préparatoire de Lyon et à la Conférence de La Haye (CoP6) de novembre prochain, alors qu'il fait partie du GIEC.

M. Daniel CARIOLLE , Directeur de la recherche de Météo-France, a indiqué que si la responsabilité des négociations sur les mécanismes du Protocole de Kyoto appartient nominalement au ministère des affaires étrangères, au ministère de la recherche et à la MIES (mission interministérielle sur l'effet de serre), en réalité l'articulation entre les trois parties prenantes est difficile. Il faudrait en tout état de cause une organisation lisible des liens de la recherche et de l'expertise avec la décision.

M. Gérard MÉGIE a jugé cette organisation d'autant plus indispensable que de nombreux travaux de recherche sont encore à réaliser, non seulement dans le domaine du changement climatique, mais aussi pour accroître l'efficacité des mesures de protection de la couche d'ozone et de la qualité de l'air. A cet égard, la traduction des décisions communautaires en décisions locales s'avère complexe et difficile.

M. Jean JOUZEL a confirmé que Mme Sylvie JOUSSAUME, M. Hervé LE TREUT et lui-même représentent la France au GIEC-IPCC pour le changement climatique et qu'aucun d'entre eux n'a de contacts avec le ministère des affaires étrangères. Même si une visite de représentants de la MIES est annoncée au LSCE de Saclay, aucun scientifique français ne devrait être présent à la Conférence de La Haye. Il faudrait au contraire un lieu de discussion entre les négociateurs et les scientifiques.

M. René TRÉGOUËT, Sénateur, rapporteur, a indiqué à cet égard, que le groupe de prospective du Sénat consacrera l'une de ses réunions de 2001 à la question du changement climatique et que les experts français du GIEC y seront bien entendu conviés.

M. Daniel CARIOLLE a estimé que les différents secteurs socio-économiques de l'énergie, et en particulier l'industrie pétrolière sont plus impliqués dans les négociations sur le changement climatique que ne le sont les spécialistes des sciences du climat.

M. Gérard MÉGIE a noté à cet égard que la réactivité la plus forte aux données de la négociation se trouve du côté des industriels.

La parole a ensuite été donnée à M. Daniel CARIOLLE, pour une présentation générale de la recherche à Météo-France.

*

M. Daniel CARIOLLE , Directeur de la recherche de Météo-France, a commencé son exposé par la mise en évidence des interactions entre la recherche sur l'atmosphère et la météorologie opérationnelle. La météorologie opérationnelle fournit des données précieuses pour la recherche, tandis que cette dernière permet de faire progresser les prévisions.

Au reste, une organisation mondiale, l'OMM (Organisation Météorologique Mondiale), fondée en 1947 dans le cadre de l'ONU, a pris la succession de l'IMO (International Meteorogical Organisation) et assure la coordination de projets opérationnels et de recherches dans le domaine de la météorologie.

La coopération internationale en matière de météorologie date en réalité du milieu du XIX e siècle, quand, à la suite de l'ouragan du 14 novembre 1854, Le Verrier créa le premier réseau de stations météorologiques reliées par le réseau télégraphique et organisa, dès 1855, un échange régulier de données météorologiques entre divers observatoires européens.

L'échange de mesures météorologiques entre les pays est indispensable puisque les données nécessaires pour faire une prévision à 24 heures pour l'Europe de l'Ouest doivent s'étendre de l'Atlantique Nord au Golfe persique et pour une prévision à 72 heures du milieu du Pacifique à l'Indonésie en couvrant l'Amérique et l'Europe, et être mondiales pour une prévision à 120 heures. La tâche primordiale de l'OMM est d'organiser la répartition des efforts et de veiller au transfert des informations.

S'agissant de l'organisation française, les données collectées au sol, par les bouées ou les stations de radiosondages ainsi que les données collectées par la flotte aérienne convergent vers Toulouse, via le réseau opérationnel GTS et permettent l'élaboration de prévisions météorologiques, tout en étant archivées afin de constituer une mémoire de l'atmosphère sur une large plage de temps.

Au plan international, les données appartiennent aux Etats qui en assurent l'acquisition mais le cadre d'échanges mis en place par l'OMM permet un accès gratuit aux données essentielles des autres pays, au coût de mise à disposition près. Ce système ne supprime toutefois pas tout conflit d'intérêt entre les utilisateurs commerciaux des données météorologiques.

Les services météorologiques nationaux sont en réseau d'une part avec les activités opérationnelles comme la sécurité civile, les armées, l'aéronautique, la navigation maritime et le grand public, et, d'autre part, avec les équipes de recherche travaillant sur l'instrumentation, sur l'assimilation des données, sur la modélisation et la prévision, ainsi que sur le changement climatique.

Météo-France est un établissement public sous la tutelle du ministère des transports. Son centre de recherche, le CNRM (Centre national de recherches météorologiques de Météo-France), dispose sur le BCRD d'un budget annuel de 120 millions de francs et de 245 emplois scientifiques. Le CNRM possède d'une part de moyens lourds propres, à savoir un avion et une veine hydraulique, d'autre part de moyens partagés avec les autres services de Météo-France, en particulier son réseau synoptique et son super-calculateur, moyennant une contribution annuelle de 23 millions de francs par an pour l'accès à ce dernier, et, enfin, de moyens utilisés en coopération interorganisme, par exemple un avion de recherche avec l'INSU, le CNES, Météo-France et l'IGN, et de moyens utilisés en coopération internationale, par exemple certains codes numériques et les données satellitaires.

*

M. Daniel CARIOLLE a ensuite donné des exemples de synergies entre la recherche et l'opérationnel .

L'épisode d'orages de grêle intenses du 21 avril 1999 dans le Sud-Ouest s'est conclu par le dépôt d'une plainte contre Météo-France pour défaut de prévisions par un groupe de viticulteurs du Sud-Ouest. Si les radiosondages et les radars n'ont effectivement pu déceler une évolution très localisée, un modèle a été mis au point postérieurement et s'est avéré d'une précision suffisante. Il reste aujourd'hui à réduire les temps de calcul requis, qui sont du même ordre de grandeur que la durée de la prévision recherchée.

La deuxième tempête du 27 décembre 1999 avait vu les modèles incapables d'assimiler les données d'observation sur les vents et devenir inutilisables. Depuis lors, grâce aux nouvelles méthodes d'assimilation des données, les modèles ont été perfectionnés et sont désormais capables de prendre en compte des situations extrêmes telles que celles des tempêtes de la fin de l'année 1999.

En réponse à une question de M. Jean GALLOT , membre du groupe de travail , sur les apports des mathématiques aux modèles météorologiques, M. Daniel CARIOLLE a précisé que les méthodes de contrôle optimal ont été à l'origine mises au point par les mathématiciens de l'école française, notamment par l'équipe du Professeur LIONS puis appliquées au domaine de la météorologie dans les laboratoires universitaires, au CNRS et à Météo-France.

Inversement, la météorologie opérationnelle apporte une contribution essentielle à la recherche sur l'atmosphère. Par exemple, les calculs effectués à partir des radiosondages ont permis une nouvelle estimation des vents atmosphériques survenus dans le passé, avec une remontée à l'année 1945. La conclusion de ces travaux est qu'on ne peut déceler aucune tendance récente à l'augmentation des vents en surface et aux tempêtes.

Par ailleurs, les mesures de température issues du réseau météorologique opérationnel depuis 1865, ont permis, après les retraitements imposés par exemple par l'urbanisation, de déterminer l'ampleur du réchauffement planétaire.

*

Si la coopération internationale en météorologie a pour berceau l'OMM, une coopération européenne forte existe également, avec principalement l'existence du CEPMMT et d'EUMETSAT.

Le Centre européen pour la prévision météorologique à moyen terme (CEPMMT), issu d'une action Cost, rassemble 17 Etats membres et dispose d'un budget total de 235 millions de francs, la part de la France se montant à 16,4 % du total, soit 37 millions de francs inscrits au BCRD et transitant par le budget du ministère des affaires étrangères. Sa mission est la recherche sur les prévisions au delà de 5 jours.

EUMETSAT est une organisation intergouvernementale créée en 1986, afin de gérer le programme de satellites météorologiques Meteosat lancé initialement par l'ESA, qui rassemble 17 Etats membres européens et 3 Etats associés. Le siège de l'organisation se situe à Darmstadt, qui héberge également un centre de contrôle. Le réseau au sol d'EUMETSAT comprend une tête de réseau à Fucino en Italie et des stations relais à Bracknell, Toulouse et Rome.

Le budget d'EUMETSAT, de l'ordre de 1,6 milliard de francs par an, est financé par les Etats membres au prorata de leur PNB, soit 16,58 % pour la France. La participation française, qui est reconnue par le ministère de la recherche comme un TGE, atteint donc 263 millions de francs pour l'année 2000 dont 245 millions de francs figurent au BCRD.

Le développement, la fabrication et le lancement des satellites sont de la responsabilité de l'ESA, EUMESAT en prenant le relais dès la mise en orbite. Le septième exemplaire de la série des satellites Meteosat est actuellement en orbite géostationnaire à 0° de longitude, Meteosat-5 et Meteosat-6 opérant à 63° Est ou servant de satellite de réserve.

Le programme MSG (Meteosat Seconde Génération) prendra le relais de la série des satellites Météosat actuels en 2002 et assurera une continuité du programme de surveillance météorologique, avec les lancements de MSG-1 en 2002, de MSG2 en 2003-2004 et MSG3 en 2008-2009.

Parallèlement, EUMETSAT étudie le nouveau programme de satellites défilants sur orbite polaire EPS (European Polar Satellite). L'intérêt des satellites défilants, qui volent à une altitude inférieure, est de donner des mesures d'une précision meilleure que celle des satellites géostationnaires. Le programme EPS est conduit en coopération avec les Etats-Unis, afin d'optimiser le système. Les trois premiers satellites du programme EPS seront des satellites METOP.

En tout état de cause, l'utilisation des données satellitaires s'avère primordiale, non seulement pour la prévision météorologique mais aussi pour la recherche relative au climat, qui inclut nécessairement une dimension à long terme.

C'est pour tenir compte de cette nouvelle vision de l'exploitation des satellites que la Convention EUMETSAT va prochainement être modifiée afin d'inclure dans ses missions la surveillance météorologique à long terme.

La parole a ensuite été donnée à M. Jean-Louis FELLOUS pour un exposé sur les satellites météorologiques.

*

M. Jean-Louis FELLOUS , Délégué du CNES à l'étude et à l'observation de la Terre, a indiqué que le CNES est essentiellement une agence de recherche et développement qui développe de nouveaux outils et crée des systèmes en réponse aux besoins des différentes communautés d'utilisateurs ou de chercheurs.

Comment est déterminé le programme d'activité du CNES ?

S'agissant de la recherche sur l'atmosphère, le comité des programmes scientifiques du CNES s'appuie sur les recommandations d'un groupe ad-hoc intitulé Terre-Atmosphère-Océan-Biosphère qui le conseille sur les priorités, au terme de réunions annuelles et de séminaires de prospective dont le dernier s'est tenu en 1998 et le prochain devrait avoir lieu à la fin 2001 ou au début 2002.

Le CNES s'intéresse à la recherche sur l'atmosphère depuis l'origine puisque 95 % du signal reçu par tout satellite traduit l'état de l'atmosphère, un écran inévitable.

Au reste, parmi les premiers grands programmes du CNES, il y a eu la définition de satellites météorologiques géostationnaires, dont est issu le programme Meteosat, confié à l'ESA et ultérieurement transféré à EUMETSAT, qui couvre avec succès les besoins de l'Europe et de l'Afrique.

Par la suite, le CNES s'est efforcé de contribuer à l'amélioration des satellites météorologiques opérationnels. Actuellement, l'effort porte sur la mise au point de l'instrument complexe IASI proposé dès 1989 par le comité des programmes scientifiques, qui volera sur le satellite METOP, premier satellite européen polaire défilant, dont le lancement est prévu en 2005. Le développement du premier instrument IASI est financé par le CNES et EUMETSAT et la réalisation de deux modèles supplémentaires par ce dernier seul, pour un montant de 1,5 milliard de francs.

La réalisation de projets spatiaux en coopération internationale avec les Etats-Unis, le Japon et l'Inde constitue une autre voie de progrès pour la recherche atmosphérique. Au sein de l'ESA, où les programmes d'observation de la Terre sont facultatifs, le CNES s'engage généralement au delà de la répartition au prorata du PNB qui est de règle pour les programmes obligatoires, soit environ 16 % pour la France.

La parole a ensuite été donnée à Mme Laurence EYMARD pour une présentation des priorités de la recherche sur l'atmosphère dégagées par la communauté scientifique dans le domaine des satellites.

*

Mme Laurence EYMARD , Présidente du groupe ad-hoc Terre-Atmosphère-Océan-Biosphère du comité des programmes scientifiques du CNES, a précisé que ce groupe rassemble des chercheurs des différents organismes concernés par l'observation spatiale de la Terre. Les priorités qu'il a définies sont d'une part le développement des capteurs spatiaux, d'autre part la continuité des observations et enfin la participation à la mise au point de nouvelles missions de recherche.

S'agissant de l'observation de l'atmosphère et de la surface, un premier objectif est la détection et le suivi des constituants atmosphériques. Au delà des mesures de température et d'humidité, il convient de suivre en particulier l'évolution de l'ozone, des gaz naturels et des gaz anthropogéniques. Pour la haute atmosphère, le suivi du trou d'ozone et l'étude des échanges troposphère-stratosphère apparaissent d'une importance particulière.

L'étude des nuages représente un autre objectif, d'une part en raison de leur rôle dans le cycle de l'eau atmosphérique mais aussi du fait de leur rôle dans le bilan radiatif terrestre, deux rôles qui influent directement sur les prévisions météorologiques et climatiques.

Une autre priorité de recherche est la mesure du vent en air clair qui n'a pas encore été réalisée à partir des satellites.

L'hydrologie continentale est le dernier axe prioritaire en ce qu'elle concerne la biosphère et les contenus en eau superficielle.

La recherche sur les capteurs revêt dans ces conditions une importance particulière. La mise en évidence du profil atmosphérique suivant la température et les constituants requiert une combinaison de mesures dans la gamme de longueurs d'onde ultraviolet / visible / infrarouge et en micro-ondes. L'étude de l'humidité au sol dans le cadre du projet SMOS mettra en oeuvre des antennes interférométriques. Ce sont des lidars qui rendront possible la recherche sur les nuages élevés et le vent. Enfin, les travaux sur les nuages et les précipitations exigeront une combinaison de radars, de radiomètres micro-ondes et visible / infrarouge.

S'ils apportent une contribution essentielle à la météorologie opérationnelle, les satellites géostationnaires sont aussi des outils indispensables pour la recherche en ce qu'ils permettent d'améliorer la compréhension de l'atmosphère, et notamment de paramètres comme la couverture nuageuse, la température de surface ou l'humidité. Toutefois, les nouveaux outils que seront les satellites défilants apporteront d'autres informations précieuses, en établissant des profils de température et d'humidité et en ouvrant à l'observation les hautes latitudes.

Au vrai, la recherche exploite les mesures de plusieurs satellites combinés, dont les satellites géostationnaires et les satellites défilants qui sont complémentaires. En tout état de cause, il est indispensable d'opérer un suivi continu et étendu de la surface, du cycle de l'eau atmosphérique et des constituants sur toute l'épaisseur atmosphérique.

La communauté scientifique française s'implique intensément dans la préparation des multiples programmes prévus pour la période 2000-2005.

La France a joué un rôle considérable pour ENVISAT, dans les domaines de la chimie atmosphérique, de l'étude de la biosphère et de l'hydrologie, ainsi que dans la mise au point des procédures d'étalonnage et de validation. De même, son apport à IASI est déterminant pour la recherche des constituants gazeux. Pour le satellite ADEOS2, son rôle porte sur l'étude des aérosols avec l'instrument POLDER et sur la chimie atmosphérique. Pour ODIN, satellite opérationnel franco-suédois, la communauté française a travaillé sur la détermination de l'oxygène, de l'ozone et du chlore de la haute atmosphère. Sa contribution au programme franco-américain PICASSO-CENA a trait à l'étude des nuages élevés, pour le satellite AEOLUS à la mesure du vent en air clair grâce à un lidar spatial, pour le satellite SMOS à la mesure de l'humidité du sol et de la biosphère.

Les objectifs à long terme des satellites pour la recherche atmosphérique sont l'étude de nuages troposphériques, la chimie atmosphérique et le suivi du cycle du carbone.

Les autres systèmes d'observation que sont les réseaux au sol, les avions et les ballons, ont leur propre utilité mais servent également d'une part pour le test et la mise au point des capteurs utilisés dans les satellites et d'autre part pour la validation des mesures faites avec ces derniers.

L'utilisation des données recueillies par les satellites est en tout état de cause d'une importance primordiale pour l'assimilation et la validation des modèles atmosphériques, qu'ils soient à vocation météorologique ou climatique, ou bien qu'ils visent décrire la physique ou la chimie de l'atmosphère.

Au reste, l'exploitation des satellites génère de grandes masses de données, qui doivent être traitées et archivées. Ceci entraîne des besoins matériels considérables d'une part en puissances de calcul et en archivage et d'autre part en personnels qualifiés.

*

A la demande de M. René TRÉGOUËT, Sénateur, rapporteur, M. Jean-Louis FELLOUS a décrit les différentes structures de décision pour le lancement des satellites.

Dans le cadre de l'ESA (European Space Agency - Agence spatiale européenne), il existe, pour déterminer le programme de l'agence, un conseil de direction pour l'observation de la Terre, qui rassemble des représentants des 15 membres. Après confrontation des propositions soumises à ce conseil par l'exécutif de l'ESA avec les possibilités de financement offertes par les Etats, la conférence des ministres des pays membres de l'agence arrête le programme définitif.

Une évolution importante s'est produite en mai 1999 avec l'adoption demandée inlassablement par la France depuis 15 ans, d'un programme enveloppe d'observation de la Terre, suivant des modalités analogues à celles du programme scientifique obligatoire et dont le contenu précis est défini en cours d'exécution à partir des propositions de la communauté scientifique.

Auparavant, tous les programmes d'observation de la Terre de l'ESA étaient facultatifs. En pratique, chaque pays membre était désireux d'obtenir un retour industriel égal à sa participation à chaque projet, ce qui a pu conduire à l'élaboration de méga-satellites comme ENVISAT d'un coût de 2,5 milliards d'euros. Ce satellite utilise la plate-forme de grande taille COLUMBUS et emporte un grand nombre d'instruments, notamment pour l'étude des terres émergées et des océans, de la topographie de la surface des océans et la composition de l'atmosphère.

Avec le programme enveloppe, l'adhésion des pays est facultative au départ, mais leur participation, une fois décidée, devient ensuite obligatoire pour l'ensemble des projets individuels qui entrent dans l'enveloppe.

Dans l'adoption de ces projets comme GOCE, SMOS ou CRYOSAT, les avis du Comité scientifique consultatif d'observation de la Terre de l'ESA jouent un rôle essentiel. La communauté scientifique française, qui bénéficie de l'appui du CNES exerce une influence forte par ses propositions.

Les autres programmes font l'objet d'appels à propositions annuelles pour les petites et moyennes expériences. Pour la planification à long terme, les séminaires de prospective organisés sous la responsabilité du comité des programmes scientifiques du CNES, dont le dernier s'est tenu en mars 1998, permettent la discussion pendant trois à quatre jours des priorités à 4 ou 5 ans.

Deux filières prioritaires utiles à l'expérimentation de nouveaux instruments de recherche atmosphérique existent aujourd'hui au sein du CNES, celles des mini-satellites et celles de micro-satellites.

La filière des mini-satellites repose sur la plate-forme PROTEUS, de 400 à 500 kg, développée par Alcatel et qui sera utilisée par le satellite JASON dont le lancement est prévu pour mars 2001. Les projets engagés de mini-satellites sont le satellite d'astronomie COROT et le programme franco-américain PICASSO-CENA centré sur l'étude des nuages et des aérosols dont l'influence est essentielle sur le climat et qui mettra en _uvre un lidar. Le programme PICASSO-CENA qui est actuellement en cours de revue avec une confirmation attendue pour novembre, a subi un processus de décision complexe, puisqu'il lui a fallu être sélectionné aux Etats-Unis et en France. Le comité des programmes scientifiques du CNES l'a jugé prioritaire et le conseil d'administration a ensuite a autorisé l'engagement de cette mission pour un montant de l'ordre de 200 millions de francs, sous réserve de la confirmation à l'issue de la revue en cours.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur , sur la coopération mondiale, M. Jean-Louis FELLOUS a indiqué qu'il existe des mécanismes de coordination internationale pour les projets, notamment pour les satellites météorologiques sous l'égide de l'Organisation météorologique mondiale, et dans le cadre du CEOS (Comité mondial des satellites d'observation de la Terre), qui participe avec de nombreux organismes internationaux à l'élaboration d'une stratégie intégrée d'observation globale (IGOS).

M. Gilles COHEN-TANNOUDJI a par ailleurs demandé des précisions sur le rôle des plates-formes.

M. Jean-Louis FELLOUS a indiqué que celles-ci comportent essentiellement les servitudes nécessaires au fonctionnement du satellite - moteurs, réservoirs, panneaux solaires, batteries, calculateurs et dispositifs de télécommunications -, les instruments étant en général localisés sur les faces regardant la Terre.

*

A l'invitation de M. Gilles COHEN-TANNOUDJI , une discussion s'est ensuite engagée sur la répartition des travaux de construction des satellites entre les différents pays coopérants.

M. Jean-Louis FELLOUS a précisé que les satellites proprement dits sont construits dans l'industrie, essentiellement dans les installations des grands maîtres d'_uvre qui disposent de salles blanches, locaux spéciaux indispensables à leur construction. En revanche, en ce qui concerne les instruments, certains laboratoires européens possèdent la capacité de fabriquer des éléments à plus petite échelle.

M. René TRÉGOUËT, Sénateur, rapporteur , s'est interrogé sur l'existence de clauses de juste retour.

M. Jean-Louis FELLOUS a précisé que pour les projets facultatifs de l'ESA, la mise en commun des ressources a comme contrepartie des dépenses effectuées au plan national. Pour le programme enveloppe, la contrainte liée à la proportionnalité des retours aux contributions est moins drastique, car elle ne s'applique pas à chacun des éléments du programme. En tout état de cause, avec ce nouveau cadre, le programme d'observation de la Terre de l'ESA devient plus attractif et, grâce à ces nouvelles dispositions, il se déroulera dans le cadre d'une coopération internationale accrue. Il faut toutefois remarquer qu'une coopération internationale en dehors du cadre de l'ESA peut quelquefois aller plus vite, en raison de procédures administratives moins lourdes.

Au reste, la coopération européenne s'inscrit dans certains cas dans une coopération internationale plus vaste.

Ainsi le programme EPS de l'ESA verra les satellites polaires défilants METOP se partager les tâches avec les satellites TIROS de la NOAA. Une coordination est également recherchée avec les satellites russes similaires. Il existe par ailleurs une coordination internationale au sein du groupe CGMS pour les satellites météorologiques géostationnaires, qui a permis d'optimiser l'utilisation des satellites METEOSAT avec les satellites américains, mais aussi avec les pays qui, comme l'Inde, la Russie, la Chine et le Japon possèdent des engins similaires.

Une des questions fondamentales dans le domaine des satellites météorologiques est celle de leur pérennité. Dans le cadre de systèmes opérationnels, les agences d'exploitation bénéficient de financements pérennes.

Au contraire, pour les satellites de recherche, dont la durée de vie est de 3 à 5 ans, il n'existe pas de continuité a priori, ce qui pose la question fondamentale de la mise en place de mécanismes permettant de passer sans hiatus de l'expérimental à l'opérationnel. A cet égard, le problème des satellites de recherche atmosphérique équivaut à celui qui a été évoqué précédemment à propos de certains grands équipements satellitaires pour l'océanographie.

S'il existe des mécanismes de concertation pour les programmes scientifiques entre les organismes français, il est urgent de mettre en place des financements pérennes pour les grands équipements qui jouent un rôle essentiel dans l'étude de l'évolution globale du climat.

M. René TRÉGOUËT, Sénateur, rapporteur a posé la question des conditions d'accès de la communauté scientifique aux données satellitaires.

M. Jean-Louis FELLOUS a indiqué que la règle est la mise à disposition de tous après une brève période de validation des données. En général, trois ans avant le lancement, un groupe d'utilisateurs principaux est sélectionné, qui, seuls, recevront les premières données, pendant trois à cinq mois, pour les tester. Au-delà de cette période, la diffusion n'est pas limitée. Il faut mentionner, à cet égard, que les Etats-Unis installent souvent les données de leurs nouveaux satellites sur le Web, avant que leur validité soit démontrée, ce qui a pu, dans le passé, conduire à des conclusions scientifiques hâtives, pour ne pas dire erronées.

Mme Claudine LAURENT , membre du groupe de travail, a précisé que les concepteurs des capteurs sont souvent ceux qui valident les données. Mme Laurence EYMARD a indiqué que ces derniers, souvent dénommés les Principaux Investigateurs (PI), appartiennent généralement à différents pays européens.

*

M. Jean GALLOT , membre du groupe de travail, a estimé que l'absence de contributions propres de l'Union européenne ou des organisations internationales rend difficile un financement pérenne des satellites de recherche atmosphérique. Il s'est en outre interrogé sur l'autorité qui assure la coordination des efforts des organismes français et qui contribue à la coordination européenne.

M. Jean-Louis FELLOUS a précisé que le mandat de représentation de la France à EUMETSAT est confié à Météo-France.

M. Daniel CARIOLLE a indiqué que les décisions sur les coopérations européennes en matière de météorologie, sont préparés en réunions interministérielles. Météo-France est sous la tutelle du ministère des Transports mais ses crédits sont inscrits au BCRD. L'inscription des crédits au BCRD leur donne une certaine stabilité et correspond à l'imbrication étroite entre l'opérationnel et la recherche.

M. Gérard MÉGIE a estimé que les décisions en matière de recherche scientifique sur l'atmosphère en aval des missions satellitales sont essentiellement nationales.

Le programme spatial est arrêté par le CNES en étroite liaison avec la communauté scientifique. La mise au point des capteurs et l'utilisation des données entraînent la nécessité d'une articulation du CNES avec les grands organismes de recherche, au premier rang desquels il faut citer le CEA et le CNRS. Il reste toutefois des progrès à faire pour que ces derniers allouent aux différents projets des moyens suffisants, notamment en équipes de chercheurs.

Au niveau européen, il reste également des progrès à faire pour améliorer la coordination et l'implication européennes pour l'exploitation des données. On peut regretter à cet égard qu'il semble très difficile de mobiliser 30 à 50 millions de francs pour travailler sur la validation des données d'ENVISAT, alors que ce satellite représente un investissement de 2,5 milliards d'euros. A cet égard, l'Union européenne ne semble pas intéressée par le lancement pourtant indispensable d'un programme de validation des données.

M. Philippe LAREDO , membre du groupe de travail, s'est interrogé sur l'opportunité qu'il y aurait de voir l'Union européenne contribuer à des actions sur le recueil des données. En réalité, l'Union européenne intervient par l'intermédiaire de programmes dont la durée est, par essence, limitée dans le temps. Une tâche comme le recueil des données, qui doit s'effectuer sur une longue durée, doit être, au contraire, de la responsabilité des organismes de recherche.

M. Gérard MÉGIE a estimé qu'un programme comme ENVISAT, décidé à l'échelle européenne, fait preuve d'un manque de coordination pour la validation et l'exploitation des données. A l'heure actuelle, l'Agence spatiale européenne ne finance que les six premiers mois de la phase de validation. Plusieurs pays, notamment la France et l'Allemagne, ont marqué leur intérêt pour poursuivre cet effort. Mais, même si l'Union européenne ne peut fournir tout le financement nécessaire, il serait certainement opportun d'inclure cette problématique dans les priorités du Programme Cadre de Recherche et Développement européen, pour s'assurer que les 2 milliards d'euros dépensés par l'Europe pour ENVISAT sont correctement rentabilisés sur le plan scientifique.

M. Philippe LAREDO, relevant que l'espace est un domaine où l'Europe coordonne ses investissements, s'est demandé si ce modèle ne pourrait pas être transposé à d'autres secteurs de la recherche.

M. Jean GALLOT s'est interrogé sur la possibilité effective du ministère des affaires étrangères de s'engager dans des coopérations européennes ou internationales de grande ampleur, sans qu'un financement préalable existe au niveau budgétaire. En tout état de cause, selon l'article 42 de la Constitution, le Parlement devrait être appelé à voter, en dernier ressort, les engagements de dépenses correspondants.

*

Une discussion est ensuite intervenue sur le montant du budget consolidé de la recherche sur l'atmosphère.

M. Jérôme PAMELA a posé la question de la part du fonctionnement et de l'investissement dans le budget de 1,2 milliard de francs annoncé en début de réunion.

M. Gérard MÉGIE a souligné que l'investissement dans un satellite fluctue en fonction des années et du type de satellite programmé. En effet, un micro-satellite correspond à un montant de 50 à 60 millions de francs et la part française dans un projet bilatéral de mini-satellite peut s'élever à 200 millions de francs. Quant aux parts respectives de la recherche et de l'opérationnel, elles peuvent varier d'un satellite à l'autre. Au final, le montant de 1,2 milliard de francs correspond à un budget consolidé moyen, susceptible de varier de 15 % environ d'une année sur l'autre.

M. Jean-Louis FELLOUS a précisé les montants des différentes composantes de cette évaluation budgétaire. La contribution française au programme enveloppe d'observation de la Terre de l'ESA représente un montant annuel de 200 millions de francs par an. L'investissement dans un mini-satellite, soit au total 300 millions de francs, est réalisé environ tous les deux ans. Le budget d'investissement d'un micro-satellite s'élève à 50-60 millions de francs.

*

Une discussion est ensuite intervenue sur l'importance du traitement des données .

Comme l'a indiqué Mme Laurence EYMARD , on assiste depuis 20 ans à une croissance très rapide du nombre de satellites, croissance qui devrait encore s'accélérer dans les dix prochaines années. Des choix sont désormais indispensables pour rentabiliser les investissements, ceci passant l'augmentation des effectifs de chercheurs en charge de l'exploitation des données et de leur utilisation. En particulier, il apparaît de nouveaux métiers dans la recherche d'aujourd'hui, comme ceux de la gestion des données.

M. René TRÉGOUËT, Sénateur, rapporteur , a remarqué que cette exigence relative aux satellites se retrouve au CERN et qu'en conséquence, le rapport de l'Office insistera sur la nécessité d'accorder plus de moyens non seulement pour les investissements dans les réseaux à hauts débits mais aussi pour la gestion et le stockage des données.

M. Philippe LAREDO a souligné qu'il n'existe pas de perspectives de carrière intéressantes pour les spécialistes de l'archivage, de la conservation et de la mise à disposition des données. En réalité, il s'agit là d'un problème majeur pour l'ensemble des très grands équipements scientifiques.

M. Gérard MÉGIE a estimé que pour qu'un archivage de données soit utile, il faut que leur mise en forme corresponde aux besoins de la recherche. Il faut donc des personnels spécialisés mais au contact des chercheurs des disciplines concernés. Un archivage mal conçu et géré par des personnels éloignés de la recherche reviendrait à faire des investissements inutiles en " cimetières de données " .

*

A l'instigation de M. M. Christian CUVILLIEZ, Député, rapporteur, un débat s'est amorcé sur l'évolution des crédits du CNES .

M. Jean-Louis FELLOUS a indiqué que ceux-ci ne connaissent pas de baisse tendancielle.

M. René TRÉGOUËT, Sénateur, rapporteur, a toutefois noté une baisse de ces crédits de 300 millions de francs deux années de suite.

M. Jean-Louis FELLOUS a précisé que cette baisse n'affecte toutefois pas la ligne budgétaire consacrée aux programmes spatiaux en sciences de la Terre.

M. René TRÉGOUËT, Sénateur, rapporteur , a estimé que la participation française d'un milliard de francs dans la station spatiale internationale peut sembler trop élevée, eu égard à celle des autres pays.

Les efforts de la France dans le spatial pourraient être effectués prioritairement au profit de " l'espace utile " .

En réalité, au plan mondial, il est trop facile pour les Etats-Unis d'accorder une place à l'Union européenne dans les projets coûteux sans retombées immédiates et de ne pas la convier à participer à des projets à retours sur investissement rapides.

M. Christian CUVILLIEZ, Député, rapporteur , a confirmé que cette répartition des investissements dans le spatial fait partie inhérente des réflexions de l'Office.

La parole a ensuite été donnée à M. Jean JOUZEL, pour une présentation des acquis de la paléoclimatologie .

*

M. Jean JOUZEL , Directeur de recherche au Laboratoire des sciences du climat et de l'environnement LSCE-CNRS/CEA, a indiqué que l'étude de la variabilité du climat nécessite l'observation du passé. L'étude des climats du passé est en effet pertinente vis-à-vis de son évolution future. A cet égard, les recherches portent à la fois sur les océans, sur les glaces polaires et sur les continents.

Ainsi que cela a été rapporté lors de l'audition sur l'océanographie par M. Laurent LABEYRIE, des modifications dans la circulation océanique ont pu entraîner dans le passé des variations considérables de température, allant jusqu'à 10 à 15 ° C sur une année, au Groenland ou dans l'Atlantique Nord.

L'étude de la variation de la composition des glaces fait actuellement l'objet de deux grands projets. Le premier est celui d'un forage réalisé par un groupe de pays européens dans les glaces de l'Antarctique, à une profondeur de 3 km, afin d'étudier les variations dans le passé de l'ozone et de la météorologie de l'Antarctique. Le deuxième grand projet est la station permanente franco-italienne DOME CONCORDIA dans l'Antarctique, qui sera totalement opérationnelle en 2003. Chacun de ces deux projets représente une dépense de 170 à 180 millions de francs, correspondant essentiellement à des coûts de logistique.

Au plan scientifique, l'étude de la variabilité du climat dans le passé présente une continuité avec celle du climat actuel et avec les travaux de prédiction du changement climatique. Par ailleurs, il s'agit non seulement de mettre en évidence les variations rapides mais également les variations à long terme du climat en réaction à l'effet de serre et aux autres forçages climatiques. La modélisation est un outil essentiel de la valorisation des mesures.

La paléoclimatologie répond à la nécessite de disposer de séries de données remontant bien avant les cent dernières années pour lesquelles on dispose au demeurant de mesures directes.

Au reste, l'un des résultats essentiels du prochain rapport du GIEC-IPCC, à paraître début 2001, est que les dix dernières années du XX e sont bien les plus chaudes du dernier millénaire.

Une fois les données acquises, l'étape suivante est la plus difficile.

Il s'agit en effet d'attribuer quelles sont les parts respectives des variations naturelles du climat et des variations anthropogéniques. En tout état de cause, la prédictibilité du climat repose sur des structures permanentes, océaniques et atmosphériques qu'il est capital de mettre en évidence, et, à cet égard, l'étude du climat du passé est fondamentale.

La parole a ensuite été donnée à M. Hervé LE TREUT, pour un exposé général sur la modélisation de l'atmosphère .

*

M. Hervé LE TREUT , Directeur de recherche au Laboratoire de Météorologie dynamique, a indiqué que la modélisation numérique du climat et du changement climatique a pour objectifs, d'une part la prévision à échéance de quelques mois, un enjeu économique direct pour différents secteurs d'activité comme par exemple l'agriculture, et d'autre part, l'étude du risque climatique associé à un changement global qui pourrait résulter de l'effet de serre, de l'augmentation de concentration des aérosols, de la déforestation et de l'érosion des sols. Il s'agit dans ce dernier cas de détecter les changements éventuels et de déterminer leur échéance et leurs amplitudes.

Les difficultés scientifiques à lever pour réaliser des modèles climatiques sont nombreuses. La première provient de la complexité des systèmes naturels. A cet égard, il convient désormais de décrire les phénomènes de chimie de l'atmosphère et l'implication des phénomènes biochimiques de la biosphère. Un autre défi de la modélisation est d'augmenter la résolution des modèles et de passer d'une échelle globale à une échelle régionale. Par ailleurs, les simulations peuvent obliger à un couplage complexe de différents modèles. Enfin, les indéterminations statistiques peuvent limiter les intervalles de confiance des résultats.

En tout état de cause, il existe des incertitudes sur les mécanismes fondamentaux retracés par les modèles, incertitudes fondamentales auxquelles s'ajoutent des incertitudes techniques.

C'est pourquoi il convient de pouvoir déceler les manipulations intellectuelles auxquelles l'interprétation de leurs résultats peut donner lieu, en particulier dans les négociations internationales.

En conséquence, la présence de scientifiques dans les délégations est indispensable pour proposer des simulations et décrypter les différences de résultats.

La réalisation d'un modèle climatique relatif à l'océan ou à l'atmosphère compétitif au plan mondial est en tout état de cause une opération lourde que l'on peut chiffrer à 100 hommes x ans. Mais derrière tout modèle, il faut une crédibilité scientifique forte et des expériences nationales lourdes. C'est à ce prix que l'on peut espérer peser dans les groupes scientifiques mondiaux tels que le GIEC ou dans les négociations internationales. A cet égard, il faut garder des rapports étroits entre la recherche scientifique et les systèmes opérationnels.

Une des conditions à remplir pour l'avenir de la modélisation est de pouvoir disposer de personnels spécialisés, non seulement dans la conception des modèles mais aussi dans leur exploitation et leur maintenance.

Par ailleurs, il faut également prendre en compte une accélération des besoins en puissances de calcul pour les travaux de modélisation.

Les calculateurs actuellement disponibles en France ont des vitesses de calcul de l'ordre du Gigaflops, soit un milliard d'opérations par seconde. Le projet japonais vise les 40 Teraflops, soit quarante mille milliards d'opérations par seconde, à échéance de 2 à 3 ans. Les Etats-Unis mettent actuellement en place un projet de calcul massivement parallèle atteignant aussi les teraflops, à échéance de 3 à 4 ans.

Il s'agit en effet de rendre compte dans les modèles atmosphériques des mouvements de convection dans l'atmosphère, ce qui représente une nouvelle donne dans la modélisation climatique et une condition pour être crédible dans les négociations internationales.

La France, l'Allemagne et le Royaume Uni qui n'ont pas encore lancé de projets pour des calculateurs de ce type, pourraient se trouver hors du jeu, à la fois au plan scientifique et au plan des négociations, si la situation n'était pas corrigée rapidement.

*

La discussion est alors revenue la question des puissances de calcul .

M. Daniel CARIOLLE a indiqué que l'Institut Max Planck travaille sur un projet de ce type. L'Union européenne dispose d'une communauté forte dans le domaine des algorithmes. Mais en tout état de cause, l'Europe a un grand handicap, c'est de ne plus disposer d'un constructeur d'ordinateurs de puissance. L'obligation d'acheter aux Etats-Unis et au Japon un calculateur géant ne facilite pas, bien au contraire, la bonne fin d'un projet scientifique.

M. René TRÉGOUËT, Sénateur, rapporteur, a posé la question des conséquences d'une absence de crédibilité scientifique dans les négociations sur le climat.

M. Hervé LE TREUT a souligné que les modèles actuels décrivent la circulation atmosphérique à des échelles supérieures à 100 km. La prise en compte des mouvements de convection, essentielle à l'avenir, nécessitera une résolution de 10 km sur 10 km. Seuls de nouveaux calculateurs permettront de résoudre de tels modèles. La puissance des calculateurs créera en définitive deux catégories de modèles et donc entraînera l'apparition de deux catégories d'expertise.

Mme Sylvie JOUSSAUME , membre du groupe de travail, a remarqué que l'investissement de la recherche américaine ou japonaise en calculateurs de puissance recouvre les intérêts de l'industrie informatique de ces pays, ce qui constitue un avantage certain par rapport aux pays européens.

De surcroît, la France connaît une dispersion de ses investissements informatiques dans trois centres informatiques, l'IDRIS, le CINES et le centre de calcul du CEA à Grenoble. Faut-il rassembler les moyens nationaux dans un grand centre pluridisciplinaire ou faut-il au contraire des centres spécialisés par discipline ? Dans ce dernier cas, il serait envisageable de créer des centres de calcul disciplinaires européens.

En tout état de cause, il est indispensable que la communauté scientifique pilote un tel choix. Il existe un comité consultatif interorganisme des sciences de la planète et de l'environnement. Des comités similaires existent dans d'autres sciences.

*

Un débat est alors intervenu sur l'importance du niveau de la recherche dans les négociations internationales.

M. Gérard MÉGIE, à cet égard, a cité l'exemple de la négociation en cours pour la définition des mécanismes du Protocole de Kyoto.

Des résultats scientifiques récents mais contestés réévaluent à la hausse l'importance des puits de carbone présents sur le sol américain, dont l'action compenserait et même au delà les émissions de CO2 du pays. Ces résultats ont bien entendu été mis en avant par les Etats-Unis.

Il est donc vital de pouvoir réfuter, le cas échéant, de tels arguments avec des outils crédibles comme des modèles de dernière génération, sauf à affaiblir gravement la position européenne.

Pour M. Philippe LAREDO , l'horizon des interventions de l'Union européenne dans les projets est de 10 ans. La machinerie européenne ne sait pas aller plus vite. De même, la coordination des disciplines est un processus toujours très long. En conséquence, dans tout projet d'une envergure et d'une importance capitales, il faut une discipline moteur pour aller vite.

M. Hervé LE TREUT a précisé que le Japon souhaite développer ses liens avec la communauté scientifique des modèles climatiques et pourrait ouvrir ses calculateurs de puissance à des utilisateurs extérieurs. Par ailleurs, l'Union européenne a formé le projet de mettre en commun les différents modèles européens.

M. Gilles COHEN-TANNOUDJI a espéré qu'il puisse y avoir un rééquilibrage de la faiblesse européenne dans le " hardware " , à savoir les calculateurs, grâce à ses atouts dans le " software " , à savoir les compétences scientifiques dans les disciplines de base et la modélisation.

M. Gérard MÉGIE a souligné l'importance économique et politique d'une négociation comme celle de La Haye.

M. Philippe LAREDO a alors jugé que les décisions pour l'exploration de la planète Mars d'un coût de quelques milliards de francs sont hors de proportion avec les investissements indispensables pour la météorologie, de l'ordre de 200 millions de francs.

Il convient donc de mettre fin à un tel déséquilibre.

Mme Claudine LAURENT a estimé qu'il s'agit non seulement de problèmes d'investissement en matériels divers mais également de problèmes d'effectifs de chercheurs.

M. Christian CUVILLIEZ, Député, rapporteur, a souligné à cette occasion le caractère stratégique des très grands équipements.

M. Daniel CARIOLLE a souligné que les efforts des pouvoirs publics doivent porter non seulement sur les calculateurs mais aussi sur les réseaux à haut débit. En cas de coopération avec d'autres pays pour l'accès à des calculateurs de puissance, il est nécessaire de faire transiter rapidement des volumes considérables de données.

Au reste, dans les négociations internationales, ce sont les pays qui apportent le plus au niveau scientifique qui emportent les décisions. Or, si la France a du mal à constituer de grosses équipes dans le domaine de la recherche sur l'atmosphère, c'est parce qu'il n'y a pas de création d'emplois dans la recherche. Certes on pourrait encourager le passage de chercheurs actuellement en poste d'une discipline à une autre, mais une telle opération prend du temps, ses résultats n'étant d'ailleurs pas garantis.

En définitive, il faut souligner que si le ministère de la recherche peut effectivement décider d'encourager un projet de recherche sur l'atmosphère en lui accordant une subvention d'investissement, toute embauche de personnel est absolument interdite, alors que les besoins sont très importants pour assurer une présence au niveau souhaitable et peser sur les négociations internationales en cours.

La parole a ensuite été donnée à M. Daniel GUEDALIA, pour une présentation du rôle des réseaux d'observation dans la recherche météorologique.

*

M. Daniel GUEDALIA , Directeur de recherche au Laboratoire d'aérologie et Président de la Commission spécialisée océan-atmosphère, a exposé que les réseaux d'observation ont pour objet la réalisation d'observations systématiques de la composition de l'atmosphère, sur des périodes de plus de dix ans, un domaine qui n'est pas couvert par les services opérationnels. Ces réseaux font le plus souvent partie de réseaux internationaux et débouchent sur la création de bases de données permettant l'évaluation des tendances climatiques à long terme, l'identification de la contribution anthropique et l'étude et la compréhension des processus.

La France participe à quatre réseaux internationaux de surveillance de l'atmosphère et reçoit à ce titre la responsabilité des mesures dans plusieurs stations réparties en métropole et dans les DOM-TOM. Le premier est le réseau NDSC de surveillance de la stratosphère, tant ce qui concerne le climat que la concentration de l'ozone et d'autres paramètres. Le deuxième est le réseau RAMCES de surveillance des concentrations des gaz à effet de serre. Le troisième est le réseau AERONET de surveillance des teneurs en aérosols, dont on sait qu'ils jouent sur le bilan radiatif de la Terre.

La France appartient également au réseau international IDAF attaché à la détermination de la composition chimique des précipitations tombant au sol au voisinage de la ceinture tropicale, qui comprend des écosystèmes très évolutifs. Grâce à la modélisation, les informations recueillies permettent de reconstituer les mécanismes à l'oeuvre dans la stratosphère, la convection étant très forte dans les régions tropicales.

La France participe également à l'initiative franco-allemande MOZAIC qui s'attache à mesurer la concentration en ozone troposphérique grâce à des capteurs installés sur 5 Airbus A-340 appartenant à quatre compagnies aériennes différentes. Ainsi sont collectées des informations le long des routes aériennes et autour des aéroports desservis par cette flotte aérienne.

La pérennisation des mesures faites par ces réseaux est une question essentielle. Le coût de fonctionnement pour la France de ces réseaux s'élève à 25 millions de francs par an. L'investissement peut être chiffré à un montant de 100 millions de francs, réalisé sur une période de 5 à 10 ans. Il est à noter que ces réseaux bénéficient d'un personnel scientifique dédié, le corps du CNAP, qui pourrait être réactivé afin d'affecter des physiciens dans les services responsables des observations.

Au reste, la coopération scientifique pour la mise en oeuvre de ces réseaux est la norme, au plan international, comme au plan national, l'INSU jouant un rôle déterminant à cet égard.

La parole a ensuite été donnée à M. Frank ROUX pour une présentation du rôle de l'INSU dans la recherche sur l'atmosphère.

*

M. Frank ROUX , chargé de mission à l'INSU pour la physique de l'océan et de l'atmosphère , a indiqué que l'INSU (Institut national des sciences de l'univers) est l'agence de moyens et de programmation de la recherche en sciences de l'univers menée au sein non seulement du CNRS, mais aussi des universités, des grands établissements et des observatoires des sciences de l'univers.

L'INSU assure la mise en place et le suivi de la plupart des programmes nationaux de recherche en sciences de l'univers, au moyen d'appels d'offres ciblés et d'une programmation pluriannuelle. Au demeurant, l'INSU gère les grands instruments de recherche, comme la flotte côtière nationale, les avions de recherche, les télescopes et les réseaux d'observation. L'INSU comporte trois divisions, astronomie-astrophysique, terre solide et océan-atmosphère. La division océan-atmosphère correspond à un budget de 55 millions de francs hors salaires et comprend 850 chercheurs, 800 personnels ITA répartis dans 35 laboratoires, groupes et équipes de recherche.

Les programmes scientifiques pluri-organismes de l'INSU, relatifs à la recherche sur l'atmosphère portent sur les thèmes suivants : atmosphère et océan à multi-échelles, chimie atmosphérique, dynamique du climat, télédétection spatiale, processus biogéochimiques dans l'océan et flux, hydrologie.

Parmi les équipements lourds utilisés par l'INSU, il faut citer les avions partagés avec le CNES et Météo-France, dont le rôle est essentiel pour simuler les observations spatiales.

Mme Danièle HAUSER , Présidente du comité scientifique du programme national de recherche sur l'atmosphère et l'océan, a ensuite détaillé un exemple de programme national de l'INSU, à savoir le programme " atmosphère et océanographie multi-échelles " .

Les objectifs directs du programme sont la météorologie des moyennes latitudes, la météorologie en zone tropicale, l'étude des interactions des nuages et des aérosols avec le rayonnement pour l'établissement du bilan radiatif, les processus et les mesures atmosphériques pour l'hydrologie et la météorologie urbaine. Dans le cadre de ce programme, un appel d'offres est effectué chaque année, les projets soumis étant examinés par un comité scientifique.

Les points communs aux expériences du programme sont de faire appel à toute la gamme des moyens de mesure, à des modèles numériques et à une coopération interorganisme et internationale.

Une discussion est alors intervenue sur la flotte aérienne.

*

M. Daniel CARIOLLE a souligné les difficultés rencontrées pour le renouvellement des avions de la météorologie .

Les avions de recherche météorologique ont une durée de vie d'environ 15 années. Il se produit donc un pic dans les besoins de financement, mais ce pic reste inférieur aux montants habituels des TGE et il est difficile pour les organismes de recherche de les financer par eux-mêmes.

Or les deux principaux avions actuellement en fonctionnement, pour environ 500 heures de vol par an, vont bientôt s'arrêter en raison de leur vétusté, de leur inadaptation à la nouvelle réglementation technique et de l'obsolescence de leurs équipements scientifiques. Face à cette situation, il n'existe pas de financement récurrent.

Le dossier de remplacement a lancé en 1997. Le premier nouvel avion devrait être de type ATR-42 ou équivalent, spécialisé dans l'étude de la troposphère à moins de 6000 mètres. Le financement de cet avion sera abondé par Météo-France principalement sur ses ressources propres, le coût total de la plate-forme, au demeurant d'occasion, et du chantier intérieur, atteignant 100 millions de francs. Seuls 20 millions de francs ont été inscrits au BCRD pour cette opération.

L'achat du second avion, un Mystère 20 rénové appartenant à l'IGN, nécessite un financement additionnel de 50 millions de francs, qui n'est pas encore trouvé.

M. Gérard MÉGIE a indiqué que du fait de la non-appartenance de la flotte aérienne à la catégorie des TGE, le montant manquant de 50 millions devrait être trouvé par des redéploiements internes de crédits des organismes. A priori, le CNRS devrait apporter 35 millions et le CNES 10 millions.

M. Gilles BERGAMETTI , Directeur de recherche au Laboratoire interuniversitaire des systèmes atmosphériques, a indiqué que la France est impliquée dans des campagnes de mesure internationales, qui supposent l'apport non seulement de compétences scientifiques mais aussi de moyens de mesure mis dans le " pot commun " .

Après les atermoiements des dernières années sur la flotte océanographique auxquels il a été heureusement mis fin, de nouvelles difficultés se produisent sur les équipements absolument indispensables que sont les avions.

Cette situation entrave le rôle de la France dans les programmes internationaux. Au demeurant, le retard de la France vis-à-vis des Etats-Unis pour la flotte aérienne excède de loin les écarts de PNB.

M. Daniel GUEDALIA a estimé que le statut d'un pays dans le domaine de la recherche sur l'atmosphère est fonction de sa flotte aéroportée. A titre de comparaison, le Brésil possède deux avions de recherche, la plupart des pays européens en ont plus de deux.

Pour compter dans la recherche mondiale sur l'atmosphère, il faut non seulement des compétences scientifiques mais aussi des moyens logistiques.

M. Gérard MÉGIE a souligné qu'en l'absence de moyens propres, il est difficile pour la France de proposer d'intensifier les recherches conduites en coopération. S'il existe une démarche européenne commune pour la définition des capteurs, en revanche en l'absence d'un pays moteur, il n'existe pas de stratégie générale et commune de développement de la flotte aérienne.

A cet égard, Mme Claudine LAURENT s'est interrogée s'il ne serait pas possible d'associer d'autres disciplines à l'exploitation de la flotte aérienne, afin de faciliter son renouvellement.

M. Daniel CARIOLLE a indiqué que l'IGN dispose pour sa part de ses propres avions pour l'observation et la photographie. Par ailleurs, la flotte aérienne météorologique a pu être utilisée lors du naufrage de l'Erika, pour la mesure de l'étendue des nappes de fioul et l'étude de leur mouvement. Les avions sont également utilisés pour des missions de consultance relative à des sites industriels ou d'aérologie locale. Mais ces missions additionnelles restent, dans les faits, marginales par rapport à celles relatives aux programmes de recherche.

M. Frank ROUX a indiqué que l'envoi des avions sur les zones révélées comme importantes par les travaux de modélisation pourrait se faire à l'avenir, alors que ce n'est pas possible actuellement.

M. Daniel CARIOLLE a regretté qu'il n'existe pas de programme européen d'avions gros-porteurs pour la météorologie, à l'instar de celui dont les Etats-Unis se sont dotés pour l'étude des cyclones.

M. Jean-Louis FELLOUS a fait état de l'intérêt du CNES pour la flotte aérienne, dans la mesure où celle-ci est d'un apport capital pour le test des capteurs, la validation des données et plus généralement le soutien aux campagnes de mesures satellitaires.

Mme Sylvie JOUSSAUME a attiré l'attention des Rapporteurs sur la nécessité de pérenniser les moyens humains de la recherche sur l'atmosphère.

La France est impliquée dans le réseau international RAMCES de surveillance des gaz à effet de serre. Pour ce faire, elle utilise son réseau permanent d'observation qui constitue un atout pour le moment, par rapport à la situation existant dans d'autres pays, où le régime est celui de contrats. Toutefois, faute d'une gestion prévisionnelle efficace des personnels assurant la bonne marche de ces réseaux, cet atout risquerait de disparaître rapidement.

Concernant les réseaux d'observation, M. Gérard MÉGIE a rappelé que le réseau européen de surveillance des gaz à effet de serre a fonctionné pendant 5 ans sur crédits du PCRD, une situation insatisfaisante du fait de sa précarité.

L'idéal serait bien évidemment qu'une nouvelle approche stratégique se mette en place, incluant notamment des infrastructures, et mettant fin aux effets pervers de la situation actuelle où l'insuffisance de moyens de fonctionnement menace la pérennité de l'investissement.

Il reste que pour certains chercheurs, les travaux correspondants n'appartiennent pas à la catégorie de la " belle recherche " et rencontrent des difficultés pour susciter des vocations.

En tout état de cause, les investissements nationaux, les partenariats et la coordination européenne, tous moyens indispensables, supposent des moyens humains suffisants.

On ne peut que regretter à cet égard, que la météorologie ne dispose pas de personnels pouvant prendre en charge des problèmes scientifiques et la gestion des données, comme cela existe pour les réseaux de surveillance sismique et volcanologique.

M. Daniel GUEDALIA a souligné l'intérêt de la notion de TGE en ce qu'elle garantit des financements pluriannuels. Or la France est en pointe dans la recherche sur l'atmosphère et le changement climatique. Quelles que soient les coopérations internationales souhaitables, il convient de dégager des financements nationaux.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que les financements doivent s'inscrire dans la durée et que la meilleure façon d'y parvenir est d'utiliser la loi.

Cette problématique est au coeur de la réflexion de l'Office.

M. Gilles BERGAMETTI a prédit la disparition des services d'observation dans les deux ans si aucune action n'est entreprise d'ici là. Or la France a des obligations contractuelles par exemple pour la surveillance du CO2. Par ailleurs, la France a une avance réelle dans les réseaux d'observation qui pourrait bénéficier aux autres pays. L'intérêt scientifique, les contraintes internationales et le rayonnement de sa recherche commandent que la France donne à ses réseaux de surveillance les moyens de survivre et, au delà, de se développer.

M. Pierre POINTU a remarqué que, dans tous les domaines et en particulier dans celui de la science, les décideurs sont plus sensibles à la novation qu'à la capitalisation des connaissances et à leur valorisation.

M. Daniel CARIOLLE a estimé qu'il existe un réel problème de visibilité des réseaux pour la décision. La loi sur la qualité de l'air, prise en application de la directive européenne, a prévu des financements pluriannuels pour les dispositifs de surveillance. On pourrait souhaiter une démarche équivalente pour la surveillance climatique.

M. Pierre POINTU a noté l'intérêt paradoxal des contraintes officielles pour avancer dans le domaine de la science.

M. Christian CUVILLIEZ, Député, rapporteur, a remarqué qu'il s'agit alors de recherches finalisées, pilotées par des obligations de résultats, qui sortent alors du domaine de la recherche fondamentale.

Pour M. Daniel GUEDALIA , on ne peut dire que la météorologie, même dans le cas de la surveillance, ne justifie pas de recherches fondamentales. En l'occurrence, il s'agit d'un type particulier de recherche fondamentale, à savoir une recherche fondamentale à applications immédiates.

Mme Sylvie JOUSSAUME a estimé que la météorologie est une discipline où la pression de la demande de résultats est supérieure à celle à laquelle sont soumises les autres disciplines. Il importe toutefois de ne pas perdre de vue l'impératif d'y conduire une recherche fondamentale.

*

Pour clore la réunion, M. Christian CUVILLIEZ, Député, rapporteur, a remercié les invités et les membres du groupe de travail pour leur participation et a remarqué que les contacts avec les différentes disciplines révèlent tous des appels à moyens énormes, une situation analogue à celle qui obligerait à faire " entrer la Mer rouge dans un trou de sable " , lui-même en constant rétrécissement.

Pour répondre simultanément à toutes les demandes, sans doute faut-il une coopération accrue et des financements autres que le financement budgétaire.

Au reste quel pourrait être le schéma d'investissements pluriannuels ?

Il appartiendra au Rapport de l'Office de présenter différentes hypothèses.

12. Astronomie, astrophysique et planétologie - mercredi 8 novembre 2000

CEA

• M. Joël FELTESSE, Chef du DAPNIA (Département d'Astrophysique, de Physique des particules, de Physique Nucléaire et de l'Instrumentation Associée), Direction des sciences de la matière

• M. Laurent VIGROUX, Chef du SAp (Service d'Astrophysique), Direction des sciences de la matière

• M. Pierre TRÉFOURET, Conseiller au cabinet de l'administrateur général

CNES

• M. José ACHACHE, Directeur général adjoint scientifique du CNES

• M. Richard BONNEVILLE, Délégué à l'exploration et à l'étude de l'Univers

• M. Arnaud BENEDETTI, Chargé des relations avec le Parlement

CNRS

• M. Michel BLANC, Directeur du Laboratoire d'astrophysique de l'Observatoire Midi-Pyrénées

• Mme Geneviève DEBOUZY, Directrice scientifique adjointe de l'INSU-CNRS

• M. Bernard FORT, Directeur de l'Institut d'astrophysique de Paris

• M. Jacques HAISSINSKI, Professeur à l'université Paris-Sud et chercheur au LAL, Orsay

• M. Jean-Marie HAMEURY, Directeur de l'Observatoire de Strasbourg

• M. Olivier LE FEVRE, Directeur de recherche, Laboratoire d'Astrophysique de Marseille (LAM), Représentant de la France au Conseil de l'ESO

• M. Jean-Loup PUGET, Directeur de l'Institut d'astrophysique spatiale d'Orsay

• M. Christophe SOTIN, Professeur de géophysique à l'université de Nantes

• Mme Dominique VIOLLET, Chargée des relations avec les élus

ESA

• M. R-M. BONNET, Directeur du programme scientifique

M. Christian CUVILLIEZ, Député, rapporteur, après avoir remercié les participants de bien vouloir présenter leur point de vue sur la problématique des TGE en astronomie, astrophysique et planétologie, a exposé que l'étude du rôle des très grands équipements scientifiques et technologiques conduit directement à une réflexion sur la nomenclature des TGE et son éventuelle réforme, sur l'évaluation des grands investissements de recherche et leur hiérarchisation.

En tout état de cause, un vote positif sur les crédits de la recherche pour 2001 a pu être émis car le budget marque une inflexion satisfaisante en faveur de la recherche. L'augmentation des crédits reste toutefois ciblée sur les sciences du vivant et les sciences et technologies de l'information et de la communication, tandis que les autres domaines n'enregistrent qu'une stabilité de leurs financements.

Les efforts devront donc être amplifiés l'année prochaine.

M. Christian CUVILLIEZ, Député, rapporteur , a ensuite donné la parole à M. Jean-Marie HAMEURY pour une présentation générale des TGE de l'astronomie, de l'astrophysique et de la planétologie.

*

M. Jean-Marie HAMEURY , Directeur de l'Observatoire de Strasbourg, a indiqué que l'astrophysique est utilisatrice de moyens spécifiques mais aussi de moyens de calcul lourds communs à l'ensemble des disciplines scientifiques pour effectuer des simulations numériques dont l'utilisation croît rapidement.

Au reste, un TGE en astronomie, astrophysique ou planétologie correspond à un investissement supérieur à 100 millions de francs, toujours réalisé en coopération internationale, au plan européen sinon mondial.

Dans le budget annuel consolidé de l'astronomie au sens large, qui s'est élevé à environ 1,5 milliard de francs en 1998, la part des TGE représente 770 millions de francs, soit un peu plus de la moitié.

Les TGE spatiaux comptent pour 570 millions de francs par an, dont 400 millions de francs de contribution à l'ESA (European Space Agency - Agence spatiale européenne), et les TGE au sol pour 200 millions de francs par an, dont 130 millions de francs de contribution à l'ESO (European Southern Observatory).

La dépense des autres pays européens pour leurs TGE de l'astronomie est du même ordre de grandeur, ce qui peut s'expliquer par le fait que les contributions aux organismes internationaux sont le plus souvent proportionnelles au PIB des pays impliqués. Les Etats-Unis accordent toutefois une place relative plus importante que l'Europe à leurs TGE de l'astronomie.

Au vrai, les TGE constituent un élément clé de la visibilité internationale de l'astronomie française.

70 à 75 % des publications scientifiques les plus citées de la discipline sont issues de travaux conduits dans leur cadre. En tout état de cause, les concepts de TGE de l'astronomie résultent bien entendu des travaux de la discipline mais ces instruments contribuent en retour à structurer cette dernière. On vérifie le rôle de structuration de la recherche en astronomie dans tous les pays, et en particulier avec les demandes actuelles de la Grèce, du Portugal et du Royaume Uni d'intégrer l'ESO, ainsi qu'avec la réalisation de l'instrumentation focale dans les instituts nationaux, en partenariat industriel.

La procédure de définition et de décision d'un TGE est du type " bottom up " .

Une initiative individuelle ou d'un groupe de chercheurs est relayée par un laboratoire ou un groupement de recherche et soumise à l'appréciation d'un des séminaires de prospective qui rassemblent toute la communauté scientifique tous les 4 ou 5 ans. Le dernier en date de ces séminaires qui a eu lieu à Arcachon, a permis de réaliser un couplage satisfaisant entre la prospective de l'astronomie au sol et celle de l'astronomie spatiale. Une fois validé par la communauté scientifique, le projet est transmis aux agences, comme l'ESO ou l'ESA, et aux tutelles, qui, à leur tour, évaluent le projet à l'aide d'experts internationaux.

L'internationalisation des grands instruments de l'astronomie permet à la France avec une contribution limitée, environ 18 % environ du budget de l'ESA notamment, d'accéder à un ensemble de moyens d'observation qui couvrent toutes les longueurs d'onde, une nécessité absolue pour obtenir une information globale sur les objets observés.

Ainsi, une radiogalaxie comme Centaurus A apparaît comme un ensemble d'étoiles et de poussières en lumière visible. L'observation en infra rouge pénètre les grands nuages de poussière et met en évidence la structure géométrique de la galaxie. La radiométrie X et gamma révèle la présence d'objets cataclysmiques aux conditions physiques extrêmes, comme les trous noirs dont les effets ne sont pas observables aux autres longueurs d'onde.

Au reste, l'internationalisation présente un autre avantage, celui de soumettre les projets de TGE à une évaluation critique élargie, ce qui garantit la compétitivité des projets qui sont sélectionnés au terme de processus rigoureux.

La parole a ensuite été donnée à M. Jean-Loup PUGET, pour une description des questions scientifiques qui requièrent l'utilisation de très grands équipements.

*

M. Jean-Loup PUGET , Directeur de l'Institut d'astrophysique spatiale d'Orsay , a replacé les questions scientifiques majeures de l'astronomie dans la problématique générale de l'évolution de la matière vers la complexité, une vision au demeurant anthropique de l'histoire de l'univers.

Selon le modèle actuel de formation de l'univers, après le Big Bang, une inflation de l'univers est intervenue avec une phase de nucléosynthèse, puis de recombinaison des noyaux et de réionisation. Ensuite se sont produites successivement la formation de galaxies, de systèmes planétaires et enfin l'apparition de matériaux biologiques puis d'une vie intelligente.

Les questions clés de l'astronomie peuvent être situées le long de ce trajet évolutif, comme l'a montré le colloque de prospective d'Arcachon.

Le point de départ est constitué par l'étude du corps noir cosmologique et la formation des grandes structures. Les autres sujets essentiels sont l'étude de la formation et de l'évolution des galaxies, des étoiles, des systèmes planétaires et enfin la compréhension de l'environnement spatial et la prévision.

S'agissant des moyens d'observation indispensables à l'astronomie, il faut disposer d'une panoplie d'instruments recouvrant la plus large gamme possible de longueurs d'ondes.

A cet égard, l'une des étapes de la formation de l'univers pour laquelle on ne dispose que d'un nombre d'observations réduit est celle de l'univers primordial.

L'expérience FIRST/PLANCK, dont le lancement est prévu pour 2007, sera consacrée à l'étude des anisotropies du fond cosmologique, grâce à des observations en infrarouge lointain et en ondes submillimétriques. Il s'agira là d'un TGE européen, leader mondial dans un domaine où la NASA a longtemps occupé la première place. Le satellite correspondant possèdera des dimensions importantes, soit un diamètre de 4 m et une hauteur de 6 m.

Par ailleurs, l'étude détaillée de la formation et de la distribution des grandes structures de l'Univers sera réalisée depuis le sol par le VLT (Very Large Telescope) dont le quatrième télescope est entré en service en septembre 2000, en particulier avec l'instrument VIMOS construit par la France.

Ces études compléteront les premières cartographies de la matière noire entreprises par les équipes françaises à partir de la distorsion gravitationnelle des images des galaxies du fond de l'Univers. Pour ces programmes, la simulation numérique joue déjà un rôle crucial qui s'étendra à d'autres chapitres de l'astronomie - création d'univers primordiaux virtuels, vie et mort des étoiles, formations des systèmes planétaires -.

La formation et l'évolution des galaxies constituent un deuxième grand champ d'étude pour l'astronomie. Il s'agit d'observer les composantes des galaxies, à savoir les étoiles, les gaz stellaires, les poussières de galaxies, dans une gamme très étendue de longueurs d'ondes. Là aussi, une panoplie d'instruments au sol ou spatiaux est nécessaire.

Le télescope spatial NGST (New Generation Space Telescope) qui succédera à HUBBLE, fournira des relevés dans le proche infrarouge avec une sensibilité de 100 fois à 10 000 fois plus grandes que toutes les autres instrumentations actuelles. Ce gain en puissance d'observation correspondra au plus grand saut de l'histoire de l'astronomie et devrait permettre d'observer les premières étoiles qui se sont formées à la fin de l'âge sombre qui suivit le découplage de la matière et de la lumière du Big Bang.

Le projet ALMA de grand interféromètre millimétrique permettra d'obtenir des images de même résolution que le NGST et d'explorer les sources de gaz et de poussières qui donneront naissance à ces premières étoiles.

La complémentarité entre le projet spatial NGST et le projet sol ALMA est parfaite pour suivre le recyclage de la matière gazeuse dans les premiers âges de l'Univers.

Le satellite FIRST/PLANCK fournira une cartographie détaillée de la lumière émergente du Big Bang au moment où elle se découple définitivement de la matière. Cette carte caractérise une étape clé de l'histoire de l'Univers, qui recèle les signatures de la nature physique de l'univers primordial et de la physique des plus hautes énergies, au delà de celles explorées dans les plus grands accélérateurs de particules.

Le projet international GAIA qui suivra au delà de 2010, devrait permettre de décrire la structure de notre galaxie et la distribution des étoiles avec une précision qui se rapproche de celle avec laquelle nous connaissons le système solaire.

L'étude de l'environnement des trous noirs massifs au centre des galaxies est faite avec le satellite XMM d'observation de l'Univers en rayonnement X, lancé en décembre 1999 par Ariane 5, et prendra une nouvelle dimension avec le projet INTEGRAL d'observation de l'Univers en rayonnement gamma, dont le lancement est prévu en avril 2002.

En tout état de cause, la recherche sur les galaxies bute actuellement sur trois questions principales, qui sont, d'une part la compréhension du processus de formation des étoiles, d'autre part l'évolution cosmologique de ces structures et enfin la nature du halo de matière noire qui est à l'origine de la condensation du gaz et des étoiles. Ceci nécessite de comprendre le processus de formation des étoiles et de leur distribution dans des dynamiques. La modélisation sur la base des observations est ici encore indispensable et se révèle particulièrement complexe dans la mesure où il s'agit le plus souvent de la description physique d'un effondrement complexe avec dissipation d'énergie.

En définitive, la nécessité de combiner des observations faites sur un large spectre et donc, le plus souvent, par un ensemble d'instruments distincts, a puissamment poussé l'astronomie à développer des TGE sur une base internationale. S'il y a coopération globale, il reste une compétition au niveau des instruments eux-mêmes et de l'exploitation scientifique des données recueillies.

Sur un plan concret, les TGE au sol sont construits dans le cadre de sociétés internationales qui ont démontré leur aptitude à gérer les grands contrats industriels afférents.

La construction des TGE spatiaux ressortit d'un autre mode d'organisation. La maîtrise d'_uvre des satellites est assurée par des agences spatiales. La construction des charges utiles, à savoir les instruments d'observation proprement dits, est prise en charge par de grands laboratoires spécialisés. On constate à cet égard que la structure des EPST (établissements publics scientifiques et technologiques) qu'ont ces grands laboratoires, est mal adaptée à la gestion des grands contrats industriels.

M. Jean GALLOT , membre du groupe de travail, s'est interrogé sur la charge financière représentée par les TGE de l'astronomie et s'est demandé si, en complément au système des contributions au prorata du PIB, il était possible d'y accéder selon d'autres mécanismes.

M. Jean-Marie HAMEURY a précisé, à ce sujet, que s'ajoutent aux dépenses de participation aux TGE, les frais de réalisation de l'instrumentation focale, qui représentent une part non négligeable des dépenses du CNES.

Mme Claudine LAURENT , membre du groupe de travail, a ajouté que la réalisation d'un instrument focal ouvre le droit à une utilisation accrue du TGE lors de son entrée en service.

La parole a ensuite été donnée à M. Michel BLANC pour un exposé sur les méthodes de l'astrophysique.

*

M. Michel BLANC , Directeur du Laboratoire d'astrophysique de l'Observatoire Midi-Pyrénées, a indiqué que l'astrophysique est un carrefour interdisciplinaire.

L'étude de l'univers primordial met en jeu la physique des champs et des particules. Le découplage de la matière et du rayonnement et la nucléosynthèse sont le domaine de la physique des interactions du rayonnement et de la matière, de la physique atomique et de la physique gravitationnelle. La synthèse des noyaux lourds et la formation des étoiles et des galaxies correspondent également à ces deux dernières disciplines. L'étude de la formation des matériaux planétaires, des systèmes planétaires et des planètes est du ressort des sciences de la Terre et de la physique gravitationnelle.

La chimie, la biologie et les sciences de l'environnement sont mises en _uvre pour l'étude de l'émergence des matériaux biologiques, des environnements planétaires et des habitats pré-biotiques.

Enfin la physique des plasmas, la physique spatiale sont indispensables pour l'examen de l'écosphère humaine dans le système solaire et la météorologie de l'environnement spatial.

Sur le strict plan de l'observation, les différentes gammes de longueur d'onde donnent chacune des informations irremplaçables. Si l'on considère par exemple le processus de formation des galaxies, celui-ci s'effectue par un effondrement des nuages interstellaires, le centre donnant lieu à la création d'une étoile, entourée d'un disque planétaire qui, lui-même, donne naissance aux planètes. L'étude de l'étoile considérée s'effectue dans le visible et l'ultraviolet. Les gaz et les poussières entourant l'étoile s'analysent dans l'infrarouge et les ondes radio.

Ainsi, c'est avec différents instruments que l'on peut percer les secrets des objets célestes. D'une manière générale, la technique la plus performante pour l'observation est l'interférométrie, qui constitue la voie d'avenir tant pour les observations au sol que pour les observations spatiales.

Les expériences critiques pour l'avenir couvrent trois domaines, d'une part la formation des étoiles et des systèmes planétaires, d'autre part l'exploration planétaire et enfin le système Soleil-Terre.

S'agissant de la formation des étoiles et des systèmes planétaires, le principal objectif de l'observation au sol est l'observation des étoiles, de gaz et des poussières interstellaires dans plusieurs longueurs d'ondes, avec la meilleure résolution possible. C'est l'objectif du VLT déjà en fonctionnement et du projet ALMA. Différents satellites s'attacheront à la détection systématique des étoiles. COROT a pour objet l'étude des planètes de la taille de la Terre, GAIA celui de la cartographie de l'ensemble de la galaxie, DARWIN l'interférométrie spatiale en vue de pouvoir séparer les planètes des étoiles.

A plus long terme, il conviendra d'explorer les témoins les plus " froids " et les plus " chauds " de la formation initiale du système solaire que sont les comètes, les astéroïdes et Mercure, ainsi que les sous-systèmes de planètes géantes comme Saturne. Le programme de l'ESA devrait permettre de couvrir tous les souhaits de la communauté scientifique.

Ce sera l'objectif de ROSETTA que d'étudier le noyau et l'environnement de la comète Wirtanen, qui devrait être lancé en janvier 2003 par une fusée Ariane 5 pour un rendez-vous en 2011. L'étude de Saturne sera réalisée par l'orbiteur CASSINI et celle de l'atmosphère de Titan par la sonde HUYGENS, les deux éléments ayant été lancés en octobre 1997 et devant atteindre Saturne en 2004.

La détection des planètes utilise des méthodes sophistiquées comme la vélocimétrie avec effet Doppler. C'est ainsi que le système planétaire Upsilon Andromède a été détecté, montrant que des planètes géantes peuvent se trouver au plus près de l'étoile, au contraire de ce que l'on trouve dans le système solaire où elles sont à l'extérieur.

Au demeurant, l'exploration planétaire a comme premier objectif la découverte du système solaire avec des robots. Les objectifs sont d'approfondir les connaissances d'une part sur la structure et la dynamique interne des planètes grâce aux méthodes de la sismologie et des champs planétaires, d'autre part sur la morphogenèse des surfaces planétaires par l'établissement d'une cartographie globale et des études de terrain, et enfin sur la caractérisation géochimique et minéralogique des matériaux par des études in situ et grâce au retour d'échantillons au demeurant indispensable pour disposer de toute la puissance des outils analytiques disponibles.

L'exploration de Mars a pour objectifs principaux, l'étude des paléoclimats et des habitats planétaires. Il apparaît nécessaire à cet égard de comprendre le rôle des atmosphères comme réacteurs chimiques. L'exploration de Mars et la mission HUYGENS sur Titan, la plus importante lune de Saturne, fourniront des informations importantes à cet égard. Par ailleurs, il convient également de rechercher l'eau liquide ainsi que des habitats pré-biotiques.

Ce sera l'un des objectifs du programme Exploration de Mars puisque tout laisse à penser qu'il existe des réservoirs d'eau. La mission Mars Global Surveyor avait mis en évidence des anomalies intenses de champs magnétiques sur Mars. Par ailleurs, il existe des traces de ruissellement d'eau sur Mars, dont certaines sont très anciennes et peuvent témoigner de l'existence d'un climat relativement doux sur cette planète au début de son histoire et dont d'autres, semblant plus récentes, pourraient résulter d'un impact météorique.

Un autre projet pourra être ensuite l'exploration du satellite Europe de Jupiter qui abrite peut-être des océans sous-glaciaires.

L'autre ensemble des expériences critiques porte sur l'étude du système Soleil-Terre. Le satellite SOHO permet l'étude du soleil et de son atmosphère. Pour l'étude de la couronne solaire qui est indispensable, on ne pourra éviter de lancer une sonde solaire.

S'agissant des interactions Terre-Soleil, les deux paires de satellites jumeaux CLUSTER 2, lancés pendant l'été 2000 et en cours de recette actuellement permettront de mesurer les courants dans l'espace, et de progresser dans la compréhension des interactions entre les vents solaires et la magnétosphère, en vue de parvenir ultérieurement à une météorologie spatiale prédictive. Il s'agit là du programme européen " Space Weather " .

En réponse à une question de M. Christian CUVILLIEZ, Député, rapporteur, M. José ACHACHE , Directeur général adjoint scientifique du CNES a indiqué que la décision sur le projet Retour d'échantillons de Mars n'est pas définitivement engagée et qu'il est encore temps d'entendre des avis complémentaires.

La parole a ensuite été donnée à M. Roger BONNET.

*

M. Roger M. BONNET , Directeur du programme scientifique de l'ESA (Agence spatiale européenne - European Space Agency) a indiqué que la France contribue à environ 30 % du total du budget de l'ESA.

Le budget total de l'ESA représente pour l'année 2000 un montant de 2,7 milliards d'euros, soit près de 17,1 milliards de francs. Il est consacré à hauteur d'environ 20 % aux programmes obligatoires que sont le programme scientifique, le programme de recherche technologique (TRP Technology Research Programme) et la participation au financement de l'infrastructure administrative et technique de l'agence. Les programmes facultatifs représentent 76 % des dépenses totales. Le complément à 100, soit 4,5 % du budget total, correspond aux programmes réalisés pour des tierces parties et financés par celles-ci.

La participation de la France au budget des activités obligatoires de l'ESA s'élève à 17,3 % du total, une part au demeurant proportionnelle à son revenu national selon la clé de répartition adoptée en 1975. La participation de la France au budget des programmes facultatifs est de 32,9 %.

Au total, la contribution française s'est élevé en 1999 à 722 millions d'euros (4,7 milliards de francs). L'Allemagne assure la deuxième contribution à l'ESA avec un montant de 682,2 millions d'euros.

Quelle est la part du programme scientifique, un programme au demeurant obligatoire, dans l'activité de l'ESA ? Elle est de 13,2 %, soit un montant annuel de 357,6 millions d'euros en 1999, qui vient au 4 ème rang des dépenses totales de l'agence.

Tableau 2 : Répartition du budget 2000 de l'ESA par programmes

millions d'euros

%

Lanceurs

529,5

19,6

Observation de la Terre

491,0

18,1

Vols habités

486,7

18,0

Programme scientifique

357,6

13,2

Dépenses générales

284,3

10,5

Divers

198,7

7,3

Télécommunications

176,2

6,5

Microgravité

103,7

3,8

Navigation

79,9

3,0

total

2 707,6

100,0

Depuis 1995, le budget du programme scientifique de l'ESA décroît. Au final, en 2000, il ne représente que 15 % du programme scientifique de la NASA.

Tableau 3 : La science spatiale en Europe et aux Etats-Unis

2000

science spatiale

budget total

science spatiale en % du budget total

NASA (millions de dollars)

2 059

13 600

15,1 %

ESA (millions d'euros)

358

2 700

13,2 %

Europe (ESA + budgets nationaux européens)

600

4 000

15 %

Le budget 2000 de la science spatiale à l'ESA, qui s'établit à 358 millions d'euros, correspond à un budget enveloppe avec lequel il convient de financer un nombre maximal d'équipements.

Le programme scientifique de l'ESA sert 2250 scientifiques en Europe, dont 400 chercheurs français. Il faut toutefois noter que la dépense par scientifique en France est inférieure à celle qu'elle est dans d'autres pays, notamment en Suisse, aux Pays-Bas et en Allemagne.

Depuis 30 ans, les projets de science spatiale de l'ESA ont démontré le bénéfice scientifique d'une coopération multinationale et permis à l'Europe d'être leader dans différents domaines et dans le peloton de tête, tous projets scientifiques confondus. Ainsi, le projet INTEGRAL d'observation de l'Univers en rayonnement gamma devrait permettre à l'Europe, en coopération avec la Russie, de détenir la première place mondiale dans ce domaine. Les programmes ISO, FIRST et PLANCK ont installé l'Europe à la première place mondiale en astronomie infrarouge. Le projet BEPI COLOMBO devrait également démontrer le leadership européen en physique héliosphérique. Au total, les domaines traités par l'ESA sont l'environnement spatial de la Terre, l'interaction Soleil-Terre, le milieu interplanétaire, la Lune, les planètes et autres objets célestes, les étoiles et l'univers.

La programmation des objectifs scientifiques de l'ESA résulte d'une consultation des communautés scientifiques des différents pays et se traduit par des priorités établies par celles-ci. Une programmation à long terme est faite tous les dix ans. Quelques programmes nouveaux peuvent toutefois être inclus tous les deux à trois ans. La convention de création de l'ESA a créé un Comité du programme scientifique, le SPC, qui établit les priorités entre les différentes disciplines et rapporte au Conseil et au directeur général de l'ESA.

Le programme cadre Horizons 2000 comprend des projets de grande ampleur d'un budget de 550 millions d'euros environs, des projets de taille moyenne et flexibles d'un budget d'environ 180 millions d'euros et des programmes de taille réduite, à but technologique correspondant à des budgets de 80 à 100 millions d'euros.

Au plan thématique, ces programmes sont répartis entre l'astrophysique, l'exploration du système solaire et la station spatiale internationale.

Tableau 4 : Programme Horizons 2000 pour l'astrophysique

Origine, évolution et structure de l'Univers

Lois de la physique fondamentale

Origine et évolution des étoiles et des systèmes planétaires et détection des planètes telluriques

1999 : XMM Newton - détection des objets chauds de l'univers

2002 : INTEGRAL (avec la Russie) - Observation et analyse des sources cosmiques les plus énergétiques

2002 : AGILE - le rayonnement gamma dans l'univers

2004 : STEP - vérification des théories fondamentales de la relativité

2007 : PLANCK - étude de la texture de l'Univers à partir du Big Bang

2007 : FIRST - étude de l'évolution des étoiles et des galaxies

2009 : NGST - étude de l'origine et de l'évolution des premières galaxies

2009 : HST/NGST - étude des toutes premières galaxies, des étoiles et des systèmes planétaires

2009 ( ?) : HYPER - Interférométrie de très haute précision par senseurs à atomes froids

2009 : GAIA - pointage précis des étoiles, de leurs déplacements et de leurs distances dans notre galaxie et détection de planètes extra-solaires

2009 : LISA - détection des ondes gravitationnelles des trous noirs massifs et des systèmes binaires

? : XEUS - caractérisation des premiers objets chauds dans l'Univers

? : IRSI-DARWIN : identification et caractérisation d'exoplanètes telluriques et recherche de signes de vie possibles

Tableau 5 : Programme Horizons 2000 pour l'exploration du système solaire

Exploration du système solaire

Etude du Soleil et de son influence sur la Terre

1997 : (CASSINI)-HUYGENS - exploration de Titan, la plus grosse lune de Saturne

1990 : ULYSSE (en cours) - observation du Soleil et de l'héliosphère dans sa troisième dimension

1995 : SOHO (en cours) - observation permanente du Soleil depuis son noyau jusqu'aux couches externes de la couronne

2000 : CLUSTER (en cours) - étude tridimensionnelle de l'environnement électromagnétique de la Terre

2001 : SMART-1 - propulsion ionique et science de la Lune

? : SOLAR ORBITER - observation à très haute résolution de la surface du Soleil et de l'héliosphère proche

2003 : Mars Express - planétologie comparée et exobiologie

2003 : ROSETTA - étude de la matière primitive du système solaire, rendez-vous avec la comète Wirtanen

2007-2009 : BEPICOLOMBO - exploration de Mercure

Tableau 6 : Programme Horizons 2000 pour la science dans la station spatiale internationale

2005 : ACES - métrologie temporelle

SPORT - étude de la polarisation du rayonnement cosmologique

SOVIM/SOLSPEC/SOLACES - contrôle continu de la constante solaire

2010 : EUSO - détection des rayons cosmiques à très hautes énergies et des neutrinos

LOBSTER - cartographie et variabilité du ciel en rayons X

MOSS - oscillateurs micro-ondes et supraconducteurs

? : XEUS - observatoire international pour l'astronomie X

S'agissant de la Station spatiale internationale, M. R.M. BONNET a déclaré que ce programme a été lancé sur des critères politiques.

En Europe, c'est l'Allemagne qui y joue un rôle prédominant au travers des programmes optionnels, auxquels la France participe aussi mais avec un moindre engagement.

Au demeurant, la Station spatiale internationale constitue une opportunité pour la science spatiale, dans la mesure où sa mise en oeuvre y est facile.

Sur un plan organisationnel, la programmation de l'ESA et les programmations nationales gagneraient à être mieux coordonnées.

Mais la difficulté fondamentale que rencontre l'ESA est bien sûr l'insuffisance de ses financements par rapport à la NASA.

Le budget de la science spatiale de l'ESA représente 15 % de son équivalent à la NASA. Le budget total de l'ESA représente 17 % de celui de la NASA.

On peut redouter en conséquence une colonisation de l'espace par les Etats-Unis. A titre d'exemple, la NASA consacre 450 millions de dollars par an à ses programmes pour Mars, ce qui peut faire dire que " Mars sera l'Amérique et non pas une nouvelle Amérique " .

Un autre risque est celui de la dépendance technologique. Ainsi, la propulsion nucléaire sera indispensable pour envoyer des sondes au-delà de Jupiter. Aucun autre programme n'est à l'étude en dehors des Etats-Unis.

En réalité, l'avantage primordial des Etats-Unis dans le domaine spatial est l'apport du programme spatial militaire qui alimente de facto le programme scientifique civil.

Sur un plan général, il est important de remarquer qu'il n'y a pas de disproportion marquée entre l'Europe et les Etats-Unis pour les dépenses de recherche et technologie civiles. En revanche, pour la recherche et la technologie militaire, les dépenses américaines sont 4 fois supérieures aux dépenses européennes.

Tableau 7 : Comparaison des dépenses américaines et européennes en recherche et technologie civiles ou militaires 4

PIB

dépenses R & T civiles

dépenses R & T militaires

total

Etats-Unis

(milliards de dollars - 2000)

9425

59,7

42,6

102,3

Europe des 15

(milliards d'euros - 1998)

8413

48,0

9,2

57,2

Union européenne

(milliards d'euros - 2000

3,6

0

3,6

Cette problématique est particulièrement sensible dans le domaine spatial.

Tableau 8 : Comparaison des budgets spatiaux 5 américains et européens 6

1ers budgets 1998

budgets spatiaux civils

budgets spatiaux militaires

total

Etats-Unis

(milliards de dollars)

13,5

12,5

26,0

Europe y compris ESA (milliards d'euros)

4,02

~ 1

~ 5

ESA

(milliards d'euros

2,9

0

Au demeurant, la NASA n'est pas la seule source des efforts américains en faveur de l'espace. En réalité la NASA pilote l'emploi de 12 milliards de dollars du programme, le DOD (Department of Defense) et le DOE (Department of Energy) ayant, pour leur part, la maîtrise d'une enveloppe de 13 milliards de dollars.

Dans le but de diminuer cette disparité, on peut estimer que l'Union européenne devrait soit augmenter ses financements de recherche et de technologie civiles soit se lancer dans des programmes militaires.

L'ESA coopère principalement avec les Etats-Unis. Il convient d'élargir la coopération avec d'autres pays comme la Russie, le Japon et la Chine.

Cette orientation est d'autant plus indispensable que l'on constate un essoufflement de certains pays qui ne parviennent que difficilement à financer un instrument, en plus de leur contribution nationale. Les charges utiles, c'est-à-dire les instruments d'observation, voient leurs coûts augmenter considérablement, en raison de l'émergence de technologies nouvelles de plus en plus onéreuses.

Il semble en conséquence indispensable que l'Union européenne apporte à l'ESA des financements complémentaires.

*

Un débat s'est alors engagé sur l'implication de l'Union européenne.

M. Michel SPIRO s'est demandé si l'intervention de l'Union européenne est réellement nécessaire, dans la mesure où elle risque d'alourdir les procédures de décision.

M. José ACHACHE a rappelé qu'il existe un facteur 5 entre les investissements de l'Europe et ceux des Etats-Unis. De surcroît, les budgets de l'ESA sinon du CNES sont constants.

L'Union européenne devrait donc jouer un rôle d'ajustement. Les programmes scientifiques spatiaux de l'Europe au sens large, c'est-à-dire en regroupant l'ESA et les programmes nationaux ne représentent que 25 % du budget équivalent de la NASA.

M. R.M. BONNET , soulignant que la Station spatiale internationale est une réalisation à vocation politique, a estimé que l'Union européenne devrait s'impliquer dans son financement, de manière à permettre aux pays qui n'ont pas participé à son financement de l'utiliser.

S'agissant de l'insuffisance de la coordination entre l'ESA et les programmes spatiaux nationaux, des progrès sont certes réalisés et la coordination avec le CNES est sans aucun doute de qualité. Mais l'ajustement des projets se fait le plus souvent au coup par coup et a posteriori, comme des exemples récents l'ont malheureusement démontré.

M. José ACHACHE qui a souligné la bonne coordination entre le CNES et l'ESA, a estimé toutefois non optimale la coordination pour les programmes sur Mars.

*

En réponse à une question de M. Christian CUVILLIEZ, Député, rapporteur, sur l'évolution défavorable du budget du CNES pour 2001, M. José ACHACHE a précisé qu'à la suite d'un délai supplémentaire obtenu par l'ESA pour le remboursement de sa dette, le CNES s'est trouvé disposer d'une trésorerie supplémentaire de 300 millions de francs en 2001. Le secrétariat d'Etat au Budget en a conclu qu'il était possible de diminuer du même montant les crédits du CNES. Le problème créé par cette disposition est l'effet de cliquet qui se traduit par la difficulté bien connue de retrouver un niveau antérieur plus favorable. C'est en réalité la deuxième année que le budget du CNES est en baisse.

Une évolution en cours, importante et positive, doit toutefois être mentionnée.

Un document sur la stratégie spatiale européenne a en effet été demandé par les ministres des 15 à la fois à la Commission européenne et à l'ESA. Ce document commun doit être approuvé en novembre par le Conseil Recherche de l'Union européenne et par un Conseil ministériel exceptionnel de l'ESA.

Le partage des rôles reviendrait à donner un rôle accru à l'ESA en tant qu'agence de service et à assigner à l'Union européenne la charge d'assurer le développement technologique et la compétitivité économique de l'Europe spatiale.

Dès lors, l'Union européenne assurerait le soutien de base correspondant en mettant en place, dans le cadre du 6 ème PCRD, des contrats de recherche pour les activités au sol, le développement de charges utiles et des instruments, ainsi que pour les technologies de base relatives aux détecteurs, aux capteurs et aux nouveaux instruments.

Ainsi une complémentarité sera définie entre l'ESA et l'Union européenne, avec toutefois une complexité supplémentaire due au partage des tâches dont on aurait pu imaginer qu'elles seraient toutes confiées à l'ESA moyennant une contribution budgétaire globale.

M. Michel SPIRO a effectivement émis la crainte que le travail de consultation des communautés scientifiques réalisé par l'ESA ne soit dupliqué par l'Union européenne.

M. Philippe LAREDO a jugé que l'Union européenne pourrait apporter un autre regard.

M. Roger BALIAN a fait valoir que la maîtrise du processus pourrait échapper aux scientifiques.

M. José ACHACHE a estimé que la participation de l'Union européenne dans des programmes spatiaux devait en priorité se porter sur l'infrastructure non scientifique Galileo, dans la mesure où il s'agit d'un enjeu de souveraineté et de compétitivité.

En complément à cette intervention indispensable, la contribution du PCRD est essentielle pour que l'Europe ait une force de proposition au-delà des 12-15 ans qui viennent, grâce à des avancées technologiques pour la résolution des détecteurs et la propulsion.

Mme Claude LAURENT , membre du groupe de travail, a fait état de la définition en cours de thématiques et d'actions clé en prolongement du rapport BUSQUIN sur l'espace européen de la recherche.

Faut-il des actions clé pour la recherche et la technologie de l'astronomie et de l'espace ?

M. R.M. BONNET a estimé que seules les communautés scientifiques, qu'il faut consulter à cet effet, peuvent donner une réponse à cette question et proposer des axes de recherche et de développement technologiques.

Sans doute est-il possible de parvenir à un partage des rôles entre l'Union européenne et l'ESA. Mais le facteur essentiel est que l'effort technologique massif fait par les Etats-Unis bénéficie de leur politique spatiale de défense.

M. Michel BLANC a estimé que l'intervention de l'Union européenne dans le domaine spatial peut être analysée de deux points de vue.

D'un point de vue citoyen, les objectifs de développement économique, de souveraineté et les enjeux scientifiques afférents exigent que l'Union européenne se saisisse du spatial. Du point de vue scientifique, la démarche de l'ESA est à préserver car s'il s'agit essentiellement d'une agence de mise en _uvre. Mais il existe en amont de son activité et même du développement technologique des étapes critiques au plan scientifique et technique. De même, en aval, les données collectées par les outils spatiaux exigent des traitements multiples et une valorisation dans des outils de modélisation et de simulation complexes.

M. Jean-Loup PUGET a confirmé l'importance d'une aide de l'Union européenne pour les actions en amont des outils spatiaux mais celle-ci est également indispensable pour l'aval.

Les agences nationales assument en effet avec difficulté les tâches indispensables de constitution de bases de données à partir des mesures réalisées, de conservation et de distribution des données, tâches que les Etats-Unis remplissent mieux et plus aisément, à tel point que l'accessibilité des données des satellites de l'ESA est souvent meilleure par l'intermédiaire des Etats-Unis que par les pays européens.

M. Laurent VIGROUX , Chef du service d'astrophysique du CEA , a indiqué que la Commission européenne joue un rôle pour la mise en réseau des laboratoires et le financement de postes de post-docs. En tout état de cause, une démarche commune avec l'ESA aurait plus de poids.

M. Jacques HAISSINSKI , Professeur à l'université de Paris-Sud et chercheur au LAL , a estimé pour sa part que l'Union européenne qui manque de relais dans les organismes de recherche et dans les laboratoires, pourrait rencontrer des difficultés pour distribuer de façon optimale des crédits de soutien à la recherche et au développement en instrumentation spatiale.

M. José ACHACHE a précisé que selon un partage normal des tâches, c'est le CNES qui réalise les missions spatiales et le CNRS qui exploite les données issues de celles-ci.

Il apparaît toutefois qu'un problème se pose d'une part pour l'archivage des données, dont les volumes sont considérables notamment pour l'observation de la Terre, mais aussi, d'autre part, pour leur traitement, leur stockage, leur mise à disposition, voire pour leur interprétation.

Si l'on transpose ce schéma à l'Union européenne, il convient que la Direction générale Recherche de la Commission européenne joue un rôle d'appui en aval de missions au demeurant conduites par l'ESA.

Il reste que la Commission connaît des problèmes de fonctionnement pour soutenir la recherche et les équipes de scientifiques. La communauté scientifique du spatial en a la conviction. Il est en conséquence nécessaire que la Commission améliore à la fois l'efficacité et la transparence de ses procédures de soutien à la recherche.

M. Philippe LAREDO a émis un point de vue totalement opposé à ce sujet. De nombreux scientifiques pensent au contraire qu'il est plus difficile d'accéder aux autorités françaises de la recherche qu'à celles de la Commission européenne. Au surplus, c'est souvent la France, qui, au motif de renforcer les contrôles, introduit des lourdeurs voire des blocages supplémentaires dans les procédures communautaires.

M. José ACHACHE a rétorqué que la règle de l'accès à un financement dans le domaine de la recherche est la revue des projets par les pairs. Il convient en tout état de cause que la Commission européenne érige cette démarche en principe incontournable et général.

M. Philippe LAREDO a souligné que la règle de l'expertise par les pairs peut connaître des distorsions lorsque les experts sont nommés pour cette tâche par des instances politiques.

M. Richard BONNEVILLE , Délégué à l'exploration et à l'étude de l'Univers au CNES , après avoir rappelé les montants des participations de la France aux programmes obligatoires ou facultatifs de l'ESA, a détaillé le programme du CNES d'exploration de Mars, programme intitulé PREMIER qui comprend trois volets.

Le premier volet est la mission Mars Express Orbiter de l'ESA, prévu pour 2003, focalisée sur la cartographie et la recherche d'eau de la planète Mars.

Le deuxième volet est un programme multilatéral, regroupant 11 pays européens avec une participation américaine de faible ampleur, dont l'objectif est de déployer 4 atterrisseurs Netlanders sur Mars pour installer un réseau de mesures géophysiques. Le coût de ce programme est de 600 millions de francs, que la France prend à sa charge à hauteur des 2/3.

Le troisième volet est le retour d'échantillons, dans le cadre d'une coopération NASA-CNES. Les Etats-Unis allouent un budget annuel de 450 millions de dollars à ce programme, sur la période 2001-2012. La participation française s'élève à 2,5 milliards de francs pour la période 2000-2012.

En définitive, le programme PREMIER devra tenir compte de la réévaluation faite par les Etats-Unis de leur propre programme.

La méthode retenue par la NASA est en effet de procéder par étape afin de valider chacune des opérations nécessaires au retour d'échantillons. Des missions auront lieu en conséquence en 2005, 2007 et 2009, avant la mission retour d'échantillon proprement dite, repoussée à 2011.

Au demeurant, le programme PREMIER correspond à la recommandation des scientifiques français spécialisés en planétologie. Il faut à cet égard noter l'effet fédératif de ce projet pour les sciences du vivant et les sciences de la Terre.

M. José ACHACHE a confirmé le soutien unanime de la communauté scientifique à ce programme.

Il a ensuite souligné que la France consacrera au projet de retour d'échantillons de Mars un somme dix fois inférieure à celle des Etats-Unis.

En tout état de cause, si la France est isolée dans ce domaine, c'est que les autres pays européens n'ont pas décidé pour le moment d'y participer.

Mais la France s'affirme comme un partenaire clé des Etats-Unis pour ce projet, car si sa contribution financière est largement minoritaire, elle détient un verrou avec la mise à disposition d'Ariane 5 en 2007. Il conviendra de veiller à ce que la France conserve une part significative du programme après la revalidation en cours aux Etats-Unis. Il est acquis que l'agence spatiale italienne y participera.

Par ailleurs, le coût total de la mission Mars Explorer de l'ESA atteindra 180 millions d'euros.

La parole a ensuite été donnée à Mme Geneviève DEBOUZY pour une présentation des TGE de l'astronomie au sol.

*

Mme Geneviève DEBOUZY , directeur scientifique adjoint de l'INSU, a exposé que les très grands équipements au sol de l'astronomie et de l'astrophysique, comprennent d'une part la participation française à l'ESO (European Southern Observatory), d'autre part les instruments de l'INSU que sont l'IRAM (Institut de radioastronomie millimétrique), le CFHT (télescope Canada-France-Hawaii) et enfin les projets VIRGO et AUGER déjà présentés aux Rapporteurs.

L'ESO comporte un siège à Garching en Allemagne, et deux sites d'observation au Chili, l'un à La Silla et l'autre au Paranal. La participation française à l'ESO, organisation intergouvernementale créée en 1962 et rassemblant 8 pays européens, est de 26,2 % du budget de l'organisation.

Les 14 télescopes optiques et le radiotélescope de La Silla sont désormais complétés par le VLT (Very Large Telescope) situé sur le mont Paranal. Le VLT est un ensemble de 4 télescopes couplés de 8 m de diamètre chacun, récemment entrés en fonction.

La France a joué un rôle clé pour la fabrication des miroirs, avec 5 des 11 contrats de réalisation du VLT, et est l'un des leaders pour la mise au point du fonctionnement du VLT en mode interférométrique, une technique qui associe les 4 télescopes du VLT à 3 petits télescopes mobiles additionnels et permet d'obtenir une très haute résolution angulaire.

Les objectifs à court terme de l'astronomie française à l'ESO sont d'une part l'exploitation du VLT et d'autre part la finition du VLTI qui devrait s'achever en 2002-2003.

Le moyen terme de l'ESO est la réalisation du projet ALMA constitué par un réseau de 64 antennes de 12 mètres de diamètre chacune, fonctionnant en mode interférométrique dans le domaine millimétrique, réseau implanté dans le désert d'Atacama.

Ce projet sera mené à bien en partenariat entre l'ESO et les Etats-Unis, le Japon négociant actuellement sa participation. Son coût total atteindra 550 millions de dollars, dont la moitié à la charge de l'Europe. Ses objectifs scientifiques concernent toutes les thématiques de l'astronomie et de l'astrophysique, en particulier la cosmologie et l'étude des grandes structures, la structure et la dynamique des galaxies, la planétologie.

Le projet ALMA est en cours de finalisation, une phase de pré-étude devant s'achever fin 2001, la phase de réalisation devant ensuite être soumise à approbation courant 2001. En tout état de cause, l'ESO souhaite élargir le nombre de pays membres, la participation du Royaume Uni étant au premier chef indispensable.

M. José ACHACHE a averti, à cet égard, que la réalisation d'ALMA risquait d'être compromise par les risques sismiques de magnitude 9 et de forte probabilité pesant sur le désert d'Atacama.

Mme Geneviève DEBOUZY a poursuivi sa présentation des TGE de l'astronomie au sol par une présentation des grands équipements de l'INSU, l'IRAM et le CFH.

L'IRAM est un institut plurinational, fondé en 1974 par le CNRS et la Max Planck Gesellschaft, rejoints ensuite par l'IGN espagnol en 1990. L'IRAM dispose de deux très grandes installations, d'une part l'interféromètre du plateau de Bure situé près de Grenoble, et d'autre part une antenne de 30 m en Espagne dans la Sierra Nevada.

L'expérience acquise par l'IRAM, notamment pour la réalisation de l'interféromètre, le traitement des données et les développements instrumentaux dans le domaine de la radioastronomie millimétrique, constitue un atout majeur de la France pour la réussite du projet ALMA. Au reste, des liens très étroits entre ALMA et l'IRAM sont envisagés, qui reviendront à européaniser ce dernier.

Le CFHT (télescope Canada-France-Hawaii) en service depuis 1979 à Hawaii, est constitué d'un télescope de 3,6 m de diamètre.

Le CFHT connaît depuis quelques années une spécialisation progressive dans l'imagerie grand champ, avec la caméra grand champ MEGAPRIME dans le visible. Il est envisagé de réaliser une caméra grand champ infrarouge WIRCAM en coopération internationale.

Le programme scientifique du CFHT est assuré jusqu'en 2008. Au delà, la réflexion est ouverte sur son avenir, qui doit s'envisager sur un plan international en tenant compte des discussions actuelles sur les grands " collecteurs " .

La parole a ensuite été donnée à M. Laurent VIGROUX pour une présentation des activités du CEA dans le domaine de l'astrophysique et de la planétologie.

*

M. Laurent VIGROUX , Chef du Sap-DAPNIA a indiqué que le CEA ne possède pas en propre de TGE dans le domaine de l'astrophysique et de la planétologie mais qu'il coopère étroitement avec le CNES et l'INSU pour la conception et l'utilisation de leurs grands équipements au sol ou dans l'espace, son intervention se partageant à égalité entre ces deux catégories. Le CEA est ainsi intervenu pour les programmes ISO, SOHO, XMM, INTEGRAL et FIRST.

Au vrai, les TGE sont des moyens absolument vitaux dans un domaine comme l'astrophysique.

Le but du DAPNIA est au premier chef la recherche fondamentale mais aussi la valorisation des résultats acquis par le développement d'applications technologiques. Ainsi, en prolongement de la mise au point de détecteurs infrarouges pour les satellites d'observation, des caméras thermographiques seront mises au point pour l'armée. Des dispositifs de mesure des températures ou des détecteurs de rayonnements X durs pour le projet INTEGRAL trouveront des applications au LETI pour la microélectronique. Les travaux conduits pour le VLT en matière de cryomécanismes ont trouvé des applications dans d'autres domaines.

Le DAPNIA s'attache ainsi à mettre en oeuvre, depuis 20 ans et avec constance, la même démarche d'interactions positives entre la recherche et les applications industrielles. En tout état de cause, un TGE doit utiliser une filière technologique disponible ou recourir aux résultats de programmes militaires, même si l'on doit dépasser les niveaux de performances existants pour aboutir au prototype souhaité.

La parole a ensuite été donnée à M. Jacques HAISSINSKI, pour une présentation de la convergence de la physique des particules et de l'astrophysique et du rôle des programmes spatiaux dans ce domaine.

*

M. Jacques HAISSINSKI a indiqué que la convergence de la physique des particules avec l'astrophysique s'inscrit dans un mouvement qui a d'abord conduit des chercheurs à passer de la physique nucléaire à la physique des particules puis à l'astrophysique. Cette seconde transition a commencé en France vers la fin des années 1980, plus tard qu'aux Etats-Unis. Mais cette convergence résulte surtout du fait que de nombreux thèmes de recherche sont communs à la physique des particules et à l'astrophysique.

Ainsi la matière obscure, qui représente la plus grande fraction de la matière dans l'univers, consiste probablement en de nouvelles particules qui ne sont pas encore découvertes mais dont la recherche est en cours.

Un autre des sujets essentiels de la cosmologie est la compréhension de la violation de la symétrie matière-antimatière. L'univers en son début était symétrique mais ensuite la matière a dominé l'antimatière, selon un processus dont l'étude est cruciale non seulement pour la cosmologie mais aussi pour la physique des particules.

Par ailleurs, la théorie de l'évolution de l'univers fait intervenir une phase d'expansion rapide dite " inflation " dont l'existence n'est pas encore fermement établie mais qui, si elle est confirmée, a eu pour origine un champ analogue à celui qui est au c_ur des recherches actuelles en physique des particules.

Enfin, la physique des particules est fondamentalement une physique des hautes énergies qui nécessite le recours à des dispositifs expérimentaux mettant en oeuvre des énergies de plus en plus élevées pour observer les particules à une échelle de plus en plus réduite. Pour effectuer des tests de la théorie de l'unification des forces fondamentales telle qu'elle est prédite par la théorie, il faut atteindre des niveaux d'énergie extrêmes, seuls observables dans l'univers premier.

Un autre facteur de convergence a son origine dans le rayonnement cosmique. Des particules comme le positon, le muon, le pi et les particules étranges ont été découvertes par des observations faites sur ce rayonnement cosmique. De fait, le rayonnement cosmique joue un rôle très important dans la connaissance des particules. Par la suite, ce rôle a diminué mais aujourd'hui se développe un nouveau domaine de recherche, appelé " physique des astroparticules " , qui, outre les rayons cosmiques au sens traditionnel du terme, fait aussi intervenir les photons, les neutrinos et certaines antiparticules.

En définitive, cette nouvelle discipline qui résulte de la convergence de la physique des particules et de l'astrophysique assigne un rôle de plus en plus important à l'observation spatiale.

Dans certains cas, c'est parce qu'il est indispensable de procéder à des observations au delà de l'écran que constitue l'atmosphère, par exemple pour étudier la composante antimatière du rayonnement cosmique. Dans d'autres programmes de recherche, ce sont d'autres raisons spécifiques qui conduisent à utiliser des appareillages spatiaux, ainsi pour effectuer la détection d'ondes gravitationnelles dans un domaine de fréquences complémentaires de celui de VIRGO ou pour observer des supernovae très lointaines.

En conséquence, il est tout à fait clair que le spatial jouera un rôle de plus en plus important dans les domaines de la cosmologie observationnelle et de la physique des astroparticules.

La parole a ensuite été redonnée à M. Jean-Marie HAMEURY pour une présentation des moyens que requiert l'astronomie pour une exploitation performante des observations .

*

M. Jean-Marie HAMEURY a souligné que si les TGE de l'astronomie sont irremplaçables pour collecter des observations, il est non moins indispensable de disposer en aval des compétences et des moyens pour les traiter.

Le traitement des données d'observation s'effectue soit dans les instituts de recherche utilisateurs des TGE soit d'une manière coordonnée dans le cadre d'une expérience particulière comme ISO.

L'archivage des données s'effectue ensuite dans des centres spécialisés comme le centre CDPP pour les données de physique des plasmas ou encore les centres MEDOC et BASS2000 pour les données solaires spatiales (SOHO) et sol. La France enregistre toutefois un important retard par rapport aux Etats-Unis dans ce domaine.

Les observations sont mises à disposition de la communauté astronomique après une période dite " propriétaire " d'un an généralement, pendant laquelle un usage exclusif est réservé aux équipes ayant réalisé les observations. La diffusion élargie des données, conforme à la tradition de la recherche, s'avère ultérieurement positive en augmentant le retour scientifique des TGE.

Les centres de données généralistes comportent des services à forte valeur ajoutée. La France a joué un rôle de pionnier dans ce domaine en mettant en place le CDS, centre d'aiguillage et de référence pour la communauté scientifique internationale.

L'ensemble des centres de données permettent une forte valorisation pour un coût consolidé modeste de l'ordre de 1,5 % du budget total de l'astronomie pour la part française.

L'accroissement du volume des données d'observation et la réalisation prochaine ou en cours de très grands relevés couvrant une fraction significative du ciel dans plusieurs domaines de longueurs d'onde allant du domaine radio à celui des rayons X changent les dimensions du problème et des besoins.

L'idée s'impose donc en Europe et aux Etats-Unis de réaliser un Observatoire virtuel, c'est-à-dire une gigantesque base de données répartie, permettant d'accéder à l'ensemble des données d'observations, avec des formats intégrés de données et des dispositifs efficaces de navigation d'un centre à un autre. Le volume des données correspondant aux plusieurs milliards d'objets de l'Observatoire virtuel est de l'ordre du Petaoctet (10 15 octets). Doté en outre d'outils d'analyse et d'interprétation, un tel Observatoire virtuel est indispensable pour valoriser les investissements faits dans l'astronomie au sol ou dans l'espace.

La France a des atouts importants pour participer à la réalisation de l'Observatoire virtuel, du fait de son rôle moteur au niveau international pour les bases de données, pour l'intégration de données hétérogènes, et du fait de l'originalité de ses archives de données et de ses outils d'analyse mondialement reconnus.

Ainsi, il est indispensable de soutenir le développement de l'Observatoire virtuel.

M. Jean-Marie HAMEURY a ensuite traité de la dimension européenne de l'astronomie. Les agences telles que l'ESA et l'ESO y jouent un rôle considérable.

L'Union européenne intervient, pour sa part, au travers de 5 projets et d'un programme.

Le projet OPTICON s'intéresse, dans le domaine optique, au futur de très grands projets, à la coordination de télescopes moyens, au développement d'instruments et de logiciels ainsi qu'aux archives et aux bases de données. Le projet ASTROVIRTEL s'attache à permettre un accès aux archives HST, ESO et à développer des outils de recherche de données ou " data mining " . Le programme Canaries permet un accès croisé à l'ensemble des outils du site financés par d'autres pays. Deux autres programmes de même nature existent dans le domaine des ondes radio, avec une implication française modeste.

Le programme " Access to Research Infrastructures " de prise en charge des frais de mission pour l'accès aux TGE reste d'une ampleur modeste. Quant aux bourses post-doctorales, l'Union européenne n'en finance actuellement aucune autour des TGE, alors qu'il s'agit d'un élément essentiel pour leur exploitation optimale.

Au total, la contribution de l'Union européenne pour le financement des TGE de l'astronomie apparaît très modeste. Or la recherche est tout autant structurée par les TGE que ceux-ci résultent de ses besoins. Par ailleurs, les retombées des TGE en matière industrielle et économique sont loin d'être négligeables, de même qu'ils représentent des outils de formation efficaces, permettant à des étudiants formés à des techniques de pointe de faire bénéficier des entreprises françaises de leurs compétences.

M. Robert COMÈS a précisé que le programme " Access to Research Infrastructures " finance non seulement les frais de mission mais également les redevances d'utilisation. Par ailleurs, la difficulté d'obtenir des post-docs dans les TGE provient essentiellement de la diminution du nombre de physiciens dans tous les pays. Mais il est vrai que le financement de bourses de thèses a été supprimé par la Commission européenne à l'occasion du 5 ème PCRD.

M. Joël FELTESSE , Chef du DAPNIA au CEA , a estimé que l'explosion des données collectées par les nouveaux détecteurs est un problème commun à différentes disciplines scientifiques et que le soutien de l'Europe s'impose pour mettre en place les ressources nécessaires à leur exploitation.

M. Bernard FORT , Directeur de l'Institut d'astrophysique de Paris , a indiqué que les laboratoires français semblent être en retard sur leurs homologues britanniques ou allemands comme le Max Planck à la fois pour employer des post-docs et pour traiter les données en aval des observations.

Au vrai, pour mieux valoriser les investissements réalisés dans les TGE, il faut accroître les moyens d'accompagnement des chercheurs en augmentant les postes de post-docs. Il convient également de développer les outils de modélisation et de simulation, selon des procédures qui pourraient d'ailleurs être communes avec d'autres disciplines.

M. Philippe LAREDO a noté qu'il n'existe pas en Allemagne de postes permanents dans la recherche avant 35 ans.

M. José ACHACHE a estimé que l'insuffisance du nombre de post-docs en France est due essentiellement à un nombre insuffisant de candidats, l'offre de contrats à durée déterminée ou de bourses n'étant pas saturée en tout état de cause.

Pour M. Laurent VIGROUX , le départ à l'étranger de jeunes docteurs est un phénomène normal voire salutaire. En revanche, la difficulté à attirer en France de jeunes chercheurs étrangers est dommageable, car, au total, une perte d'effectifs se produit sur la tranche d'âge 25-30 ans, la plus productive.

M. Jean-Marie HAMEURY a déclaré que l'astrophysique attire un nombre suffisant d'étudiants mais que la discipline n'a pas assez de post-docs, au contraire d'autres pays où le nombre de post-docs est supérieur au nombre de postes permanents.

M. José ACHACHE a souligné que la recherche britannique comprend 30 % de post-docs, une proportion d'emplois précaires que le CNES ne saurait reproduire

M. Jean-Loup PUGET a indiqué que les laboratoires du CNRS qui travaillent pour le compte de l'ESA ou du CNES à la réalisation des charges utiles, dont le poids financier d'ailleurs augmente, rencontrent des difficultés de gestion, alors que les délais et les calendriers de livraison sont de plus en plus tendus. Ceci résulte de la mauvaise adaptation des structures des EPST et de procédures de contrôles a priori et de passation de marché inadéquates.

M. Robert COMÈS a confirmé que le seuil de déclenchement des appels d'offre publics, fixé à 300 000 francs est trop bas et que cette procédure ne se justifie pas dans le domaine des hautes technologies, où bien souvent seuls un ou deux fournisseurs potentiels existent de par le monde. En conséquence, les contrats négociés se traduisent fréquemment par des coûts inférieurs à ceux résultant d'appels d'offre.

M. Christian CUVILLIEZ, Député, Rapporteur, a rendu compte des indications récentes obtenues du ministre de la recherche sur l'aménagement en cours des règles des marchés publics pour les TGE. Au demeurant, le ministère de l'économie, des finances et du budget, étudie à l'heure actuelle une réforme plus générale des marchés publics qui devrait être mise en application par décret dès 2001.

M. Laurent VIGROUX a souligné que pour le développement de prototypes de haute technologie, la rédaction d'un cahier des charges soulève des difficultés considérables et que son principe est contestable dans la mesure où elle exclut des marges de négociation. En outre, si l'on recourt à l'aide d'une entreprise pour réaliser une pré-étude du prototype, celle-ci ne peut participer à l'appel d'offres.

M. Christian CUVILLIEZ, Député, Rapporteur, a jugé sans doute préférable, dans ce cas, le recours à un appel à candidatures suivi de négociations.

*

Après avoir chaleureusement remercié les participants pour leur contribution à l'information des Rapporteurs de l'Office parlementaire, M. Christian CUVILLIEZ, Député, Rapporteur, a levé la réunion.

13. Station spatiale internationale, vols habités et Galileo - mercredi 15 novembre 2000

CNES

• M. Gérard BRACHET, Directeur général

• M. Jean-Paul GRANIER, Conseiller auprès du directeur général

• M. Arnaud BENEDETTI, Chargé des relations avec le Parlement

CNRS

• M. Jacques SEYLAZ, Directeur scientifique adjoint du Département des sciences du vivant

• M. Christophe VIGNY, Chargé de mission à l'INSU

ESA

• M. Antonio RODOTÀ, Directeur général

• M. Jean-Jacques DORDAIN, Directeur de la stratégie et de l'évaluation technique

• M. Louis FORNERY, Administrateur à la Direction de la stratégie

Après avoir remercié les participants d'avoir accepté l'invitation de l'Office, M. René TRÉGOUËT, Sénateur, rapporteur, a donné la parole à M. Antonio RODOTÀ pour une présentation des activités de l'ESA relatives à la Station spatiale internationale, aux vols habités et au projet Galileo.

M. Antonio RODOTÀ , Directeur général de l'ESA (European Space Agency - Agence spatiale européenne), soulignant que les équipements spatiaux, au demeurant de plus en plus nombreux, sont d'un coût trop élevé pour être accessibles à un pays pris isolément, a indiqué que l'ESA permet la coopération, la décision, le financement en commun de très grands équipements spatiaux touchant des domaines aussi variés que les télécommunications, la météorologie, l'observation de la Terre, la station spatiale internationale ou le projet Galileo.

Créée en 1975, l'ESA 7 a débuté ses activités dans le cadre de programmes obligatoires, s'imposant à tous les membres et financés par ces derniers au prorata de leur revenu national. Mais très rapidement, les programmes facultatifs l'ont emporté, au point de représenter aujourd'hui plus de 70 % des activités de l'ESA, démontrant ainsi le bien fondé du concept de " coopérations renforcées " .

Un nouveau type d'action a récemment été introduit, le programme enveloppe. Un programme enveloppe est un engagement de financement, dans un domaine particulier et sur plusieurs années, pour les seuls pays qui y adhèrent, avec une liberté donnée à l'Agence de choisir les moyens techniques les plus appropriés pour atteindre les objectifs fixés dans les limites financières établies au départ. A cet égard, un programme enveloppe sur l'observation de la Terre a récemment été adopté par le Conseil ministériel de l'ESA.

La dernière innovation récente en matière de management concerne le concept de financement mixte public-privé, pour les activités spatiales qui offrent des perspectives commerciales à court terme et qui concernent un ensemble d'industriels et d'opérateurs de réseaux appartenant à un nombre important de pays membres.

Il faut signaler en outre la capacité de l'ESA, une fois lancée une activité spatiale de services, à en transmettre la gestion à une nouvelle entité créée à cet effet.

Ainsi, dans le cas de la météorologie, l'ESA a reçu la responsabilité de développer le satellite Meteosat 1 lancé en 1977, sur la base d'une idée française de satellite d'observation de la Terre. En parallèle, un groupe de travail de l'ESA a préparé la convention donnant naissance à EUMETSAT, une organisation internationale chargée de l'exploitation des satellites de la série Meteosat.

De la même façon, l'entrée en service du premier satellite de télécommunications consacré au départ à la transmission de la voix a ensuite donné lieu à la création d'EUTELSAT, qui gère désormais 18 satellites.

EUTELSAT, qui réalise un chiffre d'affaires annuel d'environ 500 millions d'euros, gère une activité rentable dont les bénéfices reviennent aux opérateurs de télécommunications, et qui, comme telle, sera privatisée en 2001. En réponse au souci de M. René TRÉGOUËT, Sénateur, rapporteur , et de M. Roger BALIAN , membre du groupe de travail, de ne pas voir un organisme comme EUTELSAT, créé et soutenu par les pays de l'Union européenne, passer sous domination privée nord-américaine, M. Antonio RODOTÀ a cité les " golden shares " ou la minorité de blocage comme moyens de garder le contrôle d'une entité publique après sa privatisation.

*

S'agissant de la station spatiale internationale (SSI - ISS, International Space Station), l'histoire a commencé en 1985, dans le prolongement de la coopération de l'ESA avec la NASA pour le programme Spacelab. La participation européenne concernait le laboratoire COLUMBUS, ses installations scientifiques dites " charges utiles " et le véhicule de transfert automatisé ATV (Automated Transfert Vehicule). La participation de l'ESA a été décidée en 1995 par un Conseil ministériel de l'ESA, sur la base d'un programme facultatif. L'assemblage d'ISS a commencé depuis la fin 1998. Un équipage est à son bord depuis le 2 novembre 2000.

Aux plans techniques et financiers, la participation européenne est en ligne avec les objectifs initiaux, aucun dérapage ne s'étant produit ni pour les délais ni pour les coûts.

La question est désormais celle d'une utilisation optimale de SSI. A cet effet, l'ESA a créé aux Pays-Bas, le centre ERASMUS dont la fonction est d'indiquer aux communautés scientifiques des différents pays membres quelles sont les utilisations possibles de la station, avec un effort d'information déjà engagé pour les sciences du vivant, la recherche technologique et l'observation de la Terre.

En conséquence, un appel à propositions a été lancé en 1998 sur les applications de la microgravité, qui a donné lieu à 145 propositions dont 30 ont été sélectionnées dans un premier temps. Un deuxième appel a été lancé en 1999. Centré sur les sciences du vivant, il a donné lieu à 124 propositions dont 14 ont été retenues.

Quelle est l'origine de ces projets de recherche impliquant la microgravité et donc de leurs financements ?

L'ESA est à l'origine d'un tiers, les organismes de recherche des pays membres d'un tiers et l'industrie d'un tiers également.

En tout état de cause, l'objectif de l'ESA est que l'exploitation de la station spatiale internationale prenne rapidement une dimension industrielle selon un schéma analogue à celui d'EUTELSAT ou d'EUMETSAT.

*

Le projet GALILEO de radionavigation par satellite est un enjeu à la fois stratégique, technologique et économique. Il s'agit d'éviter de dépendre du monopole américain forgé avec le système GPS (Global Positioning System). Le système russe GLONASS n'est qu'une solution de remplacement insatisfaisante en raison de problèmes de fonctionnement des satellites.

Au reste les applications principales d'un tel système de radionavigation sont bien sûr la navigation aérienne, la navigation maritime, le transport routier ou ferroviaire. Mais il en existe bien d'autres, par exemple pour la géodésie, l'exploration " off shore " mais aussi l'utilisation de références de temps précises par exemple pour les applications bancaires et la synchronisation des réseaux de transmission de données.

Les bénéfices économiques d'un tel système proviennent d'abord de l'activité générée par le développement, la construction et l'exploitation du système lui-même. Ils viennent également des ventes d'équipements aux utilisateurs et des ventes de services à valeur ajoutée ainsi que des économies générées.

La démarche de l'ESA pour la mise en place d'un système de radionavigation par satellite comprend deux volets.

Le premier volet, qui s'étale sur la période 1995-2003, correspond à la définition, au développement et à la validation du système EGNOS (European Geostationary Navigation Overlay System), outil complémentaire au système américain GPS. Il utilise en particulier des satellites géostationnaires qui permettent de relayer une information d'intégrité du GPS et rend ce dernier utilisable pour les applications les plus exigeantes, comme les approches finales en navigation aérienne. Le système est déjà en place et sera certifié en 2003

Le deuxième volet, qui porte sur la période 1999-2008, correspond au développement et au déploiement d'une constellation complète de 30 satellites, intitulée GALILEO, offrant un service de radionavigation au moins aussi performant que le système américain GPS tel qu'il sera amélioré dans sa version Block II F actuellement en cours de développement. L'étude initiale relative à GALILEO a été prise en charge par l'ESA d'une part et la Commission européenne et EUROCONTROL, d'autre part, pour une moitié chacun.

C'est en mai 1999 que les Conseils ministériels de l'ESA et de l'Union européenne ont autorisé l'étude du système, étude qui sera achevée fin 2000 et qui devra être suivie d'une autorisation pour la suite des opérations, le développement proprement dit devant se dérouler entre 2001 et 2005.

Il apparaît qu'un consensus existe au sein de la Commission européenne sur la nécessité de réaliser le système GALILEO et un accord pour prendre la moitié de la charge financière du projet, à égalité avec l'ESA. Il reste que ce sont les ministres des transports de l'Union européenne qui devront approuver le lancement définitif du projet. Les pays membres de l'Union sont favorables au projet, à l'exception du Royaume Uni et des Pays-Bas, qui pourraient refuser leur participation dans un premier temps mais rejoindre peut-être le projet ultérieurement.

En définitive, le déploiement des 30 satellites devrait intervenir en 2006-2007 et la phase d'exploitation débuter en 2008.

M. Gérard BRACHET , Directeur général du CNES, a précisé que le financement communautaire proviendrait de la ligne budgétaire " réseaux transeuropéens " TEN (TransEuropean Networks), qui, jusqu'alors, a financé des infrastructures physiques terrestres comme des routes ou des lignes de chemin de fer, en particulier le TGV Est pour la France.

M. Jean-Jacques DORDAIN , Directeur de la stratégie et de l'évaluation technique à l'ESA, a ajouté qu'il s'agirait également de la première fois où la ligne budgétaire TEN servirait à financer une réalisation internationale et non pas des infrastructures nationales.

M. René TRÉGOUËT, Sénateur, rapporteur , s'est interrogé sur le modèle économique qui sera adopté pour GALILEO.

Si le système GPS a opté pour la gratuité de l'accès au signal, une méthode inverse de facturation au coût réel pourrait plaider par exemple en faveur d'une redevance imposée aux fabricants de récepteurs.

M. Antonio RODOTÀ a indiqué que la Commission européenne a conduit une réflexion sur les différents modèles utilisables.

Après la mise en service du système EGNOS qui complète les services GPS, la question essentielle est de connaître quels sont les avantages comparés de GALILEO en tant que système autonome ou d'une coopération étroite entre l'Europe et les Etats-Unis.

En tout état de cause, les économies générées par un système GALILEO autonome sur la période 2008-2020 sont évaluées à 158 milliards d'euros pour la réduction des temps de transport routier ou aérien, à 50 milliards d'euros en terme d'indépendance économique, à 25 milliards d'euros d'économies d'énergie dans le transport routier, à 12 milliards d'euros pour la diminution de la mortalité due aux accidents de la route, à 1,5 % d'économies d'émissions de CO2 et à 170 millions d'euros en termes de rationalisation de certaines infrastructures au sol pour l'aviation civile.

Il paraît établi qu'il faut aujourd'hui décider le lancement de GALILEO indépendamment de l'évolution éventuelle des systèmes américains ou russes, avec toutefois la perspective d'une coopération ultérieure au niveau des standards. Au vrai, l'idéal au plan de la sécurité serait que les utilisateurs disposent d'un double système assurant une redondance.

Pour M. Gérard BRACHET , le modèle économique doit tenir compte du fait que le système global ne se suffit pas à lui-même et qu'il doit s'appuyer sur des " augmentations " ou infrastructures locales, utiles notamment pour améliorer la fiabilité et la précision du système. On peut dès lors imaginer que les services fournis localement puissent être facturés.

M. Antonio RODOTÀ a fait état des différents types de services prévus pour le système GALILEO, d'une part les services gratuits d'intérêt général pour la localisation et la datation, compatibles avec les services GPS actuels, d'autre part les services commerciaux payants avec des garanties de service en matière d'intégrité et de datation, et enfin les services à très hauts niveaux de précision et de fiabilité pour les pouvoirs publics.

Le coût de la définition, qui sera achevée en fin d'année 2000, a atteint 80 millions d'euros. Les coûts de développement, de validation et de déploiement des 30 satellites sont estimés à l'heure actuelle à hauteur de 3,25 milliards d'euros, soit 21 milliards de francs environ, que l'ESA et l'Union européenne devraient partager à parts égales.

Tableau 9 : Estimation des coûts de GALILEO 8 et hypothèses de financement

étape

période

coût

(millions

d'euros)

Financements (millions d'euros)

Union européenne

ESA

Secteur

privé

Définition

1999-2000

80

40

40

Développement et validation

2001-2005

1 100

550

550

Déploiement

2006-2007

2 150

à déterminer

à déterminer

1 500

Exploitation

2008 -

220/ an

non

communiqué

non

communiqué

non communiqué

Un vote de principe sur l'engagement de la phase de développement et de validation devrait intervenir au Conseil Transport de l'Union européenne le 20 décembre 2000. L'estimation précise des coûts devrait ensuite être effectuée de décembre 2000 à novembre 2001. Une décision d'engagement valant autorisation définitive devrait intervenir à l'ESA en novembre 2001 lors d'un Conseil au niveau ministériel.

*

Un débat s'est ensuite tenu sur le coût et l'intérêt scientifique de la Station spatiale internationale .

M. Jean-Jacques DORDAIN a précisé que le coût total de construction de la Station spatiale internationale (SSI) atteindra probablement 100 milliards de dollars. Les Etats-Unis assument 75 % de la charge financière, le restant incombant à la Russie et à l'Europe. La charge financière de construction de SSI pour l'Europe s'élève à 3 milliards d'euros, soit près de 20 milliards de francs. Au vrai, la contribution russe serait assumée en grande partie par les Etats-Unis. Le droit d'utilisation de SSI, une sorte de copropriété, est proportionnel à la mise de fonds initiale.

M. Antonio RODOTÀ a par ailleurs indiqué que les coûts d'exploitation de SSI correspondront, pour l'Europe, essentiellement aux coûts des lancements d'Ariane et des modules ATV.

En tout état de cause, l'investissement de départ ayant été fait et des engagements pris pour le financement de l'exploitation, il convient de faire un effort important pour utiliser au mieux les possibilités données par SSI. Au reste, de même que les communautés scientifiques européennes ont été capables de bien tirer parti du télescope spatial Hubble, il ne fait pas de doute qu'elles sauront aussi le faire pour SSI.

M. Michel SPIRO , membre du groupe de travail, a pointé le fait que la Station spatiale internationale n'a pas été proposée par la communauté scientifique, contrairement à la quasi-totalité des autres très grands équipements (TGE), y compris les TGE spatiaux. Il s'agit là d'une approche " top down " et non pas d'une démarche " bottom up " .

M. Roger BALIAN , membre du groupe de travail, a souligné que le centre d'information ERASMUS prend toutes les apparences d'un organisme dont le but est d'inciter des scientifiques à proposer des expériences qu'ils ne jugent pas forcément prioritaires. Il ne faudrait pas que ce centre contribue à accroître la ponction faite par SSI sur les budgets de recherche.

M. Jean-Jacques DORDAIN a confirmé qu'aucun responsable n'avait jamais déclaré que la station spatiale internationale avait été réclamée par la communauté scientifique.

M. Christian CUVILLIEZ, Député, rapporteur , a estimé qu'il convient de distinguer dans tous les TGE ceux qui ont une vocation scientifique et ceux qui n'en ont pas.

M. Antonio RODOTÀ a souligné que le centre ERASMUS n'a pour fonction que celle d'expliquer les utilisations possibles de la station spatiale internationale. En réalité, il est impossible d'obliger les chercheurs à recourir à des expériences sur SSI et d'ailleurs personne n'y songe. S'agissant des questions de financement, il semble en tout état de cause nécessaire de revenir aux origines du programme.

M. Jochen SCHNEIDER , membre du groupe de travail, a estimé que le financement de SSI représente un prélèvement important sur le budget recherche. Au reste, les processus de sélection des propositions d'expériences sont d'une importance capitale. Sont-ils créés par ERASMUS et examinent-ils la valeur relative des projets soumis les uns par rapport aux autres ou au contraire, leur intérêt est-il évalué sur une base plus large, en particulier au regard d'autres projets des disciplines en cause ?

M. Antonio RODOTÀ a indiqué que les propositions sont évaluées par des scientifiques indépendants, selon le procédé classique de " peer review " .

M. Gérard BRACHET a précisé que le processus d'évaluation est à double détente. Le premier niveau de sélection intervient au niveau de l'ESA avec l'aide des différents pays membres et des comités d'experts de tous les pays membres et de toutes disciplines. Un processus de sélection intervient en outre au niveau national, en France avec l'aide du CNES. La sélection par l'ESA doit être doublée d'un avis positif au niveau français pour que l'expérience soit finalement retenue.

Ainsi le projet PHARAO d'horloge atomique réalisée avec des atomes dits " froids " , soumis par l'équipe du Professeur Claude COHEN-TANNOUDJI, a été sélectionné par l'ESA puis étudié en détail par un groupe d'experts du Comité des programmes scientifiques du CNES, avant de recevoir une autorisation définitive.

M. René TRÉGOUËT, Sénateur, rapporteur , a estimé nécessaire qu'aucune déviation n'intervienne dans l'utilisation des très grands équipements. La communauté scientifique est en effet à la base des TGE. Le cas de la Station spatiale internationale représente l'inverse du processus normal, avec la mise à disposition d'un outil qui n'a pas été demandé. En tout état de cause, il convient que des scientifiques de haut niveau déterminent précisément quelles peuvent être les utilisations optimales de la station.

Il convient de noter, à cet égard que la situation actuelle ne peut même pas être comparée à celle où un fabricant de microscope électronique met gratuitement à disposition d'une équipe de recherche un nouvel équipement en la sollicitant de trouver des applications, puisque, dans le cas de la station spatiale internationale, ce sont les chercheurs eux-mêmes qui ont payé l'outil dans la mesure où l'infrastructure a été financée par les budgets recherche.

Il est donc indispensable de caler les procédures, de manière à éviter un dévoiement des crédits de recherche dans des expérimentations à faible valeur ajoutée relative.

M. Jean-Jacques DORDAIN a déclaré qu'effectivement la station spatiale internationale n'est pas un TGE scientifique. A vrai dire, il s'agit seulement d'une sorte de local dans l'espace, doté de l'eau, du gaz et de l'électricité. Le programme d'information ERASMUS n'exerce aucune contrainte sur les scientifiques mais leur détaille les possibilités ouvertes par la station et les moyens d'y accéder.

M. René TRÉGOUËT, Sénateur, rapporteur , a mis l'accent sur le fait que les financements captés par SSI diminuent, de fait, les ressources disponibles pour les autres TGE.

M. Roger BALIAN a fait une analogie entre la mission d'ERASMUS et celle des visiteurs médicaux qui s'emploient à persuader les médecins d'utiliser les nouvelles molécules mises au point par leur laboratoire.

M. Jean-Jacques DORDAIN a souligné qu'il n'existe pas d'alternative à une utilisation la plus rationnelle possible de la station puisque celle-ci est construite et qu'elle sera maintenue en état de marche pendant de longues années. Au reste, l'Europe s'acquitte en nature de sa participation sous la forme de lancements d'Ariane/ATV. La station existe. Le débat est terminé. Trois milliards d'euros ont été dépensés pour des raisons politiques. Le mieux est de donner la possibilité d'utiliser cette ressource en orbite.

Pour M. Antonio RODOTÀ , il convient de réaliser que la station offre des opportunités d'expérimentation différentes voire complémentaires de celles des satellites automatiques. Une information doit être donnée à cet égard.

M. Gérard BRACHET a indiqué que la part française des coûts de construction de 3 milliards d'euros est de 27 %, soit 5,4 milliards de francs, pour la période 1995-2004. Celle de l'Allemagne est de 41 %, soit 8,1 milliards de francs. S'agissant des coûts d'exploitation, la France prendra à sa charge 27 % des coûts fixes et 17 % des coûts variables de la contribution européenne, soit une charge de 1,15 milliard de francs pour la période 2001-2004.

En contrepartie, on peut effectivement exiger que les expériences sélectionnées pour être embarquées sur la station soient de très haute qualité.

M. Jean-Jacques DORDAIN est ensuite revenu sur la notion de programmes obligatoires et de programmes facultatifs à l'ESA. Les programmes obligatoires représentent environ 20 % du total du budget de l'ESA. Financés par les pays membres au prorata de leur Revenu national, les programmes obligatoires comprennent en particulier le programme scientifique qui a trait aux sciences de l'Univers. L'acception " sciences de l'Univers " est particulière à l'ESA puisque les sciences de la vie et l'observation de la Terre n'en font pas partie et sont en conséquence du ressort des programmes facultatifs.

Ainsi que l'a indiqué M. Antonio RODOTÀ , le programme de participation à la station spatiale internationale est facultatif. Ainsi le Royaume Uni n'y participe pas. De même, le programme GALILEO est un programme facultatif. La France, l'Allemagne, l'Italie et le Royaume Uni participent à la première phase de définition pour des montants équivalents, soit 20 % environ du total européen pour chacun.

Une clause importante des programmes facultatifs est que les pays qui en sont partie prenante s'engagent pour toute la durée d'un programme. Leur engagement de financement est irrévocable, à condition toutefois que l'enveloppe ne dépasse pas 120 % du devis initial.

C'est ainsi que le ministre de la recherche, M. Claude ALLEGRE, a émis le souhait de se retirer du programme facultatif SSI mais qu'il a dû y renoncer en raison de l'engagement juridique pris par la France en 1995.

Au reste, si un Etat membre ne peut se retirer d'un programme facultatif, en revanche, un tel programme peut être arrêté selon la règle du double deux tiers, c'est-à-dire si au moins les deux tiers des pays membres représentant au moins les deux tiers du financement, en décident ainsi.

M. Gérard BRACHET a précise que l'arrêt d'un programme facultatif de l'ESA par le retrait de ses membres s'est produit à deux reprises, la première fois pour le programme Hermès et la deuxième pour le programme DRS (Data Relay Satellite) de relais satellite entre l'orbite et la Terre, qui devrait prendre la suite du programme Artemis, satellite qui sera lancé en 2001, alors que le lancement d'une série de satellites de ce type était initialement prévu.

M. Antonio RODOTÀ a précisé que les principaux contributeurs à la participation de l'ESA à la station spatiale internationale SSI sont l'Allemagne, la France et l'Italie, qui, au total, assurent 87 % du budget correspondant. L'Italie double en réalité son engagement, en raison d'une collaboration directe additionnelle avec la NASA. D'autres pays européens prennent part au programme, de sorte que ce sont au total 10 pays membres de l'ESA qui sont impliqués.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur le poids réel de la Russie dans la SSI, face aux 75 % du financement total assuré par les Etats-Unis et à la part de 6 % de l'Europe.

M. Jean-Jacques DORDAIN a indiqué qu'une étape critique vient d'être franchie, qui permettrait le cas échéant de s'affranchir de la participation russe pour les opérations courantes, en cas de retrait de ce pays. C'est uniquement pour les opérations de secours assurées par les véhicules Soyouz que la participation russe est encore indispensable, jusqu'à ce que le véhicule de secours développé en commun par les Etats-Unis et l'Europe soit opérationnel. Au reste, le niveau de la participation russe est minimisé par la faiblesse du rouble. En réalité, compte tenu du pouvoir d'achat du dollar en Russie, la participation réelle de ce pays atteint certainement plus de 10 %.

M. Jochen SCHNEIDER a remarqué alors que, si les Etats-Unis et l'Europe prennent à leur charge les tâches jusqu'alors assumées par la Russie, la contribution de l'Europe ne pourrait qu'augmenter au delà des montants actuellement prévus.

M. Antonio RODOTÀ a estimé que le soutien à la Russie est aujourd'hui moins crucial que les années précédentes. Au reste, la contribution du Japon, de l'ordre de 8 %, n'est pas négligeable. Elle est du niveau de celle de l'Europe, si l'on cumule l'engagement de l'ESA et les participations directes de différents pays. Le Canada participe, pour sa part, à hauteur de 1%.

Au sujet de la collaboration de la Russie, le Président Henri REVOL, Sénateur, rapporteur de l'Office sur la politique spatiale de la France , a indiqué qu'il avait posé au Président POUTINE lors de sa récente visite au Sénat, une question sur l'importance donnée par la Russie à la Station spatiale internationale.

Pour le président russe, la participation de son pays est d'une importance stratégique, car il convient de ne pas laisser se créer une hégémonie américaine sur cette station. En tout état de cause, le Président POUTINE a confirmé la volonté de son pays d'assurer un soutien fort à cette initiative et fait part de son espoir que l'Europe agisse de même.

M. Antonio RODOTÀ a ajouté que le Président POUTINE souhaite développer la coopération spatiale avec l'Europe, car il serait difficile à son pays, s'il restait isolé, de peser efficacement sur les collaborations internationales face à la puissance américaine.

M. Michel SPIRO a demandé des précisions sur la valeur ajoutée de la Station spatiale internationale dans le domaine scientifique par rapport aux satellites.

M. Gérard BRACHET a souligné l'intérêt de la Station pour le cas où une intervention humaine est nécessaire dans les manipulations expérimentales ainsi que pour celui où il est intéressant de comparer les résultats d'un satellite autonome avec ceux d'un dispositif expérimental placé sur une palette extérieure de la station.

M. Jean-Jacques DORDAIN a ajouté que la station permettra également le test en vraie grandeur d'instruments critiques de satellites avant le lancement de ces derniers.

S'agissant du projet GALILEO, le Président Henri REVOL s'est interrogé sur les lanceurs qui seront utilisés pour le lancement des 30 satellites de la constellation. Les estimations de coûts présentées par l'ESA font en effet référence à la fois à Ariane 5 et au lanceur russe Proton-M.

M. Jean-Jacques DORDAIN a précisé que la mise en concurrence est une règle imposée par la Commission européenne dans tous les domaines, et en particulier dans celui de l'espace, d'où la présentation de l'évaluation des coûts avec deux solutions pour les lanceurs. Mais il est clair que l'ESA privilégie sa propre offre de lanceurs Ariane 5 et est confiante dans sa compétitivité.

Au reste, chacun des 30 satellites de la constellation GALILEO devrait peser environ 1 tonne. Six d'entre eux seront placés en orbite par un même lanceur.

Il est important de souligner que le projet GALILEO a son importance propre et n'a pas pour fonction de fournir des débouchés au programme Ariane 5.

En réponse à une interrogation de M. René TRÉGOUËT, Sénateur, rapporteur, M. Antonio RODOTÀ a précisé que le système EGNOS prévu pour compléter le système GPS et accroître la qualité des services fournis par ce dernier, pourra également s'intégrer à GALILEO.

Ce système a pour mission non seulement de donner une meilleure précision pour l'altitude mais aussi et surtout de donner l'assurance que le signal GPS reçu est de bonne qualité.

La parole a ensuite été donnée à M. Gérard BRACHET pour la présentation de la vision du CNES sur le rôle et les modalités de la Station spatiale internationale et du système GALILEO.

*

M. Gérard BRACHET , directeur général du CNES, a tout d'abord brossé le tableau général de la politique spatiale des grands acteurs mondiaux.

Avec près de 4,8 milliards de dollars de dépenses publiques pour le spatial en 1998, l'Europe se situe loin derrière les Etats-Unis dont les dépenses publiques se sont élevées à 26 milliards de dollars la même année. Au demeurant, en terme de dépenses publiques en 1998, le spatial civil américain pèse 3,4 fois plus lourd que le spatial civil européen et le spatial militaire américain 16,5 fois plus lourd que l'européen.

Figure 1 : Dépenses publiques pour le spatial en 1998

Deux difficultés doivent être signalées dans ces comparaisons internationales : d'une part l'effort soviétique est minimisé par la faiblesse du rouble par rapport au dollar et d'autre part, les dépenses de la Chine, si elles sont difficiles à estimer, ne sont certainement pas négligeables.

En tout état de cause, l'inexistence d'une Europe de la défense représente incontestablement un handicap important pour la politique spatiale européenne.

L'importance stratégique du spatial est reconnue comme primordiale aux Etats-Unis, en particulier par le DOD (Department of Defense), qui estime que l'espace est le moyen de dominer l'information 9 .

Au reste, le spatial civil est du ressort de la NASA et de la NOAA. Les crédits sont répartis à hauteur de la moitié pour la navette spatiale et la Station spatiale internationale, l'autre moitié étant allouée aux grands programmes d'étude de l'Univers, à l'observation de la Terre et à la recherche aéronautique.

M. René TRÉGOUËT, Sénateur, rapporteur, ayant souligné que les activités spatiales américaines ont bénéficié de la priorité aisément obtenue par le programme militaire, M. Antonio RODOTÀ a indiqué que le système GPS a été développé pour la défense et M. Gérard BRACHET que tous les lanceurs traditionnels ont été financés par le DOD.

A la demande de M. Michel SPIRO , M. Gérard BRACHET a précisé que le programme spatial relatif aux sciences de l'Univers s'élève à 2 milliards de dollars aux Etats-Unis contre 350 millions d'euros en Europe.

Le décalage dont souffre l'Europe par rapport aux Etats-Unis en matière spatiale, se reflète dans les chiffres d'affaires réalisés par les firmes industrielles respectives.

Boeing, après le rachat récent des activités de fabrication de satellites de Hughes, a atteint en 1999 dans l'aéronautique et le spatial un chiffre d'affaires (CA) de près de 60 milliards de dollars, soit plus de deux fois le CA du deuxième mondial Lockheed Martin, et de près de trois fois celui du troisième mondial Raytheon, tous deux américains.

EADS, quatrième mondial, a réalisé un CA d'un peu plus de 20 milliards de dollars et British Aerospace, 5 ème mondial, d'un peu moins de 20 milliards de dollars.

Sur le plan des revenus tirés des activités spatiales, les chiffres d'affaires 1999 sont de 9 milliards de dollars pour Boeing, 6 pour Lockheed Martin, 2,4 pour EADS, 1,6 pour Loral Space & Com, et 1,4 milliard pour Alcatel Space.

Parmi les différents pays membres de l'ESA, la France apporte la contribution la plus élevée, soit près de 29 % du total en 2000, en raison de sa part importante dans le programme Ariane. La contribution de l'Allemagne atteint 26 % en raison de son implication importante dans la Station spatiale internationale. Quant à l'Italie, sa contribution est de 14 %. Au demeurant, les efforts faits par les différents pays européens par l'intermédiaire de l'ESA sont relativement stables au cours du temps.

Tableau 10 : Contributions des pays membres de l'ESA en 2000

2000

dépenses en millions d'euros

dépenses en millions de francs

en % du total

France

627,9

4118,6

28,9

Allemagne

563,0

3692,6

25,9

Italie

303,1

1988,3

13,9

Royaume Uni

173,2

1136,2

8,0

Belgique

108,3

710,1

5,0

Espagne

93,1

610,7

4,3

Suisse

71,5

468,7

3,3

Pays-Bas

67,1

440,3

3,1

Suède

54,1

355,1

2,5

Autriche

30,3

198,8

1,4

Danemark

23,8

156,2

1,1

Norvège

21,7

142,0

1,0

Canada

15,2

99,4

0,7

Finlande

15,2

99,4

0,7

Irlande

6,5

42,6

0,3

total

2174,0

14259,0

100,0

S'agissant des TGE spatiaux, le CNES est à même de proposer une typologie.

La première catégorie est celle des TGE à vocation scientifique, qui ont un fort contenu technologique et qui ne sont généralement pas récurrents. A cette catégorie, appartiennent, par exemple, le satellite XMM d'une durée de vie de 6-7 ans et les sondes spatiales destinées à l'étude des planètes.

La deuxième catégorie est celle des TGE à vocation de service public, à caractère opérationnel ou pré-opérationnel. On peut citer à cet égard les satellites météorologiques Meteosat, leurs successeurs MSG dont le premier exemplaire sera lancé en 2002, les satellites polaires défilants METOP, les sous-systèmes de localisation comme ARGOS, les satellites d'observation SPOT et la série suivante PLEIADES, ou bien encore le satellite d'étude des océans TOPEX POSEIDON et ses successeurs de la série JASON.

La troisième catégorie est celle des TGE technologiques, à forte composante industrielle, qui ont pour but de valider des technologies novatrices destinées à renforcer la compétitivité industrielle. Font partie de cette catégorie des satellites expérimentaux de télécommunications comme SPANTOR qui sera lancé en 2001 ou ARTEMIS.

La quatrième catégorie est celle des TGE à vocation d'infrastructure, dont la création répond à un objectif politique ou stratégique. Le programme Ariane et la Station spatiale internationale sont des exemples de TGE de ce type.

En tout état de cause, il est fondamental de souligner que, quelle que soit leur importance ou leur catégorie, les TGE spatiaux sont toujours complémentaires d'équipements au sol et qu'il n'y a pas lieu d'opposer ces deux types d'équipements.

Ainsi, les satellites d'astrophysique sont complémentaires du VLT (Very Large Telescope). Au vrai, les satellites permettent de s'affranchir des perturbations du signal créées par l'atmosphère et d'accéder à des longueurs d'onde différentes de celles correspondant aux mesures au sol. Toutefois, les deux types d'équipements sont indispensables pour la même discipline.

S'agissant de l'observation de la Terre, les satellites permettent une observation globale et répétitive de l'atmosphère et du climat. Conjugués à d'autres moyens, ils contribuent à l'alimentation en données et au test des modèles de simulation numérique de l'atmosphère.

Enfin, pour les sciences de la vie et de la matière, l'espace permet de s'affranchir de la pesanteur au sol d'1 G.

La mise en _uvre de la politique spatiale de la France s'effectue par dans deux cadres, celui de l'ESA et celui des activités propres du CNES.

Le cadre offert par l'ESA possède désormais une grande flexibilité grâce aux programmes facultatifs. Le plus souvent, l'initiative d'un nouveau projet émane d'un pays, qui le soumet aux autres pays membres, et se transforme en programme si certains d'entre eux l'adoptent.

Les missions spatiales conduites en dehors de l'ESA sont de deux ordres. Il s'agit d'une part de micro-satellites réalisés en propre ou de mini-satellites développés en coopération internationale, par exemple avec la NASA ou le Japon. Le CNES tire en effet parti des opportunités de coopération qui peuvent exister en dehors du cadre de l'ESA. C'est notamment le cas des coopérations directes avec la NASA, par exemple pour le satellite TOPEX-POSEIDON ou pour l'exploration de Mars, avec la mission Retour d'échantillons, un programme auquel l'Italie et des pays d'Europe du Nord ont manifesté leur intérêt.

A la demande de M. René TRÉGOUËT, Sénateur, rapporteur, les conditions de démarrage du projet Retour d'échantillon de Mars ont été explicitées par M. Gérard BRACHET .

Ce programme n'a pas initialement été proposé à l'ESA par crainte d'un " effet de domino à l'envers " . L'exploration de Mars est en effet du ressort des sciences de l'Univers, qui font partie du programme obligatoire de l'ESA. Un effet d'éviction a été redouté, qui aurait abouti à ce que les pays membres soient encouragés à ne plus financer les programmes obligatoires.

Pour M. Antonio RODOTÀ , le programme Retour d'échantillon de Mars est extrêmement spécifique. La coopération bilatérale ou multilatérale restreinte peut se révéler quelquefois plus efficace qu'une intervention de l'ESA. Mais l'agence ne s'interdit pas de faire des propositions le moment venu.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur les éventuelles arrières pensées des Etats-Unis qui, en nouant un accord bilatéral, pourraient chercher à forcer la main de l'ESA.

M. Antonio RODOTÀ a estimé que les participations nationales directes ajoutées aux contributions à un éventuel programme de l'ESA pourraient égaler sinon dépasser les montants investis par les Etats-Unis.

*

M. Gérard BRACHET a ensuite détaillé les liens du CNES avec la communauté scientifique .

Les programmes du CNES sont tournés vers la communauté scientifique nationale, soit environ 2500 chercheurs appartenant au CNRS, au CEA, à l'IRD et aux Universités.

En réalité, le CNES finance des projets proposés par les chercheurs extérieurs à lui, puisque aucune équipe de recherche travaillant sur les applications de l'espace n'a été constituée en interne.

Un flux de contacts réguliers relie donc le CNES et les communautés scientifiques des différentes disciplines faisant partie de Météo-France, de l'IGN, du SHOM, de l'IFREMER, du BRGM, du CNRS/INSU, du CEA, de l'ONERA, de l'INRA, du CEMAGREF, de l'IRD et de l'INSERM.

Il existe par ailleurs une communauté scientifique avec laquelle le CNES a un lien particulier. C'est celle de la Défense puisque le CNES assure pour le compte de la DGA la maîtrise d'ouvrage des programmes spatiaux militaires comme HELIOS.

En outre, le CNES joue un rôle important dans l'amélioration de la compétitivité de l'industrie spatiale française, en particulier celle des maîtres d'_uvre et des fournisseurs d'équipements spatiaux, par l'intermédiaire de ses programmes technologiques de recherche et développement.

*

Au demeurant, quelles sont les priorités du CNES pour les années à venir ?

Une première priorité est de maintenir la compétitivité d'Ariane 5 et de répondre à l'évolution de la demande de lanceurs.

Un deuxième axe prioritaire est de relancer la politique scientifique et technologique de l'espace, avec en particulier le programme Mars, le développement des mini et des micro-satellites, et les technologies de base.

Les programmes relatifs aux lanceurs sont à cet égard particulièrement important.

S'agissant d'Ariane 5, un double objectif est poursuivi. Il convient en premier lieu d'en augmenter la performance, celle-ci devant pouvoir atteindre 4,5 tonnes en 2002 puis 5,5 tonnes pour chacun des deux satellites géostationnaires que la fusée pourra emporter.

Le deuxième objectif est par ailleurs de développer une capacité de réallumage grâce à la réalisation du moteur Vinci afin de pouvoir lancer en grappe des satellites comme ceux de la constellation GALILEO, avec des phases de mise en orbite et de changement de trajectoire.

Par ailleurs, il a été décidé de démarrer le développement d'un démonstrateur technologique du nouvel étage propulsif à propergol P80 réalisé en commun avec l'Italie, dont le rôle est particulièrement important, puisqu'il constituera le premier étage de la fusée italienne Vega et une étape clé vers la préparation de l'accélérateur à poudre de 2 ème génération P80.

Enfin, il s'agit non seulement de mettre au point le nouvel étage cryotechnique d'Ariane 5 mais également de préparer le futur d'Ariane 5 à l'horizon de 20 ans, avec la conception éventuelle de lanceurs réutilisables.

Un troisième axe est la poursuite de la participation européenne à la Station spatiale internationale SSI et la préparation à son utilisation.

La quatrième action prioritaire est l'engagement effectif des programmes actuellement en préparation, c'est-à-dire GALILEO dans le domaine de la navigation et du positionnement par satellite et le programme PLEIADES d'observatoire spatial de 2 ème génération qui devrait devenir un élément essentiel de l'initiative européenne GMES (Global Monitoring European System) de surveillance globale de l'environnement actuellement en cours d'élaboration.

La planification des efforts du CNES pour les prochaines années traduit un redéploiement des efforts.

Depuis 1997, on observe une diminution des crédits consacrés au transport spatial en raison de l'achèvement de la mise au point d'Ariane 5. Cette diminution devrait se poursuivre dans les cinq prochaines années et se traduire par une baisse de 38 à 31 % du total en moyenne sur la période 2001-2006.

Au contraire, une augmentation des crédits des sciences et technologies spatiales est programmée pour les prochaines années, pour atteindre au final 32 % du total en moyenne sur la période 2001-2006.

La première raison en est le poids du programme Mars. Mais cette évolution provient aussi en deuxième lieu de l'augmentation constante du coût des instruments dits " charges utiles " des satellites scientifiques de l'ESA, qui sont financés par les budgets nationaux et non pas par celui de l'ESA. Une augmentation significative des crédits relatifs aux radiocommunications est également planifiée. En revanche, les dépenses relatives à l'observation de la Terre seront vraisemblablement en diminution, non pas du fait d'une réduction d'activité dans ce domaine, mais en raison de la baisse du coût des missions obtenue grâce au recours aux mini-satellites.

Un mini-satellite est un équipement d'une masse de 500 kg environ et se caractérisant par un coût par mission égal ou inférieur à 300 millions de francs. Le développement de cette filière repose en grande partie sur la mise au point de la plate-forme PROTEUS. Les satellites JASON, PICASSO-CENA, MEGHA-TROPIQUES en sont des exemples. Les projets SMOS et COROT, ce dernier venant d'être décidé, en sont d'autres.

Les micro-satellites se caractérisent pour leur part par une masse de 100 kg et un coût de 50 millions de francs par mission. Ils devraient être opérationnels en 2002. Les contraintes qui leur sont attachées sont particulièrement difficiles, mais le CNES est confiant sur la capacité de l'industrie à relever le défi correspondant.

Tableau 11 : Evolution de la répartition des programmes du CNES par grands domaines

1997-2000

2001-2006

montant annuel moyen (milliards de francs)

6340

6554

Transport spatial (%)

38

31

Sciences et technologies (%)

25

32

Applications (%)

28

25

Infrastructure orbitale (%)

9

12

S'agissant de l'avenir des systèmes spatiaux européens, M. Antonio RODOTÀ a signalé aux participants l'important rapport commandé par l'ESA à MM. Bild, Peyrelevade et Spaedt.

*

La discussion a ensuite porté sur les différents programmes d' exploration de Mars .

M. Gérard BRACHET a indiqué que l'étude de la planète Mars et le programme Retour d'échantillons sont des idées chères à M. Claude ALLÈGRE.

Initialement, le programme relatif au retour d'échantillon devait se dérouler en 2005. En fait, compte tenu de l'échec de la NASA pour les missions Mars Climate Orbiter et Mars Polar Lander, l'ensemble du programme américain a été remis à plat. En définitive, le programme Retour d'échantillon paraît repoussé au plus tôt en 2011 sinon en 2014.

Toute l'attention des responsables du programme se concentre à l'heure actuelle sur la validation technologique des différents aspects du projet. En l'occurrence, la phase actuelle n'est pas " décisionnelle " .

Le coût de la participation française avait été estimé au départ à 2,7 milliards de francs. On estime aujourd'hui qu'il atteindra 3 milliards de francs, avec un échéancier au demeurant encore très imprécis.

A plus brève échéance, le programme Mars Express de l'ESA est prévu pour 2003. La contribution française sera de quelques dizaines de millions de francs, s'ajoutant à sa participation à ce programme obligatoire de l'ESA. Le coût réduit de cette mission s'explique par le fait que la mission recourt à des instruments déjà développés pour les missions Mars 94 et Mars 96.

Ultérieurement, le programme Netlander, qui réunit un consortium qui réunit la France, l'Allemagne, la Finlande et la Belgique, devrait installer en 2007 sur le sol martien un réseau de 4 stations. Le coût de ce programme pour le CNES devrait atteindre 600 millions de francs, dont les deux tiers pour la France.

Au demeurant, la programmation pluriannuelle du CNES est établie à budget constant, dans la mesure où l'espace civil représente 16 % de l'enveloppe recherche civile, soit une part plus importante qu'en Allemagne, et qu'il paraît peu réaliste de compter sur son augmentation.

*

Le débat a ensuite porté sur le nouveau programme du CNES pour l'observation de la Terre, intitulé PLEIADES .

M. Gérard BRACHET a indiqué qu'il s'agit pour le CNES de répondre à la nouvelle concurrence internationale sur le marché de l'imagerie, de réduire les dépenses publiques et de développer de nouvelles applications scientifiques et institutionnelles, en maximisant la fertilisation croisée des applications civiles et militaires.

Au plan technique, le but est de mettre en place un système multicapteurs avec des satellites plus petits et une architecture d'ensemble pour un accès rapide à des données renouvelées fréquemment.

Sur le plan de l'organisation, le programme PLEIADES prévoit à la fois des coopérations bilatérales ou multilatérales et le recours à l'ESA.

Le volet imagerie de PLEIADE comprend actuellement la préparation des successeurs de la série des satellites optiques d'observation SPOT. Il devrait être réalisé en coopération principalement avec l'Italie qui réalisera les satellites COSMO-SKYMED d'observation radar. Cette coopération devrait donner lieu prochainement à la signature d'un accord intergouvernemental. Par ailleurs, la coopération avec l'Allemagne est recherchée pour l'observation radar mais ce pays semble pour le moment désireux de consacrer ses efforts à son propre projet SARLUPE en cours de définition.

Le financement consacré à PLEIADES est de 100 millions de francs pour la phase préparatoire qui s'est achevée fin 1999 et de 200 millions de francs pour la phase de définition sur 2001-2002. Ce projet où le civil et le militaire se renforcent mutuellement, devrait démarrer sa réalisation en 2002.

Les autres volets de PLEIADES seront principalement mis en oeuvre dans le cadre de l'ESA, dans la continuité des missions ERS et Envisat. Quant au développement de nouvelles missions, il devrait s'effectuer dans le cadre du projet européen GMES en cours de mise au point.

*

Dans le domaine des télécommunications spatiales , le CNES a pour but de développer de nouvelles possibilités offertes par les satellites et de renforcer les positions de l'industrie française représentée désormais par Alcatel Space Industry et par Astrium, l'alliance entre Matra Marconi et DASA.

En dehors des programmes de recherche et développement technologique financés par le CNES à hauteur de 20 millions par an et l'ESA à hauteur de 65 millions de francs par an sur 4 ans, le principal soutien à l'industrie est représenté par le satellite STENTOR qui sera lancé en 2001 pour valider de nouvelles technologies en orbite. L'exploitation du satellite permettra en outre de tester de nouveaux services, pour une dépense annuelle de 60 millions de francs sur 4 ans. Elle aura assurément des retombées technologiques et économiques fortes.

*

La discussion a ensuite porté sur les procédures budgétaires de lancement de projets relatives au CNES.

M. René TRÉGOUËT, Sénateur, rapporteur, s'étant interrogé sur les raisons de la baisse de la participation de la Défenses aux crédits du CNES pour 2001, M. Gérard BRACHET a estimé qu'il s'agit d'un effet de la mécanique budgétaire, qui fait du prélèvement sur le budget de la Défense une variable d'ajustement dont le montant est difficilement prévisible.

S'agissant des TGE spatiaux à vocation scientifique, les comités scientifiques thématiques émettent des recommandations examinées ensuite par le Comité scientifique plénier, dont le président est M. Gérard MÉGIE, président du CNRS. Le projet COROT d'observation sismique des étoiles et de détection éventuelle des planètes qui vient d'être décidé donne un exemple du processus suivi. Ce programme de 350 millions de francs a subi un coût d'arrêt en 1999 en raison d'un manque de crédits, puis a dû être internationalisé pour finalement recevoir l'agrément du Comité scientifique et le feu vert de la direction du CNES.

Dans le cas où les projets ne proviennent pas de la communauté scientifique mais de l'industrie ou des opérateurs et des autres organismes publics que les institutions de recherche, c'est un examen interministériel complet qu'ils doivent subir. Ainsi le projet GALILEO est porté par le ministère des transports avec une intervention de la DGAC, de la Direction des Affaires maritimes, de la Direction des Transports terrestres, mais est également soumis à l'examen du ministère de la Défense.

En réalité, le processus d'approbation interministériel échappe totalement au CNES qui doit s'en remettre à ses tutelles pour défendre ses dossiers.

Les projets relatifs à la météorologie, normalement à caractère opérationnel, subissent toutefois un examen par le Comité scientifique, du fait de leur intérêt évident pour la recherche. S'agissant par ailleurs des programmes de télécommunications spatiales, le CNES limite ses financements aux programmes de recherche amont ou aux programmes pré-compétitifs.

*

A l'invitation de Mme Sylvie JOUSSAUME , membre du groupe de travail, la question de la pérennité des missions spatiales scientifiques a ensuite été évoquée. La définition donnée par le CNES des TGE spatiaux à caractère scientifique spécifie en effet qu'ils n'ont pas de caractère récurrent, alors que la climatologie requiert des mesures permanentes sur les périodes les plus longues possibles.

M. Gérard BRACHET a souligné que le programme TOPEX-POSEIDON ainsi que son successeur JASON 1 ont comporté de nombreuses innovations au plan technologique. Les agences d'exploitation comme EUMETSAT devraient prendre le relais pour la série opérationnelle. Au demeurant, des discussions sont en cours afin qu'EUMETSAT prennent en charge 50 % du coût de JASON 2, à titre de programme facultatif pour les pays membres. En tout état de cause, le CNES essaie d'assurer la continuité des mesures par un mécanisme de partage des coûts, qui pourrait d'ailleurs associer la NOAA. Le CNES ne s'interdit pas de favoriser la continuité des mesures mais il existe un coût de possession du système qui ne peut être sous-estimé et qui doit être pris en charge d'une manière ou d'une autre.

La parole a ensuite été donnée aux représentants du CNRS.

*

M. Jacques SEYLAZ , Directeur scientifique adjoint du département des sciences de la vie du CNRS a tout d'abord déclaré, en tant que représentant de Mme Geneviève BERGER, directeur général, que si les chercheurs du CNRS n'ont pas demandé des outils tels que Mir, la Navette spatiale ou la Station spatiale internationale, ils estiment toutefois utiles les possibilités d'expérimentation ouvertes par ces équipements.

Par ailleurs, comme ces outils existent, il s'agit désormais pour le CNRS de les mettre dans les meilleures mains, c'est-à-dire d'en donner l'accès aux meilleurs laboratoires.

Les objectifs scientifiques des vols habités sont d'une part l'Homme en tant que sujet d'expérience, d'autre part les contre-mesures destinées à lui rendre possible la vie dans l'espace et enfin la réalisation d'expériences où l'intervention humaine est indispensable. Sur ce dernier point, l'attention des chercheurs se concentre sur l'observation et les expériences sur les animaux vivant en apesanteur ainsi que sur l'étude des effets comparés de la microgravité par rapport à la pesanteur. S'agissant de l'utilisation de la Station spatiale internationale, l'Homme n'y devrait pas être l'acteur principal, dans la mesure où la quasi-totalité des expériences de biologie cellulaire animale et végétale seront automatisées.

La recherche spatiale dans le domaine des sciences de la vie concerne 22 laboratoires du CNRS. Le soutien direct donné aux laboratoires représente un budget annuel de 8 millions de francs par an, répartis entre 40 % de ces laboratoires. Parmi les disciplines concernées par les recherches spatiales, les neurosciences représentent la plus grande part, avec 80 % du nombre de laboratoires. On trouve ensuite la biologie et la génétique du développement, la physiologie osseuse et la physiologie musculaire, la biologie végétale, et la physiologie cardiovasculaire. Ce dernier domaine est au demeurant principalement pris en charge par l'INSERM.

Quels sont les objectifs des recherches spatiales dans le domaine des sciences de la vie ?

L'objectif premier est la recherche fondamentale, avec la compréhension des mécanismes de contrôle physiologique et pathologique. La recherche spatiale apporte une contribution à la connaissance des mécanismes de dégradation ou de protection à l'oeuvre dans les neurosciences ainsi que pour la définition des modèles de vieillissement rapide des tissus et de l'organisme, par exemple pour l'ostéoporose. A cet égard, les vols sur la Station spatiale internationale permettront des observations de plus longue durée que les 15 jours des vols avec la navette américaine et du même ordre que celles réalisées sur MIR. La Station spatiale internationale permettra également d'analyser les conditions d'adaptation à des vols de longue durée, en prenant en compte non seulement les conséquences de la microgravité et de l'exposition aux rayonnements cosmiques mais également les effets psychologiques du confinement, de l'isolement et de la promiscuité.

En réponse à une demande de précision de M. René TRÉGOUËT, Sénateur, rapporteur, M. Jacques SEYLAZ a souligné que l'étude des mécanismes est le point fondamental des recherches dans l'espace. Certes des retombées rapides ont pu exister, par exemple dans le domaine de l'orthostatisme dont les mécanismes en microgravité ont pu faire progresser la connaissance. Mais l'essentiel est bien la recherche fondamentale.

M. Roger BALIAN s'étant interrogé sur l'apport de la recherche spatiale à la connaissance de l'ostéoporose, mis à part le fait que l'apesanteur l'accélère, M. Jacques SEYLAZ a confirmé que l'on n'a pas pu en tirer d'application thérapeutique.

M. Jérôme PAMELA , membre du groupe de travail , a estimé au sujet de l'ostéoporose que, pour que des conséquences soient tirées des recherches spatiales dans ce domaine, il faudrait qu'il y ait une identité des causes de son accélération, que ce soit à la surface de la Terre ou dans l'espace, sinon la recherche spatiale ne pourrait faire progresser la connaissance de cette affection.

La parole a ensuite été donnée à M. Christophe VIGNY pour un exposé de l' intérêt scientifique de l'espace et en particulier des systèmes de radionavigation .

*

M. Christophe VIGNY , chercheur au laboratoire de géologie de l'Ecole normale supérieure et chargé de mission à l'INSU-CNRS, a tout d'abord estimé que le financement de la Station spatiale internationale risque d'opérer une ponction sur les crédits de la recherche en raison de son coût élevé.

Au vrai, l'on peut se demander quel est l'intérêt scientifique d'une telle ressource, en comparaison avec les possibilités offertes par les mini-satellites et les micro-satellites.

S'agissant de la l'observation de la Terre depuis l'espace, la communauté scientifique est très active dans ce domaine. D'ores et déjà, il existe à cet égard un " bestiaire " de satellites qui seront de plus en plus nombreux, notamment grâce à la mise au point des mini et des micro satellites qui sont attendus avec impatience par les chercheurs.

Un problème fondamental doit être résolu dans ce domaine, celui de la continuité des observations dans le temps. S'il est intéressant de disposer de mesures à une date donnée, l'évolution dans le temps est encore plus significative. Ainsi, par exemple, le recours à des satellites pour la mesure du champ magnétique permet une précision et une couverture géographique sans équivalent.

La pérennité des mesures a permis de découvrir un phénomène capital, la diminution de 1 pour mille par an du champ magnétique, avec une diminution de l'ordre de 10 % entre 1838 et 1980 et, surtout, une évolution trois fois plus rapide sur les dernières décennies. Au rythme actuel, dont on n'est toutefois pas sûr qu'il se maintienne, la composante dipolaire de champ magnétique terrestre, qui est la plus importante, disparaîtrait dans 632 années. Or l'ionosphère qui protège la Terre des vents solaires est organisée par le champ magnétique.

Compte tenu des conséquences de la disparition éventuelle de l'ionosphère, un phénomène au demeurant totalement indépendant des activités humaines, on comprend l'importance que les mesures de champ magnétique terrestre assurées avec précision depuis 10 ans par le satellite MAGSAT se poursuivent sur plusieurs décennies. Au demeurant, MAGSAT est une mission NASA du début des années 1980. Deux missions spatiales sur le magnétisme terrestre sont actuellement en cours. La première est la mission danoise OERSTED lancée en 1999 et limitée au champ magnétique. La deuxième est le satellite CHAMP, satellite allemand avec une participation du CNES et de la NASA, qui mesure non seulement le champ magnétique terrestre mais également le champ de gravité, ceci pour une période d'environ 5 ans. En substance, une vingtaine d'années se seront écoulées entre la mission MAGSAT et les deux missions actuelles.

Au sujet de l'impact des vents solaires sur le climat, Mme Sylvie JOUSSAUME a remarqué que les variations de la constante solaire peuvent effectivement avoir un impact sur le climat. Il est probable à cet égard que le petit âge glaciaire survenu au 17 ème siècle correspond à l'évolution de taches solaires. S'agissant du réchauffement relatif au XX e siècle, sa première phase est probablement liée à l'activité du Soleil. Toutefois, la dernière phase correspondant aux dernières décennies ne résulte pas d'un tel phénomène, l'intervention du CO2 et des aérosols étant indispensable pour expliquer le réchauffement enregistré.

M. Christophe VIGNY a ensuite donné un autre exemple où l'observation spatiale sur une longue période est capitale, celle du champ de gravité.

Si le réchauffement perdure, les pôles pourraient remonter en raison de la fonte des glaces polaires, ce qui entraînerait une réorganisation des masses sur le manteau terrestre et une modification du champ de gravité.

Ainsi, tant pour le champ de gravité que pour le champ magnétique, la mesure sur plusieurs décennies par des satellites est indispensable, ce qui requiert qu'une filière assurant un travail pérenne d'observation soit définie.

M. Gérard BRACHET a indiqué que le satellite allemand CHAMP, lancé en 2000, assure la continuité avec MAGSAT.

M. Christophe VIGNY a ajouté qu'il faudra alors prévoir une série de plusieurs satellites du type CHAMP.

La question de GALILEO a ensuite été abordée.

La communauté scientifique trouve un intérêt majeur dans les techniques de positionnement et non seulement utilise les systèmes de radionavigation mais leur apporte des perfectionnements considérables.

A cet égard, la problématique de systèmes de radionavigation souffre d'un manque de clarté : à qui ces services sont-ils destinés, pour quelle utilisation et avec quelle précision ?

Les informations données par les représentants du CNES et de l'ESA au cours de la présente audition sont relatives à des services avec une précision métrique s'adressant majoritairement au grand public et aux utilisateurs professionnels.

Pour autant, le système actuel GPS, optimisé par les scientifiques eux-mêmes, leur est d'une grande utilité. Des discussions sont en cours au CNES sur les demandes de la communauté scientifiques pour GALILEO. La plus grande attention doit leur être donnée.

Ainsi pour les sciences de la Terre, la communauté scientifique demande une précision aussi élevée que possible.

Une précision décimétrique permet en effet des mesures différentielles indispensables pour la vulcanologie et la géologie, en permettant l'observation des mouvements de la lave, des glissements de terrain ou des conséquences de l'érosion.

Une précision centimétrique trouve une application directe en tectonique des plaques, dont les mouvements sont de quelques centimètres par an, et permettrait vraisemblablement de prévoir les mouvements déclenchant les séismes. Il faut noter à cet égard que les chercheurs parviennent à une telle précision avec l'actuel système GPS, en utilisant simultanément la phase et le code du signal, la capacité du système à émettre en double fréquence présentant au demeurant des avantages additionnels.

Enfin, une précision millimétrique est possible en poussant au maximum toutes les possibilités du système GPS. Dès lors, l'on peut déceler les mouvements verticaux de la surface de la Terre, ce qui permet de mettre en évidence la croissance des chaînes montagneuses, d'évaluer la fonte des glaces et de mesurer le rebond postglaciaire.

Toutes ces possibilités offertes par le système GPS ont effectivement été développées par les scientifiques eux-mêmes. Dans ces conditions quel pourrait être l'apport de GALILEO ?

Le système GALILEO est intéressant dans la mesure où il fournira des services de même type mais surtout où il fournira des possibilités additionnelles, notamment en matière de précision.

A cet égard, la communauté scientifique devra pouvoir accéder au code et à la phase d'un signal au demeurant non brouillé et non dégradé.

A cet égard, M. Gérard BRACHET a indiqué qu'aucun système de dégradation du signal n'est pour l'instant prévu, GALILEO étant un système ouvert à usage civil, mais qu'il comportera des services gouvernementaux à accès réservé. En outre, un cryptage pourra être mis en place pour certaines applications commerciales.

M. Christophe VIGNY s'est ensuite interrogé sur les progrès éventuels de GALILEO en matière de précision, par rapport au système GPS.

Pour le moment, les demandes de la communauté scientifique ne semblent pas entendues.

Pourtant, il convient de l'informer des spécifications de taille et de forme des satellites. La forme anguleuse des satellites influence les forces et l'éclairage auxquels ils sont soumis et modifie leur trajectoire. En connaissant ces paramètres, il est possible de recalculer les trajectoires réelles et d'atteindre une précision de l'ordre du centimètre pour le positionnement.

La deuxième exigence est que GALILEO prévu pour être un système bifréquence intègre d'entrée une 3 ème fréquence, plus haute encore que celles qui sont prévues, de façon à gagner encore en précision.

Enfin, si le système GPS actuel est performant, c'est grâce au segment sol mis en place par la communauté scientifique internationale, dans le cadre du consortium IGS rassemblant les utilisateurs scientifiques.

Le segment sol de l'IGS (International GPS Service) comprend plusieurs éléments. Le premier élément est le réseau de plusieurs centaines de stations GPS permanentes bien réparties à la surface de la Terre. Le deuxième élément est représenté par les 7 centres de calcul d'orbites des satellites GPS et de positions de stations et par le centre de coordination de l'ensemble. Le troisième élément est constitué par un ensemble de centres d'archivage et de distribution de données accessibles gratuitement à toute la communauté scientifique mondiale.

En tout état de cause, GALILEO ne pourra pas atteindre une précision de l'ordre du centimètre et encore moins du millimètre si un segment sol n'est pas mis en place.

Or, à cet égard la France a longtemps été en retard par rapport aux autres pays. Il y a encore 5 ans, la France ne possédait pas de station sol. Aujourd'hui, on en trouve 10, à comparer aux 40 stations en Allemagne sinon aux 1000 stations au Japon utilisées pour la surveillance sismique.

Jusqu'à un passé très récent, les seules stations GPS permanentes dans les DOM-TOM se trouvaient à Tahiti et en Guyane. Les îles Kerguelen et la Nouvelle-Calédonie en sont dotées depuis, respectivement en 1996 et en 1998. Les Antilles n'en disposent toutefois pas encore.

Au demeurant, l'INSU n'a pu se doter que d'une vingtaine d'instruments mobiles pour une somme globale d'environ 4 millions de francs.

En définitive, le système GALILEO n'aura d'applications scientifiques que dans la mesure où un segment sol sera construit.

M. Roger BALIAN s'est interrogé sur la possibilité de voir le segment sol GPS être utilisé par GALILEO.

M. Christophe VIGNY a indiqué que les constructeurs de récepteurs ayant su proposer des récepteurs utilisables pour le GPS et pour le système russe GLONASS, il devrait en être de même pour GALILEO.

M. Jean GALLOT a posé la question des mécanismes de décision pour le financement des TGE. Avec GALILEO, on se trouve dans la situation d'un équipement mixte dont la vocation n'est pas purement scientifique. Comment pourrait-on améliorer les mécanismes de décision ?

M. Christophe VIGNY a noté qu'un TGE est le plus souvent un instrument localisé. Or les sciences de la Terre mettent souvent en jeu des réseaux de petits instruments. S'agissant de GALILEO, un ensemble de 200 récepteurs et de divers moyens de fonctionnement appartient à la catégorie des petits et moyens équipements.

Mais un autre point important est que la communauté scientifique soit consultée pour la définition du système.

M. Gérard BRACHET a précisé à cet égard qu'un groupe de réflexion a finalement été mis en place pour les usages scientifiques de GALILEO par le ministère de la Recherche, dans la mesure où l'enveloppe recherche sera sollicitée pour la mise en place de ce système.

M. René TRÉGOUËT, Sénateur, rapporteur, s'étant inquiété d'éventuelles hésitations françaises sur ce projet, M. Gérard BRACHET a indiqué que la France est déterminée à aller de l'avant, de même que l'Italie. Des initiatives dans ce sens ont été prises pendant l'été 2000 par le Gouvernement qui a recommandé le projet à la Commission. Il ne faut toutefois pas se cacher que l'accueil fait à ce projet varie selon les ministères. A côté de la détermination française et italienne et des réserves britanniques et néerlandaises, l'Allemagne est actuellement indécise, le ministère des transports d'outre-Rhin étant réservé après avoir été en pointe il y a deux ans.

Au demeurant, une infrastructure comme GALILEO représente un investissement de 3 milliards d'euros, soit près de 20 milliards de francs, pour lequel il faut trouver une juste répartition entre les pouvoirs publics et le secteur privé.

M. Christian CUVILLIEZ, Député, rapporteur, a élargi la question du partage du financement entre le public et le privé à l'ensemble des TGE. Sans doute, à cet égard la distinction entre TGE scientifiques et TGE techniques ou industriels est-elle utile.

M. Gérard BRACHET a rappelé que c'est l'ancien Conseil des grands équipements qui a demandé à examiner le projet de Station spatiale internationale et l'a finalement inclus dans les TGE, ce qui n'avait pas manqué d'étonner certains observateurs.

Pour autant, il est clair que la Station spatiale internationale n'est pas le fruit d'une demande de la communauté scientifique mais qu'il s'agit là d'une infrastructure décidée par des raisons politiques.

M. Louis FORNERY , administrateur à l'ESA, a souligné que le système GPS, créé au départ pour une utilisation militaire, a finalement rencontré l'intérêt des scientifiques.

M. Michel SPIRO a noté qu'il en est de même pour le Laser MegaJoule.

*

Après avoir remercié les participants pour leur contribution à l'information des Rapporteurs de l'Office, M. Christian CUVILLIEZ, Député, rapporteur, a levé la séance.

14. Sciences de l'Homme et de la Société - mercredi 22 novembre 2000

CNRS

• Mme Marie-Claude MAUREL, Directrice du Département des sciences de l'Homme et de la société (SHS)

• M. Georges TATE, Directeur adjoint du Département SHS

• M. Bruno PÉQUIGNOT, Directeur scientifique adjoint du Département SHS

• M. Philippe FLUZIN, Directeur de l'Institut de recherche sur les archéomatériaux

• M. Bruno HELLY, Directeur de recherche à l'Institut Fernand Courby

• Mme Ghislaine BOUVIER, Chargée d'études, Département des sciences de l'Homme et de la société

• Mme Dominique VIOLLET, Chargée des relations avec les élus

M. Christian CUVILLIEZ, Député, rapporteur , a accueilli les participants en leur indiquant que la réflexion en cours à l'Office parlementaire d'évaluation des choix scientifiques et technologiques sur les TGE, est conduite à l'aide d'un collectif d'experts et grâce à l'audition de nombreux scientifiques.

Cette réflexion porte en particulier sur l'opportunité d'élaborer une nouvelle nomenclature permettant de mieux prendre en compte les nouveaux TGE et sur l'intérêt éventuel de créer une nouvelle instance de conseil et de suivi des grands équipements.

La parole a été donnée à Mme Marie-Claude MAUREL.

*

Mme Marie-Claude MAUREL , Directrice du Département des sciences de l'Homme et de la société (SHS), après avoir remercié les Rapporteurs d'inclure dans leurs investigations les besoins des sciences humaines et sociales, a indiqué que ces disciplines ont besoin d'une politique coordonnée de très grands équipements pour consolider les investissements déjà pratiqués et pour mettre en réseau et en cohérence les moyens dont elles disposent.

Les sciences de l'Homme et de la société enregistrent depuis environ 30 ans des changements profonds dans leurs procédures et leurs méthodes de travail, changements qui se traduisent par des avancées importantes dans la connaissance des sociétés et des cultures, dans le temps et dans l'espace. Ces progrès sont en partie liés à la mise en oeuvre de très grands équipements spécifiques, qui contribuent en tout état de cause à leur accélération.

La recherche en sciences humaines et sociales se structure en effet en équipes et en laboratoires suivant une organisation analogue à celles de sciences exactes. Cette organisation collective a pour avantage d'une part de permettre la programmation de recherches à grande échelle, par exemple en archéologie, et, d'autre part, de favoriser les échanges interdisciplinaires, en combinant différentes approches pour une même aire culturelle ou géographique.

En outre, ces disciplines ont fait des progrès dans l'observation et l'interprétation des données en généralisant le traitement des données quantitatives, en recourant à l'expérimentation, à la modélisation et à la simulation. Il en résulte des modifications dans les modalités pratiques de travail, tant pour la collecte et la production des données que pour l'archivage et la conservation, l'exploitation et le traitement statistique de celles-ci.

La mise en oeuvre de ces nouvelles méthodes nécessite bien entendu des investissements dans différents matériels des sciences et technologies de l'information et de la communication ainsi que des coopérations avec les spécialistes de ces techniques, d'où une concentration et une coordination indispensables des moyens financiers et techniques.

Deux réseaux jouent dès lors un rôle de structuration. Au plan national, les Maisons des Sciences de l'Homme, au nombre d'une quinzaine aujourd'hui, représentent des pôles de référence. Au plan international, les instituts de recherche à l'étranger constituent une base de départ pour une ouverture internationale croissante.

Les instruments et les réseaux d'implantation des sciences de l'homme et de la société représentent des investissements dont le coût unitaire est modeste mais dont l'ensemble atteint le niveau des investissements lourds. En tout état de cause, la France enregistre un retard par rapport à ses partenaires européens ou américains.

La question des TGE dans ce domaine est abordée dans la suite sous plusieurs angles : les Maisons des Sciences de l'Homme, les bibliothèques et les réseaux de documentation, les banques de données des sciences sociales et l'archéométrie.

Dans ces différents domaines, une politique coordonnée est indispensable, s'accompagnant d'une mise en réseau, qui aura aussi pour avantage de donner une visibilité accrue aux sciences de l'homme et de la société au plan européen.

*

Mme Marie-Claude MAUREL a fait observer que les Maisons des sciences de l'Homme constituent l'exemple même des nouveaux modes de structuration à l'oeuvre dans ces disciplines, en concentrant sur un même lieu des chercheurs et des moyens matériels. La direction de la recherche du ministère de la recherche et le CNRS soutiennent cette orientation en particulier parce qu'il s'agit d'un moyen de remédier à la dispersion des structures et des moyens des sciences de l'homme et de la société.

La Maison des Sciences de l'Homme du boulevard Raspail a une trentaine d'années. Son exemple n'a toutefois essaimé en région qu'au début des années 1990. Grâce à des partenariats avec les universités, les Maisons des Sciences de l'Homme sont désormais pour la plupart construites sur des campus universitaires.

La création des Maisons des Sciences de l'Homme répond à trois ordres de préoccupations.

Le premier objectif est scientifique et vise à l'accroissement des échanges entre chercheurs appartenant à une même discipline ou au contraire à des disciplines différentes, en vue de décloisonner les savoirs et de favoriser l'interdisciplinarité grâce à la constitution de collectifs plus ouverts.

Le deuxième objectif est d'ordre institutionnel. Rassemblant généralement plus de dix laboratoires et plus de cent chercheurs, les Maisons des Sciences de l'Homme créent un effet de masse, qui rend plus visible le travail scientifique, justifie les demandes de moyens, facilite les contacts entre la recherche et le monde socio-économique, et enfin donne une capacité de négociation accrue des laboratoires avec les collectivités territoriales. Les Maisons des Sciences de l'Homme sont relativement bien distribuées sur le territoire, encore que le Nord de la France soit relativement moins bien doté que le midi. Deux Maisons supplémentaires sont en projet à Paris Nord et à Montpellier.

Le troisième objectif est d'ordre économique. Les Maisons des Sciences de l'Homme permettent des choix budgétaires rigoureux, grâce à une rationalisation des choix d'équipements et d'instruments, avec une mise en commun des moyens informatiques et des personnels ITA (ingénieurs, techniciens, administratifs). Il s'agit donc là d'un moyen de politique scientifique.

Une ACI (action concertée incitative) porte sur la mise en réseau des Maisons des Sciences de l'Homme, en particulier pour les ressources documentaires, l'informatique, les équipements de recherche et la circulation des chercheurs.

Des crédits de 27 millions de francs, issus du Fonds national de la science, ont été inscrits au budget de la recherche pour 1999, pour la mise à niveau des équipements, la préparation de la création des Maisons de Strasbourg, de Lille et de Paris Nord, et pour l'organisation d'échanges avec des chercheurs étrangers.

Un dernier avantage des Maisons des Sciences de l'Homme est de constituer d'excellents lieux de formation pour les jeunes chercheurs.

L'intérêt des Maisons des Sciences de l'Homme est bien mis en évidence par l'exemple par la Maison méditerranéenne des Sciences de l'Homme d'Aix-en-Provence. La première tranche en a été ouverte en 1997. Cette unité dont la vocation principale est l'étude du monde méditerranéen, regroupe une dizaine de laboratoires appartenant aux disciplines des sciences de l'homme, des sciences sociales, de la préhistoire et de l'archéologie et rassemble environ 300 chercheurs, personnels ITA et enseignants.

Cette structure fédérative, qui comprend des équipements informatiques, un centre de documentation, une médiathèque et une bibliothèque, a été dotée par le CNRS d'une unité mixte de service. Une deuxième tranche d'équipements est d'ores et déjà engagée. Les chercheurs et les responsables apprécient la nouvelle organisation du travail apportée par la Maison des Sciences de l'Homme et le supplément de visibilité qu'elle donne à leurs travaux, tant au plan régional qu'international.

Mme Claudine LAURENT , membre du groupe de travail s'est interrogée sur l'importance de la présence d'une dotation en unité mixte de services.

Mme Marie-Claude MAUREL a jugé vitale une telle mesure, qui se traduit par l'affectation de personnels et de crédits permettant un fonctionnement coordonné des équipements. Une unité mixte de services constitue ainsi un support logistique efficace, avec une notion de service prépondérante, qui permet une coordination des programmes horizontaux.

Au reste, la structuration apportée par les Maisons des Sciences de l'Homme permet également des appels d'offre à l'échelle de l'ensemble des maisons. L'outil institutionnel du GIP (Groupement d'intérêt public) peut également être utilisé, comme c'est le cas pour la Maison de Nantes et celle de Bordeaux qui est au demeurant structurée sous la forme d'une association type loi de 1901.

Mme Claudine LAURENT s'est demandée si les Maisons des Sciences de l'Homme sont éligibles à la procédure des contrats quadriennaux.

Mme Marie-Claude MAUREL a indiqué qu'il existe une procédure de contractualisation avec les Maisons des Sciences de l'Homme pour leur donner des moyens récurrents. En tout état de cause, le CNRS reconduira les crédits récurrents dévolus aux maisons.

M. René TRÉGOUËT, Sénateur, rapporteur , s'est interrogé sur le soutien financier fourni par les collectivités territoriales.

Mme Marie-Claude MAUREL a indiqué que la région PACA soutient la Maison d'Aix-en-Provence, notamment au plan immobilier. Le projet de MSH de Montpellier bénéficie du soutien de la ville de Montpellier, outre celui de la région.

La parole a ensuite été donnée à M. Georges TATE.

*

M. Georges TATE , Directeur adjoint du Département des sciences de l'homme et de la société , a indiqué que les instituts à l'étranger sont comparables aux maisons de sciences de l'homme, en tant que très grands équipements structurant la recherche.

La coopération internationale dans ces disciplines revêt deux formes. Les coopérations directes entre les laboratoires français et les laboratoires étrangers, par exemple dans le domaine de l'économie ou de la linguistique, ne requièrent pas de très grands équipements.

En revanche, la recherche in situ sur les cultures et les pays étrangers nécessite les infrastructures locales que constituent les instituts à l'étranger.

Ceux-ci ne peuvent bien entendu se maintenir que dans le cadre de coopérations avec les Etats hôtes et donnent naissance à des projets de recherche mixtes associant des chercheurs français et étrangers. En outre les instituts à l'étranger représentent une vitrine de la France dans le pays hôte.

La première fonction des instituts à l'étranger est une fonction de logistique assurée grâce à leurs bâtiments, leurs équipements, dont les véhicules et les matériels informatiques, leurs bibliothèques et leurs archives.

La deuxième fonction des instituts à l'étranger est une fonction de formation des spécialistes de l'aire culturelle correspondante, fonction assurée par des séjours sur place, des séminaires et des opérations de terrain.

La recherche représente la troisième grande fonction assumée par les instituts à l'étranger, tant par des chercheurs permanents que par des visiteurs.

Si le réseau des instituts français à l'étranger place la France sans doute au deuxième rang dans le monde après les Etats-Unis, il reste que ce réseau souffre de nombreuses faiblesses qu'il convient de corriger.

La première faiblesse du réseau des instituts à l'étranger est d'être composé de structures disparates.

Le premier groupe d'instituts à l'étranger dépend du ministère de l'éducation nationale, ainsi pour la Casa Velazquez, les Ecoles françaises de Rome, d'Athènes, du Caire ou l'Ecole d'Extrême Orient.

Le deuxième groupe, soit 25 instituts, est du ressort du ministère des affaires étrangères.

Le troisième groupe est celui des instituts dépendant conjointement du CNRS et du ministère des affaires étrangères.

Certains des instituts connaissent des difficultés résultant d'une insuffisance de moyens humains et matériels.

Une autre importante difficulté provient des barrières institutionnelles qui compliquent l'accès des chercheurs aux différents instituts à l'étranger selon qu'ils appartiennent au CNRS, aux Universités ou au ministère des affaires étrangères.

Un projet de réforme des instituts appartenant au ministère des affaires étrangères, les associant au CNRS et créant en leur sein des écoles doctorales, a déjà été signé par le Quai d'Orsay, les signatures des ministères de l'Education nationale et de la Recherche étant attendues.

M. Roger BALIAN , membre du groupe de travail, faisant référence à la présence américaine au Vietnam, soulignée récemment par la presse à l'occasion du voyage du Président Clinton, s'est demandé si le réseau des instituts à l'étranger couvrait le continent américain et l'Asie.

M. Georges TATE a précisé que des instituts à l'étranger existent aux Etats-Unis, au Mexique et au Pérou, ainsi qu'au Japon.

On compte au total une trentaine d'instituts dans le monde.

Mme Marie-Claude MAUREL a précisé que le CNRS a une représentation à Hanoi mais qu'il n'y existe pas d'institut permanent.

M. Christian CUVILLIEZ, Député, Rapporteur, s'est demandé si la localisation obéit à des facteurs historiques.

Mme Claudine LAURENT s'interrogeant pour sa part sur les perspectives d'évolution du réseau, s'est enquise de savoir si des fermetures sont prévues dans certains pays, compensées par des ouvertures ailleurs.

M. Georges TATE a indiqué que le réseau n'est pas figé et qu'en particulier, un regroupement des forces est à l'étude, par exemple au Moyen Orient, dans la mesure où la communauté de l'archéologie est vieillissante et où, en conséquence, des instituts devraient voir leur champ disciplinaire élargi.

Un autre exemple est celui de l'institut de Rabat, centré jusqu'alors sur les sciences politiques, qui devrait s'ouvrir à d'autres disciplines.

Une tendance générale est en tout état de cause de densifier le réseau dans le monde. En tout état de cause, la France réussit bien là où elle est implantée et parvient à mettre en place des coopérations réelles avec des chercheurs des pays hôtes, malgré des moyens souvent limités.

Mme Claudine LAURENT s'est demandée si cette réussite n'était pas due aux tâches de formation assurées par les instituts, ainsi que le montre l'exemple de l'Institut Pasteur qui reçoit des informations sur les travaux de recherche, même s'ils n'ont pas de financement français.

Mme Marie-Claude MAUREL a cité l'exemple de l'institut du Caire, qui comprend 30 doctorants, avec un encadrement assuré par des chercheurs français ou locaux.

M. Georges TATE a insisté sur le fait que les instituts doivent avoir un programme scientifique.

M. Michel SPIRO a remarqué qu'à l'heure où l'on veut faire apparaître un espace européen de la recherche, il pourrait être souhaitable d'européaniser ces instituts.

M. Georges TATE a estimé important un tel objectif mais délicat à atteindre.

A ce sujet, M. Philippe FLUZIN , Directeur de l'Institut de recherche sur les archéomatériaux, a fait observer qu'il existe une collaboration de terrain mais aussi une concurrence entre pays européens, dans la mesure où les instituts à l'étranger sont des têtes de pont pour véhiculer des savoir-faire et des technologies et sont, de fait, des vecteurs de pénétration industrielle et économique.

M. Roger BALIAN a fait remarquer qu'il existe un centre culturel américain à Hanoi et que la France n'y entretient pas même une bibliothèque.

M. Philippe FLUZIN a jugé qu'il existe bien là un enjeu de conquête. Les entreprises françaises recourent à la collaboration des instituts à l'étranger, notamment pour les projets relatifs aux traitements des eaux, à la télédétection et aux matériaux, tous domaines dans lesquels une concurrence existe entre la France, l'Allemagne et le Royaume Uni. L'industrie agroalimentaire britannique est par ailleurs réputée soutenir l'archéologie nationale, notamment afin de faciliter son accès aux souches et aux semences existant de par le monde.

M. Georges TATE a enfin souligné que les instituts à l'étranger jouent un rôle essentiel pour le rayonnement de la langue française, notamment en favorisant l'utilisation du français dans les publications scientifiques locales.

La parole a ensuite été donnée à M. Bruno HELLY.

*

M. Bruno HELLY , Directeur de recherche à l'Institut Fernand Courby , a détaillé le rôle des bibliothèques et des fonds documentaires, en tant qu'instruments de recherche essentiels pour les sciences de l'homme et de la société.

L'accumulation des données doit nécessairement s'accompagner de leur conservation avant leur dégradation, et de leur renouvellement. Il n'est pas possible de se contenter d'archiver des articles scientifiques nécessairement courts. Il faut au contraire conserver des collections de documents primaires et des ouvrages monographiques. Les collections d'objets, de cartes, de sons représentent des fonds physiques qu'il est nécessaire de classer et d'archiver, au même titre que les relevés de fouilles archéologiques, les archives scientifiques, les références bibliographiques, les documents, les livres ainsi que les données d'enquête des sciences de l'homme et de la société.

Si les nouvelles technologies de l'information et de la communication donnent la possibilité de réorganiser les collections et de les consulter à distance une fois numérisées, les difficultés matérielles ne sont pas pour autant supprimées. Au reste, le rôle des chercheurs eux-mêmes est essentiel pour la conception des méthodes utilisées pour l'archivage, compte tenu de la diversité et la complexité des informations à traiter. Mais les nouvelles technologies de l'information et de la communication jouent également un rôle clé pour la diffusion, grâce à la mise en réseau.

Les STIC (sciences et technologies de l'information et de la communication) ne suppriment pas les bibliothèques. A cet égard, l'incendie de la bibliothèque de Lyon, dans lequel 350 000 ouvrages ont disparu constitue une véritable catastrophe, non seulement sur le plan de la perte de données utiles à la recherche, mais aussi par la perte de l'outil de formation que représente une bibliothèque. La question du rachat de grands fonds documentaires anciens reste en tout état de cause d'actualité.

Les STIC, grâce à la numérisation et à la délocalisation, renforcent certes l'autonomie des laboratoires et des instituts de recherche. Mais un objectif essentiel des nouvelles méthodes de conservation est qu'il y ait une continuité entre la collecte et la diffusion. Une évolution observée dans toutes les grandes nations est d'unifier, grâce à l'informatique, les collections d'objets, les archives, les bibliothèques et les centres de documentation. La coopération entre les disciplines doit en conséquence être développée. Il est également nécessaire de mettre en oeuvre des nouveaux équipements tant pour l'acquisition des données que pour la diffusion.

Les Maisons des Sciences de l'Homme représentent à cet égard des points d'appui indispensables.

Au delà des équipements en chaînes de numérisation dont il faut les doter, il convient également de mettre en place des procédures d'indexation, de constitution de thesaurus et de diffusion par le Web qui soient harmonisées sinon uniformisées. Une continuité doit donc exister, dans toute la mesure du possible, depuis les collections territoriales et locales jusqu'aux ensembles nationaux, voire avec des standards internationaux, de façon à permettre des trocs avec l'étranger.

Une concertation existe entre le CNRS, la Bibliothèque nationale de France (BNF), le ministère de la culture, les services de l'inventaire et de la direction de l'archéologie. Des échanges de techniques sont réalisés. Les collaborations sont toutefois délicates car déséquilibrées, certains intervenants comme le ministère de la culture ayant un poids considérablement plus élevé que d'autres. Le partage des ressources sera plus effectif dès lors que les problèmes institutionnels seront surmontés.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur l'acquisition des nouveaux usages et sur l'appropriation des nouveaux outils des STIC par les chercheurs eux-mêmes.

M. Bruno HELLY a noté des disparités en fonction du type d'outils. L'appropriation d'Internet par les chercheurs est totale. En revanche, il apparaît plus difficile de convaincre les chercheurs d'apporter leur contribution à la production des données. Pour les familiariser à ces techniques et les convaincre d'y participer, des écoles thématiques sont organisées, ainsi en ce qui concerne les chaînes de production d'image.

M. Philippe LAREDO , membre du groupe de travail, s'est interrogé sur l'articulation entre les bibliothèques universitaires et la recherche. La faible disponibilité des bibliothèques représente un handicap considérable pour les jeunes doctorants français.

La disparition des fonds documentaires comme à Lyon récemment est certes une catastrophe pour les sciences de l'homme et de la société. Mais l'impossibilité d'un accès 7 jours sur 7, à des horaires étendus comme dans les autres pays européens ou américains, représente aussi une situation déplorable pour les chercheurs de notre pays.

La dépense à engager pour mettre la France au niveau du Royaume Uni ou des Etats-Unis, s'agissant des fonds documentaires et de leur accessibilité, s'élève probablement à plusieurs milliards de francs.

Mme Marie-Claude MAUREL a précisé à cet égard que les horaires d'ouverture sont de huit heures par jour les jours ouvrables et que les difficultés rencontrées pour étendre les plages d'ouverture sont essentiellement dues à des questions de personnel.

M. Georges TATE a remarqué que les conditions d'accès aux locaux universitaires sont d'une manière générale trop restreintes.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé à cet égard qu'il s'agit là d'un problème commun à tous les équipements publics.

M. Philippe LAREDO, revenant sur la question des bibliothèques universitaires, a noté que leur nombre et leurs moyens n'ont pas augmenté à raison du nombre d'étudiants et du nombre de doctorants.

*

Un débat s'est ensuite engagé sur la consultation informatisée comme substitut à l'accès direct aux livres.

M. René TRÉGOUËT, Sénateur, rapporteur, a jugé que la numérisation apporte une solution dans tous les cas, en particulier pour l'accès aux ouvrages rares.

M. Bruno HELLY a fait observer que les chaînes de numérisation ont un débit très lent.

Ainsi la BNF n'a pour le moment numérisé que 70 000 ouvrages sur un total de plusieurs millions.

Au surplus, un obstacle juridique considérable s'oppose à la numérisation, celui des droits d'auteur pour les ouvrages de moins de 70 ans. Les fonds physiques restent donc incontournables.

M. Philippe LAREDO a fait observer qu'un chercheur consulte environ 150 publications par semaine. En conséquence, l'INIST travaille à la mise au point d'accords notamment avec des éditeurs de revues, permettant un paiement des droits en fonction des usages informatiques. Par ailleurs, il convient de réaliser que la consultation informatique entraîne une explosion du nombre d'imprimantes utilisées et de la consommation de papier. Au final, l'achat de livres est moins coûteux que la consultation informatique et les bibliothèques restent incontestablement des lieux d'optimisation de la dépense d'accès à l'information.

M. René TRÉGOUËT, Sénateur, rapporteur, a jugé que l'augmentation de la consommation de papier liée à l'informatique est transitoire dans la mesure où des papiers réinscriptibles vont bientôt apparaître sur le marché.

Les nouvelles technologies de l'information et de la communication pourront également transcrire les documents sonores, reconnaître l'écriture et prendre en compte les annotations sur les documents. Le traçage du raisonnement des chercheurs et la relecture des annotations permettront des approches nouvelles.

Au total, l'accroissement des bandes passantes et l'augmentation des capacités de stockage donneront la possibilité de retrouver la genèse des intuitions de génie.

La parole a ensuite été donnée à M. Bruno PÉQUIGNOT.

*

M. Bruno PÉQUIGNOT , Directeur scientifique adjoint du Département des sciences de l'homme et de la société du CNRS , a traité la question des bases de données pour les sciences de l'homme et de la société.

L'observation et l'interprétation des données, qui sont à la base des sciences sociales, nécessitent l'accumulation de données à comparer dans le temps et l'espace. La disponibilité de données étendues est également indispensable pour la vérification des résultats et pour l'innovation méthodologique.

Or la France a pris, depuis la deuxième guerre mondiale, un retard certain dans ce domaine, alors qu'elle a longtemps été le premier pays au monde avec ses recensements et la création de l'INSEE, une institution enviée dans le monde entier.

La première base de données pour les sciences humaines et sociales a été créée en 1961 à l'université du Michigan aux Etats-Unis. Des bases de données ont ultérieurement été créées en 1962 à l'université de Cologne, en 1964 à l'université d'Essex et en 1981 seulement en France au CNRS pour les seules sciences politiques. L'université du Michigan, qui a rapidement joué un rôle de coordination du réseau des universités américaines, est désormais au centre du réseau mondial en la matière.

Pour autant, un effort est engagé en France pour rattraper ces retards, avec de nombreux projets en cours.

Les administrations publiques françaises produisent en effet des données en grand nombre, que ce soit le ministère des affaires sociales, le ministère de la culture, celui de l'agriculture, de l'équipement. Le paradoxe est que ces données ne sont pas accessibles aux chercheurs, ainsi d'ailleurs que celles des instituts de sondage. De même, si une convention lie le CNRS à l'INSEE et au ministère des affaires sociales, les chercheurs des universités ne bénéficient pas de facilités d'accès identiques.

Cette situation crée un handicap pour les chercheurs français, handicap qui se double d'une impossibilité pour la France de participer aux grandes enquêtes internationales, qui s'organisent sur la base d'échanges de données. C'est ainsi que la France n'a pu participer que deux fois aux enquêtes périodiques sur les conditions de vie en Europe.

Afin de réunir les conditions pour doter la France de ces instruments vitaux pour les sciences sociales que sont les bases de données, un rapport a été récemment remis aux ministères de l'éducation nationale et de la recherche, en vue de la création d'un comité devant rédiger un arrêté interministériel portant sur l'institutionnalisation de la création et de l'archivage de données.

Le plan correspondant comprend un premier volet relatif à l'archivage organisé, à la documentation et à la mise à disposition des données produites par les administrations publiques.

Le deuxième volet a trait à l'organisation de la présence française dans les grandes enquêtes internationales, en prévoyant un comité de décision et les financements indispensables.

Le troisième volet porte sur la formation de chercheurs capables de produire et d'utiliser des données d'enquête afin de combler le retard enregistré aujourd'hui, alors qu'auparavant la France possédait une avance considérable, notamment dans le domaine de la démographie avec l'INED et l'INSEE.

Il convient aussi de créer un pôle universitaire de formation pour la gestion des données.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est enquis de savoir si la démarche utilisée inclut une ouverture réelle.

M. Bruno PÉQUIGNOT a précisé que la politique suivie est d'ouvrir les bases de données selon des accords de gré à gré et sur la base d'une réciprocité. En tout état de cause, pour recevoir les données des autres, il faut disposer de bases intéressantes, une situation dans laquelle la France ne se trouve pas, en raison de la culture de rétention des administrations publiques et en particulier de l'INSEE, jusqu'à une date récente.

Le coût du programme évoqué s'élève à environ 1 million de francs par an en fonctionnement, hors immobilier et dépenses de personnel. Pour être en mesure de participer aux grandes enquêtes internationales, un montant annuel additionnel de 7 millions de francs est indispensable.

Le succès d'un tel programme constituerait une véritable révolution en France pour les sciences sociales.

M. René TRÉGOUËT, Sénateur, rapporteur, remarquant que les sciences de l'homme et de la société ne possèdent pas pour l'instant de très grands équipements, a souligné l'importance de l'accès aux connaissances et indiqué qu'une recommandation dans ce sens serait faite dans le rapport. Une volonté politique est indispensable en la matière. Les montants financiers en cause n'étant pas rédhibitoires, il importe de combler un retard dans un domaine aux conséquences graves pour la société française.

M. Bruno PÉQUIGNOT a confirmé que la prise de conscience de l'importance des bases de données est intervenue tardivement en France, alors que les Etats-Unis ont numérisé les données des recensements français.

M. Philippe LAREDO a pointé l'importance de la pérennité des données. Ainsi l'INSEE qui avait réalisé des enquêtes sur les habitudes de consommation alimentaire des Français les a arrêtées récemment, ce qui apparaît particulièrement dommageable avec les interrogations actuelles sur les filières agro-alimentaires. En l'absence de données sur longue période, il a donc été nécessaire de reprendre des données de panels privés, ce qui a exigé des ajustements complexes.

Sur un plan général, il n'existe pas de conservatoires de données ou de mécanismes permettant de prolonger et de maintenir des données d'observation, après que des chercheurs ont anticipé sur les besoins futurs et commencé de constituer des séries importantes pour l'avenir.

M. Bruno PÉQUIGNOT a souligné le fait que l'archivage des données mais aussi leur documentation sont deux aspects essentiels. Des données brutes non documentées sont en effet de peu d'utilité.

La parole a ensuite été donnée à M. Philippe FLUZIN.

*

M. Philippe FLUZIN , Directeur de l'Institut de recherche sur les archéomatériaux , a exposé les grandes lignes de la nouvelle discipline que constitue l'archéométrie.

L'objectif de l'archéométrie est de retracer l'évolution des matériaux tant par l'étude de leur structure interne que par celle de leurs relations avec l'extérieur. L'archéologie donne accès à des trésors d'information. L'archéométrie se révèle riche d'enseignements, par exemple, dans le cas de systèmes mécaniques et pour la science des matériaux, en livrant des informations précieuses sur les processus de vieillissement qui permettent de prévoir leur évolution future.

Les techniques de l'archéométrie permettent par exemple la datation par l'intermédiaire du carbone 14 ou de l'oxygène 18, l'étude des médications traditionnelles qui peuvent donner lieu à de nouveaux produits, le développement de nouveaux alliages métalliques grâce à l'étude d'anomalies de microstructures sur des matériaux anciens ou bien encore la mise en évidence de filiations grâce à l'étude d'impuretés effectuées avec des méthodes de pointe comme le rayonnement synchrotron.

L'archéométrie est au total un vecteur de collaborations pluridisciplinaires et même transdisciplinaires. Cette nouvelle approche, qui utilise des très grands équipements, est mise en oeuvre essentiellement par l'intermédiaire de coopérations avec d'autres grands organismes de recherche, notamment le CEA.

Mme Marie-Claude MAUREL a conclu cette audition consacrée à la problématique des TGE dans les sciences de l'homme et de la société en indiquant que l'utilisation des très grands équipements scientifiques par ces disciplines n'est qu'un aspect, certes important, de leur nouvelle structuration et du nécessaire renforcement de leur visibilité.

15. Projets de réacteurs du CEA - mercredi 22 novembre 2000

CEA

• M. François GOUNAND, Directeur des sciences de la matière, CEA

• M. Jean-Louis LACLARE, Chef du projet de source de neutrons multi-usages

• M. Jacques BOUCHARD, Directeur du pôle nucléaire civil du CEA

• M. Pierre TRÉFOURET, Conseiller au cabinet de l'administrateur général

La réunion a été consacrée aux projets de réacteurs expérimentaux du CEA que représentent, d'une part, le projet CONCERT, et, d'autre part, le projet de réacteur d'irradiation Jules Horowitz.

*

M. François GOUNAND , Directeur des sciences de la matière au CEA, a rappelé que les sources de neutrons, très grands équipements s'il en est, ont déjà été évoquées devant le groupe de travail, lors des présentations du LLB (Laboratoire Léon Brillouin) et de l'ILL (Institut Laue Langevin).

Il a été signalé à cette occasion que l'ILL délivre les flux de neutrons les plus élevés au monde mais que l'on semble être arrivé à une limite avec la technologie des réacteurs mise en _uvre par cette installation ainsi que par le LLB. Les sources pulsées, qui mettent en oeuvre le principe de la spallation, ont en revanche des marges de progrès importantes.

M. Jean-Louis LACLARE , chef du projet de source de neutrons multi-usages CONCERT, a indiqué que le point de départ de ce projet est constitué par les progrès considérables déjà effectués ou envisageables dans le domaine des accélérateurs de protons de haute puissance.

L'impact de protons d'énergies supérieures à 1 GeV sur des cibles constituées de matériaux lourds donne naissance à une gerbe de faisceaux secondaires pouvant être utilisés pour des applications variées.

Le projet CONCERT (Combined Neutron Center for European Research and Technology) intègre de fait plusieurs types d'applications, à partir d'une même source de protons de haute énergie et de forte puissance.

Le premier canal est celui de la production de neutrons . Au pic de la réaction de spallation, un proton incident d'une énergie de quelques GeV donne naissance à 30 neutrons de haute énergie. Cette technique permet d'atteindre avec les accélérateurs pulsés de protons existants, comme ISIS au Rutherford Appleton Laboratory en Grande-Bretagne qui fournit quelques 160 kW de protons, des flux effectifs de neutrons comparables à ceux de réacteurs du type d'Orphée (LLB) ou de l'ILL.

L'ILL est un réacteur de 58 MW en fonctionnement depuis plus de 30 ans. Or les chercheurs souhaitent bénéficier de gains d'un facteur 10 ou 100 par rapport aux flux actuels de l'ILL ou d'ISIS.

Alors que la technologie des réacteurs ne semble pas en mesure de progresser sensiblement, comme semble le prouver l'échec d'un projet de réacteur de forte puissance aux Etats-Unis, les sources pulsées de neutrons mettant en jeu le phénomène de spallation devraient permettre de progresser au minimum d'un facteur 10 et vraisemblablement d'un facteur 100 avec la nouvelle génération d'accélérateurs pulsés de protons de forte puissance, à savoir 5 MW.

Dans ces conditions, les recherches classiques seraient toujours possibles avec une telle source mais la production de faisceaux à hauts flux ouvrirait de nouvelles applications grâce à l'obtention d'une meilleure résolution, l'utilisation de plus petits échantillons ainsi que de nouvelles perspectives pour les études de dynamique et pour les analyses réalisées dans des conditions extrêmes.

Le projet ESS (European Spallation Source), une source de 5 MW dont la conception date de 1997, est une référence pour l'Europe pour ce qui concerne l'étendue de la gamme des longueurs d'onde que pour la brièveté des impulsions.

Le deuxième type d'application est la production de faisceaux d' isotopes radioactifs rares, riches en protons ou en neutrons, obtenus par fission des atomes d'un matériau cible adéquat. Il s'agit là de la première priorité de la physique nucléaire, selon le groupe d'experts NuPECC et les conclusions du Forum MegaScience de l'OCDE en la matière. Des protons incidents de haute énergie permettraient de produire des flux de produits de fission élevés, de l'ordre de plusieurs 10 15 /s, les résultats actuels étant inférieurs d'un facteur 1000. Ces faisceaux sont d'une grande utilité en astrophysique nucléaire, pour le test du modèle standard ou dans le domaine biomédical.

Le troisième type d'application fait partie du cycle du combustible nucléaire et correspond à la transmutation par accélérateur des déchets radioactifs à vie longue. Pour résoudre le problème posé par la durée de vie de plusieurs centaines de milliers d'années des actinides mineurs présents dans le combustible nucléaire irradié, une première méthode est étudiée, celle de l'enfouissement mais l'on envisage également celle de la transmutation. Le principe de cette dernière méthode est de placer les actinides dans le coeur d'un réacteur sous-critique, à qui les neutrons indispensables à son fonctionnement seraient fournis par une réaction de spallation. Les neutrons les plus rapides du spectre de spallation détruisent alors les actinides par transmutation.

Le projet CONCERT envisage la combinaison des trois applications précédentes - source de neutrons pulsés, production de faisceaux d'isotopes radioactifs et transmutation - autour d'un seul accélérateur de protons de haute énergie et de forte puissance. CONCERT envisage aussi l'adjonction comme quatrième application d'un dispositif d'irradiation basé sur la spallation sans nécessiter de combustibles nucléaires.

Un cinquième type d'applications vient encore renforcer l'intérêt du projet CONCERT.

Un faisceau incident de protons de haute énergie permet en effet de produire des pions, qui, eux-mêmes, se désintègrent en muons et en neutrinos. Les neutrinos font l'objet d'une réflexion post-LHC au CERN consistant à envoyer, sous terre, des faisceaux intenses de neutrinos depuis Genève vers le Gran Sasso en Italie.

Les muons présentent par ailleurs un intérêt considérable. On sait en effet que des électrons accélérés dans un anneau ne peuvent aller au delà d'une certaine énergie, en raison de leur émission de rayonnement synchrotron. Par ailleurs, l'utilisation de protons présente elle-même des limites, dans la mesure où les protons n'étant pas des particules élémentaires mais étant au contraire constitués de quarks qui se partagent l'énergie, leurs collisions donnent naissance à un nombre important de particules, ce qui complique l'interprétation.

Les muons, au contraire, sont des particules élémentaires deux cents fois plus lourde que l'électron, tout en ayant la même charge que lui, d'où des problèmes de rayonnement considérablement réduits et vraisemblablement la possibilité d'atteindre des énergies de plusieurs TeV dans le centre de masse d'un anneau de collision de quelques kilomètres de circonférence.

On mentionnera enfin un dernier type d'application des accélérateurs de protons de forte puissance, à savoir la production de tritium .

*

La faisabilité d'un projet comme CONCERT repose en partie sur la technique des accélérateurs en vue de produire des faisceaux de protons à haute intensité.

Un faisceau de protons de 1 MW a déjà été réalisé aux Etats-Unis à Los Alamos avec une intensité de 1 mA. Un faisceau de 1 MW a également été réalisé en Suisse à Zurich. Avec la nouvelle génération d'accélérateurs, la faisabilité de faisceaux de protons à 1-1,4 GeV avec des intensités de 100 mA, est très probable et conduit à des machines de 100 MW.

L'intérêt de CONCERT résulte également de la multiplication en Europe de projets spécialisés que celui-ci se propose précisément de fédérer. Il existe en effet en Europe un projet pour chacun des domaines vus précédemment.

ESS est un projet de source pulsée de neutrons de 5 MW. Le projet EURISOL concerne la production de faisceaux d'ions radioactifs. Dans le cadre européen du Technical Working Group sur la transmutation des déchets radioactifs, un projet est également à l'étude.

Or chacun de ces projets correspond à un budget d'investissement d'environ 1 milliard d'euros, et a pour objectif un démarrage du fonctionnement à l'horizon 2010. En raison d'une saturation probable des moyens de financement, des problèmes de priorités difficiles à résoudre ne manqueront pas de surgir.

Il faut toutefois noter que, pour servir cette série d'applications, les Etats-Unis semblent s'orienter vers des installations séparées.

C'est ainsi qu'une source de neutrons produits par spallation est en construction à Oak Ridge pour les seules applications d'étude de la matière condensée. La source d'ions radioactifs RIA comprenant des accélérateurs à ions lourds supraconducteurs devrait être construite à Argonne. Le projet ATW relatif à la transmutation des déchets radioactifs devrait être réalisé séparément.

A l'inverse, le Japon, après des négociations et un compromis entre les promoteurs des différents projets, a opté pour une installation multi-applications.

En aval d'un accélérateur linéaire, seront rassemblées une source de neutrons pour l'étude de la matière condensée, une unité de production d'ions radioactifs, un réacteur sous-critique pour la transmutation commandé par un accélérateur, un outil d'irradiation et une fabrique de neutrinos pour la physique des particules. Ce projet est en attente des financements nécessaires en 2001.

Le point de vue du CEA est que tous les projets isolés vont avoir des difficultés à émerger pour des raisons financières, des priorités étant au demeurant délicates à établir. Or tous ces projets ont en commun l'utilisation d'un accélérateur, dont la puissance devrait atteindre 25 MW pour satisfaire la somme des besoins.

Au début de 2002, des éléments de réponse devraient être disponibles avec les conclusions de l'avant-projet sommaire de CONCERT pour savoir s'il s'agit d'une solution techniquement envisageable et économiquement intéressante. L'étude détaillée devrait prendre 2 ans, la construction 5 ans, les premières expériences étant dès lors alimentées en 2010.

En tout état de cause, le noyau de l'équipe de projet internationale est déjà constitué à Saclay.

M. François GOUNAND a précisé que l'étude de faisabilité se focalise sur l'accélérateur mais porte également sur les infrastructures, la compatibilité des demandes des différentes catégories d'utilisateurs et sur les économies à attendre d'un tel projet.

M. Jean-Louis LACLARE a précisé que parmi les partenaires du projet figurent des représentants des différentes disciplines concernées. Ainsi, des membres des groupes NuPECC, ESS et du CERN participent aux travaux de CONCERT. Il apparaît que les grands organismes de recherche européens trouvent d'ores et déjà un intérêt au projet.

La deuxième étape de la démarche est en cours, qui verra la formation d'un comité de pilotage probablement avec des représentants des organismes de recherche italiens (INFN), allemands (Julich), suisses et britanniques (CRLC). Il est vraisemblable qu'une fois le noyau de base constitué, d'autres pays s'associeront au projet.

Les promoteurs de la source européenne ESS rencontrent depuis plusieurs années des difficultés à réunir un consensus pour la construction d'une installation dédiée et sont d'accord pour participer au comité de pilotage. Il en est de même pour ceux d'EURISOL. Quant au CERN, ses représentants sont d'accord pour participer, sans pouvoir fournir ni force de travail ni financement, compte tenu des efforts à fournir pour le LHC.

M. Roger BALIAN a demandé si le projet CONCERT intègre la possibilité de tester le Rubbiatron.

M. Jean-Louis LACLARE a précisé que le projet n'intègre en aucune façon la production d'énergie.

M. Jacques BOUCHARD , Directeur du pôle nucléaire civil du CEA, a indiqué que les concepts développés par M. Carlo RUBBIA sur l'amplification d'énergie sont désormais abandonnés au profit de ceux relatifs à la transmutation des déchets.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur l'accueil fait par la Commission européenne au projet CONCERT.

M. François GOUNAND a précisé que la situation est mouvante dans ce domaine, à la veille des premières négociations sur EURATOM et sur le 6 ème PCRD. Un document officiel sera élaboré à la fin mars pour servir de base aux discussions avec le Parlement européen, discussions qui dureront près d'un an.

M. Jean-Louis LACLARE a précisé que si le projet CONCERT n'était pas assez mûr pour être présenté par la présidence française, le ministère de la recherche est régulièrement informé de son existence et de son état d'avancement.

M. Michel SPIRO ayant souligné le caractère fédérateur et interdisciplinaire de CONCERT, M. François GOUNAND a souligné qu'il s'agit d'une " étude de salut public " qui, en tout état de cause, sera demandée le moment venu par les décideurs, dès lors qu'ils seront confrontés aux demandes des différentes disciplines et à la nécessité d'optimiser les investissements. Au demeurant, ce projet nécessite que soient résolus des problèmes technologiques intéressants.

M. Michel SPIRO a estimé que le tronc commun du projet, à savoir les accélérateurs produisant des faisceaux de protons à haute énergie et haute intensité, doit être particulièrement soutenu en raison de son intérêt transversal pour un grand nombre d'applications.

Mme Claudine LAURENT a jugé que le projet CONCERT témoigne d'une approche innovante et intéressante.

M. Jean-Louis LACLARE a indiqué que le projet CONCERT doit continuer à être techniquement soutenu.

Un prototype de la tête de faisceau de l'accélérateur de CONCERT est en cours de réalisation.

L'objectif est de produire à Saclay 100 mA de protons à 10 MeV. Le coût correspondant s'élève à 100 millions de francs, pris en charge aux deux tiers par le CEA et pour un tiers par le CNRS. La source de protons est déjà opérationnelle. La partie basse énergie de l'accélérateur linéaire sera installée dans les locaux de l'ancien Saturne.

Indépendamment des aspects concernant les accélérateurs, d'importants travaux de recherche et de développement restent à réaliser sur les cibles en général et sur le démonstrateur de réacteur hybride pour la transmutation. En particulier des cibles prototypes pour la spallation sont en cours de fabrication à PSI.

La parole a ensuite été donnée à M. Jacques BOUCHARD.

*

M. Jacques BOUCHARD, Directeur du pôle nucléaire civil du CEA, qui a la responsabilité des recherches sur les réacteurs, les combustibles nucléaires et l'aval du cycle du combustible, a présenté le projet de réacteur Jules Horowitz (RJH) comme augurant une nouvelle génération de réacteurs d'irradiation à vocation technologique.

C'est pour renouveler les outils prenant en charge les besoins d'irradiation, préparer les combustibles de l'avenir et étudier les nouveaux concepts de réacteurs innovants que le projet RJH est conçu.

Le réacteur SILOE de Grenoble étant arrêté depuis 1997, le principal outil actuel d'irradiation est le réacteur OSIRIS, en fonctionnement à Saclay depuis 1966 mais dont l'arrêt est prévu en 2010. La situation est analogue dans plusieurs pays européens, avec l'arrivée en fin de vie de nombreux outils d'irradiation, comme par exemple en Norvège dont le réacteur date de 1959, en Suède où il date de 1960, aux Pays-Bas et en Belgique où il remonte à 1961.

Or les capacités d'irradiation technologique sont d'une importance fondamentale pour le parc électronucléaire français.

Le premier enjeu est celui du prolongement éventuel de la durée de vie des réacteurs en fonctionnement, en fonction de la résistance des matériaux à l'irradiation, ce qui impose de réaliser de nombreux tests.

Le deuxième enjeu est celui de l'augmentation du taux de combustion des combustibles nucléaires, ce qui permet de réduire le coût de ces derniers, d'où la nécessité de réaliser des essais techniques poussés, par exemple pour étudier les conséquences des arrêts de tranche ou du suivi de charge.

Les travaux correspondant aux études de vieillissement des réacteurs et aux combustibles représentent actuellement 80 % de l'activité d'OSIRIS.

L'autre objectif assigné au réacteur Jules Horowitz est la préparation du futur, en permettant l'étude d'une nouvelle génération de réacteurs et de nouvelles générations de systèmes associés.

Le test de nouveaux c_urs de réacteurs avec le RJH devrait éviter dans une large mesure la construction de prototypes. Il faut rappeler à cet égard que les petits réacteurs prototypes français sont désormais fermés, que ce soit le réacteur à eau lourde de Brennilis, le premier réacteur à eau pressurisée de Chooz, seul Phénix ayant vocation à redémarrer mais seulement pour des études relatives à la transmutation des déchets radioactifs.

La conception du RJH pour rendre compatibles les deux objectifs s'est révélée complexe.

Il s'est agi en effet d'une part de dépasser les performances d'OSIRIS, en obtenant des flux supérieurs et des points d'irradiation plus nombreux, et, d'autre part, de concevoir une machine flexible apte à tester des c_urs de natures différentes et à simuler diverses conditions de refroidissement.

L'avant-projet du RJH est aujourd'hui achevé, de sorte que le programme correspondant peut être lancé.

Sur un plan technique, ce réacteur de 100 MW est un réacteur de type piscine fonctionnant à température peu élevée, dotés de plusieurs boucles de refroidissement à hautes performances et à milieux différents. Grâce à une structure originale, les points d'irradiation sont nombreux et il est possible d'approcher du coeur des maquettes de divers systèmes.

Le réacteur Jules Horowitz sera implanté à Cadarache, où les travaux préliminaires ont déjà été réalisés. Les principales étapes sont d'une part la réalisation de l'APD (Avant projet détaillé) et d'autre part l'examen de sûreté et l'enquête publique programmée pour 2004-2005. La machine devrait être opérationnelle en 2010.

Le réacteur Jules Horowitz est réalisé en partenariat avec EDF, qui sera copropriétaire du réacteur grâce à une participation au financement de sa construction. La négociation sur la répartition de la charge financière est en cours, avec comme base de départ une répartition 50/50. D'autres partenaires seront associés à l'utilisation du RJH, qui sera en 2010 le seul réacteur européen d'irradiation opérationnel.

Au demeurant, des activités secondaires sont d'ores et déjà prévues. Le RJH servira également à produire des radio-isotopes à usage médical pour lesquels il existe un marché mondial, à préparer du silicium dopé par différents atomes résultant de la transmutation partielle in situ du silicium lui-même, et à réaliser différentes opérations d'irradiation et de transmutation à usages divers.

Ces différents marchés, qui représentent environ le tiers des activités d'OSIRIS ne permettent évidemment pas de justifier l'investissement lui-même mais apportent des ressources additionnelles appréciables.

Le coût du réacteur Jules Horowitz est estimé à 3,7 milliards de francs. Le coût de l'APD ressort à 400 millions de francs.

En réponse à une question de M. Roger BALIAN sur d'éventuelles coopérations internationales pour le RJH, M. Jacques BOUCHARD a indiqué que le CEA n'est pas désireux de se lier sur un programme d'investissement d'une importance stratégique pour le parc électronucléaire français. Un partenariat avec l'Allemagne aurait pu s'envisager mais n'a pas rencontré d'intérêt outre-Rhin. Au vrai, la solution raisonnable est sans aucun doute celle d'un financement partagé avec EDF. Des services d'irradiation pourront en outre être mis sur le marché en 2010, si toutefois la machine n'est pas saturée.

M. Roger BALIAN s'est interrogé sur la relance des recherches sur les réacteurs nucléaires du futur aux Etats-Unis.

M. Jacques BOUCHARD a indiqué qu'il existe des réacteurs d'irradiation aux Etats-Unis mais qu'aucun projet ne semble être en cours d'élaboration. Quant à la relance des programmes nucléaires, elle semble se profiler à l'horizon. Plusieurs indices le laissent penser, comme le rachat de centrales nucléaires par différents opérateurs, la décision des autorités de sûreté d'envisager la possibilité de faire passer la durée de vie des centrales de 30 à 45 ans voire 60 ans et la relance probable des recherches sur les réacteurs de la 4 ème génération.

On sait que les principaux réacteurs actuellement en service, réacteurs à eau pressurisée et réacteurs à eau bouillante, constituent la deuxième génération de réacteurs nucléaires. La troisième génération est celle des projets dits évolutifs ou évolutionnaires, comme l'EPR (European Pressurized Reactor) ou l'ABWR (Advanced Boiling Water Reactor) de General Electric.

La quatrième génération est représentée par les réacteurs de technologies différentes, comme le réacteur GT-MHR (Gas Turbine Modular Helium Reactor) ou les réacteurs à neutrons rapides. Les Etats-Unis vont consacrer des financements aux études correspondantes. Le CEA coopère avec les organismes américains responsables. En réalité, une coopération mondiale est en cours sur les concepts, aucun pays n'étant prêt à assurer par lui-même tous les développements indispensables.

M. Michel SPIRO s'est félicité des idées nouvelles présentées au cours de l'audition, d'une part avec le réacteur Jules Horowitz pour l'irradiation et les boucles de refroidissement innovantes et d'autre part avec le projet CONCERT et l'accélérateur de haute intensité. Il s'est interrogé sur l'articulation éventuelle entre les deux projets.

M. Jacques BOUCHARD a indiqué que les deux projets correspondent à des contraintes de délais et de coûts différentes.

Le réacteur Jules Horowitz doit être opérationnel en 2010, pour satisfaire des besoins industriels incontournables, alors que l'outil actuel d'irradiation, à savoir OSIRIS, devra être arrêté à la même date.

Le projet CONCERT ne pourrait assurer ce même service en temps et en heure. Par ailleurs, les opérations d'irradiation sont longues à réaliser, ce qui bloquerait l'utilisation du faisceau pour d'autres usages.

Mais il existe un profond intérêt du CEA pour les sources pulsées de neutrons reposant sur la spallation.

Il est manifeste que si l'on veut faire la démonstration de la transmutation des déchets radioactifs de haute activité à vie longue, il est nécessaire de disposer du projet CONCERT car la construction d'un réacteur dédié à cette seule démonstration serait un non-sens économique. Il faut toutefois noter qu'il ne s'agit là que d'une démonstration scientifique, le passage à l'échelle industrielle étant une tout autre question. Le projet CONCERT pourrait sans doute aussi servir à l'innovation sur les réacteurs mais essentiellement pour les réacteurs sous-critiques.

M. Jean-Louis LACLARE a confirmé qu'un projet d'installation dédiée à la seule irradiation technologique, du type SPALLAX, aurait été d'un coût supérieur à celui du RJH, même si l'intégration de SPALLAX à CONCERT aurait pu changer la donne. Mais, si une machine d'irradiation doit être construite, c'est bien le RJH qui doit l'être.

En réponse à une inquiétude de M. Roger BALIAN sur la possibilité réelle d'OSIRIS de fonctionner jusqu'en 2010, M. Jacques BOUCHARD a jugé que le réacteur présente des garanties à cet égard, après les modifications faites par le passé ou en cours de réalisation. Celles-ci portent notamment sur l'adaptation aux nouvelles normes de radioprotection et sur le contrôle commande. En réalité, un réacteur comme OSIRIS souffre moins de problèmes techniques que d'un décalage avec des contraintes réglementaires considérablement plus exigeantes que celles en vigueur lors de sa conception.

M. René TRÉGOUËT, Sénateur, rapporteur, a posé la question des conséquences sur le RJH d'un éventuel changement de statut d'EDF.

M. Jacques BOUCHARD a indiqué que cet éventuel problème serait anticipé grâce à la mise en oeuvre d'une structure juridique adéquate. Celle-ci pourrait être une société en participation, qui est protégée de l'évolution des structures juridiques parentes. Toutes dispositions seront prises afin d'assurer la continuité de la réalisation, avec un financement sécurisé de la construction et du fonctionnement.

M. Philippe LAREDO s'est interrogé sur l'opportunité d'associer au projet RJH d'autres acteurs du nucléaire, comme Cogema et Framatome.

M. Jacques BOUCHARD a indiqué qu'il existe un partenariat entre le CEA et les fournisseurs de combustibles. Mais EDF a d'autres fournisseurs que Framatome et Cogema. Au reste, c'est bien EDF qui, au final, est responsable de la sûreté de ses réacteurs électronucléaires, quels que soient les fournisseurs de combustible. Par ailleurs, il paraît préférable à EDF de régler directement au CEA les frais des travaux de recherche et développement que celui-ci réalise pour son compte. Mais Cogema et Framatome seront également des utilisateurs du RJH et acquitteront leur quote-part des frais correspondants.

M. Philippe LAREDO a évoqué la question de l'amortissement du futur réacteur.

M. Jacques BOUCHARD a précisé que le CEA préfère qu'un industriel devant employer une partie substantielle des capacités d'une installation participe au financement de celle-ci plutôt qu'il lui soit facturé des frais d'amortissement au fur et à mesure de l'utilisation. Dans le cas de l'irradiation pour dopage de silicium pour la microélectronique, qui correspond à des taux d'utilisation moins importants, une participation à l'amortissement sera facturée aux industriels. Par ailleurs, une provision pour démantèlement est incluse dans les frais de fonctionnement acquittés par les utilisateurs extérieurs au CEA.

Après avoir remercié les participants du CEA pour la qualité de leurs exposés, M. Christian CUVILLIEZ, Député, rapporteur, a levé la séance.

16. Ecosystèmes terrestres - mercredi 29 novembre 2000

INRA

• M. Bertrand HERVIEU, Président

• Mme Marion GUILLOU, Directrice générale

• M. Jean BOIFFIN, Directeur scientifique Environnement, Forêt et Agriculture

M. Christian CUVILLIEZ, Député, rapporteur , a accueilli les participants en leur indiquant que la réflexion en cours sur les TGE (très grands équipements), conduite à l'aide d'un collectif d'experts et de nombreux scientifiques auditionnés, a notamment pour objectif de déterminer s'il est opportun de créer une nouvelle nomenclature des TGE et une nouvelle instance chargée d'une réflexion et d'un suivi dans ce domaine.

La parole a ensuite été donnée à M. Bertrand HERVIEU.

*

M. Bertrand HERVIEU , Président de l'Institut national de la recherche agronomique (INRA), a remercié les Rapporteurs de lui donner l'occasion d'exposer les projets de cet organisme susceptibles de mettre en oeuvre des très grands équipements.

Sur un plan général, l'INRA est désireux de développer les relations entre le monde scientifique et le monde politique. Le souhait de l'INRA est également de participer à la construction de l'espace européen de la recherche proposé par le Commissaire européen à la recherche, M. Philippe BUSQUIN. A cet effet, trois colloques européens ont été récemment organisés par l'INRA sur les OGM, l'environnement ainsi que sur Science et Gouvernance.

Mais il est clair également que la politique agricole commune ne peut perdurer sans une politique de recherche renouvelée. C'est également la conviction de M. BUSQUIN que l'agronomie doit être un axe fort de la politique de l'environnement européenne. Le Colloque du début décembre organisé par l'INRA à Versailles porte sur les interactions entre agronomie, alimentation et environnement, avec la participation du ministre de l'agriculture, M. Jean GLAVANY, et du Commissaire BUSQUIN.

La parole a ensuite été donnée à Mme Marion GUILLOU.

*

Mme Marion GUILLOU , Directrice générale, a précisé que les missions de l'INRA, établissement public à caractère scientifique et technologique sous la tutelle du ministère de l'agriculture et de la pêche ainsi que sous celle du ministère de la recherche, sont de contribuer au développement d'une agriculture performante et durable, à l'essor d'une filière agroalimentaire compétitive et respectueuse de la santé et à la recherche sur l'environnement et les écosystèmes terrestres.

L'INRA est donc un organisme de recherche finalisée à qui il est demandé d'atteindre plusieurs objectifs. En effet l'INRA doit compléter sa mission de production de connaissances par d'autres tâches fondamentales, à savoir l'expertise, les relations avec le monde économique, la formation, la diffusion d'une culture scientifique et la participation au débat social.

Sur le plan de son organisation au plus haut niveau, l'INRA comprend un Conseil d'administration, présidé par M. Bertrand HERVIEU, une direction générale, un collège de direction, un conseil scientifique et des commissions scientifiques spécialisées. Il est à souligner que l'INRA a par ailleurs été le premier organisme à se doter d'un comité d'éthique et de précaution.

Le fonctionnement de l'INRA est par ailleurs régi par une double structuration correspondant d'une part aux départements de recherche et d'autre part aux centres régionaux.

L'INRA comprend 8700 agents permanents, chercheurs, ingénieurs, techniciens et administratifs, et 2000 personnes accueillies temporairement pour des formations ou des recherches. Les centres de l'INRA sont constitués en moyenne de 200 à 500 personnes. L'INRA dispose au total de 150 implantations réparties sur le territoire national. Les plus importantes sont érigées en centres régionaux, au nombre de 21, auxquels sont rattachées des implantations secondaires.

Au reste, ainsi que l'a précisé M. Bertrand HERVIEU , l'INRA a hérité des centres techniques du ministère de l'agriculture, ce qui génère des problèmes de gestion mais lui permet d'être implanté dans toutes les régions, sauf la Haute-Normandie, et d'avoir des liens forts avec les collectivités territoriales.

Mme Marion GUILLOU a précisé que l'INRA comprend 280 unités de recherche, sur la base de ses 21 centres régionaux, de ses 85 unités expérimentales et des 12 000 hectares de ses fermes expérimentales. L'implantation de l'INRA est particulièrement bonne dans le Massif central, le Grand Ouest et l'Aquitaine. Au total, 75 % des effectifs de l'INRA se situent en dehors de la région parisienne.

Les 17 départements de recherche de l'INRA peuvent être regroupés autour de quatre grands pôles, le végétal, l'animal, l'alimentation et les sciences sociales.

L'INRA attache une importance particulière à la confrontation entre la recherche de base et l'expérimentation, avec les étapes de validation, d'observation, de mise au point de savoir-faire, d'accompagnement et de vulgarisation.

Les très grands équipements de l'INRA appartiennent à différents domaines. Le premier est celui de la génomique et de la post génomique qui correspondent à une biologie à haut débit qu'il convient d'intégrer aux autres approches. Le second type de très grands équipements est celui des animaleries, l'INRA en possédant pour le modèle souris, les volailles, les ovins, les porcins, les bovins et les poissons d'eau douce. Ces animaleries sont des grands outils utiles non seulement pour les recherches sur l'animal mais également pour la recherche comparée sur l'homme et l'animal, notamment. L'INRA dispose enfin de serres, de terrains expérimentaux et de réseaux agri-environnementaux.

Autour de ces grands équipements, l'INRA travaille en partenariat avec l'INSERM, le département des sciences de la vie du CNRS, le CEA ou l'Enseignement supérieur. En particulier, un travail commun à ces quatre grands organismes est réalisé pour les animaleries, et se met en place progressivement pour la génomique, la biologie structurale, l'imagerie nucléaire et sur le sujet particulièrement important des collections biologiques et des réservoirs de biodiversité.

La parole a ensuite été donnée à M. Jean BOIFFIN.

*

M. Jean BOIFFIN , Directeur scientifique " Environnement, Forêt et Agriculture " , a présenté les grandes lignes d'un projet de réseau d'observation et d'expérimentation agri-environnementales, destiné à la surveillance, à la recherche et à l'ingéniérie écologiques.

Le point de départ de ce projet est la montée des besoins de recherche et d'expertise dans quatre grands domaines.

Le premier est celui du fonctionnement de la biosphère continentale et de son évolution en fonction de la composition de l'atmosphère, voire du changement climatique. Le deuxième domaine est celui de l'évolution des ressources naturelles, notamment en fonction des activités humaines. Le troisième domaine est celui de la maîtrise des risques environnementaux liés aux catastrophes naturelles et à la dégradation des écosystèmes. Le quatrième correspond à l'ingénierie écologique à développer pour parvenir à un aménagement et à un développement durables du territoire.

Pour atteindre ces objectifs, il convient de se doter de moyens d'acquisitions de données in situ en grand nombre, d'étudier le couplage des processus physiques et des processus biologiques, et, enfin, d'intégrer les conséquences des activités humaines dans les différents processus.

Or la France souffre de lacunes considérables en dispositifs structurés d'observation et d'expérimentation environnementales. Des pays comme l'Allemagne, la Belgique, les Pays-Bas, la Suisse ou l'Autriche, disposent d'observatoires de la qualité des sols, notamment pour les métaux lourds ou les pollutions organiques. Le Royaume Uni, pour sa part, dispose de 5000 sites d'observation alors que la France n'en compte que 11, seulement.

S'agissant de la qualité des eaux, la France possède différents outils de surveillance mais il est indispensable de regrouper les réseaux et de constituer des bases de données uniques.

On peut noter également qu'il n'existe pas en France d'observatoire de biovigilance, alors que la loi le prévoit. Par ailleurs, il existe un grand nombre d'unités de recherche environnementale ou agronomique mais ces sites ne sont pas toujours reliés entre eux.

Enfin, les communautés scientifiques concernées par ces différents thèmes sont plus ou moins cloisonnées. Ainsi, l'écologie fonctionnelle est traditionnellement proche des sciences de l'environnement à dominante physique. L'écologie évolutive est plus liée aux disciplines biologiques. Il importe donc de combiner ces différentes approches.

Enfin, il existe une coupure entre l'expérimentation technologique telle qu'elle est pratiquée en agronomie et l'approche environnementale, ce qui conduit à une évaluation a priori insuffisante de l'impact des innovations agronomiques sur l'environnement.

Quels sont les équipements nécessaires pour remplir les trois missions énoncées ci-dessus ?

Pour la surveillance et le suivi de l'environnement, il faut un réseau maillé de quelques milliers de sites légers pour la mesure des paramètres locaux, une superstructure de quelques 50 sites plus lourds assurant la cohérence et l'intégration dans le temps des données et une gamme plus importante de mesures, et enfin un site national pour la conservation des échantillons, pour l'intégration des données relatives à des milieux différents et pour la gestion des bases de données.

Pour l'analyse des processus d'évolution des écosystèmes, on peut recourir aux observatoires de recherche collectant de grands volumes de données expérimentales ou bien à des expérimentations stricto sensu dans le cadre par exemple d'Ecotrons.

Enfin, la mise au point de techniques et de procédés d'agriculture et de sylviculture durables suppose des dispositifs et des protocoles expérimentaux impliquant à la fois différentes variantes techniques mais aussi des protocoles de suivi à long terme, cohérents avec ceux de deux volets précédents. La cinquantaine d'exploitations agricoles de l'INRA, représentant au total plus de 12 000 hectares et comprenant environ 1000 agents dont 70 de cadre A, peut constituer le support d'une part plus ou moins importante de chacun de ces trois volets, en particulier du troisième.

*

Un débat s'est ensuite engagé sur les liens entre le monde scientifique et le monde politique.

M. René TRÉGOUËT, Sénateur, rapporteur, a regretté que ces liens ne soient pas plus développés.

Ainsi la délégation française aux Conférences de Lyon et de La Haye sur les mécanismes d'application du protocole de Kyoto, ne comprenait malheureusement pas de spécialistes de la météorologie et du changement climatique, au contraire de ce que l'on a observé pour d'autres pays.

M. Bertrand HERVIEU a également fait le constat que les chercheurs sont peu présents dans les délégations chargées des négociations internationales. Toutefois, des efforts sont faits pour rapprocher les mondes scientifiques et politiques, comme en témoigne la convention entre l'INRA et le ministère de l'aménagement du territoire et de l'environnement sur l'étude de l'effet de serre. Dans l'approche de cette question, il est toutefois nécessaire de veiller à l'indépendance de la recherche.

Mme Marion GUILLOU a estimé que le rôle des experts scientifiques diffère selon les pays, ce qui peut contribuer à expliquer les différences de proximité entre scientifiques et politiques. Les scientifiques anglo-saxons peuvent apparaître plus impliqués dans les décisions nationales que les scientifiques français, dans la mesure où ces derniers placent l'indépendance et le bien fondé scientifique de leurs jugements au-dessus de toute autre exigence.

M. René TRÉGOUËT, Sénateur, rapporteur, a observé que les décideurs politiques ont toutefois besoin du soutien des chercheurs dans de nombreux domaines.

M. Philippe LAREDO a souligné que le modèle du scientifique engagé présente des limites et même des inconvénients graves pour la qualité de la décision. Le monde politique doit certes recourir à l'expertise scientifique mais seulement pour déterminer quels sont les enjeux ou les incertitudes des différents problèmes à résoudre et prendre soin de ne pas associer les chercheurs aux décisions.

M. Bertrand HERVIEU a souligné combien l'idée de controverses scientifiques est mal supportée en France où l'on attend des chercheurs des avis définitifs.

M. Philippe LAREDO a poursuivi en faisant valoir que l'on devrait s'efforcer de distinguer dans les réponses de la science à des problèmes de société, les cas où il y a convergence, controverse ou bien incertitude totale.

Mme Marion GUILLOU a indiqué que lors de la crise alimentaire récente sur les farines animales, une séparation correcte a été faite entre l'évaluation et l'expertise, d'une part, et la décision politique d'autre part. Ceci a permis une vraie mobilisation de la communauté scientifique pour l'évaluation des risques.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné qu'à l'inverse, on peut regretter que la prise de conscience de la gravité du problème n'ait pas eu lieu plus tôt et que des annonces aient été faites sans la rigueur scientifique requise. Il a souhaité que les relations entre le monde scientifique et le monde politique évoluent à l'avenir, dans le sens d'une aide plus efficace de la recherche à la décision politique.

M. Philippe LAREDO a estimé que la situation française concernant l'insertion des chercheurs dans les processus de décision politique est rendue plus complexe par l'apparition de nouvelles attitudes sociales, par exemple les modifications brutales de comportements de consommation, et par l'intervention de nouveaux acteurs comme les collectivités territoriales et les grands systèmes de distribution.

Mme Marion GUILLOU a jugé que dans le nouveau cadre des agences de sécurité sanitaire, le rôle des experts sera reconnu et qu'il pourra y avoir une mobilisation de l'expertise scientifique avant la décision. Ce qui est en train d'être bâti, c'est une intervention accrue des chercheurs dans l'évaluation des risques.

M. Jean GALLOT a observé qu'il faut assigner des rôles différents aux politiques et aux chercheurs, ces derniers ne pouvant être mis à contribution pour faire accepter des décisions dénuées de fondement scientifique.

Mme Marion GUILLOU a ajouté que le rôle d'experts militants est étranger au monde scientifique français et M. Bertrand HERVIEU que la déontologie française ne permet pas une telle confusion des genres.

*

Revenant à la question des TGE, M. Gilles COHEN-TANNOUDJI a fait observer que les TGE non seulement structurent la recherche mais aussi obligent à définir une vision à long terme de celle-ci.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné la nécessité d'une programmation à long terme des moyens de la recherche.

Mme Claudine LAURENT a indiqué que les TGE ne peuvent être le seul objet d'une programmation de la recherche.

M. Roger BALIAN , faisant référence au projet exposé par les représentants de l'INRA, a estimé qu'il ne faut pas diluer la notion de TGE. Il s'agit en effet d'instruments techniques, qui ne peuvent être gérés comme le reste des moyens de recherche et qui exigent le plus souvent une approche internationale et pluridisciplinaire. L'échelle des TGE dépasse incontestablement celle d'un seul organisme et d'une seule discipline. Le projet présenté précédemment ressortit davantage de la notion de grand programme que celle de TGE.

M. Jean BOIFFIN a insisté sur la notion de pérennité. La recherche sur de l'environnement suppose des observations sur longue période. A cet égard, les Etats-Unis ont été récemment en position de force lors des négociations de La Haye, dans la mesure où ils ont accumulé des volumes considérables de données sur les puits de carbone, données provenant d'observations sur la conservation des sols.

M. Philippe LAREDO a souligné l'inconvénient de la notion de grand programme qui se caractérise par une mobilisation momentanée alors que les TGE s'accompagnent de la création d'espaces de recherche pérennes en général sur deux décennies au moins, même s'ils sont destinés à disparaître un jour.

Mme Claudine LAURENT a observé qu'un grand programme a besoin d'outils et que les TGE sont précisément nécessaires pour mener à bien des programmes fondamentaux. C'est en réalité toute la recherche qui a besoin de pérennité. La spécificité des TGE est d'entraîner une structuration des disciplines et d'exiger des engagements à long terme.

Pour M. Bertrand HERVIEU , les grands programmes de recherche reposent effectivement sur des équipements lourds. C'est le cas des recherches sur l'environnement qui reposent sur l'observation et la métrologie en réseaux. C'est également le cas des programmes prioritaires sur la génomique végétale ou animale et la bioinformatique.

En l'occurrence, l'INRA se propose de mettre ses infrastructures, c'est-à-dire ses 21 centres régionaux, ses 280 implantations et ses 12 000 hectares, dont le coût de gestion est élevé et le restera même après un nécessaire reformatage, au service d'une nouvelle problématique de recherches agri-environnementales, qui doit prendre le relais des recherches agronomiques stricto sensu.

Mme Marion GUILLOU a ajouté que la répartition géographique des moyens de l'INRA représente une chance, car elle permet de valider les résultats de recherche dans des conditions écologiques très différentes. En tout état de cause, un réseau d'observations des sols avec 5000 sites et des centres de ressources constitue bien une infrastructure constituée d'équipements pérennes, lourds, dispersés et en réseau.

*

Un débat s'est ensuite engagé sur la notion de TGE, vue à travers le prisme que constitue le projet de l'INRA.

La situation de l'INRA peut, selon M. Roger BALIAN , être comparée à celle du CEA en 1945 et le début des années 1970. Celui-ci avait reçu la mission de développer la recherche sur les réacteurs civils et ne peut rétrospectivement être assimilé à un très grand équipement.

M. Philippe LAREDO a noté que le projet de l'INRA pose des problèmes communs à tous les réseaux d'observation, au demeurant nombreux en météorologie ou en océanographie. Il s'agit en effet de construire des structures d'observation durables. Or les dépenses de maintenance de tels réseaux sont loin d'être négligeables. Par ailleurs, il est indispensable de disposer de personnels qualifiés pour le traitement et la conservation des données, alors que les perspectives d'évolution de carrières sont faibles dans ce domaine.

Par ailleurs, une contrainte essentielle doit être respectée, celle de la documentation des données collectées, ce qui revient à dire qu'il faut dépasser la notion d'investissement physique et construire des équipements de service.

Pour M. Roger BALIAN , un TGE est nécessairement multi-organisme, pluridisciplinaire, ne peut être réduit à sa dimension physique et doit exiger un effort national important. En réalité, il convient de partir à l'envers dans les raisonnements, c'est-à-dire de discuter en premier lieu de la politique générale de la recherche et ensuite de déterminer la politique à suivre en matière de TGE.

Mme Claudine LAURENT a donné raison à M. Roger BALIAN de comparer la situation de l'INRA à celle du CEA entre 1945 et 1970.

Par ailleurs, il existe certes un label TGE mais pas de contrat correspondant qui assurerait une pérennité des financements. En réalité, on assiste actuellement à une révolution culturelle, par exemple en biologie, qui conduit à considérer comme des TGE des équipements qui ne sont pas considérés comme tels pour le moment.

Il existe toutefois, comme l'a noté M. Jean GALLOT , des opinions différentes chez certains experts.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé ce débat très important. Il est incontestable que les chercheurs veulent avoir des certitudes de financement à long terme et donc qu'une programmation est indispensable. Un TGE est dans tous les cas un investissement matériel nécessaire auquel doit être attachée une vision durable. Par ailleurs, la notion de réseau est fondamentale.

Pour autant, ainsi que l'a souligné M. Philippe LAREDO , on se heurte dans le cas des réseaux à une difficulté. La répartition géographique des réseaux fait que les régions peuvent avoir des difficultés à s'engager puisqu'il n'y a pas de leader désigné en la matière et que les bénéfices sont partagés et moins visibles que dans le cas d'un très grand équipement unitaire et localisé.

Pour M. Jean BOIFFIN , la réalisation d'un réseau d'observation et d'expérimentation agri-environnementales exigerait non seulement une coordination mais aussi un très grand effort national. Il conviendrait de mettre en place des synergies entre l'observation, la recherche et le développement, avec une articulation géographique et la mise au point de protocoles et de méthodes de mesure harmonisées.

Selon Mme Marion GUILLOU , un tel réseau, auquel l'INRA apporterait sa contribution avec ses différents sites, nécessiterait un investissement de plusieurs milliards de francs. Après que l'INRA a redéployé près de 20 % de ses effectifs vers les disciplines de l'environnement, il convient de structurer l'effort national dans ce domaine par la réalisation d'un tel réseau. Au reste, une telle démarche est en plein accord avec la demande sociale.

La bonne couverture géographique et la qualité des infrastructures foncières de l'INRA, la pérennité de cette institution et le statut de ses personnels sont autant de facteurs qui militent en faveur d'un rôle important joué par l'INRA, à côté des autres acteurs de la recherche, dans un tel projet.

M. Bertrand HERVIEU a souligné par ailleurs que, malgré le fait que le personnel de l'INRA soit le plus jeune en moyenne des grands organismes de recherche, 45 % de ses effectifs partiront à la retraite d'ici à 2010, ce qui peut favoriser un redéploiement de compétences.

*

La discussion a ensuite porté sur la localisation des implantations de l'INRA.

M. Jean GALLOT a estimé que le grand nombre de sites de l'INRA n'entraîne pas forcément un risque de dilution de ses moyens mais que le problème essentiel est celui d'une répartition homogène sur tout le territoire. Au demeurant, on peut se demander si la répartition actuelle n'est pas l'héritage du passé, comme c'est le cas pour la répartition des lycées d'enseignement général, issue de la III e République, qui pèse encore sensiblement sur la carte scolaire du second degré.

M. Jean BOIFFIN a précisé que les implantations de l'INRA sont entretiennent localement des relations avec les stations expérimentales des instituts techniques et avec les exploitations des lycées agricoles.

Mais, ainsi que l'a précisé Mme Marion GUILLOU , le réseau peut évoluer, en fonction de l'évolution des thématiques de recherche. Ainsi pour mieux contribuer au débat international, en particulier, pour approfondir les travaux sur les puits de carbone, il serait nécessaire de mieux tirer parti des sites tropicaux de Guyane ou de la Guadeloupe pour les études relatives au changement climatique et à la biodiversité.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur les animaleries, Mme Marion GUILLOU a précisé que les budgets relatifs à ces dernières sont considérables, dans la mesure où elles demandent des personnels nombreux exerçant des métiers difficiles et une organisation complexe en raison des contraintes permanentes de présence et de protection sanitaire. Toutefois, l'INRA est attaché à conserver une diversité d'animaleries, mettant en _uvre des espèces adaptées.

Dans le cadre de la crise relative à l'ESB (encéphalite spongiforme bovine) et du plan de renforcement de la recherche du Gouvernement, l'INRA a proposé d'aller au delà de ses recherches actuelles. L'INRA pourrait prendre en charge une série de travaux sur les pathologies bovines dans le cadre du plan annoncé par le Gouvernement. Il s'agirait par exemple d'étudier la transmission à des ovins du prion de bovins infectés ou le cheminement de l'infection bovine, ces recherches devant être effectuées sur le site protégé de Nouzilly près de Tours, une fois renforcés ses dispositifs de protection sanitaire.

Il convient par ailleurs de souligner que dans le cadre de la concertation intervenant au sein du groupe RIO qui rassemble les responsables des principaux organismes de recherche, un plan global relatif aux animaleries en France est en cours d'établissement. L'INRA couvre une gamme étendue d'animaleries, allant de la souris aux bovins, et comprenant également les lapins, les porcins, les ovins, les bovins et les poissons en coopération avec l'IFREMER. Le CEA possède une animalerie de primates, l'INSERM et le CNRS ayant également des animaleries. Aussi un plan commun est-il proposé au ministère de la recherche.

*

La discussion est ensuite revenue sur la notion de TGE.

M. Roger BALIAN a rappelé les deux conceptions que l'on peut avoir du TGE. Une première définition consiste à constater qu'un TGE ne peut être réalisé par un organisme unique. Une autre définition revient à dire qu'un TGE peut être réalisé par un organisme unique mais qu'il exige alors un effort à très long terme.

Mme Marion GUILLOU a observé qu'il revient à l'Office parlementaire de choisir une définition. Mais, en tout état de cause, un TGE satisfait des besoins pérennes à des échelles de temps et d'espace visibles, par exemple des forêts ou des bassins versants pour l'étude du changement climatique.

Un TGE est donc une installation ou un ensemble d'installations pérennes, coûteuses et réunissant plusieurs partenaires.

S'agissant d'un réseau d'observation et d'expérimentation, un monopole de l'INRA serait absurde dans la mesure où il convient d'étudier de concert les eaux, les sols et l'atmosphère. A titre d'exemple, les fermes expérimentales sont le siège d'équipements météorologiques.

Au total, l'INRA travaillerait pour ce réseau en partenariat avec le CEMAGREF, l'ONF, l'INSU-CNRS, le CEA, l'INERIS, l'IFEN, l'IRD ou le CIRAD, notamment.

*

La question de la protection intellectuelle des travaux de l'INRA a ensuite été abordée.

En réponse à une interrogation de M. Gilles COHEN-TANNOUDJI sur les travaux réalisés par l'INRA pour les industries agroalimentaires, Mme Marion GUILLOU a précisé que l'INRA travaille actuellement sur la mise au point de technologies comme la nanofiltration, sur la sécurité alimentaire et sur l'évolution de la demande de consommation.

L'INRA accorde un intérêt stratégique aux brevets amont. Au total, son portefeuille est de plus de 3000 titres y compris les dépôts à l'étranger. L'INRA accorde également un intérêt particulier aux certificats d'obtention végétale régis par un droit particulier, aux savoir-faire protégés et aux logiciels.

M. Bertrand HERVIEU a par ailleurs insisté sur le problème politique posé par les semences et le matériel génétique animal. La question est actuellement de définir les moyens de conserver une indépendance semencière et génétique, grâce à des travaux de création et de développement. Il convient également que la recherche publique contribue au succès des semenciers nationaux tout en évitant que des firmes étrangères puissent racheter ces derniers et faire main basse sur leurs acquis développés grâce au soutien de la collectivité.

En tout état de cause, des enjeux considérables existent sur les semences et la génétique. La crise bovine a mis par ailleurs en lumière l'importance considérable du matériel génétique animal.

Au vrai, il s'agit aujourd'hui d'inventer un modèle moderne de transfert des données et des matériels génétiques avec certes une mutualisation des connaissances mais aussi un contrôle effectif pour garder les ressources correspondantes dans le patrimoine national et européen.

La culture de service public de l'INRA fait de cet organisme un outil remarquable au service d'une telle politique et doit donc être maintenue et valorisée.

*

A l'issue de cette présentation, M. René TRÉGOUËT, Sénateur, rapporteur, a remercié les participants pour leur contribution à l'information de l'Office et a levé la séance.

INDEX DES INTERVENTIONS

ACHACHE,279, 286, 292, 293, 295, 296, 297, 303

AUBERT,173, 180, 183, 184, 192, 193, 194, 195, 196, 197

AYMAR,199, 204, 207, 208, 210, 211, 212, 213

BALIAN,5, 6, 8, 9, 11, 12, 17, 59, 85, 108, 109, 110, 130, 146, 150, 153, 156, 163, 167, 174, 180, 181, 188, 189, 192, 194, 197, 200, 207, 210, 217, 221, 222, 225, 247, 293, 306, 311, 312, 327, 331, 338, 339, 351, 354, 356, 365, 366, 368

BERGAMETTI,249, 274, 276

BERGER,19, 23, 25, 39, 158, 326

BERTHIER,113, 140, 143

BLANC,279, 284, 294

BOCCARA,215, 217, 224

BOIFFIN,359, 361, 365, 367, 368

BONNET,279, 286, 290, 291, 292, 294

BONNEVILLE,279, 295

BOUCHER,229, 237

BRACHET,305, 308, 309, 311, 313, 315, 316, 317, 319, 320, 322, 323, 324, 325, 329, 330, 331, 332

BRAIDY,19, 34, 40

BRILLET,215, 218

CARIOLLE,249, 253, 254, 255, 256, 263, 269, 271, 274, 275, 277

CHAMBON,77, 78, 83, 84, 85, 87, 91, 96, 102, 103, 109, 110, 111, 158

CHATELIER,199, 201

COHEN-TANNOUDJI,16, 17, 38, 95, 110, 120, 130, 139, 149, 161, 162, 163, 167, 180, 194, 208, 247, 262, 271, 311, 364, 369

COMÈS,38, 39, 83, 107, 110, 111, 120, 122, 132, 154, 158, 165, 195, 218, 222, 225, 236, 302, 303

COURTILLOT,19, 21, 22, 23, 25, 26, 28, 30, 32, 34, 37, 39, 41, 156, 158

CUVILLIEZ,1, 5, 18, 20, 43, 74, 75, 86, 90, 91, 111, 113, 172, 173, 197, 199, 214, 215, 218, 222, 225, 227, 249, 266, 271, 277, 279, 286, 292, 303, 304, 311, 332, 333, 338, 357, 359

DAVIER,215, 224, 225

DEBOUZY,279, 296, 298

DEBRÉ,77, 104, 107, 110

DELECLUSE,229, 240

DESBRUYÈRES,229, 246

DÉTRAZ,173, 175, 183, 184, 195

DORDAIN,305, 308, 310, 311, 312, 313, 314, 315

DUPONT-ROC,43, 72, 215

ENARD,215, 220

ESCANDE,199, 206

ESCUDIER,229, 242

EYMARD,229, 243, 249, 258, 263, 265

FABRE,113, 129, 130

FAYOLLE,43, 72

FELLOUS,249, 257, 260, 261, 262, 263, 265, 266, 275

FELTESSE,279, 302

FISCHER,145, 168, 169, 170, 171, 172

FLUZIN,333, 339, 345

FONTAINE,113, 114, 121, 128, 129, 130, 131, 132

FORNERY,305, 332

FORT,279, 302

FOUGEREAU,145, 163, 165

FRIEDEL,5, 7, 8, 9, 10, 11, 12, 14, 15

FROIS,19, 145, 155

GALLOT,13, 18, 108, 148, 167, 227, 256, 263, 265, 284, 331, 364, 366, 367

GALZY,19, 28, 29, 30, 31, 33, 39

GIACOBINO,215, 218, 222

GIVORD,113, 114, 124, 131, 140

GODET,19, 34, 36, 38

GOUNAND,19, 33, 113, 115, 116, 122, 173, 182, 192, 196, 347, 350, 351

GRANDIN,173, 188, 197

GRIMAUD,19, 145, 158, 162, 163

GUEDALIA,249, 271, 272, 275, 276, 277

GUERREAU,173, 186, 188, 189, 190, 191, 192, 193, 194, 195

GUILLOU,359, 360, 363, 364, 365, 367, 368, 369

HAIECH,145, 160, 161, 166, 167

HAISSINSKI,279, 294, 299

HAMEURY,279, 280, 284, 300, 301, 303

HAUSER,249, 273

HELLY,333, 339, 341, 342

HÉRAL,229, 244

HERVIEU,359, 360, 363, 364, 365, 367, 369

HOFFMANN,43, 70

HUCHON,229, 245

JACQUINOT,199, 201, 204, 207, 209, 210, 212, 213, 214

JEAN-BAPTISTE,229, 238

JERPHAGNON,73, 74

JOUSSAUME,55, 171, 172, 237, 240, 241, 253, 270, 275, 277, 325, 328

JOUZEL,249, 253, 267

JUGIE,229, 234, 236

JUTAND,43, 51, 53, 54, 56

KAFATOS,77, 92, 96

KAHN,43, 45, 47, 48, 54, 55, 58, 64, 65

KORN,77, 87, 92, 95, 97, 107

LABEYRIE,229, 235, 247, 267

LAREDO,129, 153, 154, 163, 172, 217, 221, 222, 224, 225, 234, 236, 264, 266, 270, 271, 293, 295, 303, 341, 342, 345, 356, 363, 364, 365, 366, 367

LAURENT,5, 6, 9, 12, 15, 16, 41, 44, 86, 96, 107, 110, 147, 181, 189, 196, 197, 207, 217, 221, 222, 223, 225, 263, 271, 275, 284, 293, 336, 338, 352, 365, 366

LAVAL,199, 214, 215, 217, 218

LE BIHAN,45, 77, 86, 97, 98, 102, 103, 107, 142

LE PROVOST,229, 240, 243

LE TREUT,249, 253, 268, 269, 270

LECONTE,145, 158

LEDUC,145, 156, 162

LEHMANN,145, 146, 147, 148, 149, 150, 151, 152, 154

LIVANOS,45, 54

LUDDEN,215, 226

MAIANI,173, 174, 175, 176, 177, 179, 180, 181, 182, 184, 185

MARTINEZ,113, 134, 137, 139, 140, 143

MAUREL,333, 334, 336, 338, 339, 341, 346

MÉGIE,249, 253, 254, 264, 265, 266, 270, 271, 274, 275, 276, 325

MIKOL,39, 83, 84

MINSTER,229, 233, 234, 236, 237, 239, 241, 245, 246, 247

MORAS,77, 83, 84, 85, 96

PAMELA,123, 132, 133, 199, 202, 204, 208, 265, 327

PAPINEAU,229, 240, 241

PELLAT,113, 119, 121, 122, 123, 124, 199, 200, 206, 207, 208, 209, 210, 211, 212, 213, 214

PÉQUIGNOT,333, 343, 344, 345

PÉZARD,215, 225, 226, 227

POINTU,15, 38, 165, 169, 171, 185, 222, 277

POMEROL,43, 54, 64, 71, 72

PUECH,145, 169

PUGET,279, 281, 294, 303

QUÉRÉ,43, 56, 58, 65

REVOL,1, 314, 315

RODOTÀ,305, 306, 309, 310, 311, 313, 314, 315, 317, 320, 322

ROUCAIROL,43, 48, 49, 51, 54, 55

ROUGIER,43, 54, 58, 60

ROUGON,77, 103, 107

ROUX,229, 238, 240, 249, 272, 273, 275

RUBEL,19, 34

SCHNEIDER,13, 40, 123, 139, 143, 182, 206, 207, 211, 212, 218, 311, 314

SEYLAZ,305, 326, 327

SPIRO,41, 55, 113, 148, 157, 172, 180, 183, 184, 194, 200, 213, 220, 222, 223, 292, 293, 310, 315, 317, 332, 339, 351, 352, 355

TAMBOURIN,45, 77, 83, 84, 87, 90, 92, 95, 103, 104

TATE,333, 336, 337, 338, 339, 341

TEIXEIRA,113, 117, 123, 124, 127

THERME,43, 66

THIERRY,77, 104

TRÉGOUËT,1, 7, 8, 9, 12, 14, 17, 18, 19, 22, 25, 29, 30, 31, 32, 34, 37, 38, 39, 40, 41, 42, 44, 45, 48, 51, 53, 55, 58, 59, 62, 64, 72, 75, 77, 78, 84, 86, 87, 91, 95, 97, 107, 109, 111, 113, 128, 132, 133, 138, 144, 145, 146, 149, 158, 161, 162, 165, 166, 181, 182, 184, 185, 186, 190, 192, 195, 196, 204, 207, 208, 209, 210, 213, 229, 233, 234, 236, 240, 241, 248, 253, 260, 261, 262, 263, 265, 266, 269, 276, 305, 306, 308, 312, 314, 315, 317, 319, 320, 324, 327, 332, 336, 341, 342, 344, 351, 356, 363, 364, 366, 368, 370

VAN DER REST,77, 105, 107

VANDROMME,43, 62, 64, 65

VETTIER,113, 114, 115, 116, 117, 118, 120, 121, 122, 123, 124, 127, 130, 131, 133, 143

VIDAL,215, 221, 227

VIGNY,305, 327, 328, 329, 330, 331

VIGROUX,279, 294, 298, 303, 304

VIOLLET,113, 229, 249, 279, 333

VOOS,43, 73

WORMSER,173, 185, 196

WYDER,113, 138

1 GANIL : grand accélérateur national d'ions lourds, implanté à Caen.

2 L'association Optics Valley a été créée en 1999 à l'instigation d'Alcatel avec le CNRS, Thomson CSF et le groupement français des PME de haute technologie (Comité Richelieu). Son objectif est de développer les activités optiques de la région francilienne. Lors de sa création, l'association a bénéficié de 100 millions de francs d'investissements publics. Elle vient de se voir accorder un soutien de 250 millions de francs dans le cadre d'un nouveau plan Etat-Région Ile-de-France. in Electronique International Hebdo, 13 avril 2000 .

3 1 Dalton = 1g/mole.

4 R-M BONNET, Directeur des programmes scientifiques de l'ESA, audition du 8 novembre 2000.

5 " premiers " budgets spatiaux

6 R-M BONNET, op. cit.

7 Les pays membres de l'ESA sont d'une part ceux de l'Union européenne à l'exception du Luxembourg, de la Grèce et du Portugal, et d'autre part la Norvège et la Suisse. En outre, le Canada est un Etat coopérant.

8 Principales hypothèses : prix moyen de marché des lanceurs de la gamme Ariane 5 ou du lanceur Proton ; coûts d'EGNOS intégrés ; non prise en compte du coût de développement des applications et des récepteurs.

9 " Space is the way for Information Dominance " .

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page